据英国《卫报(bào)》报道,曾撰写(xiě)过一本(běn)有关人工智能的(de)权威教科书的美(měi)国科学家表(biǎo)示,在将人工智能的进步比作原子弹技术的发展时,专家(jiā)们被自己(jǐ)在该领域的成就“吓坏了”。
美国加州大学伯克利分校人类兼容人工智能中心(CHAI)的创始人斯图尔特·拉塞尔(Stuart Russell)教授表示,大(dà)多数专家认为本(běn)世纪(jì)就会开(kāi)发出比人类更(gèng)聪明的机器(qì),并呼吁制定一些国际条约来规范这一技术的发展。
他对(duì)《卫报》表示(shì),人(rén)工智能界还没有适应人(rén)工智能技术开始在(zài)现实世(shì)界中产生真正的重大(dà)影响的(de)事实。但是,在人工智能历史上,过(guò)往大多数时候都不是这样的——专家(jiā)只是待(dài)在实验室里开发产品,试图让(ràng)这些产品发挥作(zuò)用,但大多数情况下都失败(bài)了。因(yīn)此,人工智能对现实世界的影(yǐng)响与科学家并没(méi)有(yǒu)太大联系(xì),所以科学家必须快速成长、赶上潮流。
人工智能(néng)支撑(chēng)着现代(dài)生活的许多方(fāng)面(miàn),包(bāo)括(kuò)搜(sōu)索(suǒ)引擎和银行业务等,而在图像识别和机(jī)器翻译领域所取得的进步(bù)是近年来的(de)重要发展之一。
拉塞尔在1995年合著了(le)《人工智能(néng)技术(shù):一种现代方(fāng)法》一书。他表示,在紧迫的关(guān)键领域仍需要确(què)保人类对(duì)有超(chāo)常智慧的人工智(zhì)能的控制(zhì)权。
他指出,人工智能是(shì)用一种特定的方法和某(mǒu)种通用方法(fǎ)进行设(shè)计的,而在复(fù)杂(zá)的现实环境中使用(yòng)这种系统仍然不够谨(jǐn)慎。
例如,要求人工智能尽(jìn)快治愈癌(ái)症可能会(huì)有危险。拉塞尔认为,它可能会找到在整个人(rén)类中诱发肿瘤的方(fāng)法,这样它就可以并行进行(háng)数百(bǎi)万个实验(yàn),把我们(men)所有人都(dōu)当作实验品。这是因为人工智能(néng)在(zài)执行我(wǒ)们所(suǒ)设定目标的(de)解决方案;但我们只是忘了作具(jù)体说明,忘了(le)告诉人工智能(néng)不能把人类当作实验品、不能(néng)用全世界的GDP来完(wán)成(chéng)人(rén)工智(zhì)能实验,以及其(qí)他的禁忌等(děng)。”
他还表示,如今的人工(gōng)智能技术与(yǔ)《机(jī)械(xiè)姬》等(děng)电(diàn)影中描述的技术(shù)仍有很大差距,但未来的机器势(shì)必会比人类更聪(cōng)明。
拉塞(sāi)尔认,为这一目(mù)标最快可以在10年内实现,慢则需要长达几百年的(de)光阴(yīn)。不(bú)过,几(jǐ)乎所有人(rén)工智能研究(jiū)人员都认为(wéi)这将一展望将在本世纪得以实现。
一个担忧的问题是,机器不(bú)需要在所有方面(miàn)都比人类更聪明,否则会(huì)带来(lái)严重的(de)风险。拉塞(sāi)尔表示,这是目前科学家们正在做的事情。如果了解(jiě)一下社交媒体和那些通(tōng)过计算给(gěi)人们推送阅读和观看内容(róng)的算法,就会知(zhī)道它们在很大(dà)程度(dù)上控(kòng)制着我(wǒ)们(men)的认知输入。
他表示,结果(guǒ)就(jiù)是算法操纵着(zhe)用户,不(bú)停地给他们(men)洗脑,这样算(suàn)法就可以预测(cè)用户的行(háng)为和喜好,所推送的(de)内容也会获(huò)得更多的点赞及收入。
以于人工智能研究人员(yuán)是否被自己的成就吓到的问题,拉(lā)塞尔明确表示,“是的,我(wǒ)认为(wéi)我们(men)的(de)恐(kǒng)惧正与日俱增(zēng)”。
这让拉塞尔想起(qǐ)了在物理学领域发生的事(shì)情:物(wù)理学家知道(dào)原子能的存在,他们可以测(cè)量出不同原(yuán)子的质(zhì)量(liàng),还可以计算出在不同(tóng)类型的原子(zǐ)之间进(jìn)行转换可以(yǐ)释放多少能量。但是,专家们总是强调(diào)这些(xiē)想法(fǎ)只是理论上的(de)。随后当(dāng)原(yuán)子能真正运用到实际生活(huó)中时,这些(xiē)专(zhuān)家还没(méi)有准备好。
拉(lā)塞尔表示,人工智能(néng)在军事领域上的(de)应用,比如造(zào)小型杀伤性武器等(děng),十(shí)分令人担(dān)忧。这些武器是可以量产的,这意味着(zhe)可以在一辆卡车上(shàng)安装一百万(wàn)个小型武器,之后你(nǐ)打开(kāi)后车厢让它驶(shǐ)离,就足以摧毁整座城市。
拉塞尔认为,人(rén)工智能的未来(lái)在于开发(fā)出一种机器,知道(dào)真正(zhèng)的目标是(shì)不确定的,就好像人们的偏好也是(shì)不确定的一样。这意味着(zhe)它们在做(zuò)出任何决定时都(dōu)必(bì)须与人类进行沟通,而不(bú)是像管(guǎn)家一样自行决(jué)定。但是,这个想法(fǎ)很(hěn)复杂,尤其是(shì)因为不同的人有不同的、或(huò)相互(hù)冲突的偏好,而这些偏(piān)好不(bú)是固(gù)定的。
拉塞尔呼吁人们采取措施,包括(kuò)制定研究人员行为准则、立法和条约,以确保使用的人工智(zhì)能系统的(de)安全,还应该培(péi)训研究人员来确保(bǎo)人(rén)工智能免遭种族偏见等(děng)问题的影响。他表示,欧盟禁止(zhǐ)机(jī)器模仿人类的相关立法应该在世界范围内实施。
他希望让(ràng)公众参与到(dào)这(zhè)些选择中来是很重要的,因为公众才是最终受益(yì)与否的对象。
另一方(fāng)面(miàn),在人工(gōng)智能领域取得进步(bù)需要一(yī)段时间才能实现(xiàn),但这也不会让人工智能变成科幻小(xiǎo)说。