最近,全球的一些人工智(zhì)能各企业都(dōu)很关注AI的法规,欧盟也出了《人工(gōng)智(zhì)能(néng)白皮(pí)书》来监管AI市场。人工(gōng)智能法规的陆续推出(chū),约束AI进一步走向正规化 ,规避一些不法分(fèn)子在(zài)AI上的不好想法来获利。
科技是把双(shuāng)刃剑,当人工智能技术(shù)大规模应用于社会(huì)时,我们必须考虑它所带来的负面(miàn)效(xiào)果(guǒ)。
现代是一个文(wén)明(míng)社会,大(dà)众除了道(dào)德限制还(hái)有法(fǎ)律对自身(shēn)行为进行(háng)约束,但开发者进(jìn)行应用开发(fā)时,是否考(kǎo)虑到输入给机器的数据是否符合“法规”,特别是近年来人机交互的数(shù)量(liàng)急剧增加,从(cóng)而使得AI监管问题的讨论变得更为热烈。
感官的欺骗
视觉与听觉是我们对外界感知的重要窗口,大(dà)众(zhòng)的(de)观念(niàn)中(zhōng)普(pǔ)遍认为“人的(de)第一印象很重要(yào)”“眼见(jiàn)为(wéi)实(shí),耳听为虚”。
但面对信息错综(zōng)复杂(zá)的世界,如今眼(yǎn)见(jiàn)也不(bú)一定(dìng)为实,听到的则可能更(gèng)为(wéi)虚(xū)假。曾经被(bèi)议论的Deepfake换脸技术就(jiù)属于(yú)罪魁祸首(shǒu)之一(yī),其利用了AI深度学习功(gōng)能,通过数以(yǐ)亿计的自(zì)我学习、神经网络训练,AI能够识别出(chū)画面中(zhōng)那(nà)些和周围场景格格不入的部分,同(tóng)时将其移走(zǒu)和生成缺失(shī)的像素(sù),最(zuì)后(hòu)重绘出部分像(xiàng)素(sù)进行画面填补。
谷歌公司也(yě)曾推出WaveNet软件,可以利用(yòng)其神(shén)经网(wǎng)络(luò)系(xì)统对(duì)原始音频(pín)波形进行建模,生成带有不同语气音节和情感表达的人类自(zì)然语言的音频(pín)。
外媒曾(céng)报道过一例案件,不法分子就利用了类似的AI技(jì)术,成功(gōng)模仿了英国某能源公司CEO的声音(yīn),诈骗了220,000欧(ōu)元,执法当局认为此种(zhǒng)类案件(jiàn)的调查取证更为困难(nán)。
AI道德准则
2019年,我(wǒ)国首次将AI造假音视频列入法规,国家网信(xìn)办出台(tái)《网络音视频信息服务管理规定(dìng)》。
对于(yú)利用基于深(shēn)度(dù)学习、虚拟现实等(děng)新技术新(xīn)应用制作、发布、传播非(fēi)真(zhēn)实音视频(pín)信息的(de)网络(luò)音视频(pín):,应当以(yǐ)显著(zhe)方式予以标识,不得利用其制作、发布、传播虚(xū)假新闻(wén)信息;网络音视频信息服务提供者(zhě)应当部署应用违法违规音视(shì)频以(yǐ)及(jí)非真实音视频鉴别技术,应当建(jiàn)立健全辟(pì)谣机制(zhì)。
日前,欧盟(méng)也相(xiàng)继出台《人工智(zhì)能白皮书》,对人(rén)工智能领(lǐng)域的投(tóu)资监(jiān)管路径设立双重目标,旨在推动(dòng)道德和可(kě)信赖(lài)人工智能的发展。并通过建设“卓越生(shēng)态系统”和“信任生态系统(tǒng)”双重系统,构建一个卓越(yuè)的、可信赖的人工智能体(tǐ)系框架。
近日,面对人工智(zhì)能的伦理(lǐ) “红线”,博世在“博(bó)世互联世界大(dà)会”上发(fā)布人工智能(néng)技术(shù)的指导方针(zhēn)《AI道德准则》,博世认(rèn)为人工智能是服务(wù)于(yú)人类的工具,任何(hé)可能对人(rén)造成(chéng)影响的人工智能决策都需(xū)要人(rén)类的监管(guǎn)。
准则中(zhōng)包含(hán)了三种机(jī)制,它(tā)们遵守着(zhe)一个共同的原则(zé),即博世(shì)开(kāi)发的人工智能(néng)产品中(zhōng),人(rén)类必(bì)须保留对人工(gōng)智能所做决策的(de)最终控制(zhì)权。
第一种机制为人工控制(human-in-command),它(tā)适用于人工智能只作为支持工(gōng)具出现的情况(kuàng)。例如(rú),在决策支持系统中,人工智能帮助人们对物体或生物进行(háng)分类。
第二种机制(zhì)为(wéi)使用阶段的人为干预(human-in-the-loop),适(shì)用(yòng)于人工智能系统可以自主决策(cè),但人(rén)类(lèi)可以随时干预的(de)情况。例如,驾驶辅助系(xì)统,驶员可以直接介入停车辅助系(xì)统的(de)决策等。
第三种机制为设计阶段的人为干预(human-on-the-loop),适用于紧急制动系统等应用。开发此类智能产品时(shí),专家(jiā)将定义参(cān)数作(zuò)为人工智能决策(cè)的基础,而人类不参与决(jué)策,由人工智能进行。
但是工程(chéng)师可以随时追溯检查机器是(shì)否遵守所设(shè)定的参数进行决策,必要情况(kuàng)下可以修改参数(shù)。
面(miàn)临的困难(nán)
人工(gōng)智能在应用层面有逐渐完善的法律法规进行约束,但在(zài)实际的技术(shù)开发中仍面临着许多难以确定的细则。
数据标定没有统(tǒng)一标准(zhǔn):在机(jī)器学习中训练数据前都会对数据进行清洗和标定(dìng)。有时为(wéi)了满足业务进度(dù)的要求,不会进行全(quán)量全分类(lèi)的处理。
准确的说(shuō),无法对数据(jù)进行严格(gé)而准确的分类。这也是有(yǒu)监督学(xué)习类算法的缺点,就是针对特殊业(yè)务往往要进行专(zhuān)门的数据标定,同时(shí)算法设计者自身存在价值偏见也(yě)会导致人工智能(néng)系统无(wú)法正常运行(háng)。
数据分析难全面:在准备训练(liàn)数据时应容扩各类发生的情况,AI在数据错误的情况势必会(huì)造成BUG,除了掌握各(gè)类(lèi)情况,仍要调整好处(chù)理各种情况的参数或系数,包(bāo)括算法模型存在的技术(shù)性缺陷可能导致(zhì)人工(gōng)智能系(xì)统无(wú)法(fǎ)正常运行。
模型成长环境(jìng)差异:AI算法模型的训练(liàn)环境对算法结果有重大影响,假设机(jī)器训(xùn)练环境(jìng)变得没(méi)有边界,各类数据都(dōu)被机器学习,这将很难保证机器会往着(zhe)人类预想的方向发展,以及因为算法日趋“黑箱化”可(kě)能导致(zhì)技术失控等问题(tí)。
无论(lùn)在技术或应(yīng)用方(fāng)向(xiàng),都应该通过政策和法律(lǜ)引导(dǎo),开展人工(gōng)智能(néng)算法(fǎ)安(ān)全的评估(gū)检测(cè);推动技(jì)术伦理的(de)算法导入,要(yào)求人工智能开发者设计高可解释性的智能系统;同(tóng)时,加强(qiáng)智能算法的透(tòu)明(míng)监督,人(rén)工(gōng)智(zhì)能企业、行业(yè)应建(jiàn)立相应的(de)算法监管体制,保持与政府监管的协同。
相信在人工智能法规陆续出台监管的路上,AI市(shì)场会越来越规(guī)范,符合市场的(de)需求(qiú)。