喜力国际

当前位置:喜力 > 喜力国际 >

无人驾驶汽车上的AI系统中的数据是公平的

时间:2018-05-18 14:58 作者:admin 点击:

  自从AI诞生以来,对于人类威胁论就不绝于耳。其中最主流的观点就是,AI不仅仅是一个“现金工具”,它实际上是个独立的个体,可以做出自己的决定。此时,就与有意识但无“道德感”的动物相似,就像人类总是无法确保野生动物不会对人类造成安全威胁。于是,更为激进的科学家就提出了要将AI拴起来,关进笼子里,并且努力让它变得安全、有益。
 
  但这样的隐患却依然无法完全杜绝,人类无法控制决策的各个方面,人工智能也可能会以多种方式伤害人类。目前,在全球范围内,关于AI威胁论主要来自以下几个方面:一是设计上的错误,就像任何软件一样,你会遇到电脑错误,你的价值观与人类价值观不一致;二是有目的的、设计带有恶意的AI,有些人想要伤害别人,他们会故意设计出一套智能系统来执行摧毁和杀戮任务;三是AI发展超出人类预期,人类将无法理解它在做什么,甚至无法与它进行有意义的交流。对于这样的结局,施米德胡贝不以为然,他觉得到那个时候,人类将不适合做超级人工智能的奴隶。“对我们而言,最好的保护是让它们对我们缺乏兴趣,因为大多数物种最大的敌人都是自己。它们对我们的关注,将会如同我们对蚂蚁的关注一样。”
 
  显然,施米德胡贝并没有对超级人工智能的未来与人类的关系给出一个明确的判断。相反,一些更为激进的科学家提出“要把AI关进笼子里”。
 
  “否则,机器将接管一切,它们会决定如何处理我们!”美国路易斯威尔大学工程学院计算机工程和计算机科学系教授、网络安全实验室创始人兼主管亚姆·博尔斯基提出“把AI装进盒子里”的方法论,“把他们放在一个可控的环境里,比如当你研究一种电脑病毒时,可以把它放在孤立的系统中,这个系统无法接入互联网,所以,你可以在安全的环境中了解它的行为,控制输入和输出。”
 
  观点更为中立的科学家提出要为人工智能“立法”。以德国交通运输与数字基础建设部下属的道德委员会公布的一套被称为世界上首部的自动驾驶道德准则为例,这是目前全球范围内唯一一个被列为行政条款的与AI相关规范,但在具体实施过程中依然存在大量技术难题,比如如何让无人驾驶的AI系统能准确了解条款中的含义。在腾讯研究院高级研究员曹建峰看来,大部分国家对人工智能相关立法的规范依然停留在讨论阶段,因为受到太多不可预测因素的存在,包括AI语言的沟通。
 
  科学家口中的AI宪法会是什么?它应当是基于现实世界的一个模型,以约束人工智能在各种不同条件下做出符合人类伦理的决定为目标。
 
  语言编程Wolfram Mathematica创始人、总裁Stephen wolfram曾提出“如何把法律与计算联系起来”的疑问,“发明一种合法代码,不同于今天的法律和合同上的自然语言?”“为AI设计一种通用语言的想法,用一种符号化的语言,把法律表示可计算的形式,并且告诉AI我们想做什么?”在Stephen wolfram看来,仅仅依靠语言的改变来约束AI,在现实中并不可行。当下对人类最大的挑战不是设定法律,而是寻找出某种适合的方式来描述这些适用于AI的法律或者规范。AI计算在某种程度上是狂野不可控的东西,因此很难存在一个简单的原理,而是通过搭建更为复杂的框架来囊括这样的法则。
 
  “我们当下更多的是关注如何约束AI开发者。”在曹建峰看来,与国外前沿研究AI不同,国内更关注当下,比如在个人隐私保护以及性别歧视等伦理角度出发。
 
  亚太人工智能法律研究院院长刘德良曾表示,人工智能立法总的思路要往“安全可控”的方向发展,这也应是最高指导原则,“人工智能在各个领域都会有具体的应用,比如在教育、医疗、家政服务、道路交通等领域,涉及的问题也不尽相同。为了达到安全可控,应该首先在行业内出台标准,也就是人工智能产品在上市和投入市场使用之前,必须符合一些法定的标准,但是‘标准的空缺’应该弥补。而同样的,不同的领域所涉及的安全标准也不一样。所以在产业发展时,对人工智能的安全标准要有强制性的规定,只有符合这个标准才能让其上市和投入使用,这是保障其安全可控的基本要点。”
 
  在AI威胁论面前,反对派科学家明确反对赋予机器人平等的权利,比如人权和投票权。亚姆·博尔斯基认为,机器人几乎可以无限“繁殖”。“他们可以拥有一万亿份任何软件的拷贝,几乎即时就可以获得,如果每个软件都有投票权,那基本上就意味着人类将失去任何权利,意味着我们自己放弃了
 
  有人类学家提出,人类的核心目标是延续自己的基因,在我们尽全力实现目标时,道德会在一些领导产生作用,比如“是否会伤害他人”。这也正是未来超级人工智能与人类最大的不同所在,一个不具有道德性的超级人工智能会努力实现它原本设定的目标, 在这个过程中,将对人类生存安全产生危险。
 
  AI与人类的价值观一致
 
  除了行业标准以外,人工智能最主要的问题是“算法”。“为了保障人工智能的安全可控,要对其具体的‘算法’设立专家审查评估委员会。这一委员会可能包括技术专家、网络安全专家、管理专家等,对其算法和管理方面进行审查,因为可能存在其‘算法’被一些居心叵测的人所篡改,造成不良的影响。此外,还涉及到人工智能是否符合伦理道德的要求。”刘德良说。
 
  去年7月,国务院发布了《新一代人工智能发展规划》,其中提到,到2025年,要初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。
 
  得益于机器学习技术的进步,人工智能在不断发展,并给许多产业带来了革命性的变化,Francesca Rossi告诉记者,机器在学习过程中的确会涉及到伦理道德问题。在她看来,机器在伦理道德上有时会更具优势,因为人类在决策过程中会存在偏差。不过,Francesca Rossi也坦言,当人工智能碰到伦理道德,存在三方面的问题:第一,人类的道德标准是难以量化的;第二,道德在人类社会属于常识,但却很难用机器能够理解的语言去说明,也就是说机器有时并不能理解一些道德标准;第三,如何在人和系统之间建立信任机制。“现阶段,机器学习是人工智能系统不断完善的主要驱动力。但是,机器学习的局限性之一是,其结果大多是以‘黑箱’的形式存在,即人们只能‘知其然’,却‘不知其所以然’,这是引发人工智能法律、伦理等问题的重要原因之一。以自动驾驶为例,一旦发生事故,很难认定谁应当为此负责。也正因为如此,人工智能伦理问题的解决与技术的发展密切相关,可解释、可说明性是目前人工智能系统亟待解决的问题。”