人民日报社中国经济周刊官方网站  中央新闻网站  互联网新闻信息稿源单位

经济网 中国经济论坛


首页 > 周刊杂志 > 正文

【悦读】如何对AI问责?

我国正处于技术创新的关键期,融合应用的扩张期,抢占主导权的战略机遇期,需要加快构建人工智能伦理和法律体系,形成基础支撑和根本保障。针对这些问题,《人工智能》一书进行了初步探索和回应,为读者提供了有价值的参考。

编辑:蒋莉莉

(本文刊发于《中国经济周刊》2017年第45期)

84

《人工智能》

推荐指数:★★★★★

作者:腾讯研究院

中国信息通信

研究院互联网法律研究中心

腾讯AI Lab

腾讯开放平台

出版社:中国人民大学出版社

出版时间:2017年11月

编者按:

面对科技的迅猛发展,我国制定了《新一代人工智能发展规划》,将人工智能上升到国家战略层面,提出:人工智能产业要成为新的重要经济增长点,而且要在2030年达到世界领先水平,让中国成为世界主要人工智能创新中心,为跻身创新型国家前列和经济强国奠定重要基础。我国正处于技术创新的关键期,融合应用的扩张期,抢占主导权的战略机遇期,需要加快构建人工智能伦理和法律体系,形成基础支撑和根本保障。针对这些问题,《人工智能》一书进行了初步探索和回应,为读者提供了有价值的参考。

2016年5月7日,美国佛罗里达州一位名叫Joshua Brown的40岁男子开着一辆以自动驾驶模式行驶的特斯拉Model S在高速公路上行驶,全速撞到一辆正在垂直横穿高速的白色拖挂卡车,最终造成车毁人亡。大家普遍关注的问题是,既然是自动驾驶,那么发生事故后应当由谁来承担相应的法律责任呢?能否对AI或者自主系统加以问责呢?

法律责任的划分和承担是人工智能发展面临的首要法律挑战,其涉及如何确保人工智能和自主系统是可以被问责的。法律责任的设定,在于追究法律责任,保障有关主体的合法权利,维护法律所调整的社会关系和社会秩序。在特斯拉事件中,美国国家公路安全管理局(NHTSA)最终得出调查结果,特斯拉的自动驾驶模式设计并无明显缺陷。但对于自动驾驶事故的法律责任如何界定,NHTSA并没有给出明确的结论,NHTSA指出,其对于自动驾驶功能的可靠性监控还没有结束,并保留了在必要时再次介入调查的权利。

进入人工智能时代后,人工智能系统已经可以在不需要人类的操作和监督下独立完成部分工作,而机器自主性操作造成的损害如何来判断和划分其责任成为一大难题。特斯拉事件中,至少从目前的调查情况来看,驾驶员、汽车生产商都没有过错,但事故还是发生了,需要有人来承担责任,这种情况下如何对各方责任进行界定就陷入了困境。

2016年12月,电气和电子工程师学会(IEEE)发布了《合伦理设计:利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景》,提出的基本原则之二就是责任原则。其指出,为了解决过错问题,避免公众困惑,人工智能系统必须在程序层面具有可责性,证明其为什么以特定方式运作。

7月5日上午,在2017百度AI开发者大会上,百度创始人、董事长兼首席执行官李彦宏通过视频直播展示了一段自己乘坐公司研发的无人驾驶汽车的情景。视频中,李彦宏坐在一辆红色汽车的副驾驶座位上,视频中驾驶座位没有驾驶员。对此,北京交管部门发布情况通报称,正在积极开展调查核实,公安交管部门支持无人驾驶技术创新,但应当合法、安全、科学进行。很多人认为李彦宏的做法欠妥,但根据我国现行法律法规,并没有推出针对自动驾驶汽车的相关规定。

美国和德国在自动驾驶领域的立法主要集中在责任界定方面。美国道路交通安全管理局于2013年发布《自动驾驶汽车的基本政策》,包括内华达州、加利福尼亚州、佛罗里达州、密歇根州在内的9个州也通过了自动驾驶汽车立法,对自动驾驶汽车测试事故的责任承担做了规定,即车辆在被第三方改造为自动驾驶车辆后,测试过程中导致财产损失、人员伤亡的,车辆的原始制造商不对自动驾驶车辆的缺陷负责,除非有证据证明车辆在被改造成自动驾驶车辆前就已存在缺陷。例如谷歌用奔驰汽车进行测试,安全责任由谷歌来承担。

随着智能机器人越来越广泛地应用,其责任界定问题也引发了各方的高度关注和重视。2016年8月,联合国教科文组织与世界科学知识与技术伦理委员会在《关于机器人伦理的初步草案报告》中对机器人的责任进行了探讨,提出了一个可行的解决办法,即采取责任分担的解决途径,让所有参与到机器人的发明、授权和分配过程中的人来分担责任。

在目前的法律框架下,机器人自身不对因其行为或者疏忽而给第三方造成的损害承担责任。而且,既有责任规则要求机器人的行为或疏忽能够归因于制造商、所有人、使用者等特定法律主体,并且这些主体能够预见并避免机器人的加害行为。更进一步,关于危险物品的责任和产品责任可以让这些法律主体为机器人的行为承担严格责任。但是,如果机器人自主地作出决策,传统的责任规则就将不足以解决机器人的责任问题,因为传统的规则将可能不能确定责任方并让其作出赔偿。

在非合同责任方面,既有的产品责任规则仅能涵盖因机器人的制造缺陷而造成的损害,同时受害人必须能够证明存在实际损害、产品缺陷且缺陷与损害之间具有因果关系。但是,目前的法律框架无法完全涵盖新一代机器人所造成的损害,因为这些机器人将从自己变幻莫测的经历中自主学习,并且以独特且不可预见的方式与其所处环境进行交互。

人工智能的快速发展和应用确实给人类社会带来了诸多问题,但是我们仍然有理由相信法律制度能够在不阻碍创新的前提下,控制人工智能带来的公共危险。因此,如何构建一个结构合理的责任体系,对人工智能项目的设计者、生产者、销售者以及使用者等在内的主体责任义务进行清楚的界定变得十分重要。IEEE在《合伦理设计:利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景》中对不同主体在人工智能责任方面应当采取的措施进行了详细阐述,指出:立法机构应当阐明人工系统开发过程中的职责、过错、责任、可责性等问题,以便于制造商和使用者知晓其权利和义务;人工智能设计者和开发者在必要时考虑使用群体的文化规范的多样性;利益相关方应当在人工智能及其影响超出了既有规范之外时一起制定新的规则;自主系统的生产商和使用者应当创建记录系统,记录核心参数。

(本文节选自《人工智能》一书,内容有删减,标题为编辑添加。)

----------------------------------------------------------------------------------

2017年第45期《中国经济周刊》封面

2017年第45期《中国经济周刊》封面


(网络编辑:贾璇)
  • 微笑
  • 流汗
  • 难过
  • 羡慕
  • 愤怒
  • 流泪
0