人民日报社中国经济周刊官方网站  中央新闻网站  互联网新闻信息稿源单位

经济网 中国经济论坛

首页 > 公司 > 正文

无人车如果出事故,微软百度要负责吗?

昨日,微软与百度宣布在自动驾驶领域达成合作协议,微软企业副总裁凯文·达拉斯在声明中说,要利用微软的技术让无人驾驶更安全。李彦宏上周在公开场合也试图让观众吃颗定心丸:“未来无人车一定比人类司机更安全。”

人们对无人驾驶感兴趣的同时,最担心的还是安全问题。技术虽然在不断进步,但“不怕一万,就怕万一”,无人车要是出了问题,谁来负责?随着人工智能技术的不断成熟,法律怎样跟上科技步伐?

无人驾驶谁担责?

前段时间的百度开发者大会上,现场屏幕出现了百度创始人、董事长李彦宏乘坐自动驾驶汽车前往会场的画面。画面中李彦宏坐在副驾驶,坐在驾驶座的是百度智能汽车事业部总经理顾维灏,在一分钟的连线时间内,顾维灏的手都没放在方向盘上,而无人车行驶的道路则是车水马龙的北京五环。

网友们感动于百度终于久违地为大家带来惊喜的同时,一些眼尖的“老司机”发现,李彦宏的无人驾驶汽车属于违章上路⋯⋯

其实,在日本、美国、德国等国家,无人驾驶的测试审批已经开始。以美国加州为例,加州车辆管理局网站显示,截至2017年6月27日,已经有36家车企取得了无人驾驶汽车测试牌照。

而目前我国的《道路交通安全法》对于无人驾驶汽车能否上路还没有相关的规定。除了道路安全的考虑,无人驾驶汽车还抛给了法律界一个问题:如果出现事故,那么责任主体应当如何划分?

日本在今年4月制定了无人驾驶车辆测试审批标准,其中规定无人驾驶车辆测试的远程控制人员必须持有驾照并承担驾驶员的义务和责任,如果在测试中发生交通事故,还需承担法律责任。

中国科学院大学公管学院法律与知识产权系副教授刘朝对记者表示,关于无人驾驶汽车的法律问题,全球探讨激烈,但立法进程缓慢。无人驾驶法律责任认定的难点主要有:

第一,从法律上看,法律的权威性决定了其天然具有滞后性,无人驾驶事故中的举证责任和举证能力问题涉及产业、车主及驾驶者、监管层等多方主体,并受制于技术手段,立法更需要谨慎;

第二,从技术上看,无人驾驶技术尚未发展到能够帮助明确划分法律责任的程度,例如:事故发生时,对于人,可能承担责任的主体众多,在人和人之间如何划分责任?在人机之间如何划分责任?因此,无人驾驶当前的法律缺失或者滞后,是一种在技术尚不成熟状态下的审慎。

也就是说,虽然目前无人驾驶的监管责任与事故责任尚处于不完全确定的状态,但是这种不确定既有法律因素,也有技术因素,不是加快立法进程就可以解决的。

隐患在人不在物

不仅仅是无人车,机器人等人工智能产品都具备更强的学习能力和广泛的应用场景,因此对于安全性和可靠性的要求也越来越高。这也意味着,人工智能在产品属性之外,成为人的延伸,而当人工智能出现事故、侵权、犯罪等问题时,其责任追溯便与一般商业产品有所区别。目前的民法中对于产品事故的责任划分还主要停留在生产者和消费者两方,尚无更深层次的责任分担机制。

联合国教科文组织和世界科学知识与技术伦理委员会发布的机器人伦理草案中给出了可能的责任分担方案:让所有参与到机器人的发明、授权和分配过程中的人来分担责任,其核心就是可追溯性,这也是人工智能与一般产品的区别所在。

北京师范大学教授刘德良在接受媒体采访时曾表示,如果人工智能是仅作为一种工具存在,它所涉及违法行为的第一责任人应当是人工智能工具的使用者或所有者;而如果涉及到人工智能的自主性行为,则相关违法行为的法律责任就应当追溯到人工智能的开发者、设计者。

最大难点在于技术而不在法律

人工智能所需要规避的不仅是安全风险,还有算法、机器学习在人为干预下可能导致的歧视问题。谷歌、微软两大人工智能巨头都曾经犯下此类错误。

2015年,谷歌旗下的应用Google Photos误把两名黑人的照片标注为“大猩猩”,引起了公众的强烈谴责,该应用的照片标签就是通过机器学习自动归纳类别的。微软则出现了更为严重的状况.

2016年3月23日,微软的人工智能聊天机器人Tay上线,但上线不到一天,就在一些网友的恶意引导和训练下,发表了反犹、性别歧视、种族歧视言论,导致Tay被紧急下线。

腾讯研究院研究员曹建峰在公开场合表示,数据是社会现实的反应,训练数据本身可能是歧视性的,用这样的数据训练出来的AI系统自然也会带上歧视的影子,算法决策不仅仅会将过去的歧视做法代码化,而且会创造自己的现实,形成一个“自我实现的歧视性反馈循环”。

中国科学院大学刘朝副教授认为,算法导致的偏见歧视问题中,最大的问题还是担责问题:没有道德感机器能否成为责任承担者?但法律并不是最大的阻碍,最大的难点实际在于技术而不在法律。

以现有的法人制度为例,法人没有道德感,但法人依然可以承担法律责任。人机之间、人人之间的责任划分依赖于技术手段。机器人如果发展出自我意识,那么法律上的一些惩罚措施,例如道歉、限制“人身”自由,甚至剥夺机器人“生命”等,就可能对机器产生惩罚作用,这里关键还在于机器人多大程度上和人接近。目前人工智能基础性的研究尚处于发展中,限制了技术上的预测。(人民日报中央厨房·国策说工作室 何子章)

中央厨房

人民日报全媒体平台出品,转载时须获得授权并注明来源,违者将被追究法律责任。

(网络编辑:贾璇)
  • 微笑
  • 流汗
  • 难过
  • 羡慕
  • 愤怒
  • 流泪
0