自动驾驶的伦理困境:发生事故,救乘客还是路人?

栏目:娱乐资讯  时间:2023-07-09
手机版

  null

  一旦自动驾驶汽车上路,必然面临这种伦理难题,也就是让汽车在事故之前选择杀一人还是杀几人的问题,并且,人工智能的设计可能会陷入无尽的矛盾中。

  冰川思想库特约研究员| 张田勘

  人工智能已经演变为争夺未来的战略高地,得人工智能者得天下!自动(无人)驾驶汽车是人工智能的代表之一,比起最新的阿尔法元(Alpha Go Zero)无师自通得道成精,战胜阿尔法狗(Alpha Go)来,自动驾驶的实用性更强,经济增量更大,也更吸引人。

  2017年10月17日,百度Apollo(阿波罗)与厦门金龙联合汽车工业有限公司(金龙客车)签署战略合作协议,双方将于2018年7月小批量产合作研发的无人驾驶微循环车,将在后续投入试运营。这将是国内首个实现量产的无人驾驶客车。

  null

  ▲百度与金龙客车联合打造的无人驾驶微循环车

  然而,无人驾驶汽车上路,需要获得技术、伦理、法律和管理多重通关,只有取得各处关文书,无人驾驶汽车才能上路。其中,自动驾驶的关口最重要的可能不在技术,而在于人文伦理和社会法律。

  自动驾驶安全吗?

  讲真,百度的无人驾驶汽车能否在2018年上路其实很悬。他们要生产的只是无人驾驶微循环车,定位于解决“最后一公里”的出行问题,是在特定环境运营,如大型园区内的接驳车、机场摆渡车、旅游景点的观光车等。这类场地驾驶环境简单、路线单一,便于发挥无人驾驶的优势。但是,在复杂的路面,首先需要解决安全问题。

  我们可以拿智能汽车的急先锋特斯拉的Autopilot来说事。Autopilot是一个自动驾驶软件,它配备于特斯拉的一款称为Model S的汽车上。

  2016年5月7日,美国俄亥俄州坎顿市的前海军海豹突击队员约书亚·布朗(Joshua Brown)驾驶Model S在佛罗里达州威利斯顿附近的双向高速公路上行驶时,与一辆拖挂车相撞,不幸身亡。这是全球第一起因自动驾驶而致死的事故。

  null

  ▲约书亚·布朗曾在视频中展示双手离开方向盘

  事后,美国国家高速公路交通安全管理局(NHTSA)针对Autopilot功能展开调查。经过半年的调查,NHTSA于2017年1月19日宣布,未发现Autopilot功能存在问题,同时不会要求特斯拉对汽车进行召回。NHTSA的结论是,特斯拉Autopilot不是完全自动驾驶系统,它根本无法应对所有路况,司机不应该依靠它来防止此类事故。

  Autopilot装备的Model S属于自动驾驶的L2级,离完全自动的L5级差得太远,并且布朗本人有太多疏忽。事发前37分钟的行程中,约书亚•布朗的手仅有25秒被检测到手握方向盘。Autopilot自动辅助驾驶系统向布朗发出了7次视觉警告,该系统还发出了持续一到三秒的警告铃声,并6次发出“手需要放在方向盘上,但系统未检测到”的语音警告,但布朗无动于衷。

  而且,车祸发生之前,布朗是超速行驶。在车祸发生前2分钟,布朗采取的最后一个动作是将车速设定为74英里每小时(时速约119公里),高于每小时65英里的限速。而且,最令人唏嘘的是,在车祸发生时布朗正在车上观看哈利·波特电影(DVD)。

  除了人祸之外,自动驾驶技术并非没有缺陷。尽管Autopilot开启了功能并提醒布朗注意,但强烈的日照和拖挂车白色车身让Model S的Autopilot系统摄像头短暂“失明”,未能够在白天强光下及时发现拖车白色侧面的反光,导致在自动驾驶模式下的刹车功能未能紧急启动,使得Model S挡风玻璃与挂车底部直接发生撞击。

  Autopilot的摄像头有问题说明自动驾驶在技术上还处于初级阶段,特斯拉公司也向美国高速公路交通安全管理局下属的缺陷调查办公室提供了配置Autopilot技术的Model S和Model X等汽车在2014年至2016年期间所有行驶里程和安全气囊相关的数据。

  不过,调查人员利用这些数据计算了Autopilot系统安装前后的撞车率,得出特斯拉安装了Autopilot系统后汽车更安全的结论。美国高速公路交通安全管理局也承认,自从特斯拉汽车于2015年安装了Autosteer(方向盘自主转向)软件以来,特斯拉汽车的撞车率已经下降了40%左右。Autosteer是Autopilot系统的功能之一,能够让特斯拉汽车保持在自己的车道上行驶,即使遇到弯道仍能够让汽车自行转弯。

  null

  ▲自动驾驶等级划分依据

  如果特斯拉改进,会在未来解决技术上的一系列问题,让无人驾驶汽车更为安全。美国2016年的统计表明,美国公路上因交通事故丧生的人数超过3.5万人,其中94%的事故是因司机失误导致的。但是,美国特斯拉的车主使用自动驾驶仪(只是L2级)的行驶距离超过1.3亿英里,才只出过一次致死事故。毫无疑问,无人驾驶汽车的安全性高于人类的老司机。

  现在,特斯拉的自动汽车才达到L2,要达到自动汽车的最高级L5(全自动)还有很长的路要走,因此,在时间上并非三五年就可以让完全自动的L5级无人驾驶车上路。

  自动驾驶面临的伦理难题

  即便所有的技术都能解决,无论从理论还是实践看,自动驾驶不会100%的安全,总会出错,因此,出错前如何躲避?目前,人都解不了这个方程,自动汽车能解答吗?

  如果人驾驶汽车,一个普遍的现象是,在出车祸的一瞬间驾驶员是往左打方向盘,以避免自己被撞上,这是下意识的举动。但也有调查发现,驾驶员在右前方有障碍(人和物)时是往左打方向盘,反之则往右打方向盘,这也是一种本能。但是,更多的可能是,人驾驶汽车在出车祸的一刹那来不及做出什么反应,因为车速太快和事故发生太突然,无法做出规避动作。

  null

  自动驾驶汽车要面临一种选择,即电车难题——最早由英国哲学家菲利帕·福特(Philippa Foot)在1967年发表的《堕胎问题和教条双重影响》中提出。但是,更早则起源于伯纳德·威廉姆斯提出的枪决原住民问题。一名独裁者以涉嫌叛乱为由要处决20名无辜的印第安人,此时有一名外来旅游的科学家在场,独裁者称如果由科学家亲手枪决1名印第安人,就可以赦免19人,那么这名科学家该不该这么做?

  福特由此进一步提出,如果5名无辜的人被绑在电车轨道上,一辆失控的电车朝他们驶来,片刻后就要碾压到他们。幸运的是,你可以拉一个拉杆,让电车开到另一条轨道上。但是在那另一条轨道上也绑了一个人。因此,你有两个选择:不拉杆,5人死亡;拉杆,一人死亡。你会怎么做?

  这样的选择可以归结为利益的最大化或损失的最小化,即功利主义。按利益最大化和后果最小化,多数人都会选择拉杆,让1人死亡救5人。但是,这也意味着,拉杆让1人死亡还是杀了人,对此也要负良心的责任。所以无论是让1人死亡还是5人死亡,都躲不过良心的谴责。

  一旦自动驾驶汽车上路,必然面临这种伦理难题,也就是让汽车在事故之前选择杀一人还是杀几人的问题,并且,人工智能的设计可能会陷入无尽的矛盾中。例如,如果是以死人的多少来设计人工智能的操作程序,那么接下来是否还会根据年龄、性别、地位的高低来选择事故中的拉杆。例如,面对一位孕妇和一位老人,汽车出事前该撞向谁。如果这样的话,是否也把人变成三六九等,并违背生命面前人人平等的原则。

  null

  无人驾驶就是迫使人工智能把人分等级,按人的多与少、高贵与贫贱、穷与富来选择,所以躲不开功利主义。当然,这种功利主义还是人的选择,因为智能软件是人设计的,不过,人工智能的选择也许要优于人的选择。因为,在面临5人与1人时,如果人类驾驶员看到的那1人是自己的亲朋,或许会选择冲撞陌生的5人,但无人驾驶汽车只会按设计的救多数牺牲少数的程序来行事,所以似乎显得更公平。

  现在,新的研究还在扩大和证明无人驾驶面临更复杂的伦理选择,例如在将要发生事故时,是拯救车上的乘客还是挽救路人。法国图卢兹大学经济学院和美国俄勒冈大学、麻省理工学院的研究人员合作,并在2016年6月24日的《科学》杂志上发表了几项研究结果。其一,假如存在一场不可避免的事故,是救乘客还是路人?

  研究人员在线咨询了451人,当车上只有一名乘客并且只有一名行人时,75%的受试者表示应该救乘客。但是当行人的数量增加时,受试者开始转变立场。如果有5名行人和1名乘客,50%的受试者表示应该救乘客。当行人人数达到100人,乘客是1人时,有80%左右的受试者表示要救行人。

  其二,研究人员询问了259人,自动驾驶汽车是否应该给车辆设定程序以保护“人数更多的一方”?结果以100点评级方式来衡量,受试者对这一问题的平均支持点数为70点。但是当被问及他们是否愿意购买牺牲驾驶员的车辆时,其兴趣大幅下降,支持点数仅为30点。

  上述研究结果反映了人们对于自动驾驶汽车的矛盾心态。人们并非接受保护多数人的观点,而是趋向于保护车中的乘客,哪怕车上的乘客明显少于行人。同时,人们又支持为车辆设定程序以保护人多的一方,并且对自动驾驶汽车不太感兴趣(不太愿意购买牺牲驾驶员的车辆)。

  所以,对自动驾驶汽车是人为设定程序还是让其自主决策,以及电车难题是否会造成自动驾驶汽车的困境,莫衷一是。不过,在讨论自动驾驶的伦理难题时,有人提出了两个关键点。一是不能把人的生命交由人工智能来处置,即自动驾驶的系统编程不应在人的生命中进行挑选,也不应该在受害者中进行抵消,但自动驾驶应秉持损害最小化原则。

  null

  ▲百度无人驾驶汽车

  二是,自动驾驶应避免陷入电车两难。从车辆的设计和编程开始,就应考虑以一种具备防御性和可预期的方式驾驶,自动驾驶应重在完善技术,并通过可控交通环境的应用、车辆传感器、刹车性能、危险情况中给受威胁者发出信号提示、通过“智能”道路基础设施等来预防危险,最大程度地增强道路安全性,避免两难局面的发生。

  然而,要实现这两点除了不太可能外,还陷入自相矛盾之中,例如,不应在自动驾驶的编程中涉及功利主义的程序,但又要求自动驾驶应秉持损害最小化原则,后者本身就是功利主义选择。

  法律对自动汽车开了一个口子

  人无论做什么事情,都要对结果负责,所以有自然人和法人的负责形式。但是,自动驾驶没有人,其运营和出了事后谁负责呢?所以,在没解决这个问题之前,1968年联合国制定的道路交通公约规定,汽车的控制者必须是人而非电脑。

  不过,法律是人制定的,也是随时代发展而变化的,为适应自动汽车上路,美国和其他一些国家已经解冻自动驾驶汽车的法律,允许自动驾驶汽车有条件地上路。自动驾驶汽车上路最大的法律基础或法理是,把研发、生产自动驾驶汽车的人员和机构作为责任人(法人)。尽管如此,现今的法律也只是有条件地允许自动驾汽车上路,主要是测试。

  2017年10月12日美国加利福尼亚州车辆管理局宣布,从2018年6月起允许没有方向盘、制动踏板、后视镜和没有驾驶员的无人驾驶汽车在道路上进行测试,允许公众乘坐配有无人驾驶技术的车辆。所有上路测试的自动汽车都属于L3级自动驾驶汽车,在某些情况下依然还需要人工干预。

  此外,美国国会正考虑立法,允许厂商生产和部署没有踏板和方向盘的非传统类型汽车,同时还允许各州政府制定单独的自动驾驶监管法案。

  null

  ▲谷歌的无人驾驶汽车一开始是没有方向盘的

  相比而言,德国的法律更进了一步。2017年5月12日,德国联邦参议院通过首部自动驾驶汽车的法律,允许汽车自动驾驶系统未来在特定条件下代替人类驾驶。这部法律首先明确了法律责任,如果在人为驾驶的情况下发生事故,驾驶人承担事故责任;如果是人工智能系统引发事故,将由汽车制造商承担责任。

  判断人为驾驶还是自动驾驶将由汽车上安装的一个类似黑匣子的装置来确认,该装置可以记录系统运作、要求介入和人工驾驶等不同阶段的具体驾驶情况,以保证在出现交通安全事故时,明确责任划分。

  null

  当然,德国的这部法律也还不涉及自动驾驶的最高级L5级,该法律规定驾驶席必须有司机,并且要保留方向盘、油门和刹车等配置,以保证在自动驾驶系统出现故障的情况下,驾驶者能及时介入,进行人工驾驶,并且在何时能让自动汽车上路也语焉不详。

  2017年10月14日,日本国土交通省首次推出了关于自动驾驶的安全标准。规定必须搭载一种功能,在路上自动行驶时,当司机手离开方向盘超过65秒就自动切换为手动驾驶模式,当驾驶者的手离开方向盘驾驶15秒以上,自动系统将向驾驶席发出警告。如继续保持手离开方向盘的状态,50秒后自动驾驶系统将停止,切换为手动驾驶。

  该规定只适用于2019年10月起具备自动驾驶功能的新车型。目前正在销售的车型从2021年4月起适用该标准,二手车除外。

  显然,德国的自动驾驶汽车的法律最开放,但时间未定,美国次之,日本的基本还算不上自动驾驶法规。不过,中国尚无自动驾驶汽车的法律。因此,无论是国外还是国内,自动驾驶汽车上路和运营还有漫长的路要走。

上一篇:三十而立读《西游记》,终于懂了“人事”!
下一篇:《宅宅网日韩伦理电》,探索日本和韩国文化背后的伦理边界

最近更新娱乐资讯