当前位置: 首页 > 资讯 > 智能驾驶 > 无人驾驶:软件服务人类还是人类服务软件?

无人驾驶:软件服务人类还是人类服务软件?

2019-03-29 09:23:38

  无人驾驶的研发过程中,人类是否高估了自己对意外状况的控制能力?人类是不是一定要作为无人驾驶逻辑里的核心,这种研发逻辑能否有效诞生无人驾驶,其实是这个领域里一直在争吵的话题。

  为此,正如上一篇文章提到的那样,谷歌和传统车企分成了两派,各有各的说辞。当然,对大多数人来说,以人为本的渐进式开发无人驾驶最容易被接受,因为这种方案至少在航空领域已经被证明是可行的,坚持由人做决策的观点自有其独特的吸引力。

  只是,有没有可能,真理只掌握在少数人手中,否则谷歌为何会选择跨越式的无人驾驶路线?

  过去,人类借助智能机器实现了许多高难度的操作,比如外科手术医生可以借助机械臂完成极其细微操作的缝合和切刀。只是,一味的认为这种方式可以衍生到无人驾驶领域,那就大错特错了,因为自动驾驶从来就不是一个责任界定清晰并保持规范一致的行为。

  外科医生借助机械臂完成手术,如果发生事故,必然是医生的责任,人类借助智能软件实现自动驾驶,那责任该由谁来承担呢?抑或者,软件在驾驶行为中该负责哪部分操作,人类又该负责哪部分内容,这些都没有严格的边界。

无人驾驶:软件服务人类还是人类服务软件?

  没有边界的执行任务,往往诱发人类的「责任分散」,这是一种典型性的管理失误。

  从根本上讲,一群人从事一项工作的失败概率要远远大于一个人,因为负责完成任务的不同成员可能会觉得遗漏一些事项也不要紧,他们会理所当然的认为其他人会补上,如果双方都这么认为,那么任务就会失败。

  无人驾驶中,如果在碰撞将要发生之际,软件认为人类此次必须进行介入,而人类则坚定相信软件,最终事故就会发生。

无人驾驶:软件服务人类还是人类服务软件?

  除了责任分散之外,人类过分的依赖性也是「责任分散」的一种,具体被称为「自动化偏见」:一旦看到技术有效,人们便会很快的信任技术,结果就是,当人们被鼓励交出驾驶权去享受放松时,他们很难再投入到驾驶任务中了。

  2018年3月,一辆Uber的无人驾驶汽车在进行路试时发生事故,与一位手推购物车横穿马路的年轻女性发生碰撞,导致一人死亡。

  这件事情直到今年法院方才宣判,此事责任无需由Uber无人驾驶系统承担而是由驾驶员承担,原因在于驾驶员在路试期间一直在用手机刷视频,当车辆提示驾驶员需要接管车辆时,无人驾驶和人类之间「权力交换失败」。

无人驾驶:软件服务人类还是人类服务软件?

  为此,谷歌也做了大量实验,他们曾经在2012年秋天授权几名员工可以在高速公路上启动自动驾驶功能,同时谷歌提醒每一个人这项技术还处于研发阶段,因此他们需要全程保持对车辆和路况的关注。结果让人大跌眼镜,大多数人在开启自动驾驶之后,注意力都从方向盘上离开了,甚至有的人还完全离开了座位到后排去找手机充电器。

  基于这项实验,谷歌认为无人驾驶汽车是不存在中间地带的,也不存在所谓的「权力交接」,人类就不应该和软件共享方向盘,这种观点看似极端,但却是充分考虑到消费者人身安全,最谨慎和明智的发展路线。

  自动化至少会在两方面削弱驾驶员的能力:

  第一,自动驾驶会诱导驾驶员投入到另外一件事情上,比如看书、玩手机、看视频,这将直接导致驾驶员注意力从道路上移开;

  第二,自动驾驶会损害驾驶员的情境意识,或者说妨碍驾驶员对驾驶环境中关键因素进行识别,并作出迅速恰当的反应。

  这两个因素结合起来,会导致分心的驾驶员完全不知道车外面发生什么事情,进而清晰的说明驾驶中「责任分散」是十分危险的。

  为了证明「责任分散」的危害性,宾夕法尼亚大学也开展过一项研究,论题是「驾驶过程中年轻驾驶员的手机使用问题」,结果令人讽刺。

  大结论是所有年轻人都认为驾驶过程中使用手机是一种极度不安全,对自身安全不负责的行为,但他们不认为自己在等红绿灯间隙用手机发消息属于上述行为范畴之内。同时,每个人对「开车时使用手机」有自己的一套判定标准,比如有人认为开车时刷一下微博不算,自拍也不算。

  可见就是传统汽车驾驶,人类尚且如此,更何况提供了不错性能的自动驾驶系统呢。人类现在十分信任无人驾驶系统的未来,但遇到危险,无人驾驶系统是无法将人类从沉睡中唤醒的。同时谷歌还提出,如果驾驶员长期不驾驶汽车,其驾驶技能会逐渐退化,遇到危险无法躲避的概率将大大提高。

  于是,谷歌坚定地认为无人驾驶就从来不能是渐进式的,人机互动下出现的严重风险让他们不得不选择跨越式。看起来十分激进,但谷歌自动驾驶直至今天依然有不错的成绩。

  根据谷歌的月度活动报告,谷歌的无人驾驶汽车在过去的数年里总共只发生了17次轻微交通事故和1次备受关注的与公交车低速碰撞事故,而17次轻微事故中,主要责任都不是无人驾驶汽车而是另一方人类驾驶员。

  与公交车碰撞的那次责任属于无人驾驶汽车,因为无人驾驶汽车错误的判断自己继续向前行驶,公交车会主动停车避让。

  事实上,谷歌无人汽车的这些事故经过统计后得出的结论是「谷歌无人驾驶汽车驾驶得太过优秀,因此产生了这些轻微事故」。因为谷歌无人驾驶汽车十分严格的遵循道路交通规则,比如从不跨越实线,右转也会打开右转灯,红绿灯时不会抢行,反而是有些随意的人类没有保持限速或者车道保持,引发了和无人驾驶汽车的事故。

  在这场高风险、全球性汽车行业的博弈中,胜负始终难以预料,而这一切取决于政府,如果政府通过法令支持「人类决策」的渐进式策略,那么汽车企业就是赢家,并将继续掌控汽车行业;另一方面,如果法律允许,从安全角度出发要求无人驾驶汽车必须实现完全自动化,那么软件公司就会拔得头筹。

  这还是一个继续的复杂的争论。

转载文章,不代表本站观点。

点击关键字阅读相关文章: 文章来源:转载
阅读

评论

评论内容最少2字,最多200字
说说你的看法...