Skip to main content
 首页 » 评论

因为「不够安全」,我们就必须拒绝自动驾驶汽车上路?

1年前 (2017-04-09)597车云网

社会舆论对自动驾驶汽车造成的事故是“零容忍”的,显然目前还没有真正称得上“放心”的产品。

当提及自动驾驶汽车,汽车行业本身在追问,政府的规则制定者和安全倡导者们都在纠结一个基础的问题:究竟如何才是足够安全?这有点像是一场发生在汽车制造商和新科技的研发方式之间的争斗。

例如特斯拉,他们认为自己已经准备好上路了,并逐步增加产品中的自动驾驶技术的应用。而尝试新技术,前期必然可能会增加事故的伤亡率。然而特斯拉CEO埃隆穆斯克认为,如果仅仅是为了避免舆论压力或者害怕被卷进官司中而放弃使用这些可以增进驾驶安全的新技术,这在道义上是不对的。

然而,另一家公司Waymo(前身是谷歌的自动驾驶项目)坚持着更为保守的策略。Waymo认为自动驾驶汽车在确保其完全不需要人类介入前,不应该在市场上公开销售。

其他正在积极研发自动驾驶汽车的公司,对待这项新技术的态度则介于这两者之间。

他们正尝试回答这个自动驾驶技术发展亟需解决的基础问题:是否可以使用人类驾驶员作为试验对象?当自动驾驶系统失效了,人类驾驶员如何应对?是否要延迟这个并不完美的系统的市场投放?按照平均数据来说,自动驾驶比人类驾驶员更加安全。但是由于没有进行足够多的测试,无法判断这项技术应用可能会增加还是减少道路事故造成的伤亡人数。

丰田研究院CEO Gill Pratt表示,美国2015年发生了近3.5万起交通死亡事故,如果自动驾驶汽车和人类驾驶员造成同样多的伤亡事故,社会是不可接受的。“尽管我们的社会可以容忍人类自己犯错,但是总是期望机器比我们自己更可靠些”。

去年5月发生的一起由于特斯拉Model S用户使用Autopilot而导致的致命事故,为汽车行业和法规制定者敲响了警钟。不过美国国家高速公路安全委员会(NHTSA)对这场事故的调查认为并没有发现什么安全缺陷。

这是第一场由于特斯拉Autopilot系统“失职”导致的人身伤亡事故。但特斯拉辩解称“在明晃晃的天空背景下,不论是人类还是机器都很难分辨出前方对向车道上的白色卡车挂车”。特斯拉的Autopilot和其他类似的系统(梅赛德斯-奔驰,宝马和沃尔沃等车型搭载的驾驶辅助系统),被认为是自动驾驶的早期阶段。如果驾驶者不能正确认识到车辆的能力限制,这些谨慎适度的自动驾驶探索也有可能带来安全风险。

低阶的自动驾驶系统在紧急情况发生时,需要驾驶员能够接管车辆。像特斯拉、日产、奥迪等汽车制造商,都将人类驾驶员作为他们备用的安全系统。他们的逻辑是:如果在危急的时候人类可以可靠地接管车辆,就可以尽早逐步地应用这项技术而不必等到它完全成熟。