自动驾驶撞死人,驾驶员被诉“杀人罪”,特斯拉究竟有无责任?
宣传的时候是自动驾驶,一出事就变成了自动辅助驾驶?
自动驾驶出事,系统提供方要不要承担责任是一个社会层面的难题。
特斯拉早期宣传过“自动驾驶”,2019年4月,特斯拉举行“自动驾驶日”活动,2020年10月份对FSD功能进行过公测,FSD全称为 Full self-driving,翻译过来就是完全无人驾驶系统。但是,2019年一次自动驾驶撞死人的事故,特斯拉却将责任完全推给了驾驶员,同时,美国司法部门也认为错在驾驶员,与Autopilot无关。宣传过自动驾驶,责任都分给司机,这合理吗?
先简单复述一下事情经过。
2019年12月,某司机驾驶特斯拉Model S,经高速超速进入洛杉矶加迪纳市,随后,它以119公里的时速闯过一个加迪纳市区的红灯,在十字路口撞上了一辆本田思域,导致思域车内两名乘客死亡。事故发生时,这辆特斯拉的Autopilot处于开启状态。近日,这名特斯拉司机被公诉“杀人”,并出庭受审。
司法机关起诉的理由是,按照2019年底Autopilot版本的能力,并不能识别红绿灯并自主应对,是司机没有对Autopilot实施有效监管,导致了事故发生。同时,特斯拉也派出工程师出庭作证,说事发时车辆的确开启了Autopilot,并且司机双手也在方向盘上,但事故发生前的6分钟内,车辆没有任何刹车减速动作。双方共同来“坐实”司机的重大失误。
但是,在这场事故之前,特斯拉为自动驾驶打过“预防针”,它强调无论Autopilot或FSD都需要驾驶员随时准备接管。不承担责任似乎也有道理。
公说公有理婆说婆有理,观众朋友们是不是也陷入了僵局?
暂时把这个事放一放,我们先看“自动驾驶分级”,这是公认的分级有说服力。看了它心中就有数了。
2017年至今,没有一个国家监管机构出台明确的L3审批明细。所以从法律来说,现在所有车企最高级别的自动辅助驾驶,都停留在L2级,从表格可以看出,L2级辅助驾驶的“周边监控”责任人是人类驾驶者,系统仅提供驾驶支持,所以无论出事故时有没有使用辅助驾驶功能,不能以辅助驾驶的问题让车企承担责任。
反倒是,驾驶员一旦使用了自动辅助驾驶功能,出了事故,要承担未监管好的危险驾驶罪名,还不如不用。是的,从法律层面来说,特斯拉确实没有责任。
这件事的发生,将影响法律对L3自动驾驶的审批速度
一旦法律法规通过了L3级自动驾驶的审批,注意字眼,从L3级开始称为自动驾驶而不再是L2级的辅助驾驶。从上面表格可以看出,使用自动驾驶过程中,驾驶操作和周边监控的责任方都是系统,人类驾驶者仅需要提供支援,一旦在自动驾驶过程中出现事故,车企将承担主要责任。
正是由于特斯拉Autopilot和FSD这样的自动驾驶存在较高的安全隐患,导致各个国家对L3级自动驾驶的审批都非常谨慎。同时,即便有一天辅助驾驶功能的安全系数够高了,可靠性已经超过人类驾驶员,关于L3的法律法规也不会率先制定。
它需要车企先表态,一旦在使用自动驾驶过程中出现事故,车企承担主要责任。当大部分车企表了态,然后经过制定路段的验证确保可行后,才可能完成L3自动驾驶法律方面的审批。
最先表态的是奔驰,它说L3出事故厂家负全责
奔驰承诺使用DRIVE PILOT自动驾驶系统时,发生交通事故,奔驰负全责。只是奔驰给L3限定了严格的使用条件,天气、路段、速度等等,局限较多。无论是喊口号还是真正表态,至少奔驰促进L3政策的落地上带了个好头。
但是,从奔驰的谨慎程度可以看出,目前它在自动驾驶的技术层面还存在较大的瓶颈,可靠性一般。除了奔驰,其它车企还未表态,可见各大车企对于自家的自动驾驶水平心里都没底。只能说,目前是辅助驾驶的时代,离自动驾驶还有很远。
近两三年,如果你看到哪家车企又在宣传“自动驾驶 ”多牛,别激动,晃咱们呢。
公路上的自动驾驶短时间内行不通,国内造车新势力在封闭场地内的“自动驾驶”已经小有成就。比如小鹏汽车前几天邀请媒体体验的“跨楼层自动泊车”,可以实现;近距离自动泊车过程时,驾驶员可以下车后完全交由车辆操作,从实际体验视频来看很好用,封闭场地内练练手未尝不可。