特斯拉车祸的事还没完:做汽车,可不像科技公司那样随便弄个 beta 版就可以上线
热门资讯 时间:2016-07-11作者:唐怡园来源:好奇心日报十天前曝光的一起涉及特斯拉自动驾驶(Autopilot)功能的致命车祸,正吸引越来越多的关注。
自动驾驶是否安全、该功能的宣传有无误导、为何车祸发生一个多月特斯拉才告知公众……这些问题都在上千篇美国媒体报道的讨论之列。
在车祸发生后、曝光前的那段时间,特斯拉曾卖了价值 20 亿美元的股票。《财富》刊文称特斯拉 CEO 伊隆·马斯克在卖股票时隐瞒信息,没有将车祸告知投资者。
这篇文章惹恼了特斯拉 CEO 伊隆·马斯克,这位喜欢在社交网络上直接回应《财富》的编辑说这是扯淡(BS)、指责说这是一起反特斯拉的阴谋(早年他也指责过说 Top Gear 和《纽约时报》是反特斯拉阴谋的执行者)。
在当中比较冷静的反驳中,马斯克会用数字说开了自动驾驶的特斯拉汽车更安全,跑了 1.3 亿英里才发生第一起致命事故,而苹果的平均数字是 9400 万英里。
据此,他在写给《财富》作者的邮件说“如果有人做点算数(很明显你没有),他们会意识到如果特斯拉自动驾驶全面普及,每年车祸造成的 100 万人死亡中差不多有 50 万可以避免。”
马斯克说自动驾驶能救 50 万人,但他引用的数字不能证明这一点
拯救一半的致命车祸来自一组数字的对比。
6 月 30 日,美国国家公路交通安全管理局(NTHSA)宣布对 Model S 车祸进行调查。当天特斯拉官方博客发布一份公开信。它是这样开头的:
昨天晚上,我们得知美国公路交通安全管理局(NHTSA)正在初步调查一起 Model S 致死车祸,评估其中自动驾驶(Autopilot)功能的表现。这是 Autopilot 上线跑了 1.3 亿英里(约 1.6 亿千米)以来第一起致命事故。全美国每 9400 万英里就有一起,全球则几乎每 6000 万英里就有一起。有一点需要特别强调,NHTSA 只是简单看下(自动驾驶)系统运行是否符合预期。
这封题为《一起悲剧(A Tragic Loss)》的公开信共有五段。其中,前四段都在用数字和安全说明解释特斯拉的“自动驾驶”如何安全、特斯拉如何尽了告知义务。
值得一提的是,整封信只在最后一段向死者致哀,仿佛在这起车祸中,最悲剧的不是生命逝去,而是特斯拉的新技术可能会遭到质疑。
从这封信起,1.3 亿英里便是特斯拉一再重复的数字。
这个致死车祸里程数字确实高于美国平均(9400 万英里)和全球平均(6000 万英里)。
但美国的致死率平均数字是用 2.6 亿辆车一整年的里程数算出来的。
而特斯拉自动驾驶从上线到出事只有 7 个月,启用这个付费功能的汽车也只有目前跑在路上的 14 多万辆 Model S 中的一部分。
特斯拉自动驾驶的样本和上路时间都太少了。
打个比方,假设明天一辆开着自动驾驶的 Model S 不幸被侧翻的渣土车压扁,它的致命平均安全里程就会减半到 7 万英里以内。而这样一起车祸只会让整个美国的平均数降低数千英里(每年 33000 人死于车祸)。
这并不能证明特斯拉自动驾驶的安全性还不到美国的平均水平。同样,1.3 亿的数字也不能证明马斯克所说的观点。
长远来看,不会疲惫、不会分心的自动驾驶肯定比人开车要安全一些。
但这不意味着特斯拉的数字游戏有任何意义。更不能说明这次事故像马斯克说的那样“不重要”。
那么,这起车祸到底是怎么回事?
5 月 7 日下午,约叔华·布朗(Joshua Brown)的特斯拉 Model S 行驶在美国佛罗里达州莱维县境内的 27 号高速公路(U.S. Highway 27 )上,车开着自动驾驶功能。

一辆 18 轮大货车正在十字路口左转,特斯拉正面撞上了货车的侧面,从后边挂车底部穿过,车顶直接被掀翻。驾驶座上的布朗当场死亡。
目前,调查还没证明自动驾驶造成了事故。但可以肯定的是,车祸前,自动驾驶功能已经激活。它理论上本该在意外时刹车,却没能避免撞击。
本周四,协助 NHTSA 调查的佛罗里达州公路交警队透露,Model S 残骸中发现笔记本电脑。而有证人称,曾听到里面传来播放电影的声音。
特斯拉明确要求车主即使在开着自动驾驶功能时,也不要双手离开方向盘。所以,如果车主被证实的确当时在看电影,那最后特斯拉应该不用承担法律责任。
不过,如果车里没有自动驾驶功能,布朗是不是还会在高速行驶中看电影?
自动驾驶会让司机更放松
韦氏字典的解释里,Autopilot(自动驾驶)就是一种取代人来操控交通工具的装置。
特斯拉的自动驾驶也提供类似的功能。不用人去转动方向盘和踩油门,它能自己管理车速,保持跟车;还能主动刹车或者转向来避免来自前方和侧面的撞击。
特斯拉 Autopilot 广告,更安全是一个宣传点
尽管特斯拉有免责声明,要求用户在自动驾驶期间,双手把在方向盘上、全程保持警惕。但这些花接近 3000 美元买了这个功能的用户,很多都没这么干。
直到今天,你只要在 YouTube 里面搜索关键词“ Tesla Autopilot”。你会看到一幅幅司机双手离开方向盘的画面。

这是人之常情。当你觉得自己更安全了之后,就会愿意冒更多的风险。
1975 年,芝加哥大学商学院的经济学教授萨姆·佩尔兹曼做过一项研究。他发现,安全带、安全气囊等新技术的应用,实际上造成了更多的交通事故。
当司机觉得自己不会在高速行驶中因为一个碰撞就丧命之后,潜意识就会选择把车开得更快——这显然会增加事故率。
如今,自动驾驶不用司机动手,汽车就能以 120 千米每小时的速度在普通公路上行驶。大多数司机也一定不会全程全神贯注地盯着前面的路。
遗憾的是,所谓的自动驾驶有时会认不出一辆十多米长的货车
如果特斯拉的自动驾驶正常运作,即便车主走神没留意到前方的货车,它也会识别到障碍物,从而主动刹车来避免或者至少减轻车祸带来的损失。
这次事故中,Autopilot 配置的一个前置雷达、一个前置摄像头、12 个远程超声波传感器,全都没能看到或者感应到前方转弯的 18 轮大货车。

超声波雷达,和现在普及的倒车雷达使用相同的技术,探测距离为 5 米。在高速行驶下,即便它感应到大货车,也已经太晚。
而光线条件不好的情况下,摄像头所依赖的软件算法也不一定能认出前方是什么。根据特斯拉官方解释,白天强光下,拖车白色侧面会反光。摄像头会短暂“失明”。

总之,特斯拉的自动驾驶系统不能像一位全神贯注的司机那样认出路上这样一辆巨大的货车。
而根据现有信息来看,司机可能因为对自动驾驶(Autopilot)的信任放松了警惕——这位司机是特斯拉粉丝,上传过多个自动驾驶视频,马斯克本人曾在社交网络上转发过。
接着,车祸发生了。
当测试版软件遇上两吨重的汽车,这就不是修补 bug 的问题
计算机不会犯困、不会分心、发现问题后的反应速度也比人类大脑向身体下指令快。全自动驾驶肯定是汽车的未来。
特斯拉这次遇到的问题,用新技术也可以解决。比如 Google 无人车车顶上的激光雷达——它会向前方发射激光,根据反射时间判断物体的距离和形状,它不会像出事的 Model S 一样因为反光认不出一辆大货车。

Google 无人车
问题是,目前激光雷达单个成本在 7 万美元左右、尺寸也比较大。
随着技术的进步,激光雷达迟早会被用于几十万甚至十来万的汽车。但目前来说,路上最可靠的自动驾驶技术也还不能完全代替人。
甚至特斯拉自己也说,目前自动驾驶(Autopilot)是测试版。
技术公司早就习惯了测试(beta)。你今天用的软件、互联网服务,都是技术公司一边观察用户使用行为、一边完善的。
他们会用普通用户做实验,默默地让 1% 的用户先用一个新功能,根据他们使用时的行为变化再决定是不是要推出这个功能。这些公司都不会保证说应用永远不出问题不崩溃。
在这些测试中,单独个体的反馈也不那么重要。重要的是多数用户的行为数据是不是比原先更好了。
而这些也是特斯拉过去一周多里的回应中心——我们的自动驾驶并不保证不出问题,而事实上,大多数人的数据更好了。
二者的区别在于,互联网公司出了点问题,无非是你在手机上看新闻、买东西的时候应用崩溃了,用着不太开心而已。
而特斯拉在测试阶段的系统则被装上一辆 2.3 吨重的汽车、冠以“自动驾驶”的名字、打着漂亮的电视广告争取到了用户信任。
当这样一个“测试版”认不出一辆十多米长的货车,就可能造成悲剧的后果。
特斯拉或许没有法律责任。自动驾驶大概要不了十年就会普及开来,拯救更多生命。
但在这样一个关乎生命的技术进化过程中,它的推进应当被更谨慎地对待。这不只是特斯拉一个公司需要担心的事。
还是测试少了。