媒体:小米汽车进入创立以来最严峻的信任危机(组图)




经历了一整晚的微信聊天记录发酵之后,小米SU7在安徽高速上智驾发生车祸,导致三名花季少女丧生的命案,登上了热榜的头条。

巨大的舆论风波背后,是大众海量的疑问:这次事故究竟是怎样发生的?为什么没有逃生?为什么救援不及时?究竟有没有开不了门?

各种各样的讨论,将小米汽车持续带入创立以来最严峻的信任危机。

但在虎嗅汽车看来,在当前事故的所有细节并未完全披露(尤其是当地警方的调查归因)情况下,进行事故的归因明显时间点过早,绝大部分人也关注错了事故真正重要的“关键点”,也忽视了引发这次事故的真凶——所有参与方(包括车企、消费者、道路、监管)的不够作为。

但有一个观点是可以明确的,就是智驾,是真的真的不能盲目“吹”下去了。

事故本身,远没有最终定论

结合目前微信群传播的事故信息、小米的官方声明和多篇媒体报道,目前可以确定的有:车辆碰撞之前4秒的状态大致明晰;车辆整个碰撞过程基本明晰。

而目前无法确定的有:车辆事故发生之后的人员和车辆状态变化;现场第一时间的救援状况。

先说可以确定的信息,就是车辆碰撞前后的过程。



图片出处:网友“唔染57”,如有侵权敬请告知



从视频中截取的现场情况,应该是顺方向前进拍摄

根据少量的现场图片视频,小米官方公布的信息、可以对事故做以下合理推测:

车辆在NOA提示“请注意前方有障碍”时,车辆距离撞击已经不足两秒,参考116公里每小时减速到97公里每小时的过程,车辆整个行驶过程约为59米;

车辆在平均速度约100公里的情况下,面对路障选择了较为剧烈的向左侧打方向(100公里时速下,方向20度很夸张),车辆因为自身惯性引发了“转向不足(前轮抓地力不足导致)”;

车辆最终未能拐过减速带,导致车正面右侧“小偏置碰撞”,令车辆顺时针旋转向左侧继续运动;

车辆最终在旋转180度之后,向左前侧滑动了约一条车道的距离后停下。

在事故车辆“停下”之后,信息就进入了无法确认的状态。例如车内人员是否有意识,大概率将无法得知(小米车祸后的应急电话录音暂未公布,但Ecall之后20秒就已经尝试找车主,猜测原因是无人应答);现场碰撞后的状态(例如全程记录)以及第一时间的救援(目前未了解到有现场尝试救援,也有可能是起火速度很快),更是无从得知(假如高速公路在这一段没有监控或者不公布)。

因此在虎嗅汽车看来,这场事故造成三个花季少女逝去的关键,虽然也有事故之后电池安全性、断电开门开关是否知晓等疑问,但真正最关键的还是——为什么人和车会陷入“超过100公里时速高速变道”操作的境况(屏幕前的各位老司机也可以把自己尝试代入到场景中,换位体会一下能否良好应对)?

由此引发的问题甚至超越了人和车,更是把现场的路况牵扯了进来:

现场道路究竟有没有清晰的、足够提前的变道指引?

现场道路是否有进行合理的、足够提前的限速?

车辆本身的智驾系统有无识别到限速标识?

车辆是否智驾过于激进导致变道仍维持NOA,造成“最后一刻”退出?

驾驶员是否注意到了高速维护变道的情况?

驾驶员是否在高速需要变道的情况下,仍主观放任智驾功能驾驶?

……

在当地警方对更多车辆数据、更多现场情况和痕迹进行调查,最终给出官方结果之前,本次事故的责任无法进行严格归属,也无法对责任大小的先后顺序进行排序。

唯一可以确定的是,这起事故本身仍与“鼓吹智驾”大环境脱不了干系,从全力吹“XX公里0接管”的车企;到购买“方向盘重力环”、晒“开着智驾去后排看电影”的消费者;再到仍按照人驾逻辑打造的基础设施。每一环的叠加,让智驾在普及的过程中不断出现安全方面的新问题。

正应了那句俗话:雪崩的时候,没有一片雪花是无辜的。

别让自己成为那片“雪花”

很多人或许早已经忘了,距离全球智驾第一次命案发生,已经过去了足足8年。

跟本次事故中被妈妈明确为“小米粉丝”的花季少女一样,当年首个死于特斯拉智驾的用户Joshua Brown,同样是其“骨灰级粉丝”。后者曾主动在外国视频平台“油管”上主动传播其使用特斯拉AutoPilot自动巡航避免车祸的视频,一度获得了170万次观看和Elon Musk本身的转推。

但在一个阳光明媚的周四,Joshua Brown也在智驾状态下遇到了个“障碍物”——一辆横穿马路的白色大货车。他的Tesla Model S把高大的白色货车车体和强阳光下的天空“混为一谈”,最终让其以近似于本次小米SU7碰撞的速度(117公里每小时),钻进了集装箱拖挂车的“肚子”下面。



最终特斯拉整个“腰线”以上被拦腰截断,继续向前冲出了近300米才遇到障碍物才停下。

恰如黑格尔的那句名言:人类从历史中学到的唯一教训,就是人类无法从历史中学到任何教训。在过去的8年间,自动驾驶的技术能力的确越来越先进,不仅能够适应更多的路况,也能够展现出更类似于真人的驾驶能力,但总有人选择将“安全”排在“技术”和“功能”后面。

最终的结果是,越信赖智驾的消费者越容易遇上小概率的“致命bug”,越标榜智驾的车企注定越容易遇上用户“智驾事故”。



以国内近期另一个智驾事故为例,一位曾登顶的华为智驾大师赛(华为用户智驾季度智驾里程的比赛)第一,总智驾里程超过26000公里的资深用户“秦风”上星期在鸿蒙智行的社区中曝光,自己在NCA的状态下,以120公里的时速撞向了前方缓慢行驶的水泥泵车。

幸运的是,“秦风”最终仅有部分轻微骨折和挫伤,但假如碰撞的过程发生一些变动,他也有可能成为另外一起命案的主角。而陷入智驾命案漩涡的,很可能就会变成现在公认智驾水平最强的鸿蒙。

虽然仍有发生智驾事故的风险,虽然知道智驾仍不足够成熟,但车企端继续加码智驾发展的趋势不会改变。

但如何在技术进步和功能发展的前提下,最大程度照顾到安全的考量,正在成为所有道路交通参与者的“必选题”。其中车企需要更谨慎地对待智驾技术的发展,平衡自身的能力和宣传;消费者应该认真谨慎思考、观望技术成熟度、认真阅读说明书;监管也应该积极思考,如何改变道路规则(例如某些情况应该强制提醒车辆提醒驾驶车退出智驾模式等等)。

智驾,是时候摆脱盲目使劲“吹”了。当然你也可以继续“吹”,但终究会砸自己的“脚”,甚至赔上自己的命。
Advertisements
评论人:Liv999 [☆品衔R4☆] [个人频道] [个人动态]
这篇靠谱,最大的嫌疑是修路的安全措施不足。我的国家100公里以上高速要修路,是先强制减速到60走一公里再减到40走差不多500米,全部是用高筒路障一步步压缩到单行道的。
2025年04月01日10:37
评论人:praxair001 [☆品衔R4☆] [个人频道] [个人动态]
还是看大数据吧。有智驾后全国交通意外减少的话,智驾就是成功的!
2025年04月01日9:46
评论人:戒律暗牧 [☆★声望品衔8★☆] [个人频道] [个人动态]
新能源汽车发展这么快,不可能一点弯路不走,也不可能一点错不犯,像这次的智驾,从出现到成熟需要一个过程,但这个过程有可能付出惨烈的代价,我是个保守派,只用成熟的东西
2025年04月01日9:27
评论人:sophrosyne [☆品衔R4☆] [个人频道] [个人动态]
不用危机了,直接倒闭吧
所有的网红厂商都该倒闭
2025年04月01日14:59
评论人:kyogui [★品衔R5★] [个人频道] [个人动态]
 回复5楼:
高速修路改到对面车道行驶情况特殊自动驾驶应该提前减速主动提前提示早让驾驶员接管
2025年04月01日13:32
评论人:LAChinese [★品衔R5★] [个人频道] [个人动态]
智驾还不靠谱。但是人类驾驶员也不靠谱。
2025年04月01日12:57
评论人:bigeyedog [♂★品衔R5★♂] [个人频道] [个人动态]
 回复10楼:非常抱歉,我家旺财病了没法给你妈配种,导致没教养的畜生操出你这坨类生物有机体
2025年04月01日12:16
评论人:jingfei05 [★★声望品衔9★★] [个人频道] [个人动态]
其实智驾也好,AI也好,都面临一个关键问题,概率性的失误后,由谁担责!尤其是涉及人命的失误。
就这起车祸,按理说,智驾系统使用前会强制用户确认使用并承诺始终只作为辅助驾驶,而驾驶员需要承担主要驾驶责任。换句话说,人应该比智驾系统更早的介入有障碍的情况的操作,而不是在危机时刻,人的主动驾驶操作缺位让智驾代替进行辅助驾驶操作。如果人的主动驾驶操作缺位了,那就应该人负责失误。
2025年04月01日11:51
评论人:ghana001 [★品衔R5★] [个人频道] [个人动态]
 回复10楼:試錯這事肯定特斯拉最多
FSD曾經將貨車的白色認為是天空而直接撞上去
台狗,你們就配在台灣那狗窩中幻想世界
2025年04月01日11:21