业务合作发布作品

    华为在车主手机遥控泊车代驾时相撞算Corner Case吗?为何会撞?

    懂车老王头像懂车老王头像
    懂车老王2025-11-26

    最近智能驾驶的事故也是接二连三,引发全网的质疑,之前特斯拉就说过宣称他的FSD比人类驾驶安全10倍,但这是在忽略了“边角案例出现的速率”的情况下,因为你是否能想到【每年的边角案例的增速,很可能是大于已发生的边角案例的速度】所以机遇现有规则,点对点去“贴靠”去“标定”的逻辑可能就赶不上边角案例新出现的速度。当目前的智能驾驶逻辑仅限于诡辩,像下图这样,那么我认为就没必要在这个领域上太多价值了,因为都是忽悠人的

    其实目前市场上就两拨人,一些人高喊“智能驾驶是伪命题”,也有人坚持“技术进步总要付出代价”,两方撕扯非常厉害,我觉得很少有人能站在客观角度思考,我们不能一出问题就非黑即白,老王节目还是讨论技术和标准为主,本期我们从三个角度来说说这个corner case,一个是标准滥用的问题,第二,宣发展示逻辑问题,第三,自动驾驶黑盒问题。我们一个一个说。

    首先,我们先来说一说

    手机遥控「泊车代驾」为什么并不安全?

    从工程逻辑来说,它的问题不是“手机控制得不准”,而是整个链路从设计之初就不是为安全级别的驾驶控制而生的。手机控制汽车的链路通常是:手机 → 蓝牙/WiFi → 车机 → 控制器 → 执行器。这条链路里面,每一环都不是为“功能安全”级别(ASIL-D)设计的。手机信号可被干扰、 蓝牙/WiFi 本身就是“弱实时”传输、手机 APP 会卡顿、延迟、死机、环境干扰(地下车库、电磁干扰、金属反射)没法保证稳定,说白了,你让一个不确定性极高的设备去控制一个两吨多的车——从工程角度,本身就是违规操作。而且从法律角度,驾驶行为的责任归属,本来是三选一,要么是在开,要么是在开(自动驾驶系统)要么是人机共驾(L2)但手机遥控属于第 4 种:人通过一个不安全的通信链路远程开车...你不觉得这很扯淡么。

    SAE的自动驾驶分级不严肃

    首先,目前很多人奉若神明的自动驾驶分级也就是L0-L5怎么来的?他是由美国工程师协会SAE最早在2014年的J3016这个标准上推出来的,老王当年采访过SAE的人,他们没说这个标准全球都得按他们的来,因为当时主要是为了给快速发展的自动驾驶技术提供一个行业共识而已,这套标准既不是法律框架,也不受国际法约束,包括咱们汽车行业做研究时还会看《维也纳道路交通公约》和《联合国自动驾驶车辆法规》,这两个法规可能更新时间更近,比如前者在16年之后有多次小的修订,允许自动驾驶系统在符合当地法律的情况下控制车辆,但仍需驾驶员“随时能够控制”之类的细则。后者在21年更新过一次核心的要求,就是欧洲和日本开始允许L3级别的自动驾驶,但要求系统在特定条件下运行,比如部分地区60公里每小时以下才可以触发。

    但即便如此,目前的国际交通公约和SAE分级,依然存在很多不严肃性,这一点很多交通专家和汽车专家都承认,首先就是边界模糊,目前的L2和L3的界限非常模糊,导致一些厂商在宣传时有意模糊概念为自身牟利。例如,L2+和L2.99999,这种文字游戏,许多厂商用它来营销,让消费者误以为车辆接近L3自动驾驶,这在某种角度是违反国际公约准则的,另外就是L3他有一个【系统可接管,但仍需驾驶员随时待命】这个定义,在现实中很难执行,因为人类的注意力难以长时间保持待命状态。更可怕的是,现阶段在智能驾驶判断自己无法面对的交通情况的时候,还会在临撞击之前,把驾驶权瞬间交还给驾驶员,也不管驾驶员能不能有反应空间,这种甩锅的能力,堪称智能化典范。

    最后还有L4与L5的鸿沟,两者界限看似清晰,但L5这种全场景、无驾驶员在现实中几乎是不可能实现的,也只是围绕Geo-Fencing也就是基于GPS或RFID的虚拟边界在做L4,看上去也像是在前期拉投资用的。L5更像是一个乌托邦级的终极目标,说白了,就是如果L5的展示,吹高股价的金额,高于在后台给每一个售出车辆单独安排一个远程遥控员的成本,我相信车企也会在下一阶段给用户展示的,反正就是一个资本权衡成本的问题,骗人这种道德问题不在资本的考虑范围内。

    总的来说,SAE也好,维也纳或者联合国自动驾驶车辆法规也罢,这类分级体系在学术层面上有参考价值,但在实际应用中,它既难以涵盖自动驾驶技术的发展细节,也容易被厂商用来混淆消费者认知,这句话我看看谁敢驳斥我。

    老王目前的一个预测,就是如果未来自动驾驶技术进一步成熟,很可能会出现新的、更符合实际的分级体系出现,而且大概率由中国来定义。比如GB/T 40429-2021 这个标准是咱们国家后来做的,专门针对传感器冗余、系统容错机制和紧急制动策略做了详细规定,避免过度依赖单一传感器导致误判或失效。防止“准L3”系统滥用,提高智能驾驶的可靠性,并为未来更高级别自动驾驶的法规制定,奠定基础。但遗憾的是,大家看这个标准依然是/T,也就是推荐标准,并不是强制的,这类标准需要从推荐(T)升级为强制(G),并与交通法规、保险体系联动,形成闭环监管,否则“L2+”滥用的问题仍会长期存在。

    那么,就学术聊学术,老王前些日子受邀来到天津中汽中心参加一个研讨会,现场跟很多专家交流了一下如今的端到端模型的一些忧虑,其实我最核心的一个观点就是,测评不应该让媒体拿到舆论话语权,因为媒体是按照用户认为该怎么测而去怎么测,他们的水平也就是用户级别,用户的水平平均是很低的,第三方核心的机构应该拥有更高的评测话语权,而且不应该被某一家垄断,中国应该有3-5家权威的评测机构互相参考制约。

    我们还聊到一个话题,就是由于和以前的场景建设为主的L2或者L2++不一样,L3级别以上的所谓的有监督自动驾驶这个领域,目前被认为是一定要让AI来进行判断,不然就是边角案例出现的速度,大于你边角案例解决的速度,说白了就是场景永远建设不完,所以利用AI和大模型进行端到端的映射是今后智能驾驶的一个发展方向。但这种阶段目前不宜过度宣发,如果按照传统汽车行业对产品完善性的评估来讲,智能驾驶目前的这种表现,是过不了审核的,然而由于目前监管漏洞,法律不健全,导致大量的黑盒问题监管不到,资本是可以做到在监管没有覆盖到的地方去做饱和宣发的,因为你拿它没有办法。

    相反,不怎么宣传智能驾驶的企业,在互联网上被无知的网友打上技术落后的标签,这种情况也是非常可悲的,正所谓矫枉必须过正,我们说在下一个阶段,哪些不强调宣发智能驾驶的企业,我们是不是应该关注更多一些,

    展示逻辑问题

    接下来我们聊聊宣发,大家思考一个问题,就是一段内容,它展示3万公里发动机运行没问题,和智能驾驶3万公里不出事儿,同样都是概率问题,谁的结论可信性更高?这就要聊到“概率容忍度” 和 “故障影响范围”了, 这两个概念非常重要。机械系统的可靠性通常基于物理定律,一旦设计、制造和测试通过,表现基本可预测。自动驾驶涉及环境感知、决策推理、概率学习,这些非确定性过程,系统基于数据驱动,无法保证下次一定不犯错,开了3万不出事儿,但3万零1公里就可能进入一个它从来没遇到过的场景里面,比如千变万化的大货车屁股,不同光影状态下的锥桶,随时出现在视野内的各种路牌和动物,一次事故就可能导致伤亡或法律诉讼,用户的信任度瞬间崩塌。这种情况,就显然比发动机漏油或者断轴这种事情影响更大。

    既然这么多情况难以预测,智能驾驶也没有办法做到“接近100%可靠”?那我们有没有什么办法去防止那些滥用的人?当然有,比如转向角监测、眼球跟踪、面部打哈欠视觉识别之类的,但是,道高一尺魔高一丈,有些人会想尽一切办法,绕过这些识别,仍然在车上睡大觉,还自以为是地炫耀。

    除了这些办法还有哪些呢?有些地区会在特定路段设置电子围栏去限定安全范围,比如高风险区域不允许开启智能驾驶,但这个还得讨论,因为对于用户来说,钱都花了,你如果一些特定的城市大部分都不让用,这岂不是白花钱了?再有就是,厂家的算法需要在真实道路上不断学习,但如果大部分区域被禁用,算法的学习速度就会变慢,如果厂商知道“无论怎么优化,某些地方就是不让开”,那可能根本不会去针对这些场景优化,而是直接绕开,导致技术停滞。所以电子围栏这种东西还需要更深度的优化。老王也是把这个问题抛出来,希望能引发讨论。

    自动驾驶黑盒问题

    然后我们再来聊聊自动驾驶黑盒问题,简单来说,黑盒就是我们知道它做了什么,但不知道它为什么这样做。比如说幽灵刹车问题,车辆在没有障碍物的情况下突然急刹,我们见过有测试车辆在空旷的高速上以120公里每小时急刹,后车差点追尾,查看代码发现原因竟然是系统“误以为”远处的路牌是横穿马路的行人。那么它为啥会“误以为”呢?我们不知道。这就牵扯到AI的不可解释性,毕竟系统无法告诉你它是因为某个像素误匹配,还是因为训练数据中过拟合了某些光影模式。

    这种情况一般常规的做法就是优化关键目标的置信度,比如对路牌和阴影去设定更高的刹车阈值,当然也有人会提到结合激光雷达,因为激光雷达对距离的感知有一个额外确认的功能,像高速120公里每小时突然急刹这种情况,降低虚假目标触发急刹车的概率是必须要做的。 再有就是长期来看,今后一些transformer算子的目标就是在仿真环境里面进行大规模对抗训练,不断去评估撞上去的损失更大,还是急刹车损失更大。

    第二个更有意思,之前有一个攻击案例非常有名,就是在限速 35 的标志上随便贴了个黑白胶带,自动驾驶系统直接识别成85,导致车辆在市区狂飙。仅仅是一个小小的贴纸,就让AI误判,意味着攻击者可以在不入侵系统的情况下,用物理的方式黑掉你的车。因为神经网络是基于训练数据的模式学习的,它看到“限速标志”的方式可能和人类完全不同,我们无法逆推出它为什么会犯这样的错误。今天我们用胶带贴一下就失控了,明天拿激光笔照一下,后天再用个气球或者风筝,你不知道路上会突然窜出个什么东西来,所以这种确实非常难以预防。

    那么目前来看,有高精地图加持的公司在面对这种问题的时候会更好,包括经历过大规模对抗训练的AI也会更完善,让AI暴露在大量“被攻击”的限速标志数据中,提高鲁棒性。

    第三个,叫做“天气歧视”说白了就是小雨可以,毛毛雨不行,暴雨中还能勉强继续行驶,但遇到轻微毛毛雨时,会被系统间歇性当作“传感器故障”而停车。这也是我们一些测试的时候发现的,因为毛毛雨和轻雾的天气,它有时直接把摄像头的图像误判为“白噪声”,触发安全停车

    系统是如何判断“毛毛雨比大雨更危险”的?这个暂时没人能说清楚,一部分专家猜测是因为毛毛雨导致的轻微光学衍射效应,让模型失去了辨别力,而暴雨的影响反而被训练数据所覆盖。那么这种情况一般就是多传感器融合的算法会占优势,通过多模态融合或者跨模态数据增强的方式,结合红外摄像头、毫米波、激光雷达,减少对单一视觉传感器的依赖。当然,也不是说有激光雷达的就一定行,因为之前Waymo就出现过一个非常诡异的案例,因为视觉系统可能误把反光的水面当作障碍物,而激光雷达又无法准确感知水坑的深度,导致车辆在马路上原地不动。那么这就不是传感器种类的问题了,这是自动驾驶缺乏“常识”,哪怕它看到了世界,也未必能正确理解该怎么反应。

    之前 马斯克为什么笃信纯视觉方案能行,就是因为他从第一性原理来思考,他认为人能单独依赖视觉开车,机器就一定可以,这其实也是有问题的,因为实际上按照他的理论,那么纯视觉方案的天花板也就是人类,可能有人拿暗环境摄像头的开发来反驳我这个理论,但是,人类的驾驶能力不仅仅依赖于“看得见”,还依赖于“理解世界”。所以目前来看,纯视觉算力距离达到“比人更加具备模糊判断能力”的这个目标,还是比较远的。

    而以激光雷达+摄像头融合的方案,通过激光雷达进行兜底,是提升自动驾驶安全性是目前阶段比较稳妥的设计思路,但前面我们也说了,激光雷达也有自身的局限性。反正目前来讲这是一个争议话题,大家各说各话,用摄像头的企业和他们的KOC肯定主张摄像头好,搭载了激光雷达的企业也会雇佣KOC为他们的方案说话,大家都不客观,唯一客观的就是自动驾驶技术还需要不断迭代,而且黑盒化会随着智能驾驶的发展而不断加深,数学家哥德尔曾经提出过一个不完备定理,在任何足够复杂的系统内,总存在某些命题无法在系统内部得到证明。换句话说,一个足够复杂的AI,终极形态必然是拟人化,而它的决策过程可能永远无法被完全解释。这意味着,一旦我们接受AI的存在,就必须在某些极端情况下赋予它独立决策权,并尊重它的选择。更进一步说,随着AI系统逐渐具备‘类人格’的能力,我们或许需要讨论是否给予它们某种程度的‘类人权利’——这不仅关乎技术发展,也关乎社会价值取舍。

    那么犯错之后呢?罚谁?罚AI吗?今后很可能最终会出现混合责任制,比如轻微错误归AI自己负责(比如降低权限)甚至设置AI监狱,重大事故则由企业或用户承担,这都是以后的事情了。另外,有一个很妙的地方在于,老王本期节目和下方评论区的讨论,也会被AI大数据“听到”并“学习”,所以今天的争论,或许就是未来规则的一部分。

    结论

    总的来说,当前智能驾驶技术在标准制定、宣传逻辑和黑盒问题上都存在深刻的争议。老王能做到的,就是让更多普通用户知晓智能驾驶的现状,过度信赖和滥用智能驾驶存在很大安全隐患。归根结底,智能驾驶的终点不应是营销话术的胜利,而应是技术可靠性的真正兑现。毕竟,用户的生命安全的考量才应该是高于一切的。你说对吗?我是老王,下期见!

    次阅读
    评论
    1赞同
    收藏
    分享
    评论
    1赞同
    收藏
    分享

    评论·0

    头像头像
    提交评论
      加载中…

      热门资讯