当马斯克高调宣称特斯拉FSD V14“感觉像活的一样,已有自我意识”,北美用户晒出其自主穿梭非铺装庭院、自动停路边让消防车的“神操作”时,美国国家公路交通安全管理局(NHTSA)的一纸调查令,却将这款“行业标杆”拽回安全争议——因涉嫌“越用越失常”,覆盖美国几乎全部历史销量的288万辆特斯拉,正面临潜在召回。特斯拉FSD又站在了技术狂欢与安全底线的十字路口。

FSD“有自我意识了”?国内才应该是FSD的最终试炼场
近期推送的FSD V14,又刷新了行业对量产车自动驾驶的认知。作为首次实现Robotaxi与量产车“同源同架构”的系统,它完成了从“辅助”到“自主”的关键跨越:千亿级参数的端到端模型重构,让导航直接融入视觉神经网络,不再依赖地图众包;用户实测中,它能在地下车库绕行找路、等用户缴停车费,甚至在无地图信息的自家庭院非铺装路上自主停靠,精准识别麦当劳取餐位、抢停空车位,更能在红灯突亮时倒车避闯、看到消防车瞬间靠边让行——这些“老司机级”操作,让北美用户直呼“牛X”,也让马斯克直言“FeelAlive”。但要我说,国内其实才应该是FSD的终极试炼场,这么多年了,也不能光让国内的车主“看热闹”啊!

FSD“越用越差”,288万辆将面临召回?
但这份智能光环,很快被安全投诉击碎。NHTSA的调查直指两大核心隐患:18起“无视红灯”投诉中4人受伤,且多起集中在马里兰州同一路口,暴露V14前版本仍需人工优化、非完全数据驱动;另有18起“走错车道”投诉,涉及冲入对向车道、越过双黄线等危险行为。截至目前,NHTSA已收到58份FSD违规事故报告,共致23人受伤。第三方机构AMCI的测试更揭示“隐蔽风险”:FSD前5分钟表现远超人类司机,易让用户放松警惕脱手脱眼,故障却在后期集中爆发,印证了“越用越差”的争议。

矛盾的焦点更显尖锐:马斯克口中“有自我意识”的智能系统,在监管层面却连基础安全保障都存疑。NHTSA明确审查方向——FSD是否提前预警、给驾驶员的响应时间是否充足、对交通信号的识别是否可靠,甚至每次OTA升级对合规性的影响有多大。而问题根源,指向端到端模型的“黑盒缺陷”:即便特斯拉自身,也难精准定位事故原因,只能靠技术重构整体提升性能。

更值得关注的是,此次调查召回范围并非仅针对开启FSD服务的用户,而是所有搭载FSD硬件的车型。尽管特斯拉过往常靠“技术迭代”化解监管压力——NHTSA常规调查周期长达18个月,等结果出炉时,FSDV15、V16或已上线;再加上法律团队降低“游走法规灰色地带”的成本,此前4起相关调查:包括远程挪车事故、恶劣天气故障,甚至2023年FSD相关死亡事故至今尚无结论——但此次288万辆的潜在召回规模,仍将“传统监管与AI快速迭代的矛盾”推至台前。

一边是“意识觉醒”的技术宣言,一边是闯红灯、逆行的安全隐患;一边是千亿参数的模型升级,一边是无法溯源的“黑盒困境”。技术探索的价值毋庸置疑,但如何让创新代价可控,仍是马斯克与监管层需共同解答的难题。当然,我国L3放开之后,也会面对这样的问题,届时又会怎么样呢?
(文/淼 文中图片来源网络,如有侵权联系删除)
渝公网安备50010502503425号
评论·0