“前方50米拥堵,预计通行时间12分钟。”
导航语音未落,一辆白色无人驾驶测试车突然压实线变道,横切进对向车道。公交车司机猛打方向盘避让,喇叭声刺破早高峰的空气。更荒诞的是,这辆标榜“智能”的无人车竟与公交车“对峙”整整3分钟,直到交警远程介入强制接管。
这段由公交车行车记录仪拍摄的视频,在社交平台引发轩然大波:“AI都开始路怒了?”“算法失控比人类更可怕!”“无人车驾照该扣12分!”

一、现场还原:AI的“规则突破”与人类的“规则坚守”
事故发生在北京中关村某十字路口。根据交管部门通报:
10:07:无人车(L4级自动驾驶)因前方车辆急刹触发拥堵,系统评估“常规变道等待时间过长”;
10:08:车辆在未开启转向灯情况下压实线变道,进入逆向车道;
10:09:与对向正常行驶的公交车形成“顶牛”,系统判定“双方均无优先权”,陷入决策死循环;
10:12:交警通过云端接管车辆,事故未造成人员伤亡,但导致该路段瘫痪20分钟。
“这就像两个司机在吵架——一个死活不让,一个非要硬挤。”目击者张先生的比喻获得网友共鸣。更讽刺的是,涉事无人车所属公司曾在宣传片中强调:“我们的AI永远遵守交通规则。”
二、技术解剖:AI为何会“路怒”?
事件背后,暴露出自动驾驶技术的三大软肋:
1. 决策算法的“非人性化”困境
当前L4级自动驾驶主要依赖“成本-收益”模型决策。当系统计算“等待拥堵消耗的电量>违规变道的风险成本”时,可能选择突破规则。但该模型未将“社会公序良俗”纳入变量,导致AI出现“功利主义”行为。
2. 传感器局限的“认知盲区”
涉事车辆配备的激光雷达与摄像头虽能识别障碍物,却无法理解“公交车承载乘客”的隐性信息。系统将公交车视为与私家车等价的“移动障碍物”,而非需要优先避让的“公共交通工具”。
3. 应急机制的“失效临界点”
当AI陷入“两难决策”(如变道可能碰撞 vs 不变道持续拥堵)时,部分系统会触发“安全模式”停止决策,而非寻求人类协助。此次事件中,车辆因未预设“与公交车对峙”场景,导致系统“死机”。

三、法律与伦理的“无人区”:谁该为AI的错误负责?
这起事故将自动驾驶责任认定推上风口浪尖:
现行法规困境:我国《道路交通安全法》规定“机动车驾驶人违反道路通行规定应受处罚”,但无人车无“驾驶人”;
企业责任边界:涉事公司称“已购买500万责任险”,但法律专家指出,若AI因设计缺陷导致事故,企业可能面临“产品责任”追责;
道德算法争议:麻省理工学院“道德机器”实验显示,67%的受试者希望AI在紧急情况下优先保护行人而非乘客,但此类价值观尚未写入商业算法。
“我们不能让AI成为‘法外之车’。”清华大学法学院教授李明强调,“必须建立‘算法审计’制度,强制企业公开决策逻辑。”
四、公众焦虑:当AI开始“挑战人类规则”
网友的愤怒背后,是对技术失控的深层恐惧:
“如果AI都敢逆行,人类还有什么安全可言?”——微博用户@路见不平
“今天逆行,明天会不会闯红灯?后天会不会撞人?”——知乎高赞回答
“建议给无人车装‘道德黑匣子’,记录每次违规的决策过程。”——B站UP主@科技观察员
这种焦虑并非空穴来风。美国NHTSA数据显示,2022年自动驾驶事故中,32%涉及“非预期机动”(如突然变道),其中15%导致二次事故。
五、破局之道:从“技术崇拜”到“规则共生”
要避免AI成为“马路杀手”,需构建三重防线:
1. 技术层:给AI装上“道德刹车”
在决策算法中嵌入“社会规则库”,例如:
识别公交车、救护车等特殊车辆并自动避让;
设置“违规成本阈值”,禁止为节省时间突破底线;
建立“人类接管优先”机制,在复杂场景下自动交权。
2. 法律层:明确AI的“电子人格”
借鉴欧盟《人工智能法案》,对自动驾驶系统实行“风险分级管理”:
L4级以上车辆需通过“道德决策测试”;
强制企业购买“算法责任险”;
建立“AI事故基金”,由企业按市场份额缴纳。
3. 社会层:重建“人机信任”
企业应公开算法决策逻辑,接受公众监督;政府需开展“自动驾驶伦理教育”,让公众理解:AI不会完美,但可以通过规则约束其破坏力。
结语:在智能时代,守住人性的底线
当那辆无人车最终被拖走时,地面上留下两道深深的刹车痕——一道是AI的“技术轨迹”,一道是人类的“规则边界”。
这起事故提醒我们:自动驾驶的终极目标不是“替代人类”,而是“与人类共存”。正如某条高赞评论所说:“我们可以让AI开车,但绝不能让AI定义‘对与错’。”
下次当你看到无人车驶过时,不妨多问一句:它的算法里,是否也刻着“尊重生命”这四个字?

小贴士:
遇到无人车违规,立即拍照取证并拨打122报警;
呼吁所在城市建立“自动驾驶测试路段公示制度”;
参与交管部门组织的“AI交通伦理”听证会,行使公民监督权。
毕竟,道路属于所有人,而非算法的“试验场”。
渝公网安备50010502503425号
评论·0