当前位置:数智频道首页 > 人工智能 > 正文

高德宣布 TrafficVLM 模型“重磅升级”:预知超视距路况,AI 带来“天眼”视角

9月19日傍晚,高德通过官方公众号宣布实现TrafficVLM(交通视觉语言模型),旨在帮助用户掌握全局交通状况,提升驾驶体验。

高德宣布 TrafficVLM 模型“重磅升级”:预知超视距路况,AI 带来“天眼”视角

在现代交通环境中,驾驶者常面临信息盲区的问题。例如,在复杂的路口穿梭时只能看到眼前的车流,无法预知百米外哪个车道即将拥堵;在畅通的高速上行驶时,也难以预见前方因轻微刹车而引发的“幽灵堵车”。这些局部视角的限制使得驾驶者难以做出最优决策。因此,此次升级的TrafficVLM模型旨在解决这些问题。

全新升级的TrafficVLM依托空间智能架构,为用户提供“天眼”视角,使他们能够全面了解全局交通状况,在复杂环境中做出更优决策。该模型赋予每位驾驶者“全知视角”的能力,不再受限于局部视野,可以更直观地预知前方路况,从容应对潜在风险。

例如,当用户前方3公里的主干道上左侧车道因一起突发追尾事故形成新堵点时,TrafficVLM会通过实时孪生交通感知到这一异常,推理识别出事故点并洞悉其发展趋势:拥堵可能会快速蔓延,形成一个长达3公里的拥堵路段。高德会在用户到达拥堵点之前,及时推送通行建议:“前方三公里突发事故,大量车辆向右并线,推荐您提前靠右行驶,注意避让应急车辆。”

通过云端调度系统的快速响应,系统在拥堵发生时即刻下发观测指令,调取第一现场的视觉数据,并基于图像中的深度信息进行智能分析,精准还原拥堵点位的空间结构与交通态势。这意味着用户不仅能直观看到“前方堵车”,更能清楚理解为何需要变道、何时该减速,以及拥堵的真实成因与范围。这种从被动接收提示到主动洞察全局的转变,让用户摆脱了“盲人摸象”般的局限,实现对复杂路况的可视化、可感知、可预判的智慧导航体验。

该模型以视觉语言模型通义Qwen-VL为底座,基于高德海量、高度还原的交通视觉数据,完成了强化学习和数据训练。

热点推送

本周关注

MORE