过往轨迹预测方法并不具备流式处理的能力,必须特别为每一个待预测的交通参与者分别计算一套专有的场景编码,以达到更高的预测精度,导致产生出极大的计算负担。
本次鸿海研究院与香港城市大学所提出的 QCNet 是一种智慧型轨迹预测模型,其主要优势在于能够理解真实驾驶场景的全局资讯,活用和 ChatGPT 相同技术基础的 Transformer 架构,将其修改为适用于自动驾驶场景,使其学习车辆历史轨迹,车辆间交互行为、道路环境等多样性与不确定性,得到丰富的场景反馈。
QCNet 可在复杂的道路环境捕捉车辆的多种潜在意图、超长距离预测未来 6 至 8 秒内的运动轨迹、可同时对场景中的多个目标进行准确的预测,并可将编码器的计算效率提升 85%以上。
除了高效精准的预测,QCNet 为交通场景中包括车道、斑马线、车辆、行人等在内的每一个场景元素分别建立了一套局部座标系,在场景元素所对应的局部座标系下学习表征,并通过相对时空位置编码来捕捉不同场景元素之间的相对关系,从而得以避免大量重复的计算并最终提升模型的即时计算效率。
鸿海研究院人工智慧研究所栗永徽所长表示,鸿海研究院在 AI 与自 动驾驶领域投入大量人力,从基础模型以及算法核心精进技术, QCNet 能够在 Argoverse 1 与 Argoverse 2 取得排名第一的佳绩, 并且将于今年6月全世界 AI 领域享誉全球的顶级会议 CVPR 发表, 很欣慰看到本所自驾团队的研发成果受到世界级的肯定,未来 QCNet 可应用于集团电动车自动驾驶系统,大幅提升自动驾驶决策的实时性与安全性。
爆料信箱:news@nextapple.com
★加入《壹苹》Line,和我们做好友!
★下载《壹苹新闻网》APP
★Facebook 按赞追踪