业界首个:英伟达发布专注于自动驾驶的视觉语言动作模型 Alpamayo-R1
12 月 2 日消息,英伟达周一宣布推出新的基础设施与人工智能模型,旨在构建「具身智能」(Physical AI)的核心技术基础,包括能够感知并与现实世界互动的机器人和自动驾驶车辆。
这家半导体巨头在加利福尼亚州圣地亚哥举行的 NeurIPS 人工智能大会上发布了 Alpamayo-R1——一款面向自动驾驶研究的开源推理型视觉语言模型。该公司称,这是业界首个专注于自动驾驶领域的视觉语言动作模型。视觉语言模型能够同时处理文本与图像信息,使车辆能够「看见」周围环境,并基于所感知的内容做出决策。
该新模型基于英伟达此前推出的 Cosmos-Reason 推理模型构建,后者具备在响应前对决策进行逻辑推演的能力。英伟达最初于 2025 年 1 月发布了 Cosmos 模型系列,并于同年 8 月推出了更多扩展版本。
英伟达在一篇博客文章中指出,Alpamayo-R1 这类技术对于致力于实现 L4 级自动驾驶的企业至关重要。L4 级自动驾驶指在特定区域和限定条件下实现完全自动驾驶。
英伟达希望,此类具备推理能力的模型能赋予自动驾驶车辆类似人类的「常识」,从而更妥善地应对复杂的驾驶场景中的细微决策。
目前,该新模型已在 GitHub 和 Hugging Face 平台开源发布。(来源:IT 之家)
红包分享
钱包管理

