微信邦

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 25|回复: 0

1000万Clips上车!小米辅助驾驶的新篇章

[复制链接]
发表于 2025-7-5 08:33:08 | 显示全部楼层 |阅读模式
随着小米YU7即将开启交付,「坐着舒服,用着安心,开着流畅」的新版小米端到端辅助驾驶 HAD 也将同步上线。
为了把辅助驾驶做好,小米不惜代价」。在小米汽车,这不是一句口号,更是一种开发理念——小米YU7 就是强有力证明。小米YU7 的软、硬件均搭载了行业先进配置,双管齐下做更好用的辅助驾驶
硬件方面,标配就是顶配。小米YU7 全系标配行业先进的高规格辅助驾驶全套硬件:英伟达最新 Thor 芯片,激光雷达、4D 毫米波雷达、11 个高清摄像头以及 12 个超声波雷达,新升级的感知硬件让车辆看得更远、更准,700 TOPS 旗舰芯片也为后续迭代提供充沛的算力储备。


软件方面,出厂即搭载 1000 万 Clips版小米端到端辅助驾驶系统,SU7系列搭载HAD的车型也将在7月下旬迎来OTA。
小米是行业首批量产 1000 万 Clips端到端辅助驾驶的品牌,先进技术架构为实际体验带来了质的提升。对比我们此前发布的 300 万 Clips 版本,1000 万 Clips 版小米端到端辅助驾驶系统的细节体验全面升级,其中:
  • 纵向舒适度提升57%,加减速控制更线性,拥堵跟车频繁启停时也不易晕车;
  • 绕行成功率提升67%,绕行决策果断、路线规划精准,窄路场景下碰到占道临停或会车绕行也游刃有余;
  • 路口通过率提升23%,更理解中国路口的「游戏规则」,人车混杂的城中村、老街区也顺利穿行。



同时,1000 万 Clips 版小米端到端辅助驾驶也在高速场景有了明显优化,升级后的高速领航辅助功能运行更稳定,体感更舒适。
性能显著提升的背后「1000万Clips」是关键词
为了能更直观地理解「1000 万 Clips」的重要性,我们对它做一个拆解。
首先,什么是「Clips」?Clips 指的是记录了驾驶行为的视频片段,其中包含由激光雷达、摄像头、毫米波雷达等多种传感器同步记录的多模态数据,长度一般为 30 秒至 1 分钟。
其次,「Clips」有什么用?众所周知,「端到端大模型」是一种由数据驱动的辅助驾驶技术架构。所谓「数据驱动」,是指端到端大模型通过对已有驾驶行为的学习,提炼出相应的驾驶策略,因此它高度依赖大规模的数据训练,而「Clips」就是端到端大模型的训练素材。如果把未经训练的端到端大模型比喻成一个刚报班学驾照的开车小白,Clips就类似于TA在训练过程中积累的经验,系统学习的场景越多,经验条越长,级别越高,驾驶技术就越高超。一句话概括,在Clips的数量形成规模后,如达到 1000 万这个量级,「端到端大模型」控车越自然流畅,乘坐感受越像老司机在开车
而「1000万Clips」,顾名思义,指的是有1000万段视频片段。端到端大模型通过海量素材的训练,归纳总结出足量的驾驶策略,从而让系统从容应对路上的各种情况。但是,单纯的题海战术容易陷入低效陷阱,就像让备战高考的高中生天天练100以内加减法,练得再多,恐怕也很难考上心仪的大学。「1000万Clips」的核心是为端到端大模型提供充分、有效的训练素材数据,其中不仅要包含城市道路、高速等交通秩序规范的常见场景,也要包含尽可能多的困难场景,更要保证处理这些场景时的驾驶行为要足够安全、舒适。
因此,数据的数量很重要,数据的质量更至关重要。因此,小米汽车修炼了三大绝技,以构建小米 HAD 的高质量训练素材库。
杜绝单纯的数量竞赛从源头把控数据质量
高质量数据的源头,在于高专业度的司机。对此,小米甄选专业司机数据。但什么样的司机才够「专业」?小米定义了一套专业司机评分标准包含超20项评分细则,涵盖司乘体感、安全合规、通行效率等 3 大维度,以量化司机驾驶行为,筛选足够专业的司机。


例如,驾驶安全性方面,禁止超速、禁止违反交通信号指示是基本操作,同时还会要求礼让行人以体现驾驶行为的文明感、根据不同车速保持相应的安全车距以提升车上乘客的安心感等;驾驶舒适性方面,会记录司机的千公里急加速、急制动、急转弯次数,通过避免司机的急加急减行为,保证车辆行驶平稳、减少颠簸,提升司乘的乘坐舒适感等;通行效率方面,要求在不超速的前提下保持适当车速,在确保安全的前提下快速通过路口,避免频繁变道降低通行效率等。
设定复杂要求的目的只有一个,那就是产出高质量驾驶数据。而端到端大模型的迭代是一个长期过程,高质量数据将利于大模型的后续优化提升。
专业司机也可能失误用先进技术为体验兜底
要构建高质量训练素材库,专业司机团队只是第一步。前序步骤积累了大量优秀的原始数据,但还「优秀」得不够极致。失误是人类驾驶员难以规避的问题,再专业的司机也无法保证所有驾驶行为都合乎标准。所以小米选择了优中选优的数据策略,通过智能评价系统对 Clips进行二次筛选
为了判定驾驶行为是否规范,我们设定了超 20 项场景片段(Clip)评分标准。依托云端的多模态大模型,系统可自动筛除包含不规范行为的 Clip。例如超速、跟车过近、行车不居中、误占用公交车道、不礼让行人等行为,进一步提纯 Clips 的规范性,确保提供给端到端大模型的训练素材都是符合小米标准的优秀驾驶行为
高度自动化的智能系统也保证了二次筛选的高效性。目前,这一系统可实现以天为单位的实时筛选处理,快速迭代高质量训练数据。同时,云端大模型还能针对每一个 Clip 生成相对应的场景描述标签,例如,模型会标注出单个 Clip 中是否包含待转区、是否有占道施工、是否有行人横穿等,帮助工程师完成 Clips 的快速分类,从而大幅提升后续大模型的定向训练效率。
不区分困难场景的类型都能专项特训
「1000 万 Clips」所带来的核心价值,不仅在于让端到端大模型更深刻地理解并学习「专业司机是如何把车开得更舒适」的,更在于尽可能多地帮助端到端大模型提前预习各类极端场景,从而平稳处理用户使用时遇到的突发情况。
但实际上,由于端到端大模型是一个典型的「黑盒子」,一般只能通过「输入素材 - 输出结果」的模式判断大模型的学习情况,因此传统的训练方法很难定向优化困难场景。好在,云端多模态大模型自动为 Clips生成的场景描述标签,让定向优化「黑盒子」成为可能
针对已知的薄弱场景,我们可以提取相应的场景特征,并以此为关键词,从「1000 万 Clips」中找到人类专业司机处理类似场景的模板素材,集中输入给大模型进行训练。这就像端到端大模型建立了一个「错题本」,哪个场景处理得欠妥当,就定向训练哪个场景。
例如,在环岛场景下,由于进出环岛的车辆会进行更高频次的变道,使得环岛内的车道线容易被变道车辆遮蔽,导致车道线检测不准确、车辆无法准确跟随导航行驶,环岛通过率欠佳。针对这一问题,最早我们只是粗糙地输入所有「环岛」场景进行训练,但反复几次后,环岛通过率指标提升仍不明显。后来,工程师精准筛选了「环岛车道线被变道车辆遮蔽」的场景,进行定向特训,一次训练就显著提升了车道线检测效果。最终,通过「错题本」定向优化的形式,环岛通过率较上一版本相对提升了近 30%,从而令 1000 万 Clips 版辅助驾驶在面对环岛场景时具备了更可靠的通过能力。
另一方面,针对更多无法穷举的未知困难场景,我们也能以高度自动化的形式进行针对性特训。基于 Clip 的场景描述标签,云端差异驱动学习引擎可将单个 Clip 所对应的环境输入给当前的大模型,令模型对这一场景进行相应推理,并将推理结果与 Clip 比对。
  • 如果大模型推理的结果与 Clip 中人类专业司机的处理方式一致,即针对这一场景,当前的模型已具备媲美人类专业司机的处理能力,系统无需就这一 Clip 进行重复训练,从而提升了大模型的训练效率。
  • 如果模型推理结果与 Clip 有较大差异,则说明大模型在这一场景下的处理能力仍有提升空间,则输入这一 Clip 进行训练,从而实现「自动发现薄弱场景 - 自动定向训练提升能力」的自动化迭代闭环。


1000 万 Clips 版小米端到端辅助驾驶系统交付在即,小米汽车期待能有越来越多的YU7、SU7 用户体验到小米 HAD 的进步,并继续致力于为用户打造「坐着更舒服,用着更安心,开着更流畅」的辅助驾驶。


小米汽车将坚持长期深度投入辅助驾驶领域,第一期总投资 57.9 亿,专属团队规模超 1800 人,持续投入测试车辆超过 400 台。同时,依托小米 AI 实验室的深度赋能,Xiaomi MiMo 基座大模型的能力也正加持小米辅助驾驶的研发。此外,小米也专注于深耕底层技术,近期我们联合香港大学、清华大学等顶尖院校,已开启前瞻科研的协同创新。


最后,我们也再次呼吁,辅助驾驶现阶段不是自动驾驶,请广大用户正确理解和使用相关辅助驾驶功能始终确保在紧急必要时控制车辆。小米汽车也将不断和大家分享辅助驾驶的使用经验与技巧。



回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

微信邦网联系QQ|Archiver|手机版|小黑屋|鲁公网安备 37082802000167号|微信邦 ( 鲁ICP备19043418号-5 )

GMT+8, 2025-7-20 22:43 , Processed in 0.085086 second(s), 20 queries .

Powered by Discuz! X3.4

© 2001-2013 Wxuse Inc. | Style by ytl QQ:1400069288

快速回复 返回顶部 返回列表