国产精品在线视频资源|av人人人人操爱香蕉视频|AAA黄色片子黄色a级片视频|亚洲综合视频网2|成人免费网站观影|国产天堂AV在线播放资源|成人无码精品一区二区黑寡妇在线|论理聚合视频一区二区三区|在线无码视频一区二区|淫荡人妻不卡av

  1. 首頁
  2. 車訊
  3. 用車
  4. 2025中國智駕開發(fā)者50人(第五期)

2025中國智駕開發(fā)者50人(第五期)

第一電動張芳超

2025年度,誰在推動智駕進步?我們推出《2025中國智駕開發(fā)者50人》系列,分5期刊發(fā),這是第五期。

入圍的80多位候選人,絕大多數(shù)在國內(nèi),少數(shù)在國外,個別是海外華人。他們的研發(fā)成果,體現(xiàn)在過去兩年里發(fā)生的兩次智駕拐點上。但其中的大部分,都很低調(diào)。

入圍的標準有兩條(個別極其優(yōu)秀者例外):

1、2025年內(nèi),在全球頂會頂刊發(fā)表高引論文的第一作者(含合著團隊);

2、2025《智駕天梯榜》年度榜單上榜方案商和主機廠的核心研發(fā)人員。

經(jīng)過核實與比對,最終挑選出50位有代表性的人物。他們的身份,大體分四類:

1、學術研究者,在頂會頂刊上發(fā)表高引論文的作者(含合著團隊);

2、研發(fā)組織者,定投資、定方向、定目標、定范式、定團隊的人,類似奧本海默;

3、研發(fā)骨干,負責某一個具體方向的研發(fā)統(tǒng)籌,并和兄弟們一起拼搏出成果的人;

4、產(chǎn)品和工程負責人,負責產(chǎn)品定義、用戶交互、工程實施的人,做出了非常棒的產(chǎn)品體驗,或者保障了連續(xù)的工程交付表現(xiàn)。

繼第一期推薦11篇卓越論文的作者們,第二期記錄理想汽車、小鵬汽車和Momenta,第三期記錄特斯拉和華為,第四期記錄博世中國、地平線、文遠知行的智駕產(chǎn)研和工程負責人之后,本期(第五期),記錄蔚來、小米、極氪、元戎啟行的智駕的關鍵人物。 

1、李斌:布道者的轉(zhuǎn)身

職位:蔚來創(chuàng)始人、董事長、CEO

圖片.png

2024年底的蔚來還深陷“虧損泥潭”,被外界質(zhì)疑能否活過2025年;而到2025年底,蔚來不僅實現(xiàn)12月交付量突破4.8萬臺、第四季度摸到盈利門檻,更在智駕領域站穩(wěn)自研腳跟,完成了一場驚艷的“逆襲”。這場反轉(zhuǎn)的核心推手,正是創(chuàng)始人李斌。

2025年對蔚來而言是生死存亡的關鍵一年,智駕領域更是深陷“研發(fā)投入受限+核心團隊調(diào)整”的雙重困境,而李斌作為企業(yè)掌舵人,用精準決策和務實舉措帶領公司破局,不僅守住了生存底線,更為智駕發(fā)展找準了方向,其核心貢獻集中在兩大維度:

一是推動公司全面“瘦身”,為智駕保留核心生存空間

面對企業(yè)瀕臨危機的現(xiàn)狀,李斌率先啟動“思想+經(jīng)濟”雙重瘦身改革,核心思路是“摒棄虛耗、聚焦核心、以結(jié)果為導向”。

曾經(jīng)的的蔚來,管理上的確有點“大戶人家”的壞毛病。而李斌本人也像個理想主義的領袖,因為他有著宏大的夢想,內(nèi)心充滿了對未來美好生活的期待,總想給用戶最好的,但結(jié)果就是成本控制一塌糊涂。

2025年,李斌最狠的一刀,是砍向了自己。在經(jīng)濟層面,他果斷壓縮非必要開支,尤其是與核心業(yè)務無關的個性化投入,把有限資金集中傾斜到智駕等關乎企業(yè)未來發(fā)展的關鍵領域,即便整體研發(fā)預算受到制約,也最大程度保障了智駕核心研發(fā)的基本需求,避免因資金斷檔導致項目停擺。思想層面,他統(tǒng)一全公司思想,打破過去部分“重理想、輕結(jié)果”的慣性,強調(diào)“生存優(yōu)先”的核心目標,讓包括智駕團隊在內(nèi)的所有部門都圍繞“實際成效”開展工作,減少無效內(nèi)耗,提升決策和執(zhí)行效率。這一系列舉措不僅緩解了公司的資金壓力,更讓資源配置更趨合理,為智駕團隊在困境中堅持研發(fā)、尋求突破提供了必要的土壤。

二是智駕戰(zhàn)略重大調(diào)整:從“多路并行”到“聚焦世界模型”,明確發(fā)展方向

2025年是蔚來智駕面臨壓力的一年:一方面企業(yè)為了求生存,不得不壓縮成本開支,研發(fā)投入、研發(fā)進展、算力部署都受到影響;另一方面核心團隊出現(xiàn)重大調(diào)整。但在重壓之下,李斌做出了關鍵決策,智駕戰(zhàn)略由多線作戰(zhàn),聚焦到任少卿這里做世界模型?!耙虻湹酶!边@個決定成為了2025年蔚來智駕的轉(zhuǎn)折點。

過去蔚來智駕同時推進多個技術方向,分散了有限的人力、財力和算力資源,導致進展緩慢、難以形成突破。如今,聚焦核心,將所有智駕研發(fā)資源收攏到任少卿團隊,推行世界模型的研發(fā)體系。這種模式能實現(xiàn)從技術研發(fā)到落地應用的貫通,減少部門間的協(xié)調(diào)成本,讓資源集中發(fā)力于核心目標,快速明確了智駕發(fā)展的核心方向。

2025年,李斌的核心貢獻在于“以生存為底線,以聚焦破困局”。他通過全面瘦身改革為企業(yè)守住了生存根基,更在智駕領域的關鍵節(jié)點做出精準決策,摒棄了分散資源的落后模式,以世界模型聚焦研發(fā)的戰(zhàn)略,讓蔚來智駕在投入受限、團隊調(diào)整的雙重壓力下,不僅沒有停滯,反而明確了發(fā)展路徑、凝聚了核心力量。最終,蔚來不僅打贏了2025年的生存戰(zhàn),更讓智駕能力擺脫了過去的落后狀態(tài),同時,為2026年加大AI投入,增加了更多的籌碼,充分體現(xiàn)了他在企業(yè)危機時刻的決策力和擔當。

2026年一季度,中國智能駕駛將迎來真正的交鋒時刻。特斯拉“滿血版”FSD將在華全面落地、小鵬第二代VLA即將內(nèi)測、華為ADS4.1強勢來襲、地平線和Momenta等供應商也蓄勢待發(fā)。蔚來能否憑借世界模型2.0,在智駕“戰(zhàn)國時代”脫穎而出,答案即將揭曉。

2、任少卿:蔚來智駕的“靈魂”

職位:蔚來汽車副總裁、智能駕駛研發(fā)首席專家

圖片.png

任少卿在2025年,為蔚來在智駕技術突破方面做出了里程碑式貢獻,精準解決了蔚來智駕發(fā)展中的核心技術瓶頸問題。

一、2025年核心突出貢獻

1、主導蔚來世界模型研發(fā)落地

任少卿在2025年10月蔚來CNCC技術論壇上,系統(tǒng)披露了其團隊主導的蔚來世界模型(NWM)核心進展——構(gòu)建出具備深度理解與預測能力的通用時空認知系統(tǒng),這一成果并非單純的技術概念,而是已進入工程化驗證階段,為蔚來下一代智駕系統(tǒng)奠定了核心技術框架。該模型的落地,讓蔚來智駕從場景化功能堆疊轉(zhuǎn)向通用化認知決策,成為行業(yè)內(nèi)少數(shù)實現(xiàn)這一技術跨越的車企之一。

在世界模型研發(fā)中,任少卿提出“安全優(yōu)先的時空認知”技術路徑——區(qū)別于行業(yè)內(nèi)部分企業(yè)追求炫技式功能,他帶領團隊先聚焦事故率降低核心目標,通過強化學習讓模型持續(xù)學習不同場景下的安全駕駛邏輯,同時融合激光雷達、攝像頭、毫米波雷達的多模態(tài)數(shù)據(jù),構(gòu)建360度無死角的環(huán)境認知體系,確保模型的決策安全性與準確性。

2、以奠基性技術獲國際頂級榮譽

2025年11月,任少卿領銜團隊憑借十年前提出的“FasterR-CNN”技術,斬獲人工智能領域頂級獎項——NeurIPS(神經(jīng)信息處理系統(tǒng)大會)“時間檢驗獎”,成為首位獲此殊榮的中國學者。這一獎項被譽為“AI界奧斯卡”,其核心價值在于認可該技術經(jīng)過十年產(chǎn)業(yè)驗證,對全球AI發(fā)展產(chǎn)生了深遠影響。對蔚來而言,這一榮譽不僅打破了國際市場對中國車企“技術跟隨”的刻板印象,更直接提升了蔚來智駕技術的行業(yè)話語權與用戶信任度。

二、重點解決的核心問題

1、蔚來的世界模型是什么?

2024年7月底,任少卿在2024 NIO IN(蔚來科技創(chuàng)新日)上發(fā)布蔚來世界模型(NIO World Model,簡稱NWM),宣布蔚來智駕從“感知驅(qū)動”轉(zhuǎn)入“認知驅(qū)動”的新階段。

蔚來的世界模型,是車端實時決策的大腦,采用云端訓練+車端推理的雙架構(gòu),直接通過生成式模型(如SORA)從原始傳感器數(shù)據(jù)生成控制指令,跳過語言中間層,為動態(tài)場景生成軌跡規(guī)劃。

蔚來這種一步到位、在車端構(gòu)建一個平行世界引擎的設想,堪稱大膽。僅“通過自監(jiān)督學習直接處理原始傳感器數(shù)據(jù),無需人工標注”這一條,就把所有友商都比了下去。

其底層邏輯,是把“感知-決策-控制”整合為統(tǒng)一的生成式模型,現(xiàn)看、現(xiàn)想、現(xiàn)做,一切都在車端瞬間完成。這是通用人工智能的表征,如果實現(xiàn),絕對是“顛覆式創(chuàng)新”。

2、蔚來的世界模型與華為、理想的世界模型有什么區(qū)別?

首先華為華為智駕走的是“車端是世界模型,云端是世界引擎”的道路,華為的WA,也就是world action,中間省掉language 這個環(huán)節(jié),直接通過 vision 這樣的信息輸入控車,而不是把各種各樣的信息轉(zhuǎn)成語言,再通過語言大模型來控制車?!?/p>

其次華為強調(diào)多傳感器融合算法(主要是攝像頭和激光雷達)形成精準數(shù)據(jù),降低車端模型的算力要求,主算需求置于云端;而蔚來則希望在車端通過視覺生成模型+自主監(jiān)督學習一棧式解決問題,其技術構(gòu)想更激進、車端算力要求更高。 

另外,華為智駕高度依賴標注數(shù)據(jù)與仿真生成的混合訓練,而蔚來則強調(diào)采用無監(jiān)督學習與自監(jiān)督學習,直接處理原始傳感器數(shù)據(jù)。也就是說,華為走的是一條“規(guī)則引擎+端到端模型”的混合路線,而蔚來走的則是一條純數(shù)據(jù)驅(qū)動路線。

與理想的世界模型相比,雖然兩者都叫世界模型,但蔚來的WM,和理想提出的世界模型,也有著根本性的不同。理想的世界模型則以“仿真訓練+場景驗證”為核心,主要部署在云端,作為端到端+ VLM系統(tǒng)的“考試系統(tǒng)”。蔚來的世界模型,則是車端實時決策的大腦,采用云端訓練+車端推理的雙架構(gòu)。

3、為什么需要世界模型,它相比VLA的有什么不同?

任少卿認為VLA 路線的優(yōu)勢在于:短期效果明顯、與大語言模型生態(tài)協(xié)同度高、在復雜語義理解上表現(xiàn)突出。

但是,這是一條借鑒語言模型已經(jīng)驗證的路徑。它的本質(zhì)是在現(xiàn)有的語言模型基礎再加上一個vision到language的插件,或者說一個轉(zhuǎn)碼器。雖然這樣的方式借助了VLM來獲取更多互聯(lián)網(wǎng)數(shù)據(jù),但距離理想中將絕大多數(shù)真實世界數(shù)據(jù)都轉(zhuǎn)化為模型能力還差得很遠。

因而,在實踐中就會出現(xiàn)一個問題:語言模型及其各種變體對于真實世界的理解存在缺陷,或者說能力上限不夠高。

例如,如果用當前的通用語言模型或 VLM 去詢問關于速度、距離、安全的問題,它們可能給出定性的回答,但定量回答往往不準,包括對物理規(guī)律的理解也是如此。

這種對真實三/四維時空認知的缺失,根源在于當前大語言模型的訓練數(shù)據(jù)以文本為主,圖像為輔,視頻數(shù)據(jù)極少。未來語言模型可能會融入更多視頻和數(shù)據(jù),但現(xiàn)狀就是如此。

他認為僅靠圖像是學不到這些物理量的,必須基于視頻等,人類需要知道視頻中的物體是如何運動的,才能學到這些東西。

因而,要做好智能駕駛,就需要一種更新的能力,這是為什么還需要世界模型的根本原因。目前,蔚來正在直接利用海量視頻數(shù)據(jù)來訓練自動駕駛或機器人的技術模型。

4、強化學習解決了什么問題?

圖片.png

首先,模型的邏輯性更好,因為訓練中加入了代碼、數(shù)學題等能夠明確判斷對錯的數(shù)據(jù),解決問題的范式發(fā)生了根本轉(zhuǎn)變,不再是Code 1.0的遇到問題添加規(guī)則,也不是Code 2.0 遇到問題添加數(shù)據(jù),而是轉(zhuǎn)變?yōu)橛龅絾栴}我給你打分。

模型輸出結(jié)果后,系統(tǒng)根據(jù)好壞給予正負反饋,讓模型自行學習應該生成什么樣的結(jié)果。在這個過程中,首先機器會有自監(jiān)督過程的。主要路徑則有兩種:一種是reward分數(shù)器,另一種是使用數(shù)據(jù),比如說人類行為反饋的數(shù)據(jù),讓reward反推出來。

比如,在通過左轉(zhuǎn)路口時,構(gòu)建一個仿真環(huán)境,并在該環(huán)境中,設定一條目標線。車輛成功越過給予獎勵,且用時越短獎勵越高。如此循環(huán)訓練,當然,過程中會有一些更細節(jié)的專家數(shù)據(jù)約束,比如如果壓實線,我再給你扣兩分等。除此之外,幾乎沒有其他復雜規(guī)則。具體在哪個點位變道,如何安全通過三條車道,這些都由模型自己在仿真中探索解決。

這樣做的好處主要有兩點:第一,沒有增量數(shù)據(jù),只要仿真環(huán)境中能構(gòu)建出類似的路口場景,邏輯上來說就是泛化。第二,它沒有復雜的規(guī)則,也就避免了規(guī)則之間的沖突。

3、葉航軍:小米智駕突破的“領航者”

職位:小米集團技術委員會主席、小米汽車自動駕駛部總經(jīng)理

圖片.png

背景:

2012年加入小米,負責云技術并籌建人工智能部,擔任人工智能部總經(jīng)理。2021年小米宣布造車時,其主動請纓擔任自動駕駛部總經(jīng)理,團隊核心成員包括分管端到端技術的陳光、負責VLA的陳龍及主導L3項目的王乃巖。截至2025年,其領導的智駕團隊規(guī)模超1800人(含108位博士)。

主要貢獻:

葉航軍作為小米智能駕駛業(yè)務總負責人、集團技術委員會主席,同時也是小米汽車初始17人核心團隊成員,憑借清華計算機博士背景及在Google、騰訊的技術積淀,在2025年成為小米智駕從“追趕者”躍入“行業(yè)第一陣營”的關鍵推手。精準解決了小米智駕此前存在的“場景覆蓋不足、系統(tǒng)響應滯后、用戶體驗差”等核心問題。

一、2025年核心突出貢獻:從技術到產(chǎn)品的跨越式突破

1、主導“端到端+VLM”技術架構(gòu)落地

2025年,葉航軍的核心技術貢獻是推動小米智駕完成從“基于規(guī)則的模塊化架構(gòu)”到“數(shù)據(jù)驅(qū)動的端到端架構(gòu)”的關鍵轉(zhuǎn)型,并融合視覺語言模型(VLM)形成“端到端+VLM”的新一代技術。該架構(gòu)通過單一神經(jīng)網(wǎng)絡覆蓋“環(huán)境感知-決策規(guī)劃-行為控制”全流程,徹底打破傳統(tǒng)模塊化架構(gòu)中“感知、決策、控制”各環(huán)節(jié)的信息損耗,使智駕系統(tǒng)的駕駛行為更接近人類(如復雜路口避讓、變道博弈更自然),而非機械化的功能堆疊。

2、帶領團隊實現(xiàn)3個大版本的高效迭代

在葉航軍的統(tǒng)籌下,2025年小米智駕團隊創(chuàng)造了“1年迭代3個重大版本”的紀錄:從2025年初的“300萬Clips端到端版”,到年中的“1000萬Clips端到端版”,再到年底的“HAD增強版”落地,完成了雷軍提出“進入第一陣營”的目標。同時,他推動“三地研發(fā)中心(北京、上海、深圳)同步開發(fā)”模式,將算法優(yōu)化、仿真測試、實車驗證等環(huán)節(jié)并行推進,使單個版本的研發(fā)周期大幅度縮短。

二、重點解決的核心問題:直擊小米短板

1、破解“極端場景識別延遲”的安全隱患,彌補事故暴露的技術漏洞

2025年3月,小米SU7曾因“施工路障識別延遲”引發(fā)事故,暴露了傳統(tǒng)“毫米波雷達+視覺”融合方案的局限性,在特殊路況下兩種傳感器數(shù)據(jù)無法有效互補,導致系統(tǒng)誤判。葉航軍針對該問題快速推動技術升級,在端到端架構(gòu)中加入“多模態(tài)數(shù)據(jù)冗余融合”邏輯。

2、突破“邊緣場景(CornerCase)處理能力不足”的行業(yè)共性難題

傳統(tǒng)智駕系統(tǒng)對“不常見物體(如路邊石墩)”“非標準路況(如無標線鄉(xiāng)村路、臨時改道路段)”的處理能力薄弱,這也是小米此前用戶投訴的主要痛點。葉航軍通過強化VLM視覺語言模型的應用,從根源解決該問題,VLM模型能將“視覺圖像”轉(zhuǎn)化為“語義理解”,例如識別出“消防栓=不可碰撞障礙物”,并結(jié)合人類駕駛數(shù)據(jù)訓練出“靈活繞行策略”。

如果說雷軍是小米汽車的“精神領袖”,那么葉航軍就是小米汽車2025年智駕突破的核心推動者,從技術架構(gòu)到產(chǎn)品落地的領航者。他和他的團隊,完成了小米智駕從0到1再到10的關鍵跨越。

4、陳光:小米智駕技術落地的”操盤手“

職位:小米智能駕駛端到端技術負責人

圖片.png

背景:

陳光畢業(yè)于美國密蘇里大學電子計算機系,獲博士學位,并在人工智能頂級會議(如CVPR、NeurIPS)發(fā)表多篇論文,專長于計算機視覺與AI領域。??

曾任百度Apollo美國研發(fā)中心感知系統(tǒng)技術負責人,主導自動駕駛感知技術研發(fā)。??曾擔任一汽南京研究院CTO,負責一汽集團自動駕駛業(yè)務整體架構(gòu),并帶領團隊開發(fā)紅旗第三代L4級全無人Robotaxi。??

2025年5月正式加入小米汽車,出任輔助駕駛感知負責人,向小米輔助駕駛負責人葉航軍匯報。??其核心職責包括:

?統(tǒng)一管理所有智能駕駛路線的預研團隊?,涵蓋WA(世界行為模型)、VA(視覺-行動模型)等主流技術路徑,確保小米在技術探索上不“一刀切”,而是以用戶體驗為最終標準。??

?主導端到端技術路線的研發(fā)?,推動小米智能駕駛從高精度地圖向無圖方案演進,并在2024年3月SU7上市后實現(xiàn)“一年追三代”的技術迭代。??

?協(xié)調(diào)團隊資源?,小米智能駕駛團隊采用三條戰(zhàn)線并行架構(gòu),除端到端和VLA(視覺-語言-行動模型)外,其他路線預研均由陳光直接統(tǒng)籌。??

主要貢獻:

作為小米汽車端到端算法與功能部負責人,陳光在2025年主導完成小米智駕從“數(shù)據(jù)驅(qū)動”到“認知驅(qū)動”的關鍵跨越,同時通過多路線預研規(guī)避技術風險,是小米智駕追趕的關鍵核心。

1、主導端到端智駕系統(tǒng)落地,實現(xiàn)“認知驅(qū)動”技術跨越

陳光在2025年的核心成果,是帶領團隊完成三次重大端到端(HAD)系統(tǒng)推送,最終在廣州車展發(fā)布“XiaomiHAD增強版”,標志著小米智駕正式邁入“世界模型+強化學習”的認知驅(qū)動階段。

2025年2月:向全量用戶推送“300萬Clips端到端版本”,首次實現(xiàn)小米智駕從“規(guī)則驅(qū)動”到“端到端驅(qū)動”的轉(zhuǎn)變,復雜城市場景響應速度較傳統(tǒng)方案大幅提升;

2025年7月:推送“1000萬Clips端到端版本”,通過更大規(guī)模數(shù)據(jù)訓練優(yōu)化模型泛化能力;

2025年11月:在廣州車展發(fā)布“XiaomiHAD增強版”,首次引入“世界模型+強化學習”框架,使系統(tǒng)具備“理解場景因果、自主探索策略”的能力——縱向跟車加減速、橫向變道策略更平順。

2、統(tǒng)籌多路線預研,構(gòu)建小米智駕“技術護城河”

面對2025年智駕行業(yè)“VLA(視覺語言行動)、VA(視覺輔助)、WA(世界模型輔助)”路線混戰(zhàn)的局面,陳光提出“主路線攻堅+全路線預研”策略,避免小米陷入“技術掉隊”風險。他帶領團隊深耕端到端技術,將其作為現(xiàn)階段量產(chǎn)核心,親自管理“路線預研團隊”,完成對WA、VA等市面所有主流路線的系統(tǒng)性研究(VLA路線由陳龍單獨負責),形成“端到端為主、多路線備份”的技術儲備——無論未來行業(yè)風向如何變化,小米均能快速切換技術方案。

3、推動安全輔助功能升級

在技術迭代的同時,陳光同步主導安全輔助功能的優(yōu)化,填補小米智駕在低速防護與緊急避讓的短板,新增前向低速防碰撞輔助(LAEB,覆蓋1-135km/h)、后向低速防碰撞輔助(RAEB,覆蓋1-30km/h),支持墻壁、立柱等靜態(tài)障礙物識別;新增緊急轉(zhuǎn)向輔助(AES),在80-135km/h高速場景下,當制動無法避撞時,系統(tǒng)可300毫秒內(nèi)完成“識別-決策-避讓”,且設定“能剎不繞”優(yōu)先策略,確保安全冗余。

重點解決的核心問題:直擊行業(yè)痛點

4、突破強化學習在智駕應用的兩大行業(yè)難題

智駕行業(yè)內(nèi)強化學習技術落地面臨“世界模型保真度不足”與“并行探索效率低”的雙重瓶頸,陳光帶領團隊針對性解決,在世界模型中植入“海量可編輯數(shù)字資產(chǎn)”,模擬極端天氣(暴雨、大霧)、復雜路口等場景,確保虛擬環(huán)境與真實路況的一致性,使模型訓練效果可遷移至實車;再通過設計“場景分層探索策略”,簡單場景減少探索以節(jié)省算力,復雜場景(如加塞、施工路段)增加探索頻次,結(jié)合異步并行訓練架構(gòu),使模型單日可積累相當于人類駕駛員多年的虛擬駕駛經(jīng)驗,大幅縮短訓練周期。

陳光團隊的世界模型并非單純的“仿真工具”,而是具備“場景編輯+因果推理”的核心能力??勺远x生成“天氣(晴/雨/霧)、路況(施工/加塞/特殊路口)、交通參與者(行人/非機動車/大型車)”等參數(shù),生成10萬+種復雜場景,可覆蓋大部分的真實駕駛痛點;還可以通過生成式AI模擬“不同駕駛決策的后果”(如“不減速會撞向護欄”“變道會與后車剮蹭”),使模型理解“為何需要這樣駕駛”,而非單純模仿人類操作,例如在復雜路口,系統(tǒng)能提前規(guī)劃路徑,避免“走錯車道”。

另外,陳光團隊不盲目追求數(shù)據(jù)規(guī)模,而是通過“數(shù)據(jù)篩選+閉環(huán)迭代”提升模型效果。通過高價值場景(如暴雨天施工路段、無標線鄉(xiāng)村路)”訓練,確保數(shù)據(jù)質(zhì)量;并建立“路采-訓練-OTA-反饋”閉環(huán),通過實車路采數(shù)據(jù)反哺模型優(yōu)化,然后OTA推送給用戶后,再收集用戶使用數(shù)據(jù)(如接管場景、投訴反饋),進一步迭代,形成“數(shù)據(jù)越用越優(yōu)”的良性循環(huán)。

5、陳龍:小米智駕技術的”革新者“

職位:小米智能駕駛VLA負責人

圖片.png

背景:

陳龍是小米智能駕駛VLA技術負責人,2025年加入小米,主導開發(fā)了統(tǒng)一具身智能與自動駕駛的開源模型MiMo-Embodied,并入選《麻省理工科技評論》亞太區(qū)“35歲以下科技創(chuàng)新35人”。MiMo-Embodied模型已應用于小米YU7車型,端到端系統(tǒng)基于1000萬Clips數(shù)據(jù)訓練,提升輔助駕駛溝通與推理能力。??推動小米“輕量化+端側(cè)部署”AI戰(zhàn)略,通過XLA大模型整合手機、汽車、家居生態(tài),強化“人車家全生態(tài)”競爭力。

2025年加入小米前,任英國AI公司W(wǎng)ayve主任科學家,專注純視覺端到端自動駕駛技術研發(fā)。????

主要貢獻:

1、將VLA模型引入小米智駕,定義“可解釋決策”

2025年,陳龍的核心技術貢獻,是將視覺-語言-行為(VLA)模型首次系統(tǒng)性應用于小米智能駕駛,打破傳統(tǒng)端到端系統(tǒng)“只執(zhí)行、不解釋”的局限,VLA模型通過“視覺感知+自然語言理解+行為決策”三模態(tài)融合,讓智駕系統(tǒng)具備“用語言思考、用邏輯解釋”的能力,例如減速時會主動輸出“正在減速,因為預測到右側(cè)行人可能橫穿馬路”,變道時會說明“即將變道,因前方車輛速度低于限速20km/h”,徹底解決傳統(tǒng)系統(tǒng)“黑盒決策”導致的用戶信任度不足問題。

2、主導跨域開源模型MiMo-Embodied研發(fā),打通“具身智能+自動駕駛”技術壁壘

圖片.png

陳龍團隊在2025年發(fā)布首個統(tǒng)一具身智能與自動駕駛的開源模型MiMo-Embodied,解決行業(yè)長期“兩領域技術割裂”的難題:

一是性能領先性:該模型在17項具身智能任務(如物體抓取、空間規(guī)劃)和12項自動駕駛?cè)蝿眨ㄈ鐖鼍案兄⑿袨轭A測)中全部取得領先,其中在“RoboRefIt物體定位”“CODA-LM復雜場景理解”“DriveLM駕駛規(guī)劃”等核心基準上均排名第一,部分任務精度較行業(yè)專用模型提升15%-22%;

二是工程價值:模型基于小米MiMo-VL基座模型開發(fā),首次證明“空間理解、因果推理”等底層智能能力可跨域遷移——例如機器人識別“桌面物體可操作部位”的能力,能幫助汽車更精準判斷“道路護欄、施工圍擋”的邊界,以及汽車處理“動態(tài)交通流”的邏輯,并可優(yōu)化機器人的“避障路徑規(guī)劃”。

陳龍主導的MiMo-Embodied模型通過“跨域訓練框架”,讓模型同時掌握“識別桌面杯子可抓取部位”(具身任務)與“識別道路護欄不可碰撞”(自動駕駛?cè)蝿眨┑哪芰?,底層的“空間理解、動態(tài)預測”能力可相互遷移,避免小米在兩個領域“重復造輪子”,為后續(xù)機器人、智能家居與汽車的協(xié)同奠定基礎。

3、推動XLA大模型落地

在VLA基礎上,陳龍進一步研發(fā)XLA多模態(tài)大模型(擴展視覺、聽覺、激光雷達等更多模態(tài)),并于2025年在小米YU7車型上實現(xiàn)規(guī)?;涞兀?/p>

落地效果:小米YU7搭載基于1000萬Clips數(shù)據(jù)訓練的XLA端到端系統(tǒng),復雜路況處理能力顯著提升,縱向加減速平順性更好(避免“急剎急加速”),橫向變道決策速度更快(應對突發(fā)加塞更及時),窄路會車、無標線鄉(xiāng)村路等長尾場景的“接管率”更低。

研發(fā)支撐:陳龍推動小米投入專項資源保障落地——截至2025年中,小米汽車智駕投入測試車輛超400臺,同時聯(lián)動小米AI實驗室,將MiMo基座大模型的算力與數(shù)據(jù)能力注入XLA模型,縮短訓練周期40%。

4、破解傳統(tǒng)端到端系統(tǒng)的“黑盒+長尾”雙重困境

傳統(tǒng)智駕端到端系統(tǒng)依賴千萬級視頻數(shù)據(jù)模仿人類駕駛,存在兩大致命問題:無法解釋決策邏輯(黑盒)、無法應對未見過的場景(長尾)。陳龍通過VLA/XLA模型從根源解決這兩個問題,面會黑盒問題,VLA模型的“語言推理模塊”讓系統(tǒng)能輸出決策邏輯,例如識別“潮汐車道”后,會解釋“檢測到潮汐車道,當前可通行”,用戶可清晰理解系統(tǒng)行為依據(jù);遇到長尾問題,XLA模型引入“互聯(lián)網(wǎng)通識數(shù)據(jù)”(如交通規(guī)則、物理常識),面對未訓練過的場景(如臨時施工路段、三輪車橫穿),可通過“常識推理”生成策略——例如根據(jù)“施工圍擋=禁止通行”的常識,自動規(guī)劃繞行路線,無需依賴預設場景庫。

6、王乃巖:小米L3自動駕駛落地的”守護者“

職位:小米汽車自動駕駛技術負責人

圖片.png

背景:

王乃巖,2015年于香港科技大學計算機科學專業(yè)獲博士學位,現(xiàn)任小米汽車自動駕駛技術負責人。高中階段保送浙江大學計算機專業(yè),大二時期獲得ACM國際大學生程序設計競賽亞洲區(qū)域賽金牌,博士期間成為全球首個將深度學習技術應用于目標追蹤領域的學者,相關研究成果被計算機視覺與機器學習領域頂級會議收錄,并作為MXNet深度學習框架核心開發(fā)者。

2015年加入自動駕駛企業(yè)圖森未來,深度參與北京公司算法團隊組建及校招工作,2019年升任圖森未來中國首席技術官,主導L2輔助駕駛與L4自動駕駛系統(tǒng)研發(fā)。2023年9月在第三屆商用車自動駕駛大會上提出基于全冗余架構(gòu)的L4技術路徑,發(fā)布整合域控制器的TS-Box方案和節(jié)油領航智駕系統(tǒng)。

2024年3月從圖森未來離職后,于5月23日經(jīng)官方確認加入小米汽車,負責自動駕駛技術研發(fā),該人事變動被視為主機廠吸納自動駕駛高端人才的標志性案例。

主要貢獻:

2025年核心突出貢獻:L3技術與安全體系搭建。

1、主導L3級自動駕駛技術攻堅

王乃巖團隊在2025年的核心成果,是推動小米L3級自動駕駛在“高速封閉場景+城市快速路”兩類核心場景下實現(xiàn)技術閉環(huán),達成“駕駛員無需持續(xù)監(jiān)控”的關鍵目標,這一進展使小米成為國內(nèi)少數(shù)完成L3特定場景技術驗證的車企之一。

2、構(gòu)建“全方位冗余體系”,填補L3級自動駕駛的安全漏洞

針對L3級自動駕駛“系統(tǒng)失效即引發(fā)安全風險”的核心隱患,王乃巖主導設計“架構(gòu)+硬件+算法”三位一體的冗余方案,徹底解決傳統(tǒng)智駕系統(tǒng)“單一故障即癱瘓”的問題,該方案被《汽車工程》期刊評價為“L3安全設計的標桿案例”。

架構(gòu)冗余:搭建獨立的“主控制系統(tǒng)+備用控制系統(tǒng)”雙鏈路,供電、通訊、計算模塊均配備備份(如主電源失效時,備用電源可在50ms內(nèi)切換供電),確保任一模塊故障時,系統(tǒng)仍能穩(wěn)定運行;

硬件冗余:推動小米智駕硬件“全系標配多模態(tài)傳感器冗余”,車輛搭載激光雷達、攝像頭(覆蓋360°無死角)、毫米波雷達(冗余感知),避免單一傳感器失效導致的感知盲區(qū);

算法冗余:開發(fā)“多源數(shù)據(jù)交叉校驗算法”,讓激光雷達與攝像頭的感知結(jié)果實時比對,例如激光雷達檢測到“前方有障礙物”而攝像頭未識別時,系統(tǒng)不直接決策,而是啟動“毫米波雷達二次確認+減速觀察”,避免單一數(shù)據(jù)誤判,若偏差超過閾值(如±5cm),系統(tǒng)自動啟動“保守駕駛策略”(減速至安全車速),避免因數(shù)據(jù)誤判引發(fā)事故。

3、牽頭制定L3級自動駕駛合規(guī)與安全體系,為落地鋪路

王乃巖深知L3落地不僅是技術問題,更需突破“責任界定、法規(guī)適配”的行業(yè)瓶頸。2025年,他帶領團隊完成三大合規(guī)準備工作,為小米L3后續(xù)量產(chǎn)落地掃清障礙,一是明確責任邊界:聯(lián)合小米法務部與行業(yè)協(xié)會,制定《L3級自動駕駛責任劃分白皮書》,明確“系統(tǒng)激活狀態(tài)下,因系統(tǒng)故障導致的事故由車企承擔主要責任;駕駛員未按要求接管時,責任歸駕駛員”,該白皮書成為國內(nèi)車企L3責任界定的重要參考;二是定義ODD(運行設計域):通過梳理全國31個省市的道路法規(guī)與路況特征,明確小米L3的“適用場景清單”(如排除雨雪冰凍天氣、無標線道路),并在車載系統(tǒng)中實時顯示“當前場景是否支持L3模式”,避免用戶誤觸發(fā);三是設計人性化接管機制:開發(fā)“多級預警+漸進式接管請求”系統(tǒng)——提前10秒通過語音、燈光、方向盤震動發(fā)出預警,若駕駛員未響應,系統(tǒng)先逐步減速,最終在安全區(qū)域停車,避免“緊急接管導致駕駛員慌亂”。

2025年,王乃巖的核心價值在于他是小米L3的“安全守護者”,他沒有停留在“L3技術炫技”,而是通過“全方位冗余”解決安全核心痛點,為小米L3從“技術驗證”走向“量產(chǎn)落地”奠定關鍵基礎。

7、印奇:千里智駕的“操盤手”

職位:千里科技董事長、曠視聯(lián)合創(chuàng)始人

a8850661d68d75827516f5ae274f6469.jpg

背景:

2006年考入清華大學自動化專業(yè),后入選清華大學姚期智實驗班,2010年獲計算機科學學士學位,后赴香港中文大學學習。2013年獲得哥倫比亞大學計算機科學碩士學位,研究方向為人工智能。

2011年與唐文斌、楊沐聯(lián)合創(chuàng)辦北京曠視科技有限公司,擔任執(zhí)行董事、董事會主席、首席執(zhí)行官。

2024年11月當選力帆科技(現(xiàn)更名為千里科技)董事長,2025年1月提出全面擁抱“AI+車”戰(zhàn)略,2月,公司更名為千里科技,并與與吉利汽車、階躍星辰成立千里智駕合資公司,專注于L4級別智能駕駛技術解決方案研發(fā)。

2025年3月聯(lián)合吉利發(fā)布“千里浩瀚”智駕系統(tǒng),并提出超自然人機交互、自動駕駛?cè)媛涞丶败嚶?lián)網(wǎng)大模型升維三大趨勢。8月,吉利將極氪智駕團隊、吉利研究院智駕團隊及曠視旗下邁馳智行合并入千里智駕。9月,獲得吉利控股集團董事長李書福授權管理千里智駕,宣布公司AI+車核心業(yè)務轉(zhuǎn)型完成初步布局。

主要貢獻:

印奇在2025年以“智駕新人”的身份切入行業(yè),卻憑借對AI技術的深刻理解與產(chǎn)業(yè)整合能力,成為千里科技“AI+車”戰(zhàn)略的核心操盤手。他的首要貢獻,是為千里科技明確“以AI為核心,覆蓋智駕、智艙、智行”的業(yè)務布局,徹底擺脫前身“力帆科技”的傳統(tǒng)汽車業(yè)務局限,轉(zhuǎn)向智能出行領域。他主導推出“千里智駕(L2+到L4級方案)、千里智艙(自然交互座艙)、千里智行(Robotaxi)”三大業(yè)務線,形成“技術-產(chǎn)品-服務”的完整閉環(huán)。其中千里智駕,作為核心板塊,2025年已落地1.0版本(分基礎版/專業(yè)版/旗艦版,覆蓋100-700TOPS算力,適配不同價位車型),2025年底發(fā)布L3級2.0版本。

8、陳奇:極氪智駕的“開路人”

職位:千里智駕聯(lián)席CEO、吉利控股集團首席智駕科學家、極氪智能科技副總裁

7ee08d7c2e6f0c60ac984119eaa2641b.jpg

背景:

陳奇于2003年獲取西安交通大學碩士學位,隨后加入華為。2015年,華為成立車聯(lián)網(wǎng)實驗室,陳奇負責自動駕駛,是華為智駕第一人。2019年5月,華為正式成立智能汽車解決方案業(yè)務部(車BU),陳奇被任命為華為自動駕駛研發(fā)部部長,全面負責華為自動駕駛產(chǎn)品的研發(fā)工作,為華為汽車業(yè)務元老之一。在此期間,他主導了華為第一代自動駕駛系統(tǒng)的全棧研發(fā),實現(xiàn)了從0到1的突破,為華為在智能駕駛領域奠定了堅實基礎。

2021年陳奇加入吉利旗下的極氪汽車,擔任自動駕駛業(yè)務副總裁,完成了極氪自研智駕從0-1的搭建。2025年,隨著吉利內(nèi)部智駕團隊的整合,陳奇被任命為千里智駕的聯(lián)席CEO,同時兼任吉利控股集團首席智駕科學家。

主要職責:

極氪智駕團隊一號位,完成自研團隊從0-1的搭建,負責千里智駕技術的研發(fā)工作,特別是高階智駕方案的迭代與量產(chǎn)。2025年在“一個吉利”的戰(zhàn)略下,陳奇主導完成吉利集團旗下智駕方案的統(tǒng)一,并發(fā)布全新“千里浩瀚”品牌,并主導千里浩瀚系統(tǒng)中高端平臺(如H5、H7、H9)的研發(fā),負責從硬件方案到軟件架構(gòu)的全棧開發(fā)設計、并發(fā)布了無圖城市NOA、車位到車位領航乃至L3級自動駕駛/L4Robotaxi功能的開發(fā)。

主要貢獻:

1、實現(xiàn)極氪自研智駕從0到1的突破,并躋身”智駕四小龍“

在極氪期間,陳奇用兩年時間完成了極氪智能駕駛系統(tǒng)的全棧自研,突破了高階智駕的技術瓶頸,實現(xiàn)了躋身第一梯隊的能力。在陳奇的領導下,極氪僅用10個月就完成了從自研發(fā)布到無圖城市NOA全國上線,并且是國內(nèi)最早一批實現(xiàn)車位到車位功能量產(chǎn)的車企,并且不斷精進主動安全產(chǎn)品設計,發(fā)布了720°主動安全產(chǎn)品,并且是國內(nèi)最早量產(chǎn)連續(xù)緊急避讓G-AES的車企。

除了功能交付外,在陳奇的帶領下,完成了技術方案的快速迭代,2024年極氪智駕方案全面進入端到端時代,并發(fā)布數(shù)字先決網(wǎng)絡;2025年升級至全新的SmartAIAgent架構(gòu),隨著云端WMA和車端多模態(tài)VLA大模型的上線,體驗有了飛速進化,在2026年1月,極氪搭載“千里浩瀚”H7方案的極氪7X榮獲獲第一電動舉辦的智駕大賽溫洲站第三名。

2、“一個吉利”戰(zhàn)略下推動千里浩瀚品牌發(fā)布及產(chǎn)品矩陣量產(chǎn)交付

2025年3月,在”一個吉利“的政策下,陳奇主導推動了吉利智駕方案的技術路徑統(tǒng)一,并發(fā)布了全新“千里浩瀚”品牌。該系統(tǒng)分為H1-H9五個等級,覆蓋包括極氪、領克、銀河等吉利集團旗下不同價位車型,實現(xiàn)了硬件、算力、軟件與交付功能的標準化和平臺化。H5方案開始具備無圖城市NOA能力交付,并實現(xiàn)在售車型標配激光雷達方案。H9方案最高算力達到1400Tops,是首個與全球領先英偉達Thor-U芯片合作的方案,可進階至L3高階自動駕駛功能。2026年CES,吉利正式統(tǒng)一了千里浩瀚軟件版本名G-ASD,并且實現(xiàn)了僅用8個月的時間,讓H7方案在吉利13款車型的量產(chǎn)上車。

3、L3高階自動駕駛方案的量產(chǎn)突破

2025年,陳奇主導的千里浩瀚H9方案在9X發(fā)布實現(xiàn)量產(chǎn)上車,是行業(yè)為數(shù)不多支持L3的旗艦標桿方案。H9方案實現(xiàn)了行業(yè)首個三重冗余設計,包括行業(yè)首個5激光雷達硬件方案,可實現(xiàn)3重360°全維感知覆蓋。采用兩顆英偉達Thor-U芯片,算力高達1400Tops,行業(yè)同級領先。車端和云端升級至SmartAIAgent架構(gòu),均搭載兩大模型互為備份冗余。H9目前已經(jīng)實現(xiàn)了無圖園區(qū)漫游及涉水逃生能力。2026年1月,在陳奇的帶領下,搭載千里浩瀚H9的極氪9X已獲得杭州市L3級自動駕駛道路測試牌照。是目前全國通行面積最大、里程最長的L3級自動駕駛測試牌照。

9、楊沐:千里浩瀚落地的“推動者”

職位:千里智駕CTO

2841dc22b8a44cbf16c25c2de16dc67e.jpg

背景:

楊沐,本科畢業(yè)于清華大學姚期智實驗班,曾獲國際信息學奧林匹克競賽(IOI)金牌。2011年,楊沐與印奇、唐文斌共同創(chuàng)立曠視科技。楊沐負責個人物聯(lián)網(wǎng)移動業(yè)務的研發(fā)管理工作,帶領團隊在設備安全領域?qū)崿F(xiàn)全球首款2D人臉解鎖智能手機、首款安卓3D結(jié)構(gòu)光人臉解鎖智能手機及屏下指紋技術創(chuàng)新;在計算攝影領域首創(chuàng)AI+CV超畫質(zhì)算法,助力多品牌在DXO評測中取得高分并實現(xiàn)屏下攝像頭商業(yè)化。他提出以AI重新定義光感知系統(tǒng),主導移動業(yè)務成為消費電子領域重要解決方案供應商。

2025年,楊沐擔任千里智駕首席技術官(CTO)。

主要貢獻:

楊沐作為千里智駕首席技術官(CTO),是千里智駕“高含模量”技術路線的核心設計者與落地推動者,主導了從技術架構(gòu)搭建、核心大模型研發(fā)到產(chǎn)品方案量產(chǎn)。

2025年核心突出貢獻:從技術架構(gòu)到產(chǎn)品落地的突破

1、主導“端到端Plus”技術架構(gòu)落地

楊沐的核心技術貢獻,是帶領團隊研發(fā)并落地“端到端Plus”架構(gòu),打破傳統(tǒng)智駕“感知-融合-決策-規(guī)劃-控制”的模塊化割裂,實現(xiàn)全流程一體化智能,成為千里智駕“高含模量”路線的技術底座。新架構(gòu)從兩段式進化為一段式端到端,將感知(多傳感器數(shù)據(jù)處理)、預測(交通參與者行為判斷)、決策(駕駛策略生成)、規(guī)劃(路徑設計)、控制(轉(zhuǎn)向/剎車執(zhí)行)整合為單一神經(jīng)網(wǎng)絡,通過“數(shù)據(jù)直接驅(qū)動控制輸出”復刻人類優(yōu)秀駕駛員的駕駛邏輯,避免模塊間信息損耗——例如在重慶“8D路況”中,系統(tǒng)可直接根據(jù)攝像頭、激光雷達的原始數(shù)據(jù),輸出“避讓匝道匯入車輛+減速過彎”的連貫控制指令,無需人工拆分規(guī)則;同時,該架構(gòu)使復雜場景(如無保護左轉(zhuǎn)、高速加塞)的響應速度和決策連貫性大幅度提升。

2、牽頭研發(fā)RLM多模態(tài)大模型

針對行業(yè)“含模量低、規(guī)則依賴重”的痛點,楊沐主導與階躍星辰合作,研發(fā)“基于強化學習的多模態(tài)大模型(RLM)”,成為千里智駕“高含模量”路線的核心AI底座。2025年6月,RLM大模型隨“千里智駕1.0”方案同步發(fā)布,通過“基礎大模型預訓練-智駕數(shù)據(jù)特訓-強化學習優(yōu)化”三階段開發(fā),實現(xiàn)“通識能力+垂域適配”的雙重優(yōu)勢,既能理解“臨時施工圍擋=需繞行”的交通常識(源于多模態(tài)基礎大模型),又能精準應對“無標線鄉(xiāng)村路、夜間遠光干擾”等智駕專屬場景(源于智駕數(shù)據(jù)特訓)。RLM模型使千里智駕系統(tǒng)的“含模量”從傳統(tǒng)方案的40%-50%提升至70%以上(2025年底接近80%),安全兜底規(guī)則的觸發(fā)頻率降低大幅度降低。

3、搭建數(shù)據(jù)閉環(huán)體系

楊沐深知“數(shù)據(jù)是AI智駕的核心燃料”,2025年他主導構(gòu)建“數(shù)據(jù)采集-訓練-驗證-部署”的全流程閉環(huán),支撐RLM模型與端到端架構(gòu)的持續(xù)迭代。數(shù)據(jù)規(guī)模與質(zhì)量依托吉利體系內(nèi)數(shù)萬輛L2+級車輛,實現(xiàn)每天上萬公里真實路況數(shù)據(jù)采集,重點標注“長尾場景(如無標線道路、臨時施工)、復雜交互(如人車混行、加塞博弈)”等高價值數(shù)據(jù),為模型訓練提供高質(zhì)量樣本;再通過“影子模式”(智駕系統(tǒng)在后臺同步運行并對比人類駕駛決策)篩選高價值數(shù)據(jù),經(jīng)自動化標注工具處理后,72小時內(nèi)可完成模型微調(diào)并推送OTA,使系統(tǒng)在跨區(qū)域路況(如北方冰雪路、南方多雨路)的適配能力提升。

4、突破“大模型實時性與車端算力矛盾”的工程化瓶頸

大模型推理需海量算力,而車端算力有限(如經(jīng)濟型車型僅100TOPS),傳統(tǒng)方案易出現(xiàn)“推理延遲超安全閾值”的問題。楊沐主導研發(fā)“AgentOS智能體操作系統(tǒng)”解決該矛盾,AgentOS可動態(tài)調(diào)配車端“GPU/NPU(負責模型推理)+CPU(負責規(guī)則執(zhí)行)”的算力資源——例如城市道路場景下,70%算力分配給RLM模型用于復雜決策;高速場景下,50%算力用于模型,50%預留備用,確保推理時延穩(wěn)定在80ms以內(nèi)(遠低于100ms的車規(guī)安全閾值);并將RLM模型的車端部署體積壓縮40%,在100TOPS算力的經(jīng)濟型車型上仍能流暢運行基礎版城市NOA功能。

10、周光:元戎啟行的“領路人”

職位:元戎啟行CEO

40fe688c324b7ba34643f3eee58a7a25.jpg

背景:

全國青少年電腦機器人大賽金牌及亞太區(qū)第六名獲得者,清華大學基礎科學班畢業(yè),德克薩斯大學達拉斯分校人工智能博士。求學期間,曾在清華大學高能物理研究中心參與科研工作,后前往美國師從FarokhBastani攻讀人工智能博士學位。博士期間主導德州儀器Kilby實驗室自動駕駛項目,獲大疆開發(fā)者大賽全球總冠軍,2016年加入百度美國研究院自動駕駛事業(yè)部。

2019年,周光創(chuàng)立元戎啟行。

主要貢獻:

2020年,元戎啟行率先布局“無圖”技術路線,2023年發(fā)布不依賴高精度地圖的智能駕駛解決方案DeepRoute-Driver3.0。

2024年,元戎啟行率先推出基于端到端模型的輔助駕駛平臺DeepRouteIO,這也是國內(nèi)首個不依賴高精度地圖、使用端到端模型的智能駕駛方案。

2025年8月,元戎啟行發(fā)布全新一代輔助駕駛平臺DeepRouteIO2.0,該平臺搭載自研的VLA(Vision-Language-Action)模型。目前,采用元戎啟行VLA模型的首批量產(chǎn)車型已經(jīng)進入消費市場。

據(jù)《中國智能駕駛行業(yè)趨勢白皮書(2025)》 顯示,2025年1-10月國內(nèi)第三方城區(qū)NOA市場元戎啟行累計搭載量約12萬至15萬臺,累計市場份額約23%;其中2025年10月單月,元戎啟行在國內(nèi)第三方城區(qū)NOA市場份額占比約38%,排名第一,增長倍數(shù)為2.7倍。

截至2025年底,搭載元戎啟行輔助駕駛系統(tǒng)的量產(chǎn)車輛交付超過20萬臺,覆蓋車型超過15款。一年多時間,元戎啟行市占率從零起步迅速攀升,至2025年10月單月市占率近40%,穩(wěn)居行業(yè)第一梯隊。

2025年,周光帶領元戎啟行成為第三方智駕供應商中的“黑馬”,在技術路線、產(chǎn)品交付、未來業(yè)務布局三大維度實現(xiàn)突破。

1、VLA模型與“無圖+端到端”量產(chǎn)上車

周光基于對AI技術趨勢的判斷,2025年推動元戎啟行完成從“端到端”到“VLA(視覺-語言-行動)模型”的技術躍升,持續(xù)強化“無圖化”核心優(yōu)勢。2025年1月正式發(fā)布VLA模型,實現(xiàn)“視覺感知+語言理解+動作決策”三模態(tài)融合——系統(tǒng)可通過自然語言推理處理復雜場景(如“識別‘施工圍擋’+理解‘需繞行’+輸出‘減速變道’指令”),在遮擋場景處理、防御性駕駛等方面全面超越傳統(tǒng)端到端模型,成為行業(yè)首個量產(chǎn)VLA技術的第三方供應商。

2、實現(xiàn)突破的核心技術與方法

周光主導的VLA模型開發(fā),實現(xiàn)“從理論到量產(chǎn)”,首先是基于GPT啟發(fā)的ScalingLaw(規(guī)模效應),融合多模態(tài)基礎大模型(圖像、文本),讓系統(tǒng)具備“物體識別、語義理解”的通識能力(如識別“消防栓=不可碰撞”);其次是,用20萬輛量產(chǎn)車的路測數(shù)據(jù)微調(diào)模型,強化“交通場景專屬認知”——例如“虛線變道=可操作”“行人招手=可能橫穿”,使模型在智駕場景的決策準確率提升;最后在VLA模型外增設“規(guī)則安全層”,若模型輸出指令超出安全范圍(如急剎力度過大),安全層立即接管,確保量產(chǎn)落地的可靠性。

11、劉軒:元戎啟行VLA技術的“落地者”

職位:副總裁、技術合伙人

圖片.png

劉軒作為元戎啟行技術合伙人&副總裁,2025年深度參與元戎啟行核心技術研發(fā)、方案量產(chǎn)推進,是VLA(視覺-語言-動作)模型落地與DeepRouteIO2.0平臺推廣的關鍵推動者。

1、主導VLA模型工程化驗證,推動技術從“實驗室”到“用戶端”

作為VLA模型核心研發(fā)團隊成員,他推動模型四大核心功能(空間語義理解、異形障礙物識別、文字類引導牌理解、記憶語音控車)的工程化適配,確保技術能匹配量產(chǎn)車型需求——例如針對“文字類引導牌”功能,他牽頭完成全國30余個城市“潮汐車道、公交專用道、待轉(zhuǎn)區(qū)”等動態(tài)路標的數(shù)據(jù)標注與算法優(yōu)化,使該功能在復雜路標場景的識別準確率達92%以上。

2、推動DeepRouteIO2.0平臺商業(yè)化落地

劉軒深度參與元戎啟行新一代輔助駕駛平臺DeepRouteIO2.0的推廣與客戶對接,為2025年量產(chǎn)交付量爆發(fā)提供關鍵支撐。2025年8月DeepRouteIO2.0發(fā)布后,劉軒牽頭對接車企客戶,推動平臺實現(xiàn)“多模態(tài)(激光雷達/純視覺)+多芯片+多車型”的靈活適配——截至10月,基于該平臺已達成5個車企定點合作項目,覆蓋SUV、MPV、越野車等品類,首批搭載車型(如長城旗下車型)于2025年四季度陸續(xù)進入市場。

3、解決傳統(tǒng)輔助駕駛“盲區(qū)風險預判不足”的安全痛點

傳統(tǒng)基于CNN的端到端模型(如BEV架構(gòu))存在“視野受限即無法預判風險”的短板——例如公交車遮擋、橋洞盲區(qū)、草叢遮擋等場景,系統(tǒng)無法提前感知潛在危險,易引發(fā)“鬼探頭”事故。劉軒通過VLA模型的“空間語義理解”功能破解該問題,推動VLA模型融入“思維鏈推理”能力,可模擬人類駕駛邏輯,通過“空間關系預判”感知盲區(qū)風險(如“公交車右側(cè)大概率有行人橫穿”),在風險出現(xiàn)前1-2秒主動減速,而非事后響應。

1、破解“異形障礙物識別與語義理解脫節(jié)”的行業(yè)難題

智駕系統(tǒng)對“施工錐桶、超載三輪車、打傘行人”等非標準障礙物,僅能識別“存在障礙物”,無法理解其具體屬性(如“超載=更難制動”“打傘=可能遮擋視線”),導致決策保守或誤判。劉軒主導的VLA模型對“異形障礙物識別”功能針對性解決,讓VLA模型融合語言模塊與基礎大模型能力,可解析障礙物的語義信息(如“識別超載三輪車-判斷其制動距離更長-提前加大跟車距離”),而非單純的“障礙物檢測”;針對暴雨天“行人打傘遮擋身形”這一高頻痛點,他牽頭優(yōu)化模型的視覺-語言融合邏輯,使系統(tǒng)在極端天氣下對非標準行人的識別率提升。

2、突破“動態(tài)路標理解滯后”的問題

國內(nèi)道路存在大量“潮汐車道、公交專用道、臨時施工標識”等動態(tài)路標,傳統(tǒng)方案依賴高精地圖更新,無法實時適配,易引發(fā)違章或事故。劉軒推動VLA模型“文字類引導牌理解”功能解決該問題,他主導模型的“深層語言理解+邏輯推理”優(yōu)化,使其能實時解析文字路標含義(如“‘潮汐車道’當前方向-調(diào)整車道選擇”“‘左轉(zhuǎn)不受燈控’臨時標識-判斷通行規(guī)則”),無需依賴地圖更新;同時,在與長城等車企的合作中,他牽頭針對不同地區(qū)的路標差異(如南方“待轉(zhuǎn)區(qū)”、北方“可變車道”)做定制化優(yōu)化,確保功能在全國范圍的適配性。

來源:第一電動網(wǎng)

作者:張芳超

本文地址:http://www.cbbreul.com/carnews/yongche/286434

返回第一電動網(wǎng)首頁 >

收藏
3
  • 分享到:
發(fā)表評論
新聞推薦
第一電動網(wǎng)官方微信

反饋和建議 在線回復

您的詢價信息
已經(jīng)成功提交我們稍后會聯(lián)系您進行報價!

第一電動網(wǎng)
-->