IT之家 10 月 31 日消息,自動駕駛公司 Waymo 長期以來一直將與谷歌 DeepMind 的聯(lián)系及其數(shù)十年的 AI 研究視為其在自動駕駛領(lǐng)域超越競爭對手的戰(zhàn)略優(yōu)勢,F(xiàn)在這家 Alphabet 旗下的公司更進一步,為其機器人出租車開發(fā)一種基于谷歌多模態(tài)大語言模型(MLLM)“Gemini”的新訓(xùn)練模型。
Waymo 今天發(fā)布了一篇新的研究論文,介紹了一種名為“端到端多模態(tài)自動駕駛模型”(EMMA)的新模型。這種新的端到端訓(xùn)練模型能夠處理傳感器數(shù)據(jù),生成“自動駕駛車輛的未來軌跡”,幫助 Waymo 的無人駕駛車輛做出關(guān)于去哪里以及如何避開障礙物的決策。
但更重要的是,這是首次有跡象表明,自動駕駛領(lǐng)域的領(lǐng)導(dǎo)者計劃將 MLLM 應(yīng)用于其業(yè)務(wù)。這意味著 MLLM 可能不僅僅局限于聊天機器人、電子郵件組織者和圖像生成器等領(lǐng)域,而是可以擴展到自動駕駛領(lǐng)域。
在研究中 Waymo 提出,傳統(tǒng)的自動駕駛系統(tǒng)通常會為感知、映射、預(yù)測和規(guī)劃等各種功能開發(fā)特定的“模塊”。雖然這種方法在過去多年中效果顯著,但也存在可擴展性問題,主要是由于模塊間的誤差積累和通信有限。此外,這些模塊由于是“預(yù)定義”的,因此面對“新環(huán)境”時適應(yīng)能力較差。
Waymo 認(rèn)為,像 Gemini 這樣的 MLLM 可以解決這些問題。首先,這些模型是經(jīng)過大量互聯(lián)網(wǎng)數(shù)據(jù)訓(xùn)練的“通才”,能提供超出常規(guī)駕駛記錄的豐富“世界知識”;其次,它們通過“鏈?zhǔn)酵评怼钡燃夹g(shù)展現(xiàn)出“卓越”的推理能力,能夠?qū)?fù)雜任務(wù)分解為一系列邏輯步驟,模仿人類的思維方式。
Waymo 表示,EMMA 模型在幫助機器人出租車應(yīng)對復(fù)雜環(huán)境方面表現(xiàn)良好。例如,當(dāng)遇到各種動物或道路施工時,EMMA 能夠幫助無人駕駛汽車找到合適的行駛路線。
IT之家注意到,特斯拉等其他公司也在大力開發(fā)其自動駕駛汽車的端到端模型。特斯拉首席執(zhí)行官埃隆·馬斯克聲稱,最新版本的 FSD 12.5.5 采用了“端到端神經(jīng)網(wǎng)絡(luò)”人工智能系統(tǒng),將攝像頭圖像轉(zhuǎn)換為駕駛決策。
這表明,在部署真正的無人駕駛車輛方面領(lǐng)先于特斯拉的 Waymo 也對追求端到端系統(tǒng)感興趣。該公司表示,其 EMMA 模型在軌跡預(yù)測、物體檢測和道路圖理解方面表現(xiàn)出色。
但 EMMA 也有其局限性,Waymo 承認(rèn),在將該模型投入實踐之前,還需要進行未來的研究。例如,EMMA 無法整合來自激光雷達或雷達的 3D 傳感器輸入,Waymo 表示這是因為“計算開銷太高”,并且一次只能處理少量圖像幀。
研究論文中未提及的另一個風(fēng)險是,像 Gemini 這樣的 MLLM 會存在“幻覺”,而無人駕駛汽車的容錯率非常有限。因此,在這些模型能夠大規(guī)模部署之前,還需要進行更多研究。