AI技術已歷經三代範式躍遷,從判別式AI到生成式AI、再到Agentic AI,產業形態持續升級;英偉達2025 GTC大會上,我們亦看到Robotic AI的崛起,VLA(Vision Language Action)模型爲人形機器人和智能駕駛領域帶來積極進展。我們認爲人形機器人正受益於AI大模型在語言、視覺等方面的能力演進,助力機器人泛化能力提升和交互體驗升級,看好人形機器人領域的技術創新和數據處理方式的變革驅動廣闊成長空間;自動駕駛產業從端到端向結合VLM(Vision-Language Models,視覺語言模型)的VLA技術演進,我們預期2025年有望看到VLA量產上車,VLA有望推動高階智駕商業化進程加速,建議關注Robotic AI時代人形機器人、自動駕駛等高階AI應用發展及相關產業鏈標的。


摘要

技術突破、數據創新與產業協同共同推動人形機器人向更智能、更實用的階段邁進。從技術突破來看,英偉達發布的Isaac GR00T N1克服了人形機器人海量訓練數據和泛化能力的挑战,實現了從環境理解到動作執行的高效轉化,大幅提升了人形機器人的操作能力。此外,銀河通用基於合成大數據和VLA大模型推出NaVid模型,有效解決了傳統數據收集方式成本高、效率低的問題,實現並完善了人形機器人導航追蹤等功能,具有強大泛化能力。數據創新方面,AIRSPEED數據生產平台和群核科技的SpatialVerse平台分別從數據生態和仿真技術角度,爲人形機器人訓練提供了全面、高質量的數據支持和高效的开發環境。以上成果已在零售、家居、商超、醫療和工業等實體產業中逐步應用,我們認爲產業協同有望推動人形機器人在更多領域落地,开啓人形機器人產業發展的新篇章。

英偉達軟硬件生態夯實自動駕駛基座,從端到端到VLA的產業新技術引人矚目。結合Drive AGX Thor、Omniverse和Cosmos三大技術平台,英偉達當前可以爲汽車自動駕駛產業提供從硬件算力支撐、到自動駕駛算法以及數據引擎的完整解決方案。此外英偉達推出了全棧式安全系統Halos,針對從雲端到車端的鏈路安全進行再升級。產業動態來看,本次GTC大會中,理想、元戎啓行等企業發表了端到端、VLA等技術的最新動態,其中理想的MindVLA受到關注。我們認爲端到端已成爲自動駕駛开發的明確趨勢,同時多家企業將端到端模型和VLM模型深度融合。展望2025年,我們預計隨着VLA技術量產上車,高階智駕商業化落地有望加速落地。

風險

具身智能相關技術突破不及預期;智能汽車新技術落地不及預期;AI商業化不及預期。


英偉達宣布Agentic AI時代興起,C端硬件或成流量入口,B端生產工具有望全面升級

Agentic AI時代興起,英偉達布局Agentic AI“模型+硬件+生態”

3月18日,英偉達於GTC大會上宣布即將進入代理式AI(Agentic AI)時代。AI已經歷了三代技術範式的轉變,從判別式AI(語音/圖像識別等)到生成式AI、再到Agentic AI。Agentic AI階段將改變傳統AI的被動響應模式,讓AI具備自主推理、規劃與執行能力。

圖表1:從生成式AI邁向智能體AI

資料來源:英偉達GTC2025,中金公司研究部

英偉達全方位布局Agentic AI:1)模型方面,英偉達基於Llama-3.1开發,推出Nano(手機端)、Super(單GPU)、Ultra(多GPU)三版本模型,實現了推理速度提升5倍、復雜決策准確率提高20%[1];2)硬件方面,英偉達發布Blackwell Ultra GPU,實現復雜推理任務響應速度快至10秒;3)生態方面,英偉達與Oracle合作,通過160+AI工具與100+NIM微服務,實現爲企業提供Agent自動化解決方案。

未來展望#1:C端AI Agent或改變內容分發渠道,看好硬件流量入口發展空間

未來用戶流量或從多個APP聚合到單一Agent,並影響應用开發商格局。移動互聯網時代各類APP負責滿足不同垂類場景的需求,用戶流量平均地分散於微信(即時通訊)、淘寶(電商)、抖音(短視頻)、高德(地圖導航)等多個垂直類頭部APP,QuestMobile數據顯示各類頭部APP的MAU接近,這也使得應用开發商在市場競爭中有比較多元的生存路徑。到了Agent時代,我們認爲垂類Agent主要用於增強特定場景下的生產力,有可能會形成接近當前APP的格局;但通用Agent具備跨場景任務執行能力(如獨立甚至同時處理日程管理、商品比價、路线規劃),用戶流量不再需要分散在多個APP上,而是有可能向單一入口(Agent)聚合。因此,我們認爲當技術達到一定成熟度、即通用Agent可完全接管終端交互時,應用开發商的格局或更加趨於集中,少數擁有強勁Agent產品的廠商佔據大部分市場,因此手機廠商和互聯網廠商均在搶灘AI Agent。

內容分發權力或將轉移至AI Agent,催生手機廠商和互聯網廠商的入口爭奪。移動互聯網時代,用戶從應用商店手動下載APP、使用APP,這一行爲代表了用戶人爲地將內容分發的權利交給了某個APP(以大衆點評爲例),傳統高MAU的APP制定推送機制並借此向內容生產者(如餐飲商家)收取服務費。而在Agent(APP-less)交互模式下,APP弱化爲硬件的後台服務提供方,Agent可以通過語義理解直接調用底層API(如整合攜程攻略、頭條圖文的數據生成餐飲決策),代替APP掌握內容分發的權力,同時由於內容篩選規則的改變,其變現商業模式可能也異於當前。內容分發帶來的利潤在互聯網廠商和手機廠商的總利潤中佔據較大比重,因此我們看到手機廠商和互聯網廠商都希望能構建自己的AI Agent產品來競逐內容分發的入口控制權,建議關注消費電子終端品牌。

未來展望#2:B端企業生產工具有望全面升級

從場景化到跨領域賦能工作流程,AI Agent有望重塑B2B產業價值鏈。與通用化模型相比,特定領域數據訓練的垂直模型在延遲、准確性和成本方面具備更好的表現,且擁有強化自反饋“數據飛輪”效應。我們認爲,B端市場沉澱了海量場景化數據集,有望通過模型訓練與微調以深化場景體驗與模型的耦合程度,實現AI Agent嵌入企業客戶工作並承載業務邏輯。此外,在底層數據打通後,AI Agent可憑借跨API聯動重新整合工作流,帶動系統整體提質增效。我們認爲,AI Agent有望在B端逐步釋放AI的核心價值,實現降本提效、優化人機、人人交互協同模式並引領生產關系的變革。

圖表2:AI Agent在B端落地價值,提升B端生產效率

資料來源:甲子光年《2024年中國AI Agent行業研究報告》,中金公司研究部

企業端強調投入的產出比,賦能企業效率提升是決策核心考量。企業端在應用背後代表着巨額的資本开支、人力等資源調整成本以及战略轉型成本,B端產品的首要目標是實現提升業務效率、降低運營成本、提高創收能力等成本收入端變革,打磨交互體驗等則處於次要地位。因此,從長期視角審視,當實現產能的提升幅度超越投入成本且投資回報率ROI>1時,企業通常傾向於採取付費策略。

端到端VLA大模型對人形機器人的推動

Isaac GR00T N1

NVIDIA於2025年3月18日發布了Isaac GR00T 平台的核心成果GR00T N1,標志着人形機器人領域對海量訓練數據和泛化能力挑战的克服。Isaac GR00T 是一個研究計劃和开發平台,用於通用機器人基礎模型和數據流水线,以加速人形機器人开發。Isaac GR00T爲开發者提供基礎模型(Foundational Models)、合成動作與數據生產力鏈(Synthetic Motions & Data Generation Pipelines)、Isaac Lab與Isaac Sim和Thor機器人計算機(Thor Robotic Computer),GR00T N1是Isaac GR00T的具體成果。

圖表3:基礎模型

資料來源:NVIDIA Developer,中金公司研究部

GR00T N1是一款適用於人形機器人的通用基礎模型,基於合成數據生成、學習與仿真技術構建,受人類認知啓發而採用快、慢思維雙系統架構。慢思維系統(Vision-Language Model)基於搭載SmolLM-1.7B的NVIDIA-Eagle構建,通過視覺和語言指令解讀環境,使機器人能夠對環境和指令進行推理,並深思熟慮後規劃正確的行動。快思維系統(Diffusion Transformer)生成連續動作以控制機器人的運動,將慢思維系統制定的行動計劃轉化爲精確、連續的機器人動作。借助這套完整的合成數據生成與機器人學習流程,人形機器人开發者可在全球多種環境中,針對不同機器人形態與任務對GR00T N1進行後期訓練。

圖表4:GR00T N1工作原理

資料來源:GTC“NVIDIA GTC主題演講”,中金公司研究部

GR00T N1採用單一模型和權重集,支持在Fourier GR-1和1X Neo等人形機器人上實現操作行爲。它展現了跨多種任務的強大泛化能力,包括單臂或雙臂抓取和操作物體,以及在手臂間傳遞物品。此外,它還能執行需要持續上下文理解和綜合技能整合的復雜多步驟任務,這些能力使其在物料搬運、包裝和檢測等領域具有廣泛適用性。

GR00T N1的訓練數據形成金字塔結構:從基礎到頂峰,數據量逐漸減少,而實體特定性逐漸增強,大幅提升了訓練效率。金字塔底層是互聯網規模的網絡數據和人類視頻,提供廣泛的視覺和語言信息,捕捉人類與物體的交互,揭示自然運動模式和任務語義。中間層整合了由 NVIDIA Omniverse平台生成的合成數據。頂峰則是通過遠程操作在多種平台上收集的真實機器人數據,爲機器人能力提供精確洞察。這一訓練過程通過NVIDIA Isaac GR00T藍圖完成,僅用11小時就生成了超過75萬個合成軌跡,相當於6500小時(連續九個月)的人類演示數據。

GR00T N1在三種模擬標准和不同實景任務中都展現出出色的性能。與擴散策略(Diffusion Policy)相比,Isaac GR00T N1模型展現出更平滑流暢的動作表現,同時抓取精度大幅提升,尤其在較小的後期訓練數據集上進行微調時優勢更明顯。實際場景的測試結果表明,GR00T N1不僅學習新任務的效率更高,執行語言指令的精准度也超越了基线方法。

圖表5:GR00T N1在不同模擬標准下的性能

資料來源:NVIDIA Developer,中金公司研究部

圖表6:GR00T N1在實際場景下的性能

資料來源:NVIDIA Developer,中金公司研究部

銀河通用

銀河通用在2025年3月17日的GTC大會上分享了新的訓練數據收集方式:合成大數據(Synthetic Data),並介紹了基於此技術的VLA模型NaVid。與特斯拉的全自動駕駛(FSD)從真實駕駛場景中獲取數據不同,目前人形機器人VLA大模型所採用的主流數據收集方式是僱傭人員遠程操作(teleoperation),需要消耗大量時間且成本較高,因此缺乏高效的數據收集方法成爲目前VLA模型开發過程中的瓶頸。

圖表7:VLA可被應用於自動駕駛與通用機器人

資料來源:GTC “合成大數據驅動的具身端到端VLA大模型”,中金公司研究部

爲解決數據收集的瓶頸問題,銀河通用提出利用合成大數據作爲訓練機器人的數據收集方法,具備強大的可擴展性。通過創建自己的目標資產並標注相關信息,該方法可形成大規模的合成數據集,例如DEXGraspNet作爲全球首個百萬級規模的靈巧手抓取數據集,在五千種不同物體上合成了一百萬次靈巧抓取動作。同時,銀河通用還研究了大量失敗案例以縮小模擬結果與現實世界之間的差距。合成大數據的方法通過整合目標資產信息、動作數據和深度傳感器仿真,能夠創建一個無需真實數據即可生成海量數據的環境,從而訓練出強大且具有泛化能力的模型。

圖表8:替代性數據收集方式:合成大數據

資料來源:GTC “合成大數據驅動的具身端到端VLA大模型”,中金公司研究部

基於合成大數據方法,銀河在最新的研究中提出了名爲Navid的機器人導航系統。該系統基於一個包含70億參數的模型,能夠同時處理視頻流和人類語言指令,實現端到端的導航任務。通過在合成數據上訓練,該模型能夠在未見過的環境中導航,無需額外的調優或環境映射。

圖表9:NaVid工作原理

資料來源:GTC “合成大數據驅動的具身端到端VLA大模型”,中金公司研究部

在NaVid基礎上,NaVid 4D能夠通過深度信息和通用導航模型解決空間推斷能力的不足。深度信息使Navid 4D更好地判斷物體的遠近,而使用大量數據訓練的通用導航模型使Navid 4D能夠執行更復雜和多樣化的任務,如跟隨特定目標、回答關於環境的問題,甚至是在未經過特定訓練的情況下跟隨動物或機器人狗,減少了學習新技能的邊際成本。最新的NaVid能夠理解並執行多種更自然和簡潔的語言指令,能做到前進、轉彎、搜索並跟隨人,以及回答關於環境的問題。目前,NaVid已被應用於零售、接待、醫療和工業中。

機器人數據資產推動訓練成本下行

機器人訓練數據困擾了大部分的機器人整機研發公司。真機數據匱乏,機器人操作數據(如靈巧手抓取)採集成本高,標注復雜(需記錄關節參數、力反饋)。多模態對齊難題,視覺、觸覺、語言數據需在統一空間對齊,但現有方法(如端到端模型)對未標注模態(如觸覺)泛化能力弱。在本次GTC大會上,各公司展示了機器人訓練數據的獲取和平台,力求改變當前通過人力訓練和標注的方式,主要通過3D物理世界,即數字孿生的方式進行。

群核科技在2025年3月17日GTC大會上帶來了群核空間智能平台SpatialVerse的介紹,通過提供仿真技術爲具身智能機器人提供海量訓練數據。SpatialVerse是基於群核科技旗下的酷家樂的3D資產,專注於AI大模型、具身智能、XR等前沿領域,提供高質量的物理真實視覺數據集,幫助人工智能構建高逼真物理世界的數據平台。該平台由來自海內外著名高校計算機、數學等專業領域的深厚科研團隊支持,並擁有如2018年發布的全球最大的公开室內場景認知數據集InteriorNet等成果。

圖表10:群核科技SpatialVerse結構

資料來源:GTC “3D 物理真實數字資產加速推動機器人开發進程”,中金公司研究部

SpatialVerse的構建基於強大的數字礦山和數據引擎。群核科技旗下的酷家樂擁有高達3.6億的模型素材和月活躍用戶8600萬,不斷產生符合真實世界認知的家庭、商超、辦公、工業等多種風格的設計方案,爲SpatialVerse提供海量數據庫。數據引擎領域,SpatialVerse爲資產部件添加物理約束和屬性參數,使資產具備可交互的真實物理表現。在資產分割標注上,SpatialVerse採用自動化技術替代人力標注,提供空間層面、資產實物級別和部件級別的多維度標籤,通過SceneGraph場景信息體系構建全面的場景結構信息。SpatialVerse還通過自動化拋灑多樣化資產的方式,使資產演變出多種造型,實現場景多樣性演變。最後,SpatialVerse打通了酷家樂數據庫到多種格式的生成管线,能夠快速將數據庫中的原資產轉化爲用戶可以直接使用的資產,支持包括NVIDIA IsaacSim、UNREAL和MuJoCo在內的多種仿真引擎的機器人仿真任務开發。

SpatialVerse的優勢包括海量數據、極致數據質量、客戶定制化需求、物理正確性和數據合規性,目前已廣泛應用於機器人領域。SpatialVerse通過感知、決策和執行三個環節,利用仿真技術和虛擬機器人訓練道場,爲機器人領域提供數據支持,尤其在掃地機器人、廚房機器人、寵物機器人及人形機器人方面有較優成效。通過整合數據生成體系,SpatialVerse能在多個應用場景下快速生成大規模數據,同時確保數據的真實性和合規性,目前已在家庭場景、商超環境中應用,且與人形機器人完成高真實度交互訓練。

機器人通用數據开發平台

深圳市人工智能與機器人研究院於2025年3月17日介紹了AIRSPEED數據生產平台,爲具身智能機器人訓練提供了全面的數據解決方案。AIRSPEED在具身智能產業鏈中佔據重要的生態位,上遊供應商如遠程操作設備制造商、數據採集設備制造商等面臨數據通用性和質量難以統一的問題,形成三大瓶頸之一的“數據孤島”問題,而下遊具身智能模型开發商和機器开發商若直接進行數據生產或尋求上遊支持,則會增加研發成本或無法滿足數據需求。因此,處於中間數據生態位並提供數據採集生成和處理服務的Airspeed應運而生。

圖表11:AIRSPEED數據生產平台生態位

資料來源:GTC “AIRSPEED: 用於具身智能的开源通用數據生產平台 ”,中金公司研究部

AIRSPEED對“數據孤島”問題採用“應收盡收”的解決方案,對各類真實世界數據、仿真環境數據以及自動化構建的數據集全面兼容和統一利用,直到具身智能的模型和算法收斂,數據資產價值大幅提升。爲實現該方案,AIRSPEED需要兼顧技術兼容性和軟硬件兼容性,形成高生產柔性的架構設計,作爲聯通四方的平台,使遠程操作設備、機器人設備、仿真平台和數據集都能通過AIRSPEED形成數據流通。

AIRSPEED具有兩項突出優勢:“萬物皆可達”與“萬物皆可生”。“萬物皆可達”指實現任意機器人形態、任意末端執行器、任意距離與視角和任意場景與操作的適配控制,“萬物皆可生”指利用NVIDIA生態系統對任意操作軌跡、任意可交互資產、任意智能體決策和任意物理規律的合成與生成。憑借這些優勢,AIRSPEED可以通過多技術途徑就實現任意的數據生成。

對於目前具身智能的三大數據瓶頸,AIRSPEED均提供了先進的解決方案。AIRSPEED通過最大化軟硬件解耦、廣泛兼容各類技術應對成本黑洞,通過最廣泛的兼容確保數據豐富度應對“數據孤島”問題,並通過自動化數據集構建和性能潛力評估方法解決評估空白問題,同時形成數據飛輪實現對模型迭代的6倍加速。

圖表12:AIRSPEED對數據瓶頸的解決與模型迭代的加速

資料來源:GTC “AIRSPEED: 用於具身智能的开源通用數據生產平台 ”,中金公司研究部

英偉達夯實自動駕駛軟硬件基座,VLA或成爲高階智駕落地的下一抓手

英偉達完善汽車AI生態布局,全面支持端到端等新技術

自動駕駛仍是本次GTC大會關注的重點之一,英偉達軟硬生態同步升級、助力自動駕駛演進。結合Drive AGX Thor、Omniverse和Cosmos三大技術平台,英偉達當前可以爲汽車自動駕駛產業提供從硬件算力支撐、到自動駕駛算法以及數據引擎的完整解決方案。本次GTC 2025主旨演講中,英偉達推出了全棧式安全系統Halos,針對從雲端到車端的鏈路安全進行再升級。我們認爲,英偉達自動駕駛技術平台布局完善,且充分關注對端到端模型、VLM模型等革新技術的底層支持,其方案的升級迭代有望助推L3+時代的加速落地。

結合本次GTC 2025大會信息,我們看到英偉達在自動駕駛的硬件平台、軟件工具、安全性三方面有如下升級——

► Drive AGX Thor:Thor芯片最早在GTC 2022發布,按照算力分爲了Thor X(1000TOPS;X-Super爲2000 TOPS)、Thor U(500TOPS)以及Thor Z(300TOPS)等系列。在年初的CES大會中,Drive AGX Thor平台成爲了焦點,作爲集中式計算平台,其整合了芯片、軟件棧及生態工具,深度融合生成式AI與VLM,支持實時決策、多傳感器融合及端到端自動駕駛系統的开發,覆蓋從L2+到L4級別的自動駕駛全場景需求。針對端到端模型,Thor通過引入Blackwell架構的Flash Attention技術、新一代編譯引擎、FP8&FP16混合精度等新技術,實現了自動駕駛推理算法的優化。

圖表13:Thor GPU基於Blackwell架構

資料來源:GTC“NVIDIA全面賦能端到端自動駕駛”,英偉達官網,中金公司研究部

► 整合Omniverse與Cosmos能力,構建自動駕駛系統閉環开發體系。Omniverse數字孿生平台可提供高精度虛擬仿真環境,覆蓋極端天氣、復雜交通流等長尾場景,支持百萬公裏級算法訓練與驗證;Cosmos世界基礎模型則通過可控合成技術動態生成多模態交互數據,強化模型對動態場景的泛化能力。兩者協同,可以支持模型蒸餾、閉環訓練、合成數據生成等新的端到端模型訓練方法,用於开發AI優先的自動駕駛系統,爲自動駕駛开發人員提供大規模、可控的合成數據生成引擎,同時大幅降低真實數據依賴與標注成本。

圖表14:模型蒸餾、閉環訓練和合成數據生成優化自動駕駛模型訓練

資料來源:GTC 2025主旨演講,英偉達官網,中金公司研究部

► 推出全棧式綜合安全系統Halos。Halos涵蓋芯片、軟件、工具和服務,用於確保自動駕駛從雲端到車端的安全开發,並聚焦基於AI的端到端技術,具備平台安全、算法安全、生態系統安全三個方面的關鍵能力。根據主旨演講,英偉達的芯片、系統、系統軟件和算法都經過了第三方的安全評估,以確保其設計能夠具有多樣性、透明度和可解釋性。

下一代VLA模型或成爲高階智駕落地的有力推手

理想發布MindVLA,實現端到端與VLM的深度融合。在GTC 2025大會上,理想汽車智駕負責人賈鵬公布了MindVLA(視覺-語言-行爲大模型)的最新進展。該模型通過整合空間智能、語言智能與行爲智能,首次將端到端技術與VLM模型深度融合,構建了全棧自研的“機器人大模型”架構。我們認爲,MindVLA的核心創新在於:1)空間智能引入3D高斯表徵,通過圖片RGB進行自監督訓練,可以充分利用海量數據實現更好的3D表徵;2)語言智能,通過在LLM預訓練階段引入MoE混合專家架構和Sparse Attention技術,實現稀疏化,從而在有限資源下實現更大模型參數量的實時推理;3)行爲智能,訓練模型自主切換快、慢思考雙系統,並結合小詞表、投機推理、並行解碼等工程優化手段,強化模型的推理性能、使其能夠滿足自動駕駛對實時性的需求;4)利用擴散模型(Diffusion)生成駕駛軌跡,並結合人類偏好數據集與RLHF(基於人類反饋的強化學習)技術微調,提升了VLA在長尾場景的博弈能力與安全下限。5)強化學習時,通過多視角的場景生成和重建,獲得更接近真實世界3D交互環境。

從用戶體驗看,MindVLA實現了“聽得懂、看得見、找得到”的交互能力,使汽車從交通工具成爲一個能夠溝通、並理解用戶意圖的“司機”。根據理想官方披露[2],MindVLA預計在今年7月份會和理想i8同時首發。

圖表15:從端到端+VLM到VLA

資料來源:GTC“VLA:邁向自動駕駛物理智能體的關鍵一步”,理想汽車官網,英偉達官網,中金公司研究部

除理想外,小米、商湯與元戎啓行等企業也在GTC2025中展示了端到端、VLA等技術的進展。元戎啓行去年9月开始內部研發VLA模型,用於解決復雜的長尾場景,公司預計其VLA模型有望於今年年中量產部署於多款車型上,公司認爲VLA仍將面臨實時響應和現實世界數據的挑战,針對前者,元戎與英偉達Drive AGX平台深度合作。商湯絕影在GTC中宣布端到端的智駕方案UniAD已獲定點並計劃2025年量產,其世界模型“开悟”,將能夠用“實車道路採集+世界模型生成”雙輪驅動,生成長尾場景數據。整體來看,我們認爲端到端已成爲明確趨勢,同時多家車企/自動駕駛公司進一步向VLA演進,將端到端模型和VLM模型深度融合,我們預計2025年,隨着VLA技術量產上車,高階智駕商業化落地有望加速。

風險提示

具身智能相關技術突破不及預期。具身智能對算法、算力、數據的要求更高。具身智能要求算法強調感知的細度與廣度、與環境的交互性以及控制的協調性;具身智能算力需要能夠快速、實時地處理多模態感知數據;具身智能數據也需要向更大規模、更多模態方向發展。如果算法無法實現對環境的全面感知、理解,無法做出准確合理的運動規劃,如果邊緣算力無法滿足大算力、低時延、低功耗的要求,如果數據無法通過仿真模擬、开源數據集的方式彌補,則會限制具身智能的進一步發展。

智能汽車新技術落地不及預期。智能汽車新技術持續塑造汽車智能感、科技感,技術創新推動整車廠配置更多汽車電子,以豐富駕乘體驗。如果新技術落地不及預期,或導致汽車電子配置率下降。

AI商業化不及預期。客戶對AI付費意愿和使用習慣存在差異,若缺乏持續使用的動力,AI產品難以成爲生活必需品,可能導致用戶粘性不足,抑制商業化變現能力。

本文摘自中金公司2025年3月25日已經發布的《AI進化論(10):GTC2025,從Agentic AI到Robotic AI》

張怡康 分析員 SAC 執證編號:S0080522110007 SFC CE Ref:BTO172

李詩雯 分析員 SAC 執證編號:S0080521070008 SFC CE Ref:BRG963

溫晗靜 分析員 SAC 執證編號:S0080521070003 SFC CE Ref:BSJ666

查玉潔 分析員 SAC 執證編號:S0080524110001

鄭欣怡 分析員 SAC 執證編號:S0080524070006

彭虎 分析員 SAC 執證編號:S0080521020001 SFC CE Ref:BRE806



標題:AI進化論:GTC2025,從Agentic AI到Robotic AI

地址:https://www.iknowplus.com/post/205664.html

轉載僅爲傳播優質文章,如有侵權請聯系我們刪除