幾天前,英偉達再一次創造了歷史。
7 月 3 日,英偉達市值短暫攀上 3.92 萬億美元,超越了蘋果此前保持的 3.915 萬億美元紀錄,成為有史以來市值最高的上市公司。AI 算力的狂飆猛進,把這家 GPU 廠商推向了前所未有的高點。
尤其是自 2024 年底,性能與能效雙雙躍進的 Blackwell 平臺開始出貨后的銷售表現,打破了外界的疑慮,英偉達創始人兼 CEO 黃仁勛在最新財報電話會議上表示,僅在 2025 年第一季度,這套新平臺就已經貢獻了英偉達數據中心收入的近七成。
但就在英偉達市值沖頂、光環加身之時,來自生態內部的裂縫也在浮現。最典型的例子,正是英偉達的重要客戶—— OpenAI。幾乎就在英偉達市值達到高峰的同時,The Information 援引 OpenAI 內部人士稱,OpenAI 正在使用谷歌自主研發的 TPU 芯片來為 ChatGPT 及其其他產品提供算力支持。
雖然后續的回應中 OpenAI 刻意淡化了「轉向」,強調是測試且「暫無大規模采用計劃」。但對于一家曾親手定義 AI 新時代的公司來說,哪怕只是「測試」,也足以引發市場的高度敏感。
與此同時,這也讓谷歌稍早前發布的第七代 TPU —— Ironwood 再次成為焦點,這是一顆為推理場景量身打造的專用 AI 芯片,不僅在每瓦性能上直指 Blackwell,更在成本與部署靈活性上展現出頗強的吸引力。
更重要的是,真正讓英偉達面對結構性挑戰的,是那些比起「通用」,更強調「效率」的 ASIC 芯片陣營。谷歌、亞馬遜、Meta 等云巨頭正持續加碼自研加速器,繞開英偉達 GPU 的高成本;而如 Cerebras、Graphcore 等初創企業,則從芯片架構和系統設計層面重新定義「AI 專用計算」,試圖構建一條完全不同于 GPU 的技術路徑。
對于英偉達來說,世界第一的寶座,并不安穩。
俗話說得好,最了解一個人的,往往是他的對手。
5 月 19 日,英偉達發布了全新互聯架構 NVLink Fusion,這套架構被定義為「AI 工程合作平臺」,通過授權 NVLink 芯片間互聯(C2C)和整合交換模塊,使第三方廠商能將自研加速器或 CPU 接入英偉達主導的算力系統。
相比過去 NVLink 的封閉式設計,Fusion 的「半開放」姿態看似包容,但本質依然要求合作方依附在英偉達的生態軌道上,任何定制芯片都必須連接到英偉達的產品,同時也只是選擇性地開放了 900GB/s 的 NVLink-C2C 接口。所以 NVLink Fusion 盡管表面上展現了英偉達的開放姿態,實則更多是一次防御性出招:
為了防御 UALink 聯盟。
2024 年 10 月,由 AMD、Intel、谷歌、Meta、微軟、AWS 等聯合發起的 UALink 聯盟就已悄然成型,隨后又加入了蘋果、阿里云、新思科技等,迅速擴張為一個囊括芯片設計、云服務、IP 供應鏈的龐大陣營。
今年 4 月,UALink 發布了 1.0 版本互聯標準,支持高達 1024 個加速器節點、800Gbps 帶寬互聯、以及開放的 memory-semantics 協議——這不止是一項通信技術,而是一次瞄準「去英偉達化」的系統性布局。在 AI 芯片互聯架構這件事上,英偉達或許比任何人都明白:
真正值得警惕的,不是某一家廠商,而是一整條開始擺脫 GPU 依賴、試圖重建硬件秩序的 ASIC 陣營。
不同于通用的 GPU 架構,ASIC 是為特定任務定制的芯片,在 AI 時代意味著它們可以針對推理、訓練、推流等核心計算路徑進行極致優化。這種理念如今已在微軟、Meta 和亞馬遜等巨頭內部深度落地,都在探索從英偉達 GPU 平臺向自研 AI ASIC 芯片遷移。
谷歌就是最好的例子,TPU 系列自發布以來已進化至第七代 Ironwood,專為推理任務而設計,每瓦性能直接超越了英偉達 Blackwell。OpenAI 研究員在 X 平臺上更認為 Ironwood 與 GB200 性能相當,甚至略勝一籌。更重要的是,TPU 系列已經支撐起了 Gemini 大模型從訓練到推理的大規模應用。
與此同時,除了老對手 AMD,包括 Meta、AWS 等新晉芯片廠商也在試圖「趕超」英偉達 GPU。基于與博通的合作,Meta 首款 AI ASIC 芯片 MTIA T-V1 就被曝規格可能超過英偉達的下一代 Rubin 芯片,AWS 則是在與 Marvell 合作的基礎上,啟動了不同版本的 Trainium v3 開發,預計于 2026 年陸續量產。
而據野村證券稍早前發布的最新報告指出,2025 年谷歌 TPU 出貨量預估 150 萬至 200 萬,AWS Trainium 和 Inferentia 預估 140 萬至 150 萬,等到 Meta 與微軟開始大規模部署,有望 2026 年在出貨量上首次超越英偉達 GPU(500 萬至 600 萬)。
初創公司方面,研發出全球最大芯片的 AI 芯片「獨角獸」Cerebras,以 Wafer Scale Engine(WSE)引領訓練芯片架構的革新,在多個政府和科研超算項目中落地;軟銀收購的 Graphcore 雖經歷波折,但仍堅持在神經網絡處理架構(IPU)上尋求突破;Tenstorrent、Rebellions 等新秀則在 AI 推理、邊緣計算等細分領域持續積累客戶與出貨量。
英偉達當然看懂了這股暗流,所以選擇用 NVLink Fusion 做出回應。但現實是,越來越多的玩家已經不再滿足于做配角。ASIC 的崛起,不只是一次技術路線的迭代,更是一場由巨頭主導、由聯盟推動、由生態背書的系統性挑戰。英偉達固然強大,但面對這樣的對手,仍然警惕。
市值沖上 3.92 萬億美元的那一刻,英偉達站上了全球資本市場的頂點。但在這個耀眼的高度之下,越來越多的問題開始浮出水面。從產業依賴,到產品結構,再到生態策略,英偉達仍然存在可能,被它自己一手打造的成功邏輯反噬。
其一在于超大規模客戶的集中依賴。英偉達目前約 88% 的營收來自數據中心業務,而其中大頭集中在極少數幾家云計算巨頭手中:微軟、AWS、阿里、Meta、谷歌,以及越來越有野心的 OpenAI。也正是這些客戶不僅自研 AI 芯片,還組建了 UALink 聯盟,正在親手削弱英偉達 GPU 的統治力。
谷歌有 TPU,亞馬遜有 Trainium,Meta 和微軟分別推出了 MTIA 與 Maia 系列加速器。OpenAI 也在測試谷歌 TPU 的同時,自研 AI 芯片的消息不斷流出。這些客戶不是不需要英偉達,而是不想「只」依賴英偉達。
其二在于性價比。Blackwell 平臺帶來了幾乎碾壓式的算力提升,特別是 GB200 架構在訓練和推理性能上的躍升。但與此同時,這一代產品的復雜性、功耗和成本也大幅攀升。據匯豐銀行消息,一套 GB200 NVL72 服務器售價高達 300 萬美元左右,讓許多客戶望而卻步。
這種極致設計策略確實鎖定了高端市場,但也帶來了兩個副作用:一是把中小客戶甩在了門外,二是推動客戶尋找更便宜、更省電的替代品。當 AI 推理成為主流任務,性價比往往比絕對性能更重要,而這正是 ASIC 等專用芯片擅長的領域。
此外針對云廠商等大客戶,早期愿意為性能付費。但隨著部署規模擴大、模型標準化、預算緊縮,即便是大型廠商也越來越希望能有更多自主權和談判空間。當英偉達變成「不得不用」,也就意味著產業鏈已經開始尋找「有沒有可能不用」的選項,而谷歌 TPU 的成功更是一種激勵。
其三在于英偉達的生態壁壘。英偉達 CUDA 是目前業界最強大的 AI 編程生態,但它的高度封閉也讓它逐漸成為一個「屬于英偉達」的世界。在 UALink 聯盟、OneAPI、MLIR 等開放生態興起的背景下,越來越多開發者和系統設計者開始追求跨平臺兼容、異構協同,而不是將命運綁定在一家公司的工具鏈上。
CUDA 一度是英偉達的護城河,但如今也在一定程度上成為了限制開發者自由流動的「生態高墻」。當更多廠商期望在不同架構間靈活切換,CUDA 的壁壘也可能成為他們轉身的理由。
回頭來看,英偉達固然仍然是今天最強的 AI 芯片廠商,站在技術、產品和市值的巔峰。但巔峰從來不是終點,它只是更多挑戰的起點。更關鍵的是,英偉達面對的不是一次技術換代的風險,而是一次由客戶主導的去中心化。正如前文所言:英偉達的世界第一,并不穩。