文 | 王智遠
昨天晚上,跟朋友聊起大模型。
他說現在各家都 " 卷 " 到一個新階段,模型之間差距已經很小,只能用 " 遙遙領先 " 或者 " 吊打同行 " 這種詞來形容。
從基準測試和數據來看,很多模型都遠超 DeepSeek R1、GPT-4o,但繼續往下比的空間已經不大了,真正的差異更多在使用方式上。
這讓我開始思考:大模型競爭,是不是已經進入存量博弈階段?
1
說到 " 存量 ",就繞不開一個字:" 卷 "。不卷,哪來的存量?那問題來了:這個卷,到底在卷什么?
我覺得,表面看到的就三點:算力成本、數據質量和場景滲透。
以前大模型拼參數多,現在開始拼誰的成本低。
阿里家的 Qwen3,用 " 混合推理 " 的技術,簡單問題用低算力能快速回答,復雜問題再慢慢思考,這樣部署成本直接降到了 DeepSeek-R1 的 1/3 到 1/4。
騰訊混元 T1,3890 億參數的模型,通過稀疏激活機制,算力利用率比傳統模型提升了 30% 以上。
百度的文心大模型,雖然沒公開具體成本,但它的推理速度在工業級場景里比競品快 20%,也算是有自己的優勢。
字節跳動沒直接在公開場合提到過算力優化,但它通過抖音、今日頭條的場景化落地,間接降低了通用大模型的部署壓力。
所以,算力成本上,大家是看能不能在不犧牲性能的前提下,把成本降下來。
降下來之后呢?
關鍵還不能影響數據質量,卷誰的訓練數據更硬核。
阿里家 Qwen3 訓練數據量達到了 36 萬億 token,支持 119 種語言和方言,數據質量更有普適性。百度文心一言依托搜索、地圖等產品,積累了海量的真實用戶行為數據。
騰訊的混元則通過開源生態積累開發者數據,在游戲和內容生成領域有獨特優勢;字節跳動則利用抖音、今日頭條的龐大流量池,捕捉用戶偏好數據,讓內容生成模型更接地氣。
所以,數據質量的卷,是從 " 廣度 " 到 " 深度 " 的升級,不僅要數據多,還要精準、垂直。
技術再強,不能解決實際問題,也只是 " 空中樓閣 ",再看看場景滲透,誰更狠一些。
Qwen3 深耕電商、金融、醫療等垂直領域,通過定制化微調提供行業解決方案;百度文心一言是嵌入搜索、地圖、智能音箱等產品,形成了 " 技術 - 場景 - 用戶 " 的閉環。
騰訊的混元聚焦游戲和內容生產,通過混元 3D 等工具搶占多模態賽道;字節跳動是把大模型融入抖音和今日頭條的內容生產流程,甚至用 AI 生成短視頻腳本,直接打通了 " 技術 - 內容 - 流量 " 的鏈條。
看到了嗎?場景滲透的卷,是從 " 技術堆疊 " 到 " 價值創造 " 的轉型,誰能在細分場景里跑通商業模式,誰就能突圍。
因此,我認為這個 " 卷 " 是:卷技術、成本、場景的三角博弈;算力成本決定了誰能撐到最后,數據質量決定了誰能跑得更穩,場景滲透決定了誰能活出差異化。
2
但這種 " 卷 ",背后隱藏著一個更深層的矛盾:
當技術突破趨緩時,大家一個勁地開源、吊打同行,是不是意味著用這些手段,在掩蓋真正的技術瓶頸?
我認為:是的。但不是完全沒進步,而是技術方向有點小調整。
為什么這么說?
先說數據。阿里家的 Qwen3-235B-A22B,雖然總參數量有 2350 億,但每次實際用到的參數只有 220 億,激活效率才 9.4%。
什么概念,說白了," 輕量化 " 策略確實降低了成本,這是對原來那種 " 參數越多越好 " 模式的一種妥協。現在單純堆參數已經沒有太大的效果了。
再看看騰訊的混元 T1:
總參數量 3890 億,激活參數量 520 億,上下文長度也很長,但它的稀疏激活機制,本質上還是在想方設法在不犧牲性能的前提下,把參數規模壓一壓。
文心大模型就更不用說了。4.5 Turbo 總參數量 1970 億,但每次推理最多用到 28 億參數。這說明什么?
參數量已經不是唯一的衡量標準了,激活效率才是新的競爭點。這種調整不是在掩蓋瓶頸,而是把技術突破的方向從 " 規模擴張 " 轉向了 " 效率優化 "。
然后,再看看技術優化路線,阿里直接趕在五一前,推出 " 快慢思考 " 混合推理。本質是什么?
想通過架構創新來緩解技術瓶頸。Qwen3 的 " 快思考 " 是用低算力處理簡單任務," 慢思考 " 用高算力處理復雜任務,這是在對原來的 Transformer 架構進行適應和改造。
騰訊混元的 T1 也一樣,官方說模型內存占用減少了 40%,性能提升了兩倍;這種優化還是依賴 MoE 架構的稀疏激活機制,但也受限于硬件兼容性和算法復雜度。
所以,技術優化的核心目標是延長現有架構的生命周期;說白了,更像「技術瓶頸下的權宜之計」,而不是真正的突破。
結論很明顯:
短期來看,參數激活效率、混合推理、MoE 架構這些優化確實緩解了算力成本壓力,但改進只是對現有技術框架的修補。
長期來看,技術瓶頸沒消失,變成了 " 效率瓶頸 "、" 場景適配瓶頸 "。開源生態的普及為技術迭代提供了數據和場景基礎,但真正的突破還得靠底層架構的創新。
所以,這波 " 卷 " 不是在掩蓋技術瓶頸,而是在重新定義瓶頸的形態。技術進步的速度是慢了,但方向更明確了:聚焦在效率、成本和場景落地。
3
既然這樣,問題就來了:
大廠在 " 模型卷 " 的浪潮里,到底該怎么找到 " 看家本事 "?是繼續在技術細節上摳來摳去,還是把精力放在怎么把技術用到實際場景里,或者去構建一個更大的生態呢?
我覺得,技術細節優化(比如調整激活參數、搞混合推理)確實能減輕算力的壓力。
但說到底,優化的核心價值是讓現有的架構能多撐一會兒。不過,這里面有個風險:技術帶來的好處會比我們想象的更快地消失。
為什么這么說?舉個簡單的例子:
你買了一款新手機,一開始覺得電池續航特別厲害,比舊手機好很多,這就是技術紅利。但用了一段時間后,你發現電池老化得很快,續航優勢很快就沒了,甚至比你預期的更早。這就是紅利衰減速度超出預期。
換句話說,技術帶來的優勢不會一直持續下去,會逐漸減弱,減弱的速度比我們預想的更快。
有個研究,來自 DeepMind 的 Chinchilla 模型,提到通過參數補償來降低剪枝帶來的性能損失,可以在不依賴大規模后訓練的情況下低成本壓縮模型,提升推理速度,同時最大程度保留性能。
什么意思呢?
大模型的性能提升和算力投入之間的關系已經到了一個瓶頸階段,有點像 " 帕累托最優 "(Pareto Optimality)——再怎么努力,提升的空間也越來越小了。
說白了,現在大家都在過度依賴參數規模和稀疏激活機制,可能會陷入一種 " 技術幻覺 ":以為解決了成本問題,其實并沒有真正解決通用大模型的深層瓶頸。
換句話說,技術越來越同質化,競爭也越來越內耗。
文心一言的多模態能力雖在行業里領先,但核心還是依賴 Transformer 架構,沒辦法突破通用大模型的擴展性限制,這就是算法優化的天花板。
再比如,Qwen 系列雖然全球下載量突破 3 億次,看起來很厲害,但實際上模型的功能差異很小。
那怎么辦呢?各家短期直接把架構推倒,重新來過嗎?肯定不可能。真正的路線是從 " 技術堆疊 " 到 " 價值創造 "。
我覺得,對于大廠來說,價值錨點的核心在于能不能真正解決實際問題,而不是單純追求技術指標的極致;很明顯,技術細節優化只是手段,場景落地和生態協同才是根基。
就像艾媒咨詢在 2024-2025 年中國 AI 大模型市場研究報告里提到的:誰能找到自己的 " 價值錨點 ",誰就能在 " 下半場 " 突圍。
4
所以,大家到底怎么才能突圍呢?
現在看來,真正能落地到企業實際場景里的,是一個 " 三重共振 ":云廠商 + 行業應用 + MCP 協議。
為什么說 MCP 是關鍵?因為它本質上是重新定義了企業與 AI 怎么合作的規則。
以前企業用大模型,就像給廚師一把刀,但沒告訴他菜在哪、鍋在哪、調料在哪——他只能靠猜。
現在有了 MCP,相當于給 AI 裝了一個 " 導航系統 ",它能自動找到企業的數據庫、API、業務流程,甚至還能跨系統操作。
高德地圖是阿里云的客戶,如果接入 MCP,以后導航建議就不是簡單的 " 繞開擁堵 ",而是能結合用戶的消費記錄推薦周邊餐廳,甚至直接跳轉到外賣 App 下單。
這背后是 MCP 把高德的數據和阿里云的 AI 能力打通了。
那 MCP 到底怎么驅動 ToB 的范式變化?我認為,有兩點:
一、從 " 模型為中心 " 變成 " 數據為中心 ";以前企業做 AI,總盯著模型參數、推理速度這些技術細節。但 MCP 讓重點轉向數據流通 。
二、從 " 孤島 " 變成 " 協同 ";企業內部的系統通常互不聯通,比如:財務系統、供應鏈系統、客戶管理系統。一個公司用了誰家的云,云廠商就可以基于 MCP 把這些系統全打通。
打通之后,MCP 就從一個簡單的工具變成了生產力基礎設施。所以,這才是新范式。
它讓 AI 不再局限于 " 參數規模 " 或 " 推理速度 ",而是通過數據協同和場景嵌入,成為企業運營的 " 操作系統 "。這才是企業的剛需。
這也是我為啥說,在大模型和 AI 的推動下,自下而上看,未來可能會出現新的飛書、釘釘這樣的平臺。它們不像飛書、釘釘那樣有通訊、協同功能,但至少能把企業的各種業務流程整合起來。
敘事還在繼續,到底會不會這樣呢?deepseek R2 出來后,就見分曉了。