財經中心/師瑞德報導
谷歌自研AI晶片TPU潛伏十年,隨Gemini 3問世一躍成為AI核心算力主角。從AlphaGo到Transformer,TPU靠極致能效與垂直整合策略正面挑戰輝達。市場傳Meta將大舉採購,摩根士丹利預估2027年TPU出貨達百萬顆,AI晶片戰火再起。(示意圖/PIXABAY)隨著多模態AI模型Gemini 3正式亮相,谷歌自研晶片TPU(Tensor Processing Unit)也從幕後走上台前。這顆曾在AlphaGo時期埋下伏筆、低調研發超過十年的AI加速器,如今直通AI晶片的決賽圈,挑戰輝達GPU霸主地位的野心昭然若揭。
根據谷歌雲內部高層透露,若TPU能成功擴大市場採用率,預期將有望瓜分輝達每年高達10%的收入份額。市場消息也迅速跟進:不僅谷歌正積極推廣TPU服務,Meta亦被傳出擬投資數十億美元購買TPU。摩根士丹利分析師甚至大膽預估,至2027年谷歌TPU對外銷售量將達百萬顆規模。
這一波來勢洶洶的攻勢,也令資本市場對輝達未來的競爭壓力深感不安。輝達近日罕見發表官方聲明,強調自家GPU在性能、通用性與可替代性等方面仍具有無法撼動的優勢,顯示AI晶片大戰已從實驗室蔓延至商業前線。
從「算力焦慮」走向自研晶片
谷歌開啟TPU研發之路,起因於2013年內部對「算力焦慮」的深刻感知。當時深度學習在谷歌產品線中快速擴散,而語音識別等AI任務消耗的運算量呈指數級上升。首席科學家Jeff Dean估算,僅若一億安卓用戶每日使用三分鐘語音轉文字功能,所需算力已達谷歌當時數據中心總和的兩倍以上。
這促使谷歌不得不尋找能打破通用晶片性能瓶頸的解法。考慮到GPU與CPU受限於馮諾依曼瓶頸,難以有效處理大規模矩陣運算,谷歌決定自研專為深度學習設計的ASIC加速器。這類晶片可高度針對AI推論任務優化,整體能效比提升可達10倍。
2013年底,谷歌正式啟動TPU初代項目。負責團隊來自Google Brain、DeepMind及數據中心硬體開發部門,其中核心成員如Jonathan Ross,擁有豐富的架構設計經驗。僅15個月後,初代TPU便完成設計、驗證與部署,展現驚人的研發效率。負責人Norm Jouppi回憶:「我們幾乎沒時間修正錯誤或重製掩膜,就直接出貨了。」
AlphaGo後走向開放,Transformer成分水嶺
2016年,AlphaGo戰勝圍棋世界冠軍李世石,讓TPU首次「破圈」亮相。這場震撼世界的AI事件,背後正是初代TPU提供算力支撐。真正的轉捩點則發生於2017年,谷歌團隊發表了Transformer架構,其計算特性與TPU設計高度契合,進一步奠定TPU作為AI基礎設施的核心地位。
同年,谷歌推出TPU v2並對外開放1,000台Cloud TPU供開發者與研究機構免費使用,進一步拓展生態圈。往後幾年,谷歌持續推進技術升級:從液冷系統、超節點計算、環形拓撲網絡,到大規模並行通信架構,TPU逐步建立起獨特且難以複製的技術護城河。
谷歌造晶哲學:成本導向、高度垂直整合
與矽谷不少初創或晶片新貴熱衷於「追逐AGI(通用人工智慧)」願景不同,谷歌自始至終都圍繞著一個更務實的指標:成本。從早年就思考使用ASIC替代通用晶片的可能性,到選擇捨棄通用性、堅持簡約的脈動陣列架構,TPU的設計策略無不圍繞「極致效率」與「控制資源投入」。
這種設計選擇最終為谷歌帶來的,不只是內部運算效能提升,更是形成了AI產業少見的全棧式能力:從晶片到雲平台,再到模型與應用部署,TPU成為貫穿整條AI價值鏈的「核心引擎」。相較於其他高度依賴外部供應商與雲服務的競爭對手,谷歌的AI硬體與基礎設施策略明顯更具主動權與延展性。
正如券商報告所指出,谷歌靠TPU建構出一套完整且垂直整合的「晶片-雲端-模型-應用」鏈條,進一步築起生態護城河。當Gemini 3橫空出世、TPU v7全面導入訓練環節,谷歌正式完成從跟隨者到領跑者的轉身。
輝達霸業遭遇挑戰,晶片戰火再起
面對谷歌TPU來勢洶洶,輝達感受到明顯壓力。儘管官方強調GPU在多任務處理、通用性與替代彈性上仍占優勢,但在AI推論場景中,「效率」、「成本」與「專用性」正逐漸成為新一代晶片設計的關鍵指標。
當Meta傳出計畫大規模採購TPU,投資人更是紛紛轉向觀望。谷歌TPU若能成功擴大外銷,甚至僅搶下輝達10%的年收入份額,就已足以改寫AI硬體格局。此消彼長的市場格局,也意味著AI晶片之戰,仍遠未落幕。
十年磨一晶,谷歌造TPU並非一場偶然,而是一場自上而下、貫穿技術與商業邏輯的系統性工程。當AI浪潮來到新一輪算力爭奪,TPU的登場,不只挑戰了現有王者,也重新定義了誰才有資格引領未來的AI基礎設施。