財經中心/廖珪如報導

近期輝達攜手Groq的新聞在科技圈沸騰,素來擅長科技產業分析、前經理人「萬鈞法人視野」發文指出,某些財經網紅,把「Nvidia 授權/吸納 Groq 的 LPU 技術」直接推導成「HBM 的需求會快速變少、記憶體紅利要結束」,我只好發文一下,這個推論看起來很有戲劇張力,但在產業邏輯上其實跳了好幾步。
從結論看來,這不是「SRAM 打敗 HBM」,而是「推論把市場做大,硬體開始分工」。LPU 的崛起,是推論需求被證明、被放大的訊號;而推論需求一旦被放大,HBM 作為大模型與高並行服務的核心供給,只會跟著整體算力資本支出一起往上走。相輔相成,非零和遊戲。
如果投資人要抓投資脈絡,真正該看的不是「誰被誰取代」,而是「推論滲透率提升後,算力池如何分層、總量如何擴張、供應鏈瓶頸會落在誰身上」。這才是接下來兩到三年,市場會反覆驗證、也最容易出現超額報酬的地方。
在此議題上,萬鈞法人視野直接請教台積跟NV相關專業人士,把整個事情弄清楚:這筆交易更像是用「戰略合作+技術授權+人才吸納」去補齊推論時代的拼圖,而不是宣布要把整個 AI 記憶體路線翻桌重來。事件核心描述本身就偏向「合作協議、授權、吸納核心人才」,而不是傳統意義的公司併購。
LPU 代表的是推論型工作負載的優化路徑
Groq 這條路線之所以被討論,是因為它抓住了推論最痛的那根刺:延遲與不確定性。它用「確定性」的哲學,把資料在晶片裡的流動用編譯器先排好,追求的是每一次回應都穩、都快。 這件事很重要,因為推論走到後面,使用者在乎的是「像不像真人對話」的體感,而不是訓練那種把吞吐量堆上去就好。
借用先進的文章,目前已經有用Groq的應用:
Canva: 這家擁有 2.6 億月活用戶的設計巨頭,並沒有選擇傳統雲廠商,而是將其 AI 魔法設計功能的後端推理交給了 Groq,只為了讓用戶在點擊「生成」的那一瞬間無需等待、GPTZero: 擁有 1000 萬用戶的 AI 抄襲檢測工具,利用 Groq 將檢測速度提升了 7 倍,同時保持了 99% 的準確率、即時語音助手: 像 Vapi 和 Retell AI 也在和Groq商討合作。過去,和 AI 打電話像是在用對講機,你說完,等一秒,它再回。現在,AI 可以隨時打斷你,插話,甚至和你吵架,流暢得令人恐懼、即時翻譯: 在聯合國會議或跨國商務談判中,Groq 讓「同聲傳譯」變成了真正的「同步」。
把「推論的延遲優化」給了很多AI應用實現最後一哩路的可能性,而要延伸成「HBM 不重要了」,這就開始失真了。因為記憶體從來不是單選題,它是一個階層式的系統:越靠近運算核心,越快、越貴、容量越小;越往外,越慢、越便宜、容量越大。Groq 把一個極端點做到了極致:用 SRAM 換延遲。文件裡也講得很清楚,它就是在「容量」與「速度」之間做終極取捨,SRAM 很快,但容量天生小到必須靠大量晶片協作。
推論市場會不會因為SRAM方案 排擠HBM需求
我的答案跟在台積電那邊問到的方向一致:不會,而且更可能是相輔相成,非零和,理由很簡單:AI 的需求在分裂,而不是在替代。一邊是「模型越做越大、上下文越拉越長、KV cache 越堆越厚」的世界。這個世界的核心矛盾是容量與頻寬,你不可能只靠 SRAM 解決,因為 SRAM 的物理成本決定了它更像是跑車,不可能突然變成能載貨的卡車。大模型推論要落地到大規模服務,最後一定需要大量外部記憶體去裝權重、裝快取、裝多租戶的並行需求。這裡 HBM(以及更廣義的 DRAM、甚至儲存)只會跟著應用量一起上去。
另一邊是「即時、低延遲、可預期」的世界,像是語音代理人、互動式助理、機器人與自駕車的部分控制鏈路。這裡的 KPI 不是每秒吞吐多少,而是延遲能不能壓到人類感知以下、抖動能不能趨近於零。這就是 LPU 擅長的戰場,它會帶動的是一個新的推論增量市場:以前大家覺得慢一點沒差的場景,會因為變得夠快而突然「願意大量用」。而當推論使用量被打開,雲端與企業最直覺的做法不是把 GPU 退訂,而是把整體算力池做更細緻的分層:該用 GPU/HBM 的地方繼續用,該用專用推論加速器的地方導入新選項。
這就是我說的「GPU、TPU 會被 LPU 用量帶動向上」:當推論被放大,訓練不會消失,反而會因為模型迭代更頻繁、客戶需求更碎片化而增加;雲端會同時擴充訓練池與推論池,只是推論池裡的硬體組成會更豐富、更分工。推論越成功,整個 AI 基礎建設的總盤子就越大。
回到「HBM 會不會變少」這句話,我更傾向用一句更精準的描述:HBM 的定價權可能會被重新談判,但 HBM 的總需求不會因為 LPU 這條路線而縮小。因為 Nvidia 真正在做的是把推論時代的風險變成自己可控的選項:一方面用授權與吸納把最可能長出「非 CUDA 推論生態」的變數先收進來,避免未來變成「你用我的 GPU 訓練,卻把最肥的推論利潤交給別人」;另一方面,它也等於在自家產品地圖裡多了一把刀:在某些延遲敏感場景,用更確定性的架構把體感做到極致,但這不代表它會放棄既有以 HBM 為核心的主戰場,因為那個主戰場對應的是規模化部署與大模型的容量現實。
LPU 的崛起 做大市場
這不是「SRAM 打敗 HBM」,而是「推論把市場做大,硬體開始分工」。LPU 的崛起,是推論需求被證明、被放大的訊號;而推論需求一旦被放大,HBM 作為大模型與高並行服務的核心供給,只會跟著整體算力資本支出一起往上走。相輔相成,非零和遊戲。如果你要抓投資脈絡,真正該看的不是「誰被誰取代」,而是「推論滲透率提升後,算力池如何分層、總量如何擴張、供應鏈瓶頸會落在誰身上」。這才是接下來兩到三年,市場會反覆驗證、也最容易出現超額報酬的地方。
三立新聞網提醒您:
內容僅供參考,投資人於決策時應審慎評估風險,並就投資結果自行負責。
投資一定有風險,基金投資有賺有賠,申購前應詳閱公開說明書。


