搜尋摘要
目錄
科技浪 Tech.wav · 2026年3月23日 · 1:12:19 中文

EP130 - 深度解析 NVIDIA!GTC 有什麽亮點嗎

NVIDIA 執行長黃仁勳在 GTC 2025 大會上將 NVIDIA 定位為「垂直整合、橫向開放」的公司,兼具蘋果的產品力與 Intel 的生態系廣度;NVIDIA 收購 Groq 後,將其 LPU 整合為 Vera Rubin GPU 系統的選配模組,專攻低延遲推論場景(如 AI Agent、付

收聽原始 Podcast

重點摘要

  • NVIDIA 執行長黃仁勳在 GTC 2025 大會上將 NVIDIA 定位為「垂直整合、橫向開放」的公司,兼具蘋果的產品力與 Intel 的生態系廣度
  • NVIDIA 收購 Groq 後,將其 LPU 整合為 Vera Rubin GPU 系統的選配模組,專攻低延遲推論場景(如 AI Agent、付費用戶),在極低延遲應用中相比高延遲應用的吞吐量可提升達 35 倍
  • DLSS 5 首次讓 AI 大幅介入遊戲畫面生成,引發玩家強烈反彈,但主持人認為這是遊戲畫面未來的必然方向
  • NVIDIA 的 Nemotron 系列已成為西方開源模型的王者,採用 Transformer 與 Mamba 混合架構
  • 馬斯克公布 TerraFab 晶圓廠細節:設於德州,整合邏輯晶片、記憶體與封裝於同一廠房,80% 產能供太空資料中心使用

詳細內容

NVIDIA 的企業定位:垂直整合、橫向開放

黃仁勳在 GTC 大會上為 NVIDIA 提出全新包裝:一間「垂直整合、橫向開放」的公司。垂直整合指的是 NVIDIA 掌握從晶片、NVLink 互聯、InfiniBand 網路、NVL72 機櫃系統、CUDA 軟體平台,到各領域開源模型(自駕車 Alpamire、大型語言模型 Nemotron、機器人 Groot)的完整技術棧。橫向開放則是將這些技術銷售給所有產業——從 AWS、Azure、Google 等雲端巨頭,到 Dell、Palantir 等企業,甚至主權國家機構,且客戶可自由選購技術棧中的任何部分。

黃仁勳依然強調 NVIDIA 打的是整個「加速運算」市場,不僅限於 AI。傳統 CPU 伺服器遷移到 GPU 加速的需求仍然龐大,這是摩爾定律放緩後的必然趨勢。

AI 推論市場:NVIDIA 的成本優勢論述與其前提

黃仁勳面對「NVIDIA 晶片太貴」的質疑,提出一個核心論點:即使競爭對手的晶片免費贈送,NVIDIA 仍然更划算。理由是 AI 公司受限於土地和電力,在相同能源供給下,NVIDIA GPU 的吞吐量可達競爭對手的 10 倍,意味著能產生 10 倍營收,長期來看成本迅速被攤平。

主持人指出這個論點有一個關鍵前提:資料中心必須永遠有做不完的工作,吞吐量一增加就能立刻轉換為營收。對於 AI 科技巨頭(如 OpenAI、Google)來說確實如此,但對中小企業或工作負載較輕的 GPU 雲端供應商而言,GPU 利用率可能只有 15%-20%,此時 NVIDIA 高昂的購買成本與能耗反而成為負擔。

Groq LPU 整合:低延遲推論的選配方案

NVIDIA 收購 Groq 後的整合方式已揭曉。Groq 的 LPU 使用 SRAM(每顆僅 500MB),距離運算單元極近,能減少資料傳輸延遲,擅長極低延遲推論;NVIDIA GPU 使用 HBM(Vera Rubin 每顆 288GB),擅長高吞吐量運算。兩者恰好互補 AI 推論的兩個階段:

  • Prefill(預填充):理解使用者 prompt、計算注意力機制,屬於算力密集型(compute bound)→ 交給 NVIDIA GPU
  • Decode(解碼):逐一生成回應 token,屬於記憶體頻寬密集型(memory bound)→ 交給 Groq LPU

實際部署方式是將 8 顆 Groq 晶片組成名為 LP30 的模組,作為 Vera Rubin 系統的選配。NVIDIA 透過 Dynamo 軟體進行解耦合推論(Disaggregated Inference)的工作分配。但主持人強調,LPU 僅在低延遲場景(如付費 AI Agent 應用)有價值,對一般 ChatGPT 等高延遲容忍的應用毫無幫助,不應過度神化。

DLSS 5:AI 全面介入遊戲畫面的爭議

DLSS 5 與前幾代最大的差異在於,它不再只是提升解析度或補幀,而是讓 AI 直接重新生成最終遊戲畫面——包括角色臉部、皮膚、頭髮、布料、光影全部由 AI 重新處理。這引發玩家社群強烈反彈,批評它改變原作畫風、充滿「AI 感」。

主持人認為,遊戲畫面中許多看似「風格」的元素,其實是硬體限制下的妥協(模糊的臉部、粗糙的材質),而非設計師的刻意選擇。在摩爾定律放緩的現實下,AI 是遊戲畫面持續進步的唯一出路。傳統遊戲引擎的角色正在從「渲染畫面」轉向「為 AI 提供 Grounding(語意、顏色、動態等基礎資訊)」,DLSS 5 只是這條路的第一步。

NVIDIA 其他 GTC 亮點快速回顧

  • NemoClaw:NVIDIA 版的 OpenClaw(MCP 協議,用於 AI 應用串聯第三方工具),強化安全性,黃仁勳稱其為「AI 時代的新電腦」
  • Alpamire 自駕車模型:採用 VLM-first 架構,與特斯拉 FSD(Full Self-Driving)的 End-to-End Policy-first 路線截然不同。訓練資料量差距懸殊(NVIDIA 約 8 萬小時 vs 特斯拉每天可產生 500 年的駕駛數據)
  • Nemotron 開源模型:在 120B(1200 億)參數量級已是西方開源模型第一名,採用 Transformer + Mamba 混合架構
  • 太空資料中心晶片:NVIDIA 正開發抗輻射硬化版 Vera Rubin,但黃仁勳僅用 30 秒帶過,態度保守

主持人的 NVIDIA 投資觀點

主持人認為 NVIDIA 目前股價(約 172 美元)仍被低估,市場似乎預期 AI 運算需求只會有一次性高峰而非持續成長。但中長期(3-5 年)存在隱憂:GPU 本質上是通用運算裝置,並非專為 AI 設計,當 AI 工作負載更加確定後,專用 ASIC 可能侵蝕 NVIDIA 的市場份額。然而,黃仁勳的偏執狂特質與龐大資源使他不願完全出清持股。策略是持續買進,在合理價位適度減持,但不清倉。

馬斯克 TerraFab 晶圓廠最新進展

馬斯克確認 TerraFab 將從零自建,設於德州,將邏輯晶片(Logic)、記憶體(Memory)與封裝(Packaging)三道製程整合在同一廠房內——這在業界幾乎無人這麼做。目標年產能為 1TW(1 太瓦)的 AI 算力,是目前全球 AI 晶片年產能(20GW)的 50 倍。產出分配為 20% 地球用(Optimus 機器人、Robotaxi)、80% 太空資料中心。

主持人指出,1TW 算力無法在地球運行(全美國年電力供應僅 0.5TW),必須部署在太空使用太陽能。TerraFab 計劃與太空資料中心計劃完全綁定,兩者缺一不可。供應鏈方面仍有重大挑戰,包括 ASML EUV 光刻機的取得與良率提升。

精選語錄

「NVIDIA 是一間垂直整合、橫向開放的公司——有蘋果的產品力,也有 Intel 的生態系建立能力。」

「就算其他家的晶片免費送,AI 公司也會覺得 NVIDIA 比較划算,因為同樣的電力供給下,NVIDIA 可以產生 10 倍的 token,換成 10 倍的營收。」

「This is the worst it will ever be——DLSS 5 這個技術只會越來越強,不會越來越爛。」

時間軸

(逐字稿未提供精確時間戳記,以下為主題順序)

  • 開場:Brain Sleep 枕頭業配
  • 前段:NVIDIA GTC 大會整體故事線——加速運算市場定位、垂直整合橫向開放的新包裝
  • 中前段:AI 推論市場的競爭力論述(ISO Power 比較、成本優勢的前提條件)
  • 中段:Groq LPU 整合細節(SRAM vs HBM 架構差異、Disaggregated Inference、適用場景)
  • 中後段:DLSS 5 技術突破與玩家反彈分析
  • 後段:GTC 其他亮點快速回顧(NemoClaw、Alpamire、Nemotron、太空晶片)
  • 後段:主持人對 NVIDIA 的投資觀點(短期低估、長期隱憂、不清倉策略)
  • 尾段:馬斯克 TerraFab 晶圓廠發表會更新(德州設廠、三合一製程、1TW 目標、供應鏈挑戰)

相關主題