搜尋摘要
目錄
科技浪 Tech.wav · 2026年3月9日 · 1:12:25 中文

EP128 - 你不知道能算 AI 的兩種電腦:類比運算與神經形態運算!未來能挑戰傳統數位電腦嗎?

傳統馮紐曼架構的數位電腦在 AI 運算領域的主導地位,短期內(五年)不會被撼動,但中長期(五到十年)可能面臨類比運算與神經形態運算的挑戰

收聽原始 Podcast

重點摘要

  • 傳統馮紐曼架構的數位電腦在 AI 運算領域的主導地位,短期內(五年)不會被撼動,但中長期(五到十年)可能面臨類比運算與神經形態運算的挑戰
  • 類比運算(Analog Computing)利用物理定律(歐姆定律)自然完成矩陣乘法,僅需數個電晶體即可完成傳統電腦需要數千個電晶體才能做到的運算,理論上可節省 10 倍功耗
  • 神經形態運算(Neuromorphic Computing)模仿人腦的事件驅動機制,僅在偵測到事件時才啟動運算,特別適合 24 小時監控等「永遠開啟」的應用場景
  • 兩種新型運算架構目前市占率均可忽略不計,主因是商業生態系不成熟、產品開發難度高、整體成本效益不如傳統方案
  • AI 運算對精準度的容忍度較高(本質是統計模型),這為類比運算等較不精準但更高效的架構提供了切入機會

詳細內容

為什麼要質疑 AI 硬體的基本假說

主持人哈利提出,所有關於 AI 硬體未來的分析——無論看好 GPU、ASIC、TPU 還是 NPU——都建立在同一個假說上:未來的 AI 運算仍由馮紐曼架構的數位電腦主導。他以伽利略推翻地心說為例,說明質疑既有假說的重要性。即使最終未能推翻假說,過程中也能更深入理解整個技術脈絡。

傳統數位電腦以外,主流的替代運算典範有三種:量子電腦、類比運算、神經形態運算。本集聚焦後兩者,因為量子電腦與 AI 運算沒有直接關聯——即使擁有商用量子電腦,也不會拿來跑 AI 模型。

類比運算(Analog Computing)的原理

數位 vs. 類比的本質差異: 數位資料是離散的(0 與 1),類比資料是連續的物理量(電壓、電流、溫度等)。即使 Podcast 的 MP3 音檔聽起來很連續,本質上仍是每秒取樣四萬多次的離散資料點。

類比運算的核心概念: 不是「把演算法跑在電腦上」,而是「把問題投射到物理系統中,讓物理定律自動算出答案」。自然界中本就存在各種運算——兩道電流匯聚自然相加、歐姆定律天然包含乘法關係、光的干涉就是線性變換。

與傳統電腦的關鍵差異:

  1. 類比運算沒有記憶體與運算單元分離的概念,資料直接參與運算
  2. 類比運算的雜訊更多——雖然理論上連續值可以無限精確,但實際上熱擾動、設備漂移等物理干擾會降低精準度;反觀數位電腦的電晶體要從 0 翻成 1 需要電壓超過一定門檻,不容易被干擾

類比運算適合的三類問題: 微分方程與控制問題、最佳化問題、AI 的矩陣乘法運算。

類比運算如何實際執行 AI 計算

類比運算系統可採用類比與數位混合(Hybrid)架構:

  • 矩陣乘法(佔 AI 運算 90% 以上)交給類比電路處理: 系統將模型權重編碼為電阻大小,輸入向量編碼為電壓大小,輸出結果就是流出的電流大小。根據歐姆定律 I = V/R,乘法自動完成;多道電流匯聚則自動完成加法
  • 非線性運算(Activation Function 等)交給傳統數位電路處理
  • 該系統透過多個 Tile 組成,每個 Tile 都包含類比與數位元件,透過交替執行以避免雜訊不斷疊加
  • 使用成熟製程,數位部分採用 RISC-V 架構
  • 官方宣稱功耗較傳統方案降低約 10 倍
  • 目前只能跑較小型的傳統深度學習模型(如 YOLO 影像辨識),尚無法運行大型語言模型

類比運算的商業困境與未來展望

儘管理論優勢明確,類比運算在商業上仍極不划算:

  • Hybrid 系統的製造、校正、測試與軟體工具鏈複雜度呈指數級增長
  • 需要對 AI 模型進行額外的 Hardware-Aware Training 以提高容錯率
  • 一旦工作負載改變(換模型版本),整套系統需要重新測試開發
  • 現有邊緣運算晶片功耗已經夠低,改善動機不強

時間軸預估: 五年內不會進入主流雷達;五到十年可能從傳統卷積神經網路(CNN)開始逐步取得市占,甚至進入 Transformer 領域。

Moonshot 願景: 宇宙本質是類比的,若要讓 AI 真正從最底層理解物理世界,或許需要用類比的方式來處理資訊。

神經形態運算(Neuromorphic Computing)的原理

靈感來源: 人腦僅靠約 20 瓦能量就能即時理解物理世界、學習語言、駕駛車輛;而運行大型語言模型的 GPU 伺服器動輒需要數千瓦,且只具備語言知識,缺乏世界知識。

基本運作方式: 以神經元、突觸(Synapse)和脈衝(Spike)為基礎單位。上層神經元受刺激累積到門檻後發出 Spike 傳給下層神經元,下層神經元更新內部狀態後再決定是否繼續傳遞。突觸連結具有不同權重,影響力各異。

以 24 小時監視器為例的運作流程:

  1. 淺層神經元偵測像素變化 → 發出 Spike
  2. 中層神經元將像素變化組合辨識出線條、輪廓
  3. 深層神經元判斷輪廓是否為人形且正在移動
  4. 最終層神經元做出「有人通過」的判斷並計數

核心優勢——事件驅動: 只在有事件發生時才啟動運算。傳統電腦則必須以固定頻率不斷重複推論,即使完全沒有事件。主持人以「守衛站崗」比喻:神經形態守衛平時休息、有敵人才報告;傳統守衛則每分鐘來回跑一趟不斷報告「沒有敵人」。

神經形態運算的硬傷

  1. 不擅長密集矩陣乘法: 用 Spike 表達數值的效率遠低於數位電腦的二進位表示法(32 個 bit 就能表示極大數字)
  2. 延遲問題: 要精確表達複雜數值需要大量 Spike,累積起來延遲明顯。有論文嘗試將 GPT-2 轉為 Spiking Neural Network(SNN),發現延遲顯著上升
  3. 模型轉換困難: 簡單的多層感知器(MLP)和卷積神經網路(CNN)較容易轉為 SNN,但 Transformer 的 Attention 機制無法自然映射到神經形態架構
  4. 原生訓練困難: SNN 的反向傳播(Backpropagation)數學比傳統模型更複雜

神經形態運算的未來路線

短期方向: 走 Hybrid 路線,由神經形態晶片負責事件偵測(極低功耗),偵測到事件後喚醒傳統電腦執行完整 AI 推論。

Moonshot 願景: 未來人人都需要一個 24 小時運作的個人 AI 助理,不斷處理健康數據、財務資訊、郵件通知等——這正是神經形態運算最理想的應用場景,功耗遠優於傳統「永遠開啟」的大型語言模型。

總結:假說是否被推翻?

沒有。 馮紐曼架構數位電腦主導 AI 運算的假說依然成立:

  • 短期(五年內): 類比與神經形態運算不會產生有意義的影響
  • 中長期(五到十年): 隨著 AI 加速工程突破,兩者可能開始取得部分市占
  • 長期(十年後): 可能已跨越技術奇點,無法預測
  • 兩者均不會完全取代數位電腦,各有擅長的運算領域

精選語錄

「你在思考 Analog Computer 的時候,你要想像的是——我們把問題投射到一個物理系統當中,讓物理定律自己把答案算出來。」

「人類大腦運作只要大概 20 瓦的能量,我們就可以做到各種神奇的事情……傳統電腦跑一個大型語言模型,隨隨便便加起來都是人類的幾百倍。」

「數學不是被發明的,它是被發現的。數學符號才是被發明的。就算沒有人類出現,加法的概念還是自然存在於自然界中。」

時間軸

逐字稿未包含明確時間標記,以下為內容段落順序:

  • 開場 — NordVPN 業配與節目介紹
  • 破題 — 為什麼要質疑 AI 硬體的基本假說,介紹三種替代運算典範
  • 第一部分:Analog Computing — 類比 vs. 數位的基礎概念、物理定律如何完成運算、類比運算系統的實際表現、商業困境與未來預估
  • 第二部分:Neuromorphic Computing — 人腦效率的啟發、Spike 驅動的運作原理、24 小時監視器實例、SNN 的限制與延遲問題、Hybrid 路線與 Moonshot 願景
  • 總結 — 假說未被推翻,短中長期展望

相關主題