NVIDIA 執行長黃仁勳在 CES 2026 再度揭示下一代 AI 超級晶片「Vera Rubin」藍圖!NVIDIA 執行長黃仁勳在 CES 2026 再度揭示下一代 AI 超級晶片「Vera Rubin」藍圖!

【CES 2026】NVIDIA 亮 Vera Rubin 最新進度,黃仁勳:已全面量產!

2026/01/06 07:02

NVIDIA 執行長黃仁勳在 CES 2026 再度揭示下一代 AI 超級晶片「Vera Rubin」藍圖!Vera Rubin 平台延續 NVIDIA「超級晶片」的整合設計理念,將全新的 Vera CPU 與 Rubin GPU 緊密結合在單一載板上。

黃仁勳表示 Vera Rubin 的設計初衷是為了解決當前產業面臨的根本性挑戰:AI 運算所需的算力正以驚人速度攀升。他強調,這款以美國天文學家薇拉・魯賓(Vera Florence Cooper Rubin)命名的新架構,已經正式進入全面量產。

Rubin 架構最早於 2024 年的 COMPUTEX 展會上首度揭露,是 NVIDIA 維持高速硬體迭代策略的最新成果。Rubin 將正式取代現行的 Blackwell 架構,而 Blackwell 先前則是接替 Hopper 與 Lovelace 架構的定位。

Photo Credit:NVIDIA

NVIDIA 近期陸續宣布與 Anthropic、OpenAI 及 AWS 等重量級 AI 業者建立合作夥伴關係,這些企業都將成為 Rubin 架構的首批客戶。

從技術規格來看,Vera Rubin 由六顆設計為協同運作的獨立晶片所組成,分別有 NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink 6 交換器、NVIDIA ConnectX-9 SuperNIC、NVIDIA BlueField-4 DPU和NVIDIA Spectrum-6 以太網路交換器。

其中 Rubin GPU 位居整體架構的核心位置,負責主要的 AI 運算任務;此外,Vera Rubin 也透過全新改良的 Bluefield 網路晶片與 NVLink 互連技術,針對現代 AI 系統日益嚴峻的儲存頻寬與晶片間互連瓶頸提出解決方案。Vera CPU 則專門針對 AI Agent 代理式推理的應用場景進行最佳化。

根據 NVIDIA 官方數據,Vera Rubin 可提供 3.6 EFLOPS FP4 推論效能,以及 1.2 EFLOPS FP8 訓練能力。在記憶體配置上,NVL144 配備 75TB 的快速記憶體,HBM4 頻寬達 13 TB/s,較 GB300 提升約 60%。系統採用 100% 液冷設計,支援 45°C 液冷散熱,並配備新型液冷匯流排,為 GW 級 AI 資料中心做好準備。

在效能表現方面,Rubin 架構在模型訓練任務上的運算速度較前代 Blackwell 架構提升 3.5 倍,在推論任務上更達到 5 倍的效能增幅,此外可將推理的 token 成本降低 10 倍,並將訓練 MoE 模型所需的 GPU 數量降低 4 倍。在能源效率方面,新平台每瓦電力所能支援的推論運算量也提升至 8 倍。

加入 INSIDE 會員,獨享 INSIDE 科技趨勢電子報,點擊立刻成為會員

延伸閱讀:

  • 【CES 2026】挑戰 Tesla FSD!NVIDIA 攜手賓士亮自駕推理模型 「Alpamayo」

  • 【CES 2026】開源之王 NVIDIA 模型連發!開源數量超越 Google

市場機遇
Whalebit 圖標
Whalebit實時價格 (CES)
$0.8477
$0.8477$0.8477
-3.85%
USD
Whalebit (CES) 實時價格圖表
免責聲明: 本網站轉載的文章均來源於公開平台,僅供參考。這些文章不代表 MEXC 的觀點或意見。所有版權歸原作者所有。如果您認為任何轉載文章侵犯了第三方權利,請聯絡 service@support.mexc.com 以便將其刪除。MEXC 不對轉載文章的及時性、準確性或完整性作出任何陳述或保證,並且不對基於此類內容所採取的任何行動或決定承擔責任。轉載材料僅供參考,不構成任何商業、金融、法律和/或稅務決策的建議、認可或依據。