C114通信網(wǎng)  |  通信人家園

人工智能
2025/3/19 08:36

英偉達宣布創(chuàng)造滿血 DeepSeek-R1 模型 AI 推理性能的世界紀錄

IT之家  問舟

英偉達在今日舉行的 NVIDIA GTC 2025 上宣布其 NVIDIA Blackwell DGX 系統(tǒng)創(chuàng)下 DeepSeek-R1 大模型推理性能的世界紀錄。

據(jù)介紹,在搭載了八塊 Blackwell GPU 的單個 DGX 系統(tǒng)上運行 6710 億參數(shù)的滿血 DeepSeek-R1 模型可實現(xiàn)每用戶每秒超 250 token 的響應速度,系統(tǒng)最高吞吐量突破每秒 3 萬 token。

英偉達表示,隨著 NVIDIA 平臺繼續(xù)在最新的 Blackwell Ultra GPU 和 Blackwell GPU 上突破推理極限,其性能將會繼續(xù)不斷提高。

  ▲ 運行 TensorRT-LLM 軟件的 NVL8 配置的 NVIDIA B200 GPU

單節(jié)點配置:DGX B200(8 塊 GPU)與 DGX H200(8 塊 GPU)

測試參數(shù):最新測試采用 TensorRT-LLM 內部版本,輸入 1024 token / 輸出 2048 token;此前測試為輸入 / 輸出各 1024 token;并發(fā)

計算精度:B200 采用 FP4,H200 采用 FP8 精度

英偉達表示,通過硬件和軟件的結合,他們自 2025 年 1 月以來成功將 DeepSeek-R1 671B 模型的吞吐量提高了約 36 倍。

節(jié)點配置:DGX B200(8 塊 GPU)、DGX H200(8 塊 GPU)、兩個 DGX H100(8 塊 GPU)系統(tǒng)

測試參數(shù):依然采用 TensorRT-LLM 內部版本,輸入 1024 token / 輸出 2048 token;此前測試為輸入 / 輸出各 1024 token;并發(fā)性 MAX

計算精度:B200 采用 FP4,H100 / H200 采用 FP8 精度

與 Hopper 架構相比,Blackwell 架構與 TensorRT 軟件相結合可實現(xiàn)顯著的推理性能提升。

英偉達表示,包括 DeepSeek-R1、Llama 3.1 405B 和 Llama 3.3 70B,運行 TensorRT 軟件并使用 FP4 精度的 DGX B200 平臺與 DGX H200 平臺相比已經(jīng)提供了 3 倍以上的推理吞吐量提升。

 

精度 MMLU GSM8K AIME 2024 GPQA Diamond MATH-500
DeepSeek R1-FP8 90.8% 96.3% 80.0% 69.7% 95.4%
DeepSeek R1-FP4 90.7% 96.1% 80.0% 69.2% 94.2%

 

英偉達表示,在對模型進行量化以利用低精度計算優(yōu)勢時,確保精度損失最小化是生產(chǎn)部署的關鍵。IT之家注意到,在 DeepSeek-R1 模型上,相較于 FP8 基準精度,TensorRT Model Optimizer 的 FP4 訓練后量化(PTQ)技術在不同數(shù)據(jù)集上僅產(chǎn)生微乎其微的精度損失。

給作者點贊
0 VS 0
寫得不太好

免責聲明:本文僅代表作者個人觀點,與C114通信網(wǎng)無關。其原創(chuàng)性以及文中陳述文字和內容未經(jīng)本站證實,對本文以及其中全部或者部分內容、文字的真實性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考,并請自行核實相關內容。

熱門文章
    最新視頻
    為您推薦

      C114簡介 | 聯(lián)系我們 | 網(wǎng)站地圖 | 手機版

      Copyright©1999-2025 c114 All Rights Reserved | 滬ICP備12002291號

      C114 通信網(wǎng) 版權所有 舉報電話:021-54451141