NVIDIA 在 GTC 2025 宣布,其Blackwell架构实现了DeepSeek-R1 (6710 亿参数模型)的世界纪录推理性能。

  • 单个 NVIDIA DGX 系统(8×Blackwell GPU)

    • 单用户推理速度 超过 250 tokens/秒
    • 最大吞吐量 超过 30,000 tokens/秒
  • 推理吞吐量相比 2025 年 1 月提升 36 倍,推理成本下降 32 倍

一台配备8个NVIDIA Blackwell GPU的单台DGX系统,在处理6710亿参数的DeepSeek-R1模型时,能够实现每用户超过250个令牌每秒的推理速度,或最高超过3万个令牌每秒的总吞吐量。这一性能在用户体验和效率方面均达到了新的高度。

Blackwell GPU 关键升级

这些性能提升得益于NVIDIA开放生态系统中推理开发工具的优化,特别是针对Blackwell架构的改进。Blackwell架构的硬件和软件协同优化,使得推理性能在短短时间内实现了显著飞跃。

(1) 硬件架构改进

  • 第五代 Tensor Core:支持 FP4 精度计算,计算能力提升 5 倍
  • 第五代 NVLink & NVLink Switch

    • 带宽翻倍(相比上一代 Hopper GPU)。
    • 支持更大规模 NVLink 互联,增强多 GPU 协同计算能力。
  • 计算性能 & 存储优化

    • Blackwell FP4 计算比 H100 的 FP8 模式 提高 3 倍推理吞吐量
    • DeepSeek-R1、Llama 3.1 (405B)、Llama 3.3 (70B) 等模型上表现卓越。

(2) TensorRT-LLM 推理优化

  • TensorRT Model Optimizer 0.25

    • 支持 FP4 量化(Post-Training Quantization, PTQ),降低计算开销,提高吞吐量。
    • 支持量化感知训练(QAT),可在低精度计算下保持高准确率。
  • TensorRT-LLM 0.17

    • 针对 Blackwell 指令集 进行了专门优化。
    • KV Cache 管理、推测解码 等高级优化提高运行效率。

(3) AI 图像生成优化

Blackwell GPU 还针对 AI 图像生成进行了优化:

  • 相比 FP16,推理吞吐量提升 3 倍
  • 显存占用优化,VRAM 需求降低 5.2 倍,适用于 RTX 5090 及 AI PC 设备。
  • 支持的模型

    • Flux.1 系列(Black Forest Labs):领先的文本-图像生成模型,可在 TensorRT 生态系统 中直接部署。


(4) 生态系统与软件优化

cuDNN 9.7 优化

  • 提供 Flash Attention 算法:

    • FP8 前向传播加速 50%
    • FP8 反向传播加速 84%
  • GEMM 计算优化,减少 LLM 计算内存占用。

CUTLASS 3.8 优化

  • 支持 FP4 计算,优化 MoE 模型计算,降低 LLM 权重存储需求。
  • 支持 OpenAI Triton,Python 级编译器优化 AI 计算。

关键推理性能数据

(1) 在 LLM 模型上的吞吐量提升

(2) FP4 量化推理的精度评估

  • DeepSeek-R1 在 FP4 量化后仅损失 0.1-0.5% 精度

    • MMLU、GSM8K、AIME 2024、GPQA、MATH-500 等多个数据集测试表现优异。
  • Nemotron 4 (15B & 340B) 采用 FP4 QAT 量化后,几乎无损精度

官方博客:https://developer.nvidia.com/blog/nvidia-blackwell-delivers-world-record-deepseek-r1-inference-performance/