DeepSeek-V3.2#

简介#

DeepSeek-V3.2 是一款稀疏注意力模型。主要架构与 DeepSeek-V3.1 类似,但引入了稀疏注意力机制,旨在探索和验证长上下文场景下训练和推理效率的优化。

本文档将展示模型的主要验证步骤,包括支持的特性、特性配置、环境准备、单节点和多节点部署、准确性和性能评估。

支持的特性#

请参阅 支持的特性 获取模型的特性支持矩阵。

请参阅 特性指南 获取特性的配置方法。

环境准备#

模型权重#

  • DeepSeek-V3.2-Exp (BF16 版本): 需要 2 个 Atlas 800 A3 (64G × 16) 节点或 4 个 Atlas 800 A2 (64G × 8) 节点。 下载模型权重

  • DeepSeek-V3.2-Exp-w8a8 (量化版本): 需要 1 个 Atlas 800 A3 (64G × 16) 节点或 2 个 Atlas 800 A2 (64G × 8) 节点。 下载模型权重

  • DeepSeek-V3.2 (BF16 版本): 需要 2 个 Atlas 800 A3 (64G × 16) 节点或 4 个 Atlas 800 A2 (64G × 8) 节点。 下载模型权重

  • DeepSeek-V3.2-w8a8 (量化版本): 需要 1 个 Atlas 800 A3 (64G × 16) 节点或 2 个 Atlas 800 A2 (64G × 8) 节点。 下载模型权重

建议将模型权重下载到多节点的共享目录中,例如 /root/.cache/

验证多节点通信(可选)#

如果您想部署多节点环境,需要按照验证多节点通信环境来验证多节点通信。

安装#

您可以使用我们的官方 docker 镜像并安装额外的算子来支持 DeepSeek-V3.2

注意

我们强烈建议您安装 triton ascend 包以加速推理。

在每个节点上启动 docker 镜像。

export IMAGE=quay.io/ascend/vllm-ascend:v0.12.0rc1-a3
docker run --rm \
    --name vllm-ascend \
    --shm-size=1g \
    --net=host \
    --device /dev/davinci0 \
    --device /dev/davinci1 \
    --device /dev/davinci2 \
    --device /dev/davinci3 \
    --device /dev/davinci4 \
    --device /dev/davinci5 \
    --device /dev/davinci6 \
    --device /dev/davinci7 \
    --device /dev/davinci8 \
    --device /dev/davinci9 \
    --device /dev/davinci10 \
    --device /dev/davinci11 \
    --device /dev/davinci12 \
    --device /dev/davinci13 \
    --device /dev/davinci14 \
    --device /dev/davinci15 \
    --device /dev/davinci_manager \
    --device /dev/devmm_svm \
    --device /dev/hisi_hdc \
    -v /usr/local/dcmi:/usr/local/dcmi \
    -v /usr/local/Ascend/driver/tools/hccn_tool:/usr/local/Ascend/driver/tools/hccn_tool \
    -v /usr/local/bin/npu-smi:/usr/local/bin/npu-smi \
    -v /usr/local/Ascend/driver/lib64/:/usr/local/Ascend/driver/lib64/ \
    -v /usr/local/Ascend/driver/version.info:/usr/local/Ascend/driver/version.info \
    -v /etc/ascend_install.info:/etc/ascend_install.info \
    -v /root/.cache:/root/.cache \
    -it $IMAGE bash

在每个节点上启动 docker 镜像。

export IMAGE=quay.io/ascend/vllm-ascend:v0.12.0rc1
docker run --rm \
    --name vllm-ascend \
    --shm-size=1g \
    --net=host \
    --device /dev/davinci0 \
    --device /dev/davinci1 \
    --device /dev/davinci2 \
    --device /dev/davinci3 \
    --device /dev/davinci4 \
    --device /dev/davinci5 \
    --device /dev/davinci6 \
    --device /dev/davinci7 \
    --device /dev/davinci_manager \
    --device /dev/devmm_svm \
    --device /dev/hisi_hdc \
    -v /usr/local/dcmi:/usr/local/dcmi \
    -v /usr/local/Ascend/driver/tools/hccn_tool:/usr/local/Ascend/driver/tools/hccn_tool \
    -v /usr/local/bin/npu-smi:/usr/local/bin/npu-smi \
    -v /usr/local/Ascend/driver/lib64/:/usr/local/Ascend/driver/lib64/ \
    -v /usr/local/Ascend/driver/version.info:/usr/local/Ascend/driver/version.info \
    -v /etc/ascend_install.info:/etc/ascend_install.info \
    -v /root/.cache:/root/.cache \
    -it $IMAGE bash

此外,如果您不想使用上述Docker镜像,也可以从源码构建。

  • 从源码安装 vllm-ascend,请参考 安装

如果您想部署多节点环境,需要在每个节点上设置环境。

部署#

注意

在本教程中,我们假设您已将模型权重下载到 /root/.cache/。您可以随意更改为自己的路径。

Prefill-Decode 分离#

我们想展示一下在多节点环境中部署 DeepSeek-V3.2 的指南,使用 1P1D 以获得更好的性能。

在开始之前,请

  1. 在每个节点上准备脚本 launch_online_dp.py

    import argparse
    import multiprocessing
    import os
    import subprocess
    import sys
    
    def parse_args():
        parser = argparse.ArgumentParser()
        parser.add_argument(
            "--dp-size",
            type=int,
            required=True,
            help="Data parallel size."
        )
        parser.add_argument(
            "--tp-size",
            type=int,
            default=1,
            help="Tensor parallel size."
        )
        parser.add_argument(
            "--dp-size-local",
            type=int,
            default=-1,
            help="Local data parallel size."
        )
        parser.add_argument(
            "--dp-rank-start",
            type=int,
            default=0,
            help="Starting rank for data parallel."
        )
        parser.add_argument(
            "--dp-address",
            type=str,
            required=True,
            help="IP address for data parallel master node."
        )
        parser.add_argument(
            "--dp-rpc-port",
            type=str,
            default=12345,
            help="Port for data parallel master node."
        )
        parser.add_argument(
            "--vllm-start-port",
            type=int,
            default=9000,
            help="Starting port for the engine."
        )
        return parser.parse_args()
    
    args = parse_args()
    dp_size = args.dp_size
    tp_size = args.tp_size
    dp_size_local = args.dp_size_local
    if dp_size_local == -1:
        dp_size_local = dp_size
    dp_rank_start = args.dp_rank_start
    dp_address = args.dp_address
    dp_rpc_port = args.dp_rpc_port
    vllm_start_port = args.vllm_start_port
    
    def run_command(visiable_devices, dp_rank, vllm_engine_port):
        command = [
            "bash",
            "./run_dp_template.sh",
            visiable_devices,
            str(vllm_engine_port),
            str(dp_size),
            str(dp_rank),
            dp_address,
            dp_rpc_port,
            str(tp_size),
        ]
        subprocess.run(command, check=True)
    
    if __name__ == "__main__":
        template_path = "./run_dp_template.sh"
        if not os.path.exists(template_path):
            print(f"Template file {template_path} does not exist.")
            sys.exit(1)
    
        processes = []
        num_cards = dp_size_local * tp_size
        for i in range(dp_size_local):
            dp_rank = dp_rank_start + i
            vllm_engine_port = vllm_start_port + i
            visiable_devices = ",".join(str(x) for x in range(i * tp_size, (i + 1) * tp_size))
            process = multiprocessing.Process(target=run_command,
                                            args=(visiable_devices, dp_rank,
                                                    vllm_engine_port))
            processes.append(process)
            process.start()
    
        for process in processes:
            process.join()
    
    
  2. 在每个节点上准备脚本 run_dp_template.sh

    1. 预填充节点 0

      nic_name="enp48s3u1u1" # change to your own nic name
      local_ip=141.61.39.105 # change to your own ip
      
      export HCCL_OP_EXPANSION_MODE="AIV"
      
      export HCCL_IF_IP=$local_ip
      export GLOO_SOCKET_IFNAME=$nic_name
      export TP_SOCKET_IFNAME=$nic_name
      export HCCL_SOCKET_IFNAME=$nic_name
      
      export OMP_PROC_BIND=false
      export OMP_NUM_THREADS=10
      export PYTORCH_NPU_ALLOC_CONF=expandable_segments:True
      export VLLM_USE_V1=1
      export HCCL_BUFFSIZE=256
      
      export VLLM_TORCH_PROFILER_DIR="./vllm_profile"
      export VLLM_TORCH_PROFILER_WITH_STACK=0
      
      export ASCEND_AGGREGATE_ENABLE=1
      export ASCEND_TRANSPORT_PRINT=1
      export ACL_OP_INIT_MODE=1
      export ASCEND_A3_ENABLE=1
      export VLLM_NIXL_ABORT_REQUEST_TIMEOUT=300000
      
      export ASCEND_RT_VISIBLE_DEVICES=$1
      
      export VLLM_ASCEND_ENABLE_FLASHCOMM1=1
      
      
      vllm serve /root/.cache/Eco-Tech/DeepSeek-V3.2-w8a8-QuaRot \
          --host 0.0.0.0 \
          --port $2 \
          --data-parallel-size $3 \
          --data-parallel-rank $4 \
          --data-parallel-address $5 \
          --data-parallel-rpc-port $6 \
          --tensor-parallel-size $7 \
          --enable-expert-parallel \
          --speculative-config '{"num_speculative_tokens": 2, "method":"deepseek_mtp"}' \
          --seed 1024 \
          --served-model-name dsv3 \
          --max-model-len 68000 \
          --max-num-batched-tokens 32550 \
          --trust-remote-code \
          --max-num-seqs 64 \
          --gpu-memory-utilization 0.82 \
          --quantization ascend \
          --enforce-eager \
          --no-enable-prefix-caching \
          --kv-transfer-config \
          '{"kv_connector": "MooncakeConnectorV1",
          "kv_role": "kv_producer",
          "kv_port": "30000",
          "engine_id": "0",
          "kv_connector_module_path": "vllm_ascend.distributed.mooncake_connector",
          "kv_connector_extra_config": {
                      "use_ascend_direct": true,
                      "prefill": {
                              "dp_size": 2,
                              "tp_size": 16
                      },
                      "decode": {
                              "dp_size": 8,
                              "tp_size": 4
                      }
              }
          }'
      
      
    2. 预填充节点 1

      nic_name="enp48s3u1u1" # change to your own nic name
      local_ip=141.61.39.113 # change to your own ip
      
      export HCCL_OP_EXPANSION_MODE="AIV"
      
      export HCCL_IF_IP=$local_ip
      export GLOO_SOCKET_IFNAME=$nic_name
      export TP_SOCKET_IFNAME=$nic_name
      export HCCL_SOCKET_IFNAME=$nic_name
      
      export OMP_PROC_BIND=false
      export OMP_NUM_THREADS=10
      export PYTORCH_NPU_ALLOC_CONF=expandable_segments:True
      export VLLM_USE_V1=1
      export HCCL_BUFFSIZE=256
      
      export VLLM_TORCH_PROFILER_DIR="./vllm_profile"
      export VLLM_TORCH_PROFILER_WITH_STACK=0
      
      export ASCEND_AGGREGATE_ENABLE=1
      export ASCEND_TRANSPORT_PRINT=1
      export ACL_OP_INIT_MODE=1
      export ASCEND_A3_ENABLE=1
      export VLLM_NIXL_ABORT_REQUEST_TIMEOUT=300000
      
      export ASCEND_RT_VISIBLE_DEVICES=$1
      export PYTORCH_NPU_ALLOC_CONF=expandable_segments:True
      
      export VLLM_ASCEND_ENABLE_FLASHCOMM1=1
      
      
      vllm serve /root/.cache/Eco-Tech/DeepSeek-V3.2-w8a8-QuaRot \
          --host 0.0.0.0 \
          --port $2 \
          --data-parallel-size $3 \
          --data-parallel-rank $4 \
          --data-parallel-address $5 \
          --data-parallel-rpc-port $6 \
          --tensor-parallel-size $7 \
          --enable-expert-parallel \
          --speculative-config '{"num_speculative_tokens": 2, "method":"deepseek_mtp"}' \
          --seed 1024 \
          --served-model-name dsv3 \
          --max-model-len 68000 \
          --max-num-batched-tokens 32550 \
          --trust-remote-code \
          --max-num-seqs 64 \
          --gpu-memory-utilization 0.82 \
          --quantization ascend \
          --enforce-eager \
          --no-enable-prefix-caching \
          --kv-transfer-config \
          '{"kv_connector": "MooncakeConnectorV1",
          "kv_role": "kv_producer",
          "kv_port": "30000",
          "engine_id": "0",
          "kv_connector_module_path": "vllm_ascend.distributed.mooncake_connector",
          "kv_connector_extra_config": {
                      "use_ascend_direct": true,
                      "prefill": {
                              "dp_size": 2,
                              "tp_size": 16
                      },
                      "decode": {
                              "dp_size": 8,
                              "tp_size": 4
                      }
              }
          }'
      
    3. 解码节点 0

      nic_name="enp48s3u1u1" # change to your own nic name
      local_ip=141.61.39.117 # change to your own ip
      
      export HCCL_OP_EXPANSION_MODE="AIV"
      
      export HCCL_IF_IP=$local_ip
      export GLOO_SOCKET_IFNAME=$nic_name
      export TP_SOCKET_IFNAME=$nic_name
      export HCCL_SOCKET_IFNAME=$nic_name
      
      #Mooncake
      export OMP_PROC_BIND=false
      export OMP_NUM_THREADS=10
      
      export PYTORCH_NPU_ALLOC_CONF=expandable_segments:True
      export VLLM_USE_V1=1
      export HCCL_BUFFSIZE=256
      
      export VLLM_TORCH_PROFILER_DIR="./vllm_profile"
      export VLLM_TORCH_PROFILER_WITH_STACK=0
      
      export ASCEND_AGGREGATE_ENABLE=1
      export ASCEND_TRANSPORT_PRINT=1
      export ACL_OP_INIT_MODE=1
      export ASCEND_A3_ENABLE=1
      export VLLM_NIXL_ABORT_REQUEST_TIMEOUT=300000
      
      export TASK_QUEUE_ENABLE=1
      
      export ASCEND_RT_VISIBLE_DEVICES=$1
      
      export VLLM_ASCEND_ENABLE_MLAPO=1
      
      
      vllm serve /root/.cache/Eco-Tech/DeepSeek-V3.2-w8a8-QuaRot \
          --host 0.0.0.0 \
          --port $2 \
          --data-parallel-size $3 \
          --data-parallel-rank $4 \
          --data-parallel-address $5 \
          --data-parallel-rpc-port $6 \
          --tensor-parallel-size $7 \
          --enable-expert-parallel \
          --speculative-config '{"num_speculative_tokens": 2, "method":"deepseek_mtp"}' \
          --seed 1024 \
          --served-model-name dsv3 \
          --max-model-len 68000 \
          --max-num-batched-tokens 4 \
          --compilation-config '{"cudagraph_mode":"FULL_DECODE_ONLY", "cudagraph_capture_sizes":[2, 4, 6, 8]}' \
          --trust-remote-code \
          --max-num-seqs 1 \
          --gpu-memory-utilization 0.95 \
          --no-enable-prefix-caching \
          --async-scheduling \
          --quantization ascend \
          --kv-transfer-config \
          '{"kv_connector": "MooncakeConnectorV1",
          "kv_role": "kv_consumer",
          "kv_port": "30100",
          "engine_id": "1",
          "kv_connector_module_path": "vllm_ascend.distributed.mooncake_connector",
          "kv_connector_extra_config": {
                      "use_ascend_direct": true,
                      "prefill": {
                              "dp_size": 2,
                              "tp_size": 16
                      },
                      "decode": {
                              "dp_size": 8,
                              "tp_size": 4
                      }
              }
          }'
      
    4. 解码节点 1

      nic_name="enp48s3u1u1" # change to your own nic name
      local_ip=141.61.39.181 # change to your own ip
      
      export HCCL_OP_EXPANSION_MODE="AIV"
      
      export HCCL_IF_IP=$local_ip
      export GLOO_SOCKET_IFNAME=$nic_name
      export TP_SOCKET_IFNAME=$nic_name
      export HCCL_SOCKET_IFNAME=$nic_name
      
      #Mooncake
      export OMP_PROC_BIND=false
      export OMP_NUM_THREADS=10
      
      export PYTORCH_NPU_ALLOC_CONF=expandable_segments:True
      export VLLM_USE_V1=1
      export HCCL_BUFFSIZE=256
      
      export VLLM_TORCH_PROFILER_DIR="./vllm_profile"
      export VLLM_TORCH_PROFILER_WITH_STACK=0
      
      export ASCEND_AGGREGATE_ENABLE=1
      export ASCEND_TRANSPORT_PRINT=1
      export ACL_OP_INIT_MODE=1
      export ASCEND_A3_ENABLE=1
      export VLLM_NIXL_ABORT_REQUEST_TIMEOUT=300000
      
      export TASK_QUEUE_ENABLE=1
      
      export ASCEND_RT_VISIBLE_DEVICES=$1
      
      export VLLM_ASCEND_ENABLE_MLAPO=1
      
      
      vllm serve /root/.cache/Eco-Tech/DeepSeek-V3.2-w8a8-QuaRot \
          --host 0.0.0.0 \
          --port $2 \
          --data-parallel-size $3 \
          --data-parallel-rank $4 \
          --data-parallel-address $5 \
          --data-parallel-rpc-port $6 \
          --tensor-parallel-size $7 \
          --enable-expert-parallel \
          --speculative-config '{"num_speculative_tokens": 2, "method":"deepseek_mtp"}' \
          --seed 1024 \
          --served-model-name dsv3 \
          --max-model-len 68000 \
          --max-num-batched-tokens 4 \
          --compilation-config '{"cudagraph_mode":"FULL_DECODE_ONLY",  "cudagraph_capture_sizes":[2, 4, 6, 8]}' \
          --trust-remote-code \
          --async-scheduling \
          --max-num-seqs 1 \
          --gpu-memory-utilization 0.95 \
          --no-enable-prefix-caching \
          --quantization ascend \
          --kv-transfer-config \
          '{"kv_connector": "MooncakeConnectorV1",
          "kv_role": "kv_consumer",
          "kv_port": "30100",
          "engine_id": "1",
          "kv_connector_module_path": "vllm_ascend.distributed.mooncake_connector",
          "kv_connector_extra_config": {
                      "use_ascend_direct": true,
                      "prefill": {
                              "dp_size": 2,
                              "tp_size": 16
                      },
                      "decode": {
                              "dp_size": 8,
                              "tp_size": 4
                      }
              }
          }'
      

准备工作完成后,您可以在每个节点上使用以下命令启动服务器

  1. 预填充节点 0

# change ip to your own
python launch_online_dp.py --dp-size 2 --tp-size 16 --dp-size-local 1 --dp-rank-start 0 --dp-address 141.61.39.105 --dp-rpc-port 12890 --vllm-start-port 9100
  1. 预填充节点 1

# change ip to your own
python launch_online_dp.py --dp-size 2 --tp-size 16 --dp-size-local 1 --dp-rank-start 1 --dp-address 141.61.39.105 --dp-rpc-port 12890 --vllm-start-port 9100
  1. 解码节点 0

# change ip to your own
python launch_online_dp.py --dp-size 8 --tp-size 4 --dp-size-local 4 --dp-rank-start 0 --dp-address 141.61.39.117 --dp-rpc-port 12777 --vllm-start-port 9100
  1. 解码节点 1

# change ip to your own
python launch_online_dp.py --dp-size 8 --tp-size 4 --dp-size-local 4 --dp-rank-start 4 --dp-address 141.61.39.117 --dp-rpc-port 12777 --vllm-start-port 9100

功能验证#

服务器启动后,您可以用输入提示查询模型

curl http://<node0_ip>:<port>/v1/completions \
    -H "Content-Type: application/json" \
    -d '{
        "model": "deepseek_v3.2",
        "prompt": "The future of AI is",
        "max_tokens": 50,
        "temperature": 0
    }'

精度评估#

这里有两种准确率评估方法。

使用 AISBench#

  1. 详情请参阅使用 AISBench

  2. 执行后,您将获得结果。

使用语言模型评估框架#

例如,以 gsm8k 数据集作为测试数据集,并在在线模式下运行 DeepSeek-V3.2-W8A8 的准确率评估。

  1. 有关 lm_eval 的安装,请参考 使用 lm_eval

  2. 运行 lm_eval 以执行准确性评估。

lm_eval \
  --model local-completions \
  --model_args model=/root/.cache/Eco-Tech/DeepSeek-V3.2-w8a8-QuaRot,base_url=http://127.0.0.1:8000/v1/completions,tokenized_requests=False,trust_remote_code=True \
  --tasks gsm8k \
  --output_path ./
  1. 执行后,您将获得结果。

性能#

使用 AISBench#

详情请参阅使用 AISBench 进行性能评估

使用 vLLM Benchmark#

DeepSeek-V3.2-W8A8 为例,运行性能评估。

更多详情请参阅 vllm benchmark

有三个 vllm bench 子命令

  • latency:对单批请求的延迟进行基准测试。

  • serve:对在线服务吞吐量进行基准测试。

  • throughput:对离线推理吞吐量进行基准测试。

serve 为例。运行代码如下。

export VLLM_USE_MODELSCOPE=true
vllm bench serve --model vllm-ascend/DeepSeek-V3.2-W8A8  --dataset-name random --random-input 200 --num-prompt 200 --request-rate 1 --save-result --result-dir ./

大约几分钟后,您将获得性能评估结果。使用此教程,性能结果如下:

硬件: A3-752T, 4 节点

部署: 1P1D, 预填充节点: DP2+TP16, 解码节点: DP8+TP4

输入/输出: 64k/3k

性能: 255tps, TPOT 23ms