DeepSeek-V3.2#
简介#
DeepSeek-V3.2 是一款稀疏注意力模型。主要架构与 DeepSeek-V3.1 类似,但引入了稀疏注意力机制,旨在探索和验证长上下文场景下训练和推理效率的优化。
本文档将展示模型的主要验证步骤,包括支持的特性、特性配置、环境准备、单节点和多节点部署、准确性和性能评估。
支持的特性#
请参阅 支持的特性 获取模型的特性支持矩阵。
请参阅 特性指南 获取特性的配置方法。
环境准备#
模型权重#
DeepSeek-V3.2-Exp(BF16 版本): 需要 2 个 Atlas 800 A3 (64G × 16) 节点或 4 个 Atlas 800 A2 (64G × 8) 节点。 下载模型权重DeepSeek-V3.2-Exp-w8a8(量化版本): 需要 1 个 Atlas 800 A3 (64G × 16) 节点或 2 个 Atlas 800 A2 (64G × 8) 节点。 下载模型权重DeepSeek-V3.2(BF16 版本): 需要 2 个 Atlas 800 A3 (64G × 16) 节点或 4 个 Atlas 800 A2 (64G × 8) 节点。 下载模型权重DeepSeek-V3.2-w8a8(量化版本): 需要 1 个 Atlas 800 A3 (64G × 16) 节点或 2 个 Atlas 800 A2 (64G × 8) 节点。 下载模型权重
建议将模型权重下载到多节点的共享目录中,例如 /root/.cache/
验证多节点通信(可选)#
如果您想部署多节点环境,需要按照验证多节点通信环境来验证多节点通信。
安装#
您可以使用我们的官方 docker 镜像并安装额外的算子来支持 DeepSeek-V3.2。
注意
我们强烈建议您安装 triton ascend 包以加速推理。
在每个节点上启动 docker 镜像。
export IMAGE=quay.io/ascend/vllm-ascend:v0.12.0rc1-a3
docker run --rm \
--name vllm-ascend \
--shm-size=1g \
--net=host \
--device /dev/davinci0 \
--device /dev/davinci1 \
--device /dev/davinci2 \
--device /dev/davinci3 \
--device /dev/davinci4 \
--device /dev/davinci5 \
--device /dev/davinci6 \
--device /dev/davinci7 \
--device /dev/davinci8 \
--device /dev/davinci9 \
--device /dev/davinci10 \
--device /dev/davinci11 \
--device /dev/davinci12 \
--device /dev/davinci13 \
--device /dev/davinci14 \
--device /dev/davinci15 \
--device /dev/davinci_manager \
--device /dev/devmm_svm \
--device /dev/hisi_hdc \
-v /usr/local/dcmi:/usr/local/dcmi \
-v /usr/local/Ascend/driver/tools/hccn_tool:/usr/local/Ascend/driver/tools/hccn_tool \
-v /usr/local/bin/npu-smi:/usr/local/bin/npu-smi \
-v /usr/local/Ascend/driver/lib64/:/usr/local/Ascend/driver/lib64/ \
-v /usr/local/Ascend/driver/version.info:/usr/local/Ascend/driver/version.info \
-v /etc/ascend_install.info:/etc/ascend_install.info \
-v /root/.cache:/root/.cache \
-it $IMAGE bash
在每个节点上启动 docker 镜像。
export IMAGE=quay.io/ascend/vllm-ascend:v0.12.0rc1
docker run --rm \
--name vllm-ascend \
--shm-size=1g \
--net=host \
--device /dev/davinci0 \
--device /dev/davinci1 \
--device /dev/davinci2 \
--device /dev/davinci3 \
--device /dev/davinci4 \
--device /dev/davinci5 \
--device /dev/davinci6 \
--device /dev/davinci7 \
--device /dev/davinci_manager \
--device /dev/devmm_svm \
--device /dev/hisi_hdc \
-v /usr/local/dcmi:/usr/local/dcmi \
-v /usr/local/Ascend/driver/tools/hccn_tool:/usr/local/Ascend/driver/tools/hccn_tool \
-v /usr/local/bin/npu-smi:/usr/local/bin/npu-smi \
-v /usr/local/Ascend/driver/lib64/:/usr/local/Ascend/driver/lib64/ \
-v /usr/local/Ascend/driver/version.info:/usr/local/Ascend/driver/version.info \
-v /etc/ascend_install.info:/etc/ascend_install.info \
-v /root/.cache:/root/.cache \
-it $IMAGE bash
此外,如果您不想使用上述Docker镜像,也可以从源码构建。
从源码安装
vllm-ascend,请参考 安装。
如果您想部署多节点环境,需要在每个节点上设置环境。
部署#
注意
在本教程中,我们假设您已将模型权重下载到 /root/.cache/。您可以随意更改为自己的路径。
Prefill-Decode 分离#
我们想展示一下在多节点环境中部署 DeepSeek-V3.2 的指南,使用 1P1D 以获得更好的性能。
在开始之前,请
在每个节点上准备脚本
launch_online_dp.py。import argparse import multiprocessing import os import subprocess import sys def parse_args(): parser = argparse.ArgumentParser() parser.add_argument( "--dp-size", type=int, required=True, help="Data parallel size." ) parser.add_argument( "--tp-size", type=int, default=1, help="Tensor parallel size." ) parser.add_argument( "--dp-size-local", type=int, default=-1, help="Local data parallel size." ) parser.add_argument( "--dp-rank-start", type=int, default=0, help="Starting rank for data parallel." ) parser.add_argument( "--dp-address", type=str, required=True, help="IP address for data parallel master node." ) parser.add_argument( "--dp-rpc-port", type=str, default=12345, help="Port for data parallel master node." ) parser.add_argument( "--vllm-start-port", type=int, default=9000, help="Starting port for the engine." ) return parser.parse_args() args = parse_args() dp_size = args.dp_size tp_size = args.tp_size dp_size_local = args.dp_size_local if dp_size_local == -1: dp_size_local = dp_size dp_rank_start = args.dp_rank_start dp_address = args.dp_address dp_rpc_port = args.dp_rpc_port vllm_start_port = args.vllm_start_port def run_command(visiable_devices, dp_rank, vllm_engine_port): command = [ "bash", "./run_dp_template.sh", visiable_devices, str(vllm_engine_port), str(dp_size), str(dp_rank), dp_address, dp_rpc_port, str(tp_size), ] subprocess.run(command, check=True) if __name__ == "__main__": template_path = "./run_dp_template.sh" if not os.path.exists(template_path): print(f"Template file {template_path} does not exist.") sys.exit(1) processes = [] num_cards = dp_size_local * tp_size for i in range(dp_size_local): dp_rank = dp_rank_start + i vllm_engine_port = vllm_start_port + i visiable_devices = ",".join(str(x) for x in range(i * tp_size, (i + 1) * tp_size)) process = multiprocessing.Process(target=run_command, args=(visiable_devices, dp_rank, vllm_engine_port)) processes.append(process) process.start() for process in processes: process.join()
在每个节点上准备脚本
run_dp_template.sh。预填充节点 0
nic_name="enp48s3u1u1" # change to your own nic name local_ip=141.61.39.105 # change to your own ip export HCCL_OP_EXPANSION_MODE="AIV" export HCCL_IF_IP=$local_ip export GLOO_SOCKET_IFNAME=$nic_name export TP_SOCKET_IFNAME=$nic_name export HCCL_SOCKET_IFNAME=$nic_name export OMP_PROC_BIND=false export OMP_NUM_THREADS=10 export PYTORCH_NPU_ALLOC_CONF=expandable_segments:True export VLLM_USE_V1=1 export HCCL_BUFFSIZE=256 export VLLM_TORCH_PROFILER_DIR="./vllm_profile" export VLLM_TORCH_PROFILER_WITH_STACK=0 export ASCEND_AGGREGATE_ENABLE=1 export ASCEND_TRANSPORT_PRINT=1 export ACL_OP_INIT_MODE=1 export ASCEND_A3_ENABLE=1 export VLLM_NIXL_ABORT_REQUEST_TIMEOUT=300000 export ASCEND_RT_VISIBLE_DEVICES=$1 export VLLM_ASCEND_ENABLE_FLASHCOMM1=1 vllm serve /root/.cache/Eco-Tech/DeepSeek-V3.2-w8a8-QuaRot \ --host 0.0.0.0 \ --port $2 \ --data-parallel-size $3 \ --data-parallel-rank $4 \ --data-parallel-address $5 \ --data-parallel-rpc-port $6 \ --tensor-parallel-size $7 \ --enable-expert-parallel \ --speculative-config '{"num_speculative_tokens": 2, "method":"deepseek_mtp"}' \ --seed 1024 \ --served-model-name dsv3 \ --max-model-len 68000 \ --max-num-batched-tokens 32550 \ --trust-remote-code \ --max-num-seqs 64 \ --gpu-memory-utilization 0.82 \ --quantization ascend \ --enforce-eager \ --no-enable-prefix-caching \ --kv-transfer-config \ '{"kv_connector": "MooncakeConnectorV1", "kv_role": "kv_producer", "kv_port": "30000", "engine_id": "0", "kv_connector_module_path": "vllm_ascend.distributed.mooncake_connector", "kv_connector_extra_config": { "use_ascend_direct": true, "prefill": { "dp_size": 2, "tp_size": 16 }, "decode": { "dp_size": 8, "tp_size": 4 } } }'预填充节点 1
nic_name="enp48s3u1u1" # change to your own nic name local_ip=141.61.39.113 # change to your own ip export HCCL_OP_EXPANSION_MODE="AIV" export HCCL_IF_IP=$local_ip export GLOO_SOCKET_IFNAME=$nic_name export TP_SOCKET_IFNAME=$nic_name export HCCL_SOCKET_IFNAME=$nic_name export OMP_PROC_BIND=false export OMP_NUM_THREADS=10 export PYTORCH_NPU_ALLOC_CONF=expandable_segments:True export VLLM_USE_V1=1 export HCCL_BUFFSIZE=256 export VLLM_TORCH_PROFILER_DIR="./vllm_profile" export VLLM_TORCH_PROFILER_WITH_STACK=0 export ASCEND_AGGREGATE_ENABLE=1 export ASCEND_TRANSPORT_PRINT=1 export ACL_OP_INIT_MODE=1 export ASCEND_A3_ENABLE=1 export VLLM_NIXL_ABORT_REQUEST_TIMEOUT=300000 export ASCEND_RT_VISIBLE_DEVICES=$1 export PYTORCH_NPU_ALLOC_CONF=expandable_segments:True export VLLM_ASCEND_ENABLE_FLASHCOMM1=1 vllm serve /root/.cache/Eco-Tech/DeepSeek-V3.2-w8a8-QuaRot \ --host 0.0.0.0 \ --port $2 \ --data-parallel-size $3 \ --data-parallel-rank $4 \ --data-parallel-address $5 \ --data-parallel-rpc-port $6 \ --tensor-parallel-size $7 \ --enable-expert-parallel \ --speculative-config '{"num_speculative_tokens": 2, "method":"deepseek_mtp"}' \ --seed 1024 \ --served-model-name dsv3 \ --max-model-len 68000 \ --max-num-batched-tokens 32550 \ --trust-remote-code \ --max-num-seqs 64 \ --gpu-memory-utilization 0.82 \ --quantization ascend \ --enforce-eager \ --no-enable-prefix-caching \ --kv-transfer-config \ '{"kv_connector": "MooncakeConnectorV1", "kv_role": "kv_producer", "kv_port": "30000", "engine_id": "0", "kv_connector_module_path": "vllm_ascend.distributed.mooncake_connector", "kv_connector_extra_config": { "use_ascend_direct": true, "prefill": { "dp_size": 2, "tp_size": 16 }, "decode": { "dp_size": 8, "tp_size": 4 } } }'解码节点 0
nic_name="enp48s3u1u1" # change to your own nic name local_ip=141.61.39.117 # change to your own ip export HCCL_OP_EXPANSION_MODE="AIV" export HCCL_IF_IP=$local_ip export GLOO_SOCKET_IFNAME=$nic_name export TP_SOCKET_IFNAME=$nic_name export HCCL_SOCKET_IFNAME=$nic_name #Mooncake export OMP_PROC_BIND=false export OMP_NUM_THREADS=10 export PYTORCH_NPU_ALLOC_CONF=expandable_segments:True export VLLM_USE_V1=1 export HCCL_BUFFSIZE=256 export VLLM_TORCH_PROFILER_DIR="./vllm_profile" export VLLM_TORCH_PROFILER_WITH_STACK=0 export ASCEND_AGGREGATE_ENABLE=1 export ASCEND_TRANSPORT_PRINT=1 export ACL_OP_INIT_MODE=1 export ASCEND_A3_ENABLE=1 export VLLM_NIXL_ABORT_REQUEST_TIMEOUT=300000 export TASK_QUEUE_ENABLE=1 export ASCEND_RT_VISIBLE_DEVICES=$1 export VLLM_ASCEND_ENABLE_MLAPO=1 vllm serve /root/.cache/Eco-Tech/DeepSeek-V3.2-w8a8-QuaRot \ --host 0.0.0.0 \ --port $2 \ --data-parallel-size $3 \ --data-parallel-rank $4 \ --data-parallel-address $5 \ --data-parallel-rpc-port $6 \ --tensor-parallel-size $7 \ --enable-expert-parallel \ --speculative-config '{"num_speculative_tokens": 2, "method":"deepseek_mtp"}' \ --seed 1024 \ --served-model-name dsv3 \ --max-model-len 68000 \ --max-num-batched-tokens 4 \ --compilation-config '{"cudagraph_mode":"FULL_DECODE_ONLY", "cudagraph_capture_sizes":[2, 4, 6, 8]}' \ --trust-remote-code \ --max-num-seqs 1 \ --gpu-memory-utilization 0.95 \ --no-enable-prefix-caching \ --async-scheduling \ --quantization ascend \ --kv-transfer-config \ '{"kv_connector": "MooncakeConnectorV1", "kv_role": "kv_consumer", "kv_port": "30100", "engine_id": "1", "kv_connector_module_path": "vllm_ascend.distributed.mooncake_connector", "kv_connector_extra_config": { "use_ascend_direct": true, "prefill": { "dp_size": 2, "tp_size": 16 }, "decode": { "dp_size": 8, "tp_size": 4 } } }'解码节点 1
nic_name="enp48s3u1u1" # change to your own nic name local_ip=141.61.39.181 # change to your own ip export HCCL_OP_EXPANSION_MODE="AIV" export HCCL_IF_IP=$local_ip export GLOO_SOCKET_IFNAME=$nic_name export TP_SOCKET_IFNAME=$nic_name export HCCL_SOCKET_IFNAME=$nic_name #Mooncake export OMP_PROC_BIND=false export OMP_NUM_THREADS=10 export PYTORCH_NPU_ALLOC_CONF=expandable_segments:True export VLLM_USE_V1=1 export HCCL_BUFFSIZE=256 export VLLM_TORCH_PROFILER_DIR="./vllm_profile" export VLLM_TORCH_PROFILER_WITH_STACK=0 export ASCEND_AGGREGATE_ENABLE=1 export ASCEND_TRANSPORT_PRINT=1 export ACL_OP_INIT_MODE=1 export ASCEND_A3_ENABLE=1 export VLLM_NIXL_ABORT_REQUEST_TIMEOUT=300000 export TASK_QUEUE_ENABLE=1 export ASCEND_RT_VISIBLE_DEVICES=$1 export VLLM_ASCEND_ENABLE_MLAPO=1 vllm serve /root/.cache/Eco-Tech/DeepSeek-V3.2-w8a8-QuaRot \ --host 0.0.0.0 \ --port $2 \ --data-parallel-size $3 \ --data-parallel-rank $4 \ --data-parallel-address $5 \ --data-parallel-rpc-port $6 \ --tensor-parallel-size $7 \ --enable-expert-parallel \ --speculative-config '{"num_speculative_tokens": 2, "method":"deepseek_mtp"}' \ --seed 1024 \ --served-model-name dsv3 \ --max-model-len 68000 \ --max-num-batched-tokens 4 \ --compilation-config '{"cudagraph_mode":"FULL_DECODE_ONLY", "cudagraph_capture_sizes":[2, 4, 6, 8]}' \ --trust-remote-code \ --async-scheduling \ --max-num-seqs 1 \ --gpu-memory-utilization 0.95 \ --no-enable-prefix-caching \ --quantization ascend \ --kv-transfer-config \ '{"kv_connector": "MooncakeConnectorV1", "kv_role": "kv_consumer", "kv_port": "30100", "engine_id": "1", "kv_connector_module_path": "vllm_ascend.distributed.mooncake_connector", "kv_connector_extra_config": { "use_ascend_direct": true, "prefill": { "dp_size": 2, "tp_size": 16 }, "decode": { "dp_size": 8, "tp_size": 4 } } }'
准备工作完成后,您可以在每个节点上使用以下命令启动服务器
预填充节点 0
# change ip to your own
python launch_online_dp.py --dp-size 2 --tp-size 16 --dp-size-local 1 --dp-rank-start 0 --dp-address 141.61.39.105 --dp-rpc-port 12890 --vllm-start-port 9100
预填充节点 1
# change ip to your own
python launch_online_dp.py --dp-size 2 --tp-size 16 --dp-size-local 1 --dp-rank-start 1 --dp-address 141.61.39.105 --dp-rpc-port 12890 --vllm-start-port 9100
解码节点 0
# change ip to your own
python launch_online_dp.py --dp-size 8 --tp-size 4 --dp-size-local 4 --dp-rank-start 0 --dp-address 141.61.39.117 --dp-rpc-port 12777 --vllm-start-port 9100
解码节点 1
# change ip to your own
python launch_online_dp.py --dp-size 8 --tp-size 4 --dp-size-local 4 --dp-rank-start 4 --dp-address 141.61.39.117 --dp-rpc-port 12777 --vllm-start-port 9100
功能验证#
服务器启动后,您可以用输入提示查询模型
curl http://<node0_ip>:<port>/v1/completions \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek_v3.2",
"prompt": "The future of AI is",
"max_tokens": 50,
"temperature": 0
}'
精度评估#
这里有两种准确率评估方法。
使用 AISBench#
详情请参阅使用 AISBench。
执行后,您将获得结果。
使用语言模型评估框架#
例如,以 gsm8k 数据集作为测试数据集,并在在线模式下运行 DeepSeek-V3.2-W8A8 的准确率评估。
有关
lm_eval的安装,请参考 使用 lm_eval。运行
lm_eval以执行准确性评估。
lm_eval \
--model local-completions \
--model_args model=/root/.cache/Eco-Tech/DeepSeek-V3.2-w8a8-QuaRot,base_url=http://127.0.0.1:8000/v1/completions,tokenized_requests=False,trust_remote_code=True \
--tasks gsm8k \
--output_path ./
执行后,您将获得结果。
性能#
使用 AISBench#
详情请参阅使用 AISBench 进行性能评估。
使用 vLLM Benchmark#
以 DeepSeek-V3.2-W8A8 为例,运行性能评估。
更多详情请参阅 vllm benchmark。
有三个 vllm bench 子命令
latency:对单批请求的延迟进行基准测试。serve:对在线服务吞吐量进行基准测试。throughput:对离线推理吞吐量进行基准测试。
以 serve 为例。运行代码如下。
export VLLM_USE_MODELSCOPE=true
vllm bench serve --model vllm-ascend/DeepSeek-V3.2-W8A8 --dataset-name random --random-input 200 --num-prompt 200 --request-rate 1 --save-result --result-dir ./
大约几分钟后,您将获得性能评估结果。使用此教程,性能结果如下:
硬件: A3-752T, 4 节点
部署: 1P1D, 预填充节点: DP2+TP16, 解码节点: DP8+TP4
输入/输出: 64k/3k
性能: 255tps, TPOT 23ms