P2P NCCL 连接器¶
xPyD 的一种实现,基于点对点通信实现动态扩展,部分灵感来源于 Dynamo。
详细设计¶
整体流程¶
如图 1 所示,该 **PD 分离** 解决方案的整体流程通过请求流进行描述。
- 客户端向 Proxy/Router 的
/v1/completions接口发送 HTTP 请求。 - Proxy/Router 通过轮询或随机选择的方式选择一个 **1P1D (1 Prefill 实例 + 1 Decode 实例)**,生成一个
request_id(规则稍后介绍),将 HTTP 请求消息中的max_tokens修改为 **1**,然后将请求转发给 **P 实例**。 - 紧接着,Proxy/Router 将 **原始 HTTP 请求** 转发给 **D 实例**。
- **P 实例** 执行 **Prefill**,然后 **主动将生成的 KV 缓存** 发送给 D 实例 (使用 **PUT_ASYNC** 模式)。D 实例的
zmq_addr可以通过request_id解析。 - **D 实例** 设有 **专用线程** 用于接收 KV 缓存 (以避免阻塞主进程)。接收到的 KV 缓存存储在 **GPU 内存缓冲区** 中,其大小由 vLLM 启动参数
kv_buffer_size决定。当 GPU 缓冲区已满时,KV 缓存将存储在 **本地张量内存池** 中。 - 在 **Decode** 过程中,D 实例的主进程从 **GPU 缓冲区** 或 **内存池** 中检索 KV 缓存 (由 P 实例传输),从而 **跳过 Prefill**。
- 完成 **Decode** 后,D 实例将结果返回给 **Proxy/Router**,然后 Proxy/Router 将其转发给 **客户端**。
代理/路由器 (演示)¶
一个简单的 HTTP 服务作为客户端请求的入口点,并启动一个后台线程监听 P/D 实例报告的 HTTP IP 和 PORT,以及 ZMQ IP 和 PORT。它维护一个 http_addr -> zmq_addr 的字典。http_addr 是 vLLM 实例请求的 IP:PORT,而 zmq_addr 是用于 KV 缓存握手和元数据接收的地址。
Proxy/Router 负责根据客户端请求的特性(例如提示词)选择 1P1D,并生成相应的 request_id,例如:
目前,为了快速验证 xPyD 是否可行,采用了 1P1D 的轮询选择。未来计划结合 Trie 和实例负载状态来选择合适的 P 和 D。
每个 P/D 实例定期向 Proxy/Router 发送心跳包 (目前每 3 秒一次),用于注册 (即报告 http_addr -> zmq_addr) 和保持连接。如果一个实例崩溃且在一定时间内未能发送 ping,Proxy/Router 将移除超时实例 (此功能尚未开发)。
KV 缓存传输方法¶
KVCache 传输有三种方法:PUT、GET 和 PUT_ASYNC。这些方法可以通过 --kv-transfer-config 和 kv_connector_extra_config 参数指定,具体通过 send_type 字段。PUT 和 PUT_ASYNC 都涉及 P 实例主动向 D 实例发送 KVCache。区别在于,PUT 是一种同步传输方法,会阻塞主进程,而 PUT_ASYNC 是一种异步传输方法。PUT_ASYNC 使用专用线程发送 KVCache,这意味着它不会阻塞主进程。相比之下,GET 方法涉及 P 实例在计算完 prefill 后将 KVCache 保存到内存缓冲区。一旦 D 实例分配了 KVCache 的空间,它就会主动从 P 实例检索计算好的 KVCache。
实验结果表明,这些方法的性能从高到低排序为:PUT_ASYNC → GET → PUT。
通过 ZMQ & NCCL 进行 P2P 通信¶
只要知道对方的地址,就可以进行点对点 KV 缓存传输 (使用 NCCL),不受 rank 和 world size 的限制。以支持 PD 分离的实例的动态扩展 (增减)。这意味着添加或删除 P/D 实例不需要完全重启系统。
每个 P/D 实例只需要创建一个 P2pNcclEngine 实例。该实例维护一个 ZMQ 服务器,运行一个专用线程在 zmq_addr 地址上监听,并接收来自其他实例的控制流请求。这些请求包括建立 NCCL 连接的请求和发送 KV 缓存元数据 (如张量形状和数据类型) 的请求。但是,它不实际传输 KV 缓存数据本身。
当 P 实例和 D 实例第一次传输 KV 缓存时,它们需要建立一个 ZMQ 连接和一个 NCCL 组。对于后续的 KV 缓存传输,这个 ZMQ 连接和 NCCL 组会被重用。NCCL 组只包含两个 rank,即 world size 为 2。此设计旨在支持动态扩展,这意味着添加或删除 P/D 实例不需要完全重启系统。只要知道对方的地址,就可以进行点对点 KV 缓存传输,而不受 rank 或 world size 的限制。
NCCL 组拓扑¶
目前,KVCache 传输仅支持对称 TP (张量并行) 方法。未来将支持非对称 TP 和 PP (流水线并行) 方法。图 2 展示了 1P2D 的设置,其中每个实例的 TP (张量并行) 度为 2。总共有 7 个 NCCL 组:三个 vLLM 实例各有 1 个 TP=2 的 NCCL 组。此外,P 实例的第 0 个 GPU 卡与每个 D 实例的第 0 个 GPU 卡建立一个 NCCL 组。类似地,P 实例的第 1 个 GPU 卡与每个 D 实例的第 1 个 GPU 卡建立一个 NCCL 组。
每个 NCCL 组占用一定的 GPU 内存缓冲区用于通信,其大小主要受 NCCL_MAX_NCHANNELS 环境变量的影响。当 NCCL_MAX_NCHANNELS=16 时,一个 NCCL 组通常占用 100MB,而当 NCCL_MAX_NCHANNELS=8 时,它通常占用 52MB。对于大规模的 xPyD 配置——例如 DeepSeek 的 96P144D——此实现目前不可行。未来,我们正考虑使用 RDMA 进行点对点通信,并且也在关注 UCCL。
GPU 内存缓冲区和张量内存池¶
内存缓冲区大小的权衡如下:对于 P 实例,在 PUT 和 PUT_ASYNC 模式下不需要内存缓冲区,但在 GET 模式下是必需的。对于 D 实例,在所有三种模式下都需要内存缓冲区。D 实例的内存缓冲区不应过大。同样,对于处于 GET 模式下的 P 实例,内存缓冲区也不应过大。D 实例的内存缓冲区用于临时存储 P 实例发送的 KVCache。如果太大,会减少 D 实例正常推理可用的 KVCache 空间,从而降低推理批次大小,最终导致输出吞吐量下降。内存缓冲区的大小由参数 kv_buffer_size 配置,以字节为单位,通常设置为内存大小的 5%~10%。
如果 P 实例的 --max-num-seqs 参数设置为较大的值,由于批次大小较大,P 实例会同时生成大量的 KVCache。这可能会超出 D 实例内存缓冲区的容量,导致 KVCache 丢失。一旦 KVCache 丢失,D 实例需要重新计算 Prefill,这相当于执行两次 Prefill。因此,首次 token 时间 (TTFT) 将显著增加,导致性能下降。
为了解决上述问题,我设计并开发了一个本地张量内存池用于存储 KVCache,灵感来源于 Linux 内存模块中使用的伙伴系统。由于内存足够大,通常在服务器上是 TB 级别,因此无需考虑前缀缓存或使用基于块的设计来重用内存,从而节省空间。当内存缓冲区不足时,KVCache 可以直接存储在张量内存池中,D 实例随后可以从中检索 KVCache。读写速度是 PCIe 的速度,PCIe 4.0 的速度约为 21 GB/s,通常比 Prefill 速度快。否则,Mooncake 和 lmcache 等解决方案就没有必要了。张量内存池充当一个泄洪区,通常在突然的流量高峰期才使用。在最坏的情况下,我的解决方案性能不比带有 Cache 存储的正常情况差。
安装 vLLM¶
运行 xPyD¶
说明¶
- 以下示例在 A800 (80GB) 设备上运行,使用 Meta-Llama-3.1-8B-Instruct 模型。
- 请注意
kv_buffer_size(以字节为单位) 的设置。经验值是 GPU 内存大小的 10%。这与 kvcache 的大小有关。如果太小,用于临时存储接收到的 kvcache 的 GPU 内存缓冲区将溢出,导致 kvcache 存储在张量内存池中,从而增加延迟。如果太大,可用于推理的 kvcache 将减少,导致批次大小减小,吞吐量下降。 - 对于 Prefill 实例,在使用非 GET 模式时,
kv_buffer_size可设置为 1,因为 Prefill 目前不需要接收 kvcache。但是,在使用 GET 模式时,需要更大的kv_buffer_size,因为它需要存储发送给 D 实例的 kvcache。 - 您可能需要修改以下命令中的
kv_buffer_size和port(如果存在冲突)。 PUT_ASYNC提供了最佳性能,应优先使用。--port必须与--kv-transfer-config中的http_port一致。disagg_proxy_p2p_nccl_xpyd.py脚本将使用端口 10001 (用于接收客户端请求) 和端口 30001 (用于接收来自 P 和 D 实例的服务发现)。- 运行代理的节点必须安装
quart。 - 支持多节点;您只需要在
--kv-transfer-config中修改proxy_ip和proxy_port。 - 在以下示例中,假设 **代理的 IP 地址为 10.0.1.1**。
运行 1P3D¶
代理 (例如. 10.0.1.1)¶
cd {your vllm directory}/examples/online_serving/disaggregated_serving_p2p_nccl_xpyd/
python3 disagg_proxy_p2p_nccl_xpyd.py &
Prefill1 (例如. 10.0.1.2 或 10.0.1.1)¶
命令
CUDA_VISIBLE_DEVICES=0 vllm serve {your model directory} \
--host 0.0.0.0 \
--port 20001 \
--tensor-parallel-size 1 \
--seed 1024 \
--served-model-name base_model \
--dtype float16 \
--max-model-len 10000 \
--max-num-batched-tokens 10000 \
--max-num-seqs 256 \
--trust-remote-code \
--gpu-memory-utilization 0.9 \
--kv-transfer-config \
'{"kv_connector":"P2pNcclConnector","kv_role":"kv_producer","kv_buffer_size":"1e1","kv_port":"21001","kv_connector_extra_config":{"proxy_ip":"10.0.1.1","proxy_port":"30001","http_port":"20001"}}' > /var/vllm.log 2>&1 &
Decode1 (例如. 10.0.1.3 或 10.0.1.1)¶
命令
CUDA_VISIBLE_DEVICES=1 vllm serve {your model directory} \
--host 0.0.0.0 \
--port 20002 \
--tensor-parallel-size 1 \
--seed 1024 \
--served-model-name base_model \
--dtype float16 \
--max-model-len 10000 \
--max-num-batched-tokens 10000 \
--max-num-seqs 256 \
--trust-remote-code \
--gpu-memory-utilization 0.7 \
--kv-transfer-config \
'{"kv_connector":"P2pNcclConnector","kv_role":"kv_consumer","kv_buffer_size":"8e9","kv_port":"22001","kv_connector_extra_config":{"proxy_ip":"10.0.1.1","proxy_port":"30001","http_port":"20002"}}' > /var/vllm.log 2>&1 &
Decode2 (例如. 10.0.1.4 或 10.0.1.1)¶
命令
CUDA_VISIBLE_DEVICES=2 vllm serve {your model directory} \
--host 0.0.0.0 \
--port 20003 \
--tensor-parallel-size 1 \
--seed 1024 \
--served-model-name base_model \
--dtype float16 \
--max-model-len 10000 \
--max-num-batched-tokens 10000 \
--max-num-seqs 256 \
--trust-remote-code \
--gpu-memory-utilization 0.7 \
--kv-transfer-config \
'{"kv_connector":"P2pNcclConnector","kv_role":"kv_consumer","kv_buffer_size":"8e9","kv_port":"23001","kv_connector_extra_config":{"proxy_ip":"10.0.1.1","proxy_port":"30001","http_port":"20003"}}' > /var/vllm.log 2>&1 &
Decode3 (例如. 10.0.1.5 或 10.0.1.1)¶
命令
CUDA_VISIBLE_DEVICES=3 vllm serve {your model directory} \
--host 0.0.0.0 \
--port 20004 \
--tensor-parallel-size 1 \
--seed 1024 \
--served-model-name base_model \
--dtype float16 \
--max-model-len 10000 \
--max-num-batched-tokens 10000 \
--max-num-seqs 256 \
--trust-remote-code \
--gpu-memory-utilization 0.7 \
--kv-transfer-config \
'{"kv_connector":"P2pNcclConnector","kv_role":"kv_consumer","kv_buffer_size":"8e9","kv_port":"24001","kv_connector_extra_config":{"proxy_ip":"10.0.1.1","proxy_port":"30001","http_port":"20004"}}' > /var/vllm.log 2>&1 &
运行 3P1D¶
代理 (例如. 10.0.1.1)¶
cd {your vllm directory}/examples/online_serving/disaggregated_serving_p2p_nccl_xpyd/
python3 disagg_proxy_p2p_nccl_xpyd.py &
Prefill1 (例如. 10.0.1.2 或 10.0.1.1)¶
命令
CUDA_VISIBLE_DEVICES=0 vllm serve {your model directory} \
--host 0.0.0.0 \
--port 20001 \
--tensor-parallel-size 1 \
--seed 1024 \
--served-model-name base_model \
--dtype float16 \
--max-model-len 10000 \
--max-num-batched-tokens 10000 \
--max-num-seqs 256 \
--trust-remote-code \
--gpu-memory-utilization 0.9 \
--kv-transfer-config \
'{"kv_connector":"P2pNcclConnector","kv_role":"kv_producer","kv_buffer_size":"1e1","kv_port":"21001","kv_connector_extra_config":{"proxy_ip":"10.0.1.1","proxy_port":"30001","http_port":"20001"}}' > /var/vllm.log 2>&1 &
Prefill2 (例如. 10.0.1.3 或 10.0.1.1)¶
命令
CUDA_VISIBLE_DEVICES=1 vllm serve {your model directory} \
--host 0.0.0.0 \
--port 20002 \
--tensor-parallel-size 1 \
--seed 1024 \
--served-model-name base_model \
--dtype float16 \
--max-model-len 10000 \
--max-num-batched-tokens 10000 \
--max-num-seqs 256 \
--trust-remote-code \
--gpu-memory-utilization 0.9 \
--kv-transfer-config \
'{"kv_connector":"P2pNcclConnector","kv_role":"kv_producer","kv_buffer_size":"1e1","kv_port":"22001","kv_connector_extra_config":{"proxy_ip":"10.0.1.1","proxy_port":"30001","http_port":"20002"}}' > /var/vllm.log 2>&1 &
Prefill3 (例如. 10.0.1.4 或 10.0.1.1)¶
命令
CUDA_VISIBLE_DEVICES=2 vllm serve {your model directory} \
--host 0.0.0.0 \
--port 20003 \
--tensor-parallel-size 1 \
--seed 1024 \
--served-model-name base_model \
--dtype float16 \
--max-model-len 10000 \
--max-num-batched-tokens 10000 \
--max-num-seqs 256 \
--trust-remote-code \
--gpu-memory-utilization 0.9 \
--kv-transfer-config \
'{"kv_connector":"P2pNcclConnector","kv_role":"kv_producer","kv_buffer_size":"1e1","kv_port":"23001","kv_connector_extra_config":{"proxy_ip":"10.0.1.1","proxy_port":"30001","http_port":"20003"}}' > /var/vllm.log 2>&1 &
Decode1 (例如. 10.0.1.5 或 10.0.1.1)¶
命令
CUDA_VISIBLE_DEVICES=3 vllm serve {your model directory} \
--host 0.0.0.0 \
--port 20004 \
--tensor-parallel-size 1 \
--seed 1024 \
--served-model-name base_model \
--dtype float16 \
--max-model-len 10000 \
--max-num-batched-tokens 10000 \
--max-num-seqs 256 \
--trust-remote-code \
--gpu-memory-utilization 0.7 \
--kv-transfer-config \
'{"kv_connector":"P2pNcclConnector","kv_role":"kv_consumer","kv_buffer_size":"8e9","kv_port":"24001","kv_connector_extra_config":{"proxy_ip":"10.0.1.1","proxy_port":"30001","http_port":"20004"}}' > /var/vllm.log 2>&1 &
单个请求¶
curl -X POST -s http://10.0.1.1:10001/v1/completions \
-H "Content-Type: application/json" \
-d '{
"model": "base_model",
"prompt": "San Francisco is a",
"max_tokens": 10,
"temperature": 0
}'
基准测试¶
命令
vllm bench serve \
--backend vllm \
--model base_model \
--tokenizer meta-llama/Llama-3.1-8B-Instruct \
--dataset-name "random" \
--host 10.0.1.1 \
--port 10001 \
--random-input-len 1024 \
--random-output-len 1024 \
--ignore-eos \
--burstiness 100 \
--percentile-metrics "ttft,tpot,itl,e2el" \
--metric-percentiles "90,95,99" \
--seed $(date +%s) \
--trust-remote-code \
--request-rate 3 \
--num-prompts 1000