您正在查看最新的开发者预览文档。点击此处查看最新稳定版本的文档。
开始入门
模型
特性
训练
推理和服务
部署
性能
设计文档
V1 设计文档
torch.compile
开发者指南
API 参考
社区
vLLM 可以与 Kubernetes 上的 KServe 一起部署,以实现高度可扩展的分布式模型服务。
有关将 vLLM 与 KServe 结合使用的更多详细信息,请参阅本指南。