您正在查看最新的开发者预览文档。点击这里 查看最新稳定版本的文档。
开始入门
模型
特性
推理与服务
部署
性能
设计文档
V1 设计文档
开发者指南
API 参考
社区
vLLM 可以通过 Kubernetes 上的 KServe 部署,实现高度可扩展的分布式模型服务。
请参阅本指南,了解有关将 vLLM 与 KServe 结合使用的更多详细信息。