您正在查看最新的开发者预览文档。点击这里查看最新稳定版本的文档。
入门指南
模型
特性
推理和服务
部署
性能
设计文档
V1 设计文档
开发者指南
API 参考
社区
llmaz 是一个易于使用且先进的推理平台,用于在 Kubernetes 上部署大型语言模型,旨在用于生产环境。它使用 vLLM 作为默认的模型服务后端。
请参考快速开始了解更多详情。