vLLM 示例¶
此仓库旨在托管社区维护的常用示例,以回答问题:如何在硬件 Y 上为任务 Z 运行模型 X?
指南¶
DeepSeek
¶
Ernie
¶
GLM
¶
inclusionAI
¶
InternVL
¶
InternLM
¶
Jina AI
¶
Llama¶
MiniMax
¶
Xiaomi MiMo
¶
Mistral AI
¶
Moonshotai
¶
NVIDIA¶
OpenAI
¶
PaddlePaddle
¶
Qwen
¶
Seed
¶
Tencent-Hunyuan
¶
贡献¶
欢迎通过添加新示例或改进现有示例来贡献,请发送 PR!
虽然该仓库设计为可以直接在 GitHub 中查看(Markdown 文件为第一公民),但您也可以在本地将文档构建为网页。
许可证¶
本项目根据 Apache License 2.0 许可,详情请参阅 LICENSE 文件。