Llama Stack
vLLM 也可以通过 Llama Stack 获取。
要安装 Llama Stack,请运行
使用 OpenAI 兼容 API 进行推理¶
然后使用以下配置启动指向 vLLM 服务器的 Llama Stack 服务器
有关此远程 vLLM 提供程序的更多详细信息,请参阅此指南。
通过嵌入式 vLLM 进行推理¶
还提供了一个内联 vLLM 提供程序。这是使用该方法的一个配置示例
vLLM 也可以通过 Llama Stack 获取。
要安装 Llama Stack,请运行
然后使用以下配置启动指向 vLLM 服务器的 Llama Stack 服务器
有关此远程 vLLM 提供程序的更多详细信息,请参阅此指南。
还提供了一个内联 vLLM 提供程序。这是使用该方法的一个配置示例