Open WebUI
Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,旨在完全离线运行。它支持 Ollama 和 OpenAI 兼容 API 等各种 LLM 运行器,并内置 RAG 功能,是强大的 AI 部署解决方案。
要开始使用 vLLM 进行 Open WebUI 设置,请按照以下步骤操作
-
安装 Docker。
-
使用支持的聊天补全模型启动 vLLM 服务器
vllm serve Qwen/Qwen3-0.6B-Chat
注意
启动 vLLM 服务器时,请务必使用 --host 和 --port 标志指定主机和端口。例如
vllm serve <model> --host 0.0.0.0 --port 8000
-
启动 Open WebUI Docker 容器
docker run -d \
--name open-webui \
-p 3000:8080 \
-v open-webui:/app/backend/data \
-e OPENAI_API_BASE_URL=http://0.0.0.0:8000/v1 \
--restart always \
ghcr.io/open-webui/open-webui:main
-
在浏览器中打开:http://open-webui-host:3000/
在页面顶部,您应该会看到模型 Qwen/Qwen3-0.6B-Chat。
