Open WebUI
Open WebUI 是一个可扩展、功能丰富且用户友好的自托管AI平台,旨在完全离线运行。它支持Ollama和OpenAI兼容API等多种LLM运行器,内置RAG功能,使其成为一个强大的AI部署解决方案。
要开始使用vLLM部署Open WebUI,请遵循以下步骤
-
安装 Docker。
-
启动vLLM服务器,并使用一个受支持的聊天补全模型
vllm serve Qwen/Qwen3-0.6B-Chat
注意
启动vLLM服务器时,请务必使用 --host
和 --port
标志指定主机和端口。例如
python -m vllm.entrypoints.openai.api_server --host 0.0.0.0 --port 8000
-
启动 Open WebUI Docker 容器
docker run -d \
--name open-webui \
-p 3000:8080 \
-v open-webui:/app/backend/data \
-e OPENAI_API_BASE_URL=http://0.0.0.0:8000/v1 \
--restart always \
ghcr.io/open-webui/open-webui:main
-
在浏览器中打开: http://open-webui-host:3000/
在页面顶部,您应该看到模型 Qwen/Qwen3-0.6B-Chat
。
