Open WebUI

  1. 安装 Docker

  2. 启动支持聊天完成模型的 vLLM 服务器,例如:

vllm serve qwen/Qwen1.5-0.5B-Chat
  1. 启动 Open WebUI Docker 容器(替换 vllm serve 的主机和端口)
docker run -d -p 3000:8080 \
--name open-webui \
-v open-webui:/app/backend/data \
-e OPENAI_API_BASE_URL=http://<vllm serve host>:<vllm serve port>/v1 \
--restart always \
ghcr.io/open-webui/open-webui:main
  1. 在浏览器中打开: http://open-webui-host:3000/

在网页顶部,您可以看到模型 qwen/Qwen1.5-0.5B-Chat