跳到内容

Open WebUI

Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,旨在完全离线运行。它支持 Ollama 和 OpenAI 兼容 API 等各种 LLM 运行器,并内置 RAG 功能,是强大的 AI 部署解决方案。

要开始使用 vLLM 进行 Open WebUI 设置,请按照以下步骤操作

  1. 安装 Docker

  2. 使用支持的聊天补全模型启动 vLLM 服务器

    vllm serve Qwen/Qwen3-0.6B-Chat
    

    注意

    启动 vLLM 服务器时,请务必使用 --host--port 标志指定主机和端口。例如

    vllm serve <model> --host 0.0.0.0 --port 8000
    
  3. 启动 Open WebUI Docker 容器

    docker run -d \
        --name open-webui \
        -p 3000:8080 \
        -v open-webui:/app/backend/data \
        -e OPENAI_API_BASE_URL=http://0.0.0.0:8000/v1 \
        --restart always \
        ghcr.io/open-webui/open-webui:main
    
  4. 在浏览器中打开:http://open-webui-host:3000/

    在页面顶部,您应该会看到模型 Qwen/Qwen3-0.6B-Chat

    Web portal of model Qwen/Qwen3-0.6B-Chat