跳到内容

Open WebUI

Open WebUI 是一个可扩展、功能丰富且用户友好的自托管AI平台,旨在完全离线运行。它支持Ollama和OpenAI兼容API等多种LLM运行器,内置RAG功能,使其成为一个强大的AI部署解决方案。

要开始使用vLLM部署Open WebUI,请遵循以下步骤

  1. 安装 Docker

  2. 启动vLLM服务器,并使用一个受支持的聊天补全模型

    vllm serve Qwen/Qwen3-0.6B-Chat
    

    注意

    启动vLLM服务器时,请务必使用 --host--port 标志指定主机和端口。例如

    python -m vllm.entrypoints.openai.api_server --host 0.0.0.0 --port 8000
    
  3. 启动 Open WebUI Docker 容器

    docker run -d \
        --name open-webui \
        -p 3000:8080 \
        -v open-webui:/app/backend/data \
        -e OPENAI_API_BASE_URL=http://0.0.0.0:8000/v1 \
        --restart always \
        ghcr.io/open-webui/open-webui:main
    
  4. 在浏览器中打开: http://open-webui-host:3000/

    在页面顶部,您应该看到模型 Qwen/Qwen3-0.6B-Chat

    Web portal of model Qwen/Qwen3-0.6B-Chat