Ollama Web UI 设置指南 2026 | AI生成和翻译

Home 2026.03

是的,Ollama 本身不包含内置 web interface — 它仅运行一个 API server(通常在 http://127.0.0.1:11434)。

要获得一个不错的浏览器-based chat UI(类似于 ChatGPT),您需要运行一个独立的 frontend 来连接 Ollama 的 API。

目前(2026 年)最受欢迎的两个选择是:

大多数人使用 Open WebUI 时,其主要/本地 backend 是 Ollama。

Quick Recommendation (2026)

使用 Open WebUI — 它与 Ollama 的设置更简单,并提供最佳的原生体验。

确保 Docker 已安装并运行。

运行此单行命令(必要时调整):

docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

然后在浏览器中打开:

http://localhost:3000

(或 http://127.0.0.1:3000)

Alternative Docker run (if the above has connection issues)

docker run -d -p 8080:8080 \
  --network=host \
  -v open-webui:/app/backend/data \
  -e OLLAMA_BASE_URL=http://127.0.0.1:11434 \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

→ 然后访问:http://localhost:8080

If you prefer LibreChat instead

它也非常优秀,特别是如果您以后想使用多个提供商。

典型快速启动(Docker):

docker run -d -p 3080:3080 \
  -e OLLAMA_API_BASE_URL=http://host.docker.internal:11434 \
  --name librechat \
  --restart always \
  ghcr.io/danny-avila/librechat:latest

→ http://localhost:3080

然后在设置中将 Ollama 配置为自定义 endpoint。

Summary Table

功能/UI Open WebUI LibreChat
最适合仅 Ollama ★★★★★ (原生体验) ★★★★
多提供商支持 良好 (也兼容 OpenAI) ★★★★★ (非常灵活)
RAG / 文档 内置优秀 非常好
外观 & 精致度 现代 & 简洁 非常像 ChatGPT
默认端口 (Docker) 3000 或 8080 3080
社区 (2026) 非常活跃 & 快速增长 同样非常活跃

底线:
Open WebUI 开始 — 2026 年 90% 的 Ollama + web 用户都选择这条路线。

只需运行 Docker 命令,打开 localhost:3000,您就好了。

请告诉我您的操作系统(Windows/Mac/Linux)或是否遇到连接错误 — 我可以提供更具体的修复方法。


Back Donate