TL;DR — Kurzzusammenfassung
Deployen Sie Open WebUI für eine ChatGPT-ähnliche Erfahrung mit Ollama, OpenAI oder jeder kompatiblen API. Docker-Setup, RAG, Multi-User RBAC und Admin-Konfiguration.
Was ist Open WebUI?
Open WebUI ist eine Open-Source-Web-Oberfläche, die eine ChatGPT-ähnliche Erfahrung für KI-Modelle bietet. Es funktioniert mit Ollama, OpenAI oder jeder kompatiblen API.
Hauptfunktionen:
- ChatGPT-ähnliche UI — Konversationen, Bearbeitung, Regeneration
- Mehrere Backends — Ollama, OpenAI, Anthropic
- RAG — Dokumente hochladen und darüber chatten
- Websuche — Antworten mit Live-Ergebnissen ergänzen
- Multi-User RBAC — Admin-/Benutzer-Rollen
- Modell-Presets — wiederverwendbare System-Prompts
Voraussetzungen
- Docker installiert.
- Ollama laufend.
- 1 GB RAM Minimum.
Installation
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
RAG — Mit Ihren Dokumenten Chatten
Laden Sie PDFs, TXT, DOCX in die Konversation hoch. Open WebUI fragmentiert, erstellt Embeddings via nomic-embed-text und ruft relevanten Kontext ab.
Zusammenfassung
Open WebUI verwandelt Ihr lokales Ollama in eine vollständige KI-Plattform mit RAG, Websuche und Multi-User-Zugriffskontrolle.