TL;DR — Kurzzusammenfassung

Deployen Sie Open WebUI für eine ChatGPT-ähnliche Erfahrung mit Ollama, OpenAI oder jeder kompatiblen API. Docker-Setup, RAG, Multi-User RBAC und Admin-Konfiguration.

Was ist Open WebUI?

Open WebUI ist eine Open-Source-Web-Oberfläche, die eine ChatGPT-ähnliche Erfahrung für KI-Modelle bietet. Es funktioniert mit Ollama, OpenAI oder jeder kompatiblen API.

Hauptfunktionen:

  • ChatGPT-ähnliche UI — Konversationen, Bearbeitung, Regeneration
  • Mehrere Backends — Ollama, OpenAI, Anthropic
  • RAG — Dokumente hochladen und darüber chatten
  • Websuche — Antworten mit Live-Ergebnissen ergänzen
  • Multi-User RBAC — Admin-/Benutzer-Rollen
  • Modell-Presets — wiederverwendbare System-Prompts

Voraussetzungen

  • Docker installiert.
  • Ollama laufend.
  • 1 GB RAM Minimum.

Installation

docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

RAG — Mit Ihren Dokumenten Chatten

Laden Sie PDFs, TXT, DOCX in die Konversation hoch. Open WebUI fragmentiert, erstellt Embeddings via nomic-embed-text und ruft relevanten Kontext ab.


Zusammenfassung

Open WebUI verwandelt Ihr lokales Ollama in eine vollständige KI-Plattform mit RAG, Websuche und Multi-User-Zugriffskontrolle.

Verwandte Artikel