TL;DR — Résumé Rapide
Déployez Open WebUI pour une expérience type ChatGPT avec Ollama, OpenAI ou toute API compatible. Couvre Docker, RAG, multi-utilisateurs RBAC et recherche web.
Qu’est-ce qu’Open WebUI ?
Open WebUI est une interface web open-source offrant une expérience type ChatGPT pour les modèles d’IA. Il fonctionne avec Ollama, OpenAI ou toute API compatible.
Fonctionnalités principales :
- UI type ChatGPT — conversations, édition, régénération
- Backends multiples — Ollama, OpenAI, Anthropic
- RAG — téléchargez des documents et discutez-en
- Recherche web — complète les réponses avec des résultats en direct
- Multi-utilisateurs RBAC — rôles admin/utilisateur
- Préréglages de modèles — prompts système réutilisables
Prérequis
- Docker installé.
- Ollama en fonctionnement.
- 1 Go RAM minimum.
Installation
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
RAG — Discutez avec vos Documents
Téléchargez des PDF, TXT, DOCX dans la conversation. Open WebUI fragmente, crée des embeddings via nomic-embed-text et récupère le contexte pertinent.
Résumé
Open WebUI transforme votre Ollama local en une plateforme d’IA complète avec RAG, recherche web et contrôle d’accès multi-utilisateurs.