TL;DR — Résumé Rapide
Ollama exécute des LLM localement. Téléchargez Llama 3, Mistral et chattez en privé.
Ollama offre l’IA locale avec confidentialité totale.
Résumé
- LLM locaux, sans cloud, API compatible OpenAI
- GPU automatique, modèles personnalisables