Accueil Self-Hosting Umami : Analyse Web Auto-Hébergée — Alternative à Google Analytics Self-HostingDevOpsAnalytics Débutant Umami : Analyse Web Auto-Hébergée — Alternative à Google Analytics JC 12 mars 2026 7 min de lecture Récent TL;DR — Résumé RapideDéployez Umami pour une analyse web auto-hébergée sans cookies. Umami — Analyse Sans Cookies Articles Connexes Plausible : Analyse Privée Tags: UmamiAnalyseSelf-HostingDockerConfidentialité Frequently Asked Questions Qu'est-ce qu'Umami ? Analyse web auto-hébergée sans cookies, légère (~1Ko) et gratuite. Partager cet article Cet article vous a-t-il été utile ? Oui, utile Pas utile Dites-nous en plus (facultatif) Merci pour votre retour ! Signaler un contenu obsolète Articles Connexes Self-HostingDevOps 12 mars 2026 FR Plausible Analytics : Alternative Auto-Hébergée à Google Analytics Déployez Plausible Analytics pour des analyses web privées. Script <1 Ko, sans cookies, conforme RGPD. Self-HostingCloud 8 mars 2026 FR Nextcloud : Stockage Cloud Auto-Hébergé, Calendrier et Plateforme de Collaboration Déployez Nextcloud avec Docker pour du stockage auto-hébergé, calendrier, contacts et collaboration. Inclut reverse proxy, Redis, OnlyOffice et Talk. Self-HostingAI 12 mars 2026 FR Ollama : Exécutez des Modèles IA Localement — Installation, GPU et API Exécutez des LLMs comme Llama 3, Mistral, Gemma et Phi localement avec Ollama. Guide d'installation, accélération GPU, déploiement Docker, API REST et intégration Open WebUI.
Self-HostingDevOps 12 mars 2026 FR Plausible Analytics : Alternative Auto-Hébergée à Google Analytics Déployez Plausible Analytics pour des analyses web privées. Script <1 Ko, sans cookies, conforme RGPD.
Self-HostingCloud 8 mars 2026 FR Nextcloud : Stockage Cloud Auto-Hébergé, Calendrier et Plateforme de Collaboration Déployez Nextcloud avec Docker pour du stockage auto-hébergé, calendrier, contacts et collaboration. Inclut reverse proxy, Redis, OnlyOffice et Talk.
Self-HostingAI 12 mars 2026 FR Ollama : Exécutez des Modèles IA Localement — Installation, GPU et API Exécutez des LLMs comme Llama 3, Mistral, Gemma et Phi localement avec Ollama. Guide d'installation, accélération GPU, déploiement Docker, API REST et intégration Open WebUI.