Startseite Self-Hosting Umami: Selbst-Gehostete Web-Analyse — Google Analytics Alternative Self-HostingDevOpsAnalytics Anfänger Umami: Selbst-Gehostete Web-Analyse — Google Analytics Alternative JC 12. März 2026 7 Min. Lesezeit Aktuell TL;DR — KurzzusammenfassungDeployen Sie Umami für selbst-gehostete Web-Analyse ohne Cookies. Umami — Analyse Ohne Cookies Verwandte Artikel Plausible: Datenschutz-Analyse Tags: UmamiAnalyseSelf-HostingDockerDatenschutz Frequently Asked Questions Was ist Umami? Selbst-gehostete Web-Analyse ohne Cookies, leicht (~1KB) und kostenlos. Diesen Artikel teilen War dieser Artikel hilfreich? Ja, hilfreich Nicht hilfreich Erzählen Sie uns mehr (optional) Vielen Dank für Ihr Feedback! Veralteten Inhalt melden Verwandte Artikel Self-HostingDevOps 12. März 2026 DE Plausible Analytics: Selbst-Gehostete Google Analytics Alternative Deployen Sie Plausible Analytics für datenschutzfreundliche Webanalyse. Script <1 KB, ohne Cookies, DSGVO-konform. Self-HostingCloud 8. März 2026 DE Nextcloud: Selbst-Gehosteter Cloud-Speicher, Kalender und Kollaborationsplattform Deployen Sie Nextcloud mit Docker für selbst-gehosteten Speicher, Kalender, Kontakte und Zusammenarbeit. Enthält Reverse Proxy, Redis, OnlyOffice und Talk. Self-HostingAI 12. März 2026 DE Ollama: KI-Sprachmodelle Lokal Ausführen — Setup, GPU und API Führen Sie LLMs wie Llama 3, Mistral, Gemma und Phi lokal mit Ollama aus. Installationsanleitung, GPU-Beschleunigung, Docker-Deployment, REST-API und Open WebUI-Integration.
Self-HostingDevOps 12. März 2026 DE Plausible Analytics: Selbst-Gehostete Google Analytics Alternative Deployen Sie Plausible Analytics für datenschutzfreundliche Webanalyse. Script <1 KB, ohne Cookies, DSGVO-konform.
Self-HostingCloud 8. März 2026 DE Nextcloud: Selbst-Gehosteter Cloud-Speicher, Kalender und Kollaborationsplattform Deployen Sie Nextcloud mit Docker für selbst-gehosteten Speicher, Kalender, Kontakte und Zusammenarbeit. Enthält Reverse Proxy, Redis, OnlyOffice und Talk.
Self-HostingAI 12. März 2026 DE Ollama: KI-Sprachmodelle Lokal Ausführen — Setup, GPU und API Führen Sie LLMs wie Llama 3, Mistral, Gemma und Phi lokal mit Ollama aus. Installationsanleitung, GPU-Beschleunigung, Docker-Deployment, REST-API und Open WebUI-Integration.