Início Self-Hosting Umami: Análise Web Auto-Hospedada — Alternativa ao Google Analytics Self-HostingDevOpsAnalytics Iniciante Umami: Análise Web Auto-Hospedada — Alternativa ao Google Analytics JC 12 de março de 2026 7 min de leitura Recente TL;DR — Resumo RápidoImplante Umami para análise web auto-hospedada sem cookies. Umami — Análise Sem Cookies Artigos Relacionados Plausible: Análise Privada Tags: UmamiAnáliseSelf-HostingDockerPrivacidade Frequently Asked Questions O que é Umami? Análise web auto-hospedada sem cookies, leve (~1KB) e gratuita. Compartilhar este artigo Este artigo foi útil? Sim, útil Não foi útil Conte-nos mais (opcional) Obrigado pelo seu feedback! Reportar conteúdo desatualizado Artigos Relacionados Self-HostingDevOps 12 de março de 2026 PT Plausible Analytics: Alternativa Auto-Hospedada ao Google Analytics Implante Plausible Analytics para análise web privada. Script <1KB, sem cookies, compatível GDPR. Self-HostingCloud 8 de março de 2026 PT Nextcloud: Armazenamento em Nuvem Auto-Hospedado, Calendário e Plataforma de Colaboração Implante Nextcloud com Docker para armazenamento auto-hospedado, calendário, contatos e colaboração. Inclui reverse proxy, Redis, OnlyOffice e Talk. Self-HostingAI 12 de março de 2026 PT Ollama: Execute Modelos de IA Localmente — Instalação, GPU e API Execute LLMs como Llama 3, Mistral, Gemma e Phi localmente com Ollama. Guia de instalação, aceleração GPU, implantação Docker, API REST e integração com Open WebUI.
Self-HostingDevOps 12 de março de 2026 PT Plausible Analytics: Alternativa Auto-Hospedada ao Google Analytics Implante Plausible Analytics para análise web privada. Script <1KB, sem cookies, compatível GDPR.
Self-HostingCloud 8 de março de 2026 PT Nextcloud: Armazenamento em Nuvem Auto-Hospedado, Calendário e Plataforma de Colaboração Implante Nextcloud com Docker para armazenamento auto-hospedado, calendário, contatos e colaboração. Inclui reverse proxy, Redis, OnlyOffice e Talk.
Self-HostingAI 12 de março de 2026 PT Ollama: Execute Modelos de IA Localmente — Instalação, GPU e API Execute LLMs como Llama 3, Mistral, Gemma e Phi localmente com Ollama. Guia de instalação, aceleração GPU, implantação Docker, API REST e integração com Open WebUI.