Startseite Self-Hosting PhotoPrism: Selbst-Gehostete Google Photos Alternative mit KI Self-HostingMedia Fortgeschritten PhotoPrism: Selbst-Gehostete Google Photos Alternative mit KI JC 12. März 2026 9 Min. Lesezeit Aktuell TL;DR — KurzzusammenfassungDeployen Sie PhotoPrism für Fotoverwaltung mit KI-Gesichtserkennung. PhotoPrism — Selbst-Gehostetes Google Photos Verwandte Artikel Immich: Google Photos Tags: PhotoPrismFotosSelf-HostingDockerKIGesichtserkennung Frequently Asked Questions Was ist PhotoPrism? Selbst-gehostete Fotoverwaltungs-App mit Gesichtserkennung und KI-Klassifizierung. Diesen Artikel teilen War dieser Artikel hilfreich? Ja, hilfreich Nicht hilfreich Erzählen Sie uns mehr (optional) Vielen Dank für Ihr Feedback! Veralteten Inhalt melden Verwandte Artikel Self-HostingMedia 12. März 2026 DE Audiobookshelf: Selbst-Gehosteter Hörbuch- und Podcast-Server Deployen Sie Audiobookshelf für Hörbücher und Podcasts. Self-HostingMedia 12. März 2026 DE Jellyfin: Selbst-Gehosteter Medienserver — Kostenlose Plex-Alternative mit Hardware-Transcodierung Richten Sie Jellyfin ein, den kostenlosen Open-Source-Medienserver, mit Docker. Aktivieren Sie GPU-Transcodierung, organisieren Sie Bibliotheken und streamen Sie Filme, Serien und Musik. Self-HostingAI 12. März 2026 DE Ollama: KI-Sprachmodelle Lokal Ausführen — Setup, GPU und API Führen Sie LLMs wie Llama 3, Mistral, Gemma und Phi lokal mit Ollama aus. Installationsanleitung, GPU-Beschleunigung, Docker-Deployment, REST-API und Open WebUI-Integration.
Self-HostingMedia 12. März 2026 DE Audiobookshelf: Selbst-Gehosteter Hörbuch- und Podcast-Server Deployen Sie Audiobookshelf für Hörbücher und Podcasts.
Self-HostingMedia 12. März 2026 DE Jellyfin: Selbst-Gehosteter Medienserver — Kostenlose Plex-Alternative mit Hardware-Transcodierung Richten Sie Jellyfin ein, den kostenlosen Open-Source-Medienserver, mit Docker. Aktivieren Sie GPU-Transcodierung, organisieren Sie Bibliotheken und streamen Sie Filme, Serien und Musik.
Self-HostingAI 12. März 2026 DE Ollama: KI-Sprachmodelle Lokal Ausführen — Setup, GPU und API Führen Sie LLMs wie Llama 3, Mistral, Gemma und Phi lokal mit Ollama aus. Installationsanleitung, GPU-Beschleunigung, Docker-Deployment, REST-API und Open WebUI-Integration.