20 articles tagged with "GPU"
Jellyfin: Self-Hosted Media Server — Free Plex Alternative with Hardware Transcoding
Set up Jellyfin, the free open-source media server, with Docker. Enable hardware transcoding (NVIDIA/Intel QSV/VAAPI), organize libraries, and stream movies, TV, and music anywhere.
Jellyfin: Selbst-Gehosteter Medienserver — Kostenlose Plex-Alternative mit Hardware-Transcodierung
Richten Sie Jellyfin ein, den kostenlosen Open-Source-Medienserver, mit Docker. Aktivieren Sie GPU-Transcodierung, organisieren Sie Bibliotheken und streamen Sie Filme, Serien und Musik.
Jellyfin: Servidor de Medios Self-Hosted — Alternativa Gratuita a Plex con Transcodificación por Hardware
Configura Jellyfin, el servidor de medios open-source gratuito, con Docker. Habilita transcodificación GPU, organiza bibliotecas y transmite películas, series y música.
Jellyfin : Serveur Multimédia Auto-Hébergé — Alternative Gratuite à Plex avec Transcodage Matériel
Configurez Jellyfin, le serveur multimédia open-source gratuit, avec Docker. Activez le transcodage GPU, organisez vos bibliothèques et diffusez films, séries et musique.
Jellyfin: Servidor de Mídia Auto-Hospedado — Alternativa Gratuita ao Plex com Transcodificação por Hardware
Configure o Jellyfin, servidor de mídia open-source gratuito, com Docker. Habilite transcodificação GPU, organize bibliotecas e transmita filmes, séries e músicas.
Ollama: Run AI Language Models Locally — Setup, GPU Acceleration, and API Guide
Run LLMs like Llama 3, Mistral, Gemma, and Phi locally with Ollama. Guide covers installation, GPU acceleration, Docker deployment, REST API, and Open WebUI integration.
Ollama: KI-Sprachmodelle Lokal Ausführen — Setup, GPU und API
Führen Sie LLMs wie Llama 3, Mistral, Gemma und Phi lokal mit Ollama aus. Installationsanleitung, GPU-Beschleunigung, Docker-Deployment, REST-API und Open WebUI-Integration.
Ollama: Ejecuta Modelos de IA Localmente — Instalación, GPU y API
Ejecuta LLMs como Llama 3, Mistral, Gemma y Phi localmente con Ollama. Guía de instalación, aceleración GPU, despliegue Docker, API REST e integración con Open WebUI.
Ollama : Exécutez des Modèles IA Localement — Installation, GPU et API
Exécutez des LLMs comme Llama 3, Mistral, Gemma et Phi localement avec Ollama. Guide d'installation, accélération GPU, déploiement Docker, API REST et intégration Open WebUI.
Ollama: Execute Modelos de IA Localmente — Instalação, GPU e API
Execute LLMs como Llama 3, Mistral, Gemma e Phi localmente com Ollama. Guia de instalação, aceleração GPU, implantação Docker, API REST e integração com Open WebUI.
Stable Diffusion WebUI: Self-Hosted AI Image Generation — Free, Private, GPU-Accelerated
Run Stable Diffusion locally for AI image generation. Covers AUTOMATIC1111 WebUI, ComfyUI, model selection (SDXL, SD 1.5), LoRA fine-tuning, ControlNet, and GPU optimization.
Stable Diffusion WebUI: Selbst-Gehostete KI-Bildgenerierung — Kostenlos mit GPU
Führen Sie Stable Diffusion lokal aus für KI-Bildgenerierung. Enthält AUTOMATIC1111, ComfyUI, SDXL-Modelle, LoRA, ControlNet und GPU-Optimierung.
Stable Diffusion WebUI: Generación de Imágenes con IA Self-Hosted — Gratis y con GPU
Ejecuta Stable Diffusion localmente para generar imágenes con IA. Cubre AUTOMATIC1111, ComfyUI, modelos SDXL, LoRA, ControlNet y optimización GPU.
Stable Diffusion WebUI : Génération d'Images IA Auto-Hébergée — Gratuite avec GPU
Exécutez Stable Diffusion localement pour générer des images IA. Couvre AUTOMATIC1111, ComfyUI, modèles SDXL, LoRA, ControlNet et optimisation GPU.
Stable Diffusion WebUI: Geração de Imagens com IA Auto-Hospedada — Grátis e com GPU
Execute Stable Diffusion localmente para gerar imagens com IA. Cobre AUTOMATIC1111, ComfyUI, modelos SDXL, LoRA, ControlNet e otimização GPU.
Whisper: Self-Hosted Speech-to-Text with OpenAI's Model — Local, Private, Free
Run OpenAI's Whisper speech-to-text model locally for free, private audio transcription. Covers CLI, Docker, GPU acceleration, Whisper.cpp for CPU, faster-whisper, and web UI options.
Whisper: Selbst-Gehostete Spracherkennung — Lokal, Privat und Kostenlos
Führen Sie OpenAIs Whisper lokal aus für kostenlose, private Audio-Transkription. Enthält CLI, Docker, GPU, whisper.cpp und Web-UI-Optionen.
Whisper: Transcripción de Voz a Texto Self-Hosted — Local, Privado y Gratuito
Ejecuta el modelo Whisper de OpenAI localmente para transcripción de audio gratuita y privada. Incluye CLI, Docker, GPU, whisper.cpp para CPU y opciones de interfaz web.
Whisper : Transcription Vocale Auto-Hébergée — Locale, Privée et Gratuite
Exécutez le modèle Whisper d'OpenAI localement pour une transcription audio gratuite et privée. Inclut CLI, Docker, GPU, whisper.cpp et interfaces web.
Whisper: Transcrição de Voz para Texto Auto-Hospedada — Local, Privada e Gratuita
Execute o modelo Whisper da OpenAI localmente para transcrição de áudio gratuita e privada. Inclui CLI, Docker, GPU, whisper.cpp e interfaces web.