21 articles tagged with "GPU"
Zenith: A Cross-Platform System Monitor with GPU Support
Zenith monitors CPU, GPU, memory, disk, and network in a TUI. Nvidia GPU support, zoom in/out on graphs, process management — a beautiful system dashboard.
Jellyfin: Self-Hosted Media Server — Free Plex Alternative with Hardware Transcoding
Set up Jellyfin with Docker: free open-source media server with GPU transcoding (NVIDIA/VAAPI), library management, and streaming of movies, TV, and music.
Jellyfin: Selbst-Gehosteter Medienserver — Kostenlose Plex-Alternative mit Hardware-Transcodierung
Jellyfin mit Docker einrichten: kostenloser Medienserver mit GPU-Transcodierung, Bibliotheksverwaltung und Streaming von Filmen, Serien und Musik.
Jellyfin: Servidor de Medios Self-Hosted — Alternativa Gratuita a Plex con Transcodificación por Hardware
Configura Jellyfin con Docker: servidor de medios gratuito con transcodificación GPU, gestión de bibliotecas y streaming de películas, series y música.
Jellyfin : Serveur Multimédia Auto-Hébergé — Alternative Gratuite à Plex avec Transcodage Matériel
Configurez Jellyfin avec Docker: serveur multimédia gratuit avec transcodage GPU, gestion de bibliothèques et streaming de films, séries et musique.
Jellyfin: Servidor de Mídia Auto-Hospedado — Alternativa Gratuita ao Plex com Transcodificação por Hardware
Configure o Jellyfin com Docker: servidor de mídia gratuito com transcodificação GPU, organização de bibliotecas e streaming de filmes, séries e músicas.
Ollama: Run AI Language Models Locally — Setup, GPU Acceleration, and API Guide
Run LLMs like Llama 3, Mistral, Gemma, and Phi locally with Ollama. Covers installation, GPU acceleration, Docker, REST API, and Open WebUI integration.
Ollama: KI-Sprachmodelle Lokal Ausführen — Setup, GPU und API
LLMs wie Llama 3, Mistral, Gemma und Phi lokal mit Ollama ausführen. Installation, GPU-Beschleunigung, Docker, REST-API und Open WebUI-Integration.
Ollama: Ejecuta Modelos de IA Localmente — Instalación, GPU y API
Ejecuta LLMs como Llama 3, Mistral, Gemma y Phi localmente con Ollama. Instalación, aceleración GPU, Docker, API REST e integración con Open WebUI.
Ollama : Exécutez des Modèles IA Localement — Installation, GPU et API
Exécutez des LLMs comme Llama 3, Mistral, Gemma et Phi localement avec Ollama. Installation, accélération GPU, Docker, API REST et intégration Open WebUI.
Ollama: Execute Modelos de IA Localmente — Instalação, GPU e API
Execute LLMs como Llama 3, Mistral, Gemma e Phi localmente com Ollama. Instalação, aceleração GPU, Docker, API REST e integração com Open WebUI.
Stable Diffusion WebUI: Self-Hosted AI Image Generation — Free, Private, GPU-Accelerated
Run Stable Diffusion locally for AI image generation with AUTOMATIC1111 WebUI, ComfyUI, SDXL models, LoRA fine-tuning, ControlNet, and GPU tuning.
Stable Diffusion WebUI: Selbst-Gehostete KI-Bildgenerierung — Kostenlos mit GPU
Führen Sie Stable Diffusion lokal aus für KI-Bildgenerierung. Enthält AUTOMATIC1111, ComfyUI, SDXL-Modelle, LoRA, ControlNet und GPU-Optimierung.
Stable Diffusion WebUI: Generación de Imágenes con IA Self-Hosted — Gratis y con GPU
Ejecuta Stable Diffusion localmente para generar imágenes con IA. Cubre AUTOMATIC1111, ComfyUI, modelos SDXL, LoRA, ControlNet y optimización GPU.
Stable Diffusion WebUI : Génération d'Images IA Auto-Hébergée — Gratuite avec GPU
Exécutez Stable Diffusion localement pour générer des images IA. Couvre AUTOMATIC1111, ComfyUI, modèles SDXL, LoRA, ControlNet et optimisation GPU.
Stable Diffusion WebUI: Geração de Imagens com IA Auto-Hospedada — Grátis e com GPU
Execute Stable Diffusion localmente para gerar imagens com IA. Cobre AUTOMATIC1111, ComfyUI, modelos SDXL, LoRA, ControlNet e otimização GPU.
Whisper: Self-Hosted Speech-to-Text with OpenAI's Model — Local, Private, Free
Run OpenAI's Whisper speech-to-text locally for private, free transcription. Covers CLI, Docker, GPU, Whisper.cpp for CPU, faster-whisper, and web UI.
Whisper: Selbst-Gehostete Spracherkennung — Lokal, Privat und Kostenlos
Führen Sie OpenAIs Whisper lokal aus für kostenlose, private Audio-Transkription. Enthält CLI, Docker, GPU, whisper.cpp und Web-UI-Optionen.
Whisper: Transcripción de Voz a Texto Self-Hosted — Local, Privado y Gratuito
Ejecuta el modelo Whisper de OpenAI localmente para transcripción de audio gratuita y privada. Incluye CLI, Docker, GPU, whisper.cpp para CPU e interfaces web.
Whisper : Transcription Vocale Auto-Hébergée — Locale, Privée et Gratuite
Exécutez le modèle Whisper d'OpenAI localement pour une transcription audio gratuite et privée. Inclut CLI, Docker, GPU, whisper.cpp et interfaces web.
Whisper: Transcrição de Voz para Texto Auto-Hospedada — Local, Privada e Gratuita
Execute o modelo Whisper da OpenAI localmente para transcrição de áudio gratuita e privada. Inclui CLI, Docker, GPU, whisper.cpp e interfaces web.