25 articles
Ollama: Run AI Language Models Locally — Setup, GPU Acceleration, and API Guide
Run LLMs like Llama 3, Mistral, Gemma, and Phi locally with Ollama. Guide covers installation, GPU acceleration, Docker deployment, REST API, and Open WebUI integration.
Ollama: KI-Sprachmodelle Lokal Ausführen — Setup, GPU und API
Führen Sie LLMs wie Llama 3, Mistral, Gemma und Phi lokal mit Ollama aus. Installationsanleitung, GPU-Beschleunigung, Docker-Deployment, REST-API und Open WebUI-Integration.
Ollama: Ejecuta Modelos de IA Localmente — Instalación, GPU y API
Ejecuta LLMs como Llama 3, Mistral, Gemma y Phi localmente con Ollama. Guía de instalación, aceleración GPU, despliegue Docker, API REST e integración con Open WebUI.
Ollama : Exécutez des Modèles IA Localement — Installation, GPU et API
Exécutez des LLMs comme Llama 3, Mistral, Gemma et Phi localement avec Ollama. Guide d'installation, accélération GPU, déploiement Docker, API REST et intégration Open WebUI.
Ollama: Execute Modelos de IA Localmente — Instalação, GPU e API
Execute LLMs como Llama 3, Mistral, Gemma e Phi localmente com Ollama. Guia de instalação, aceleração GPU, implantação Docker, API REST e integração com Open WebUI.
Stable Diffusion WebUI: Self-Hosted AI Image Generation — Free, Private, GPU-Accelerated
Run Stable Diffusion locally for AI image generation. Covers AUTOMATIC1111 WebUI, ComfyUI, model selection (SDXL, SD 1.5), LoRA fine-tuning, ControlNet, and GPU optimization.
Stable Diffusion WebUI: Selbst-Gehostete KI-Bildgenerierung — Kostenlos mit GPU
Führen Sie Stable Diffusion lokal aus für KI-Bildgenerierung. Enthält AUTOMATIC1111, ComfyUI, SDXL-Modelle, LoRA, ControlNet und GPU-Optimierung.
Stable Diffusion WebUI: Generación de Imágenes con IA Self-Hosted — Gratis y con GPU
Ejecuta Stable Diffusion localmente para generar imágenes con IA. Cubre AUTOMATIC1111, ComfyUI, modelos SDXL, LoRA, ControlNet y optimización GPU.
Stable Diffusion WebUI : Génération d'Images IA Auto-Hébergée — Gratuite avec GPU
Exécutez Stable Diffusion localement pour générer des images IA. Couvre AUTOMATIC1111, ComfyUI, modèles SDXL, LoRA, ControlNet et optimisation GPU.
Stable Diffusion WebUI: Geração de Imagens com IA Auto-Hospedada — Grátis e com GPU
Execute Stable Diffusion localmente para gerar imagens com IA. Cobre AUTOMATIC1111, ComfyUI, modelos SDXL, LoRA, ControlNet e otimização GPU.
Whisper: Self-Hosted Speech-to-Text with OpenAI's Model — Local, Private, Free
Run OpenAI's Whisper speech-to-text model locally for free, private audio transcription. Covers CLI, Docker, GPU acceleration, Whisper.cpp for CPU, faster-whisper, and web UI options.
Whisper: Selbst-Gehostete Spracherkennung — Lokal, Privat und Kostenlos
Führen Sie OpenAIs Whisper lokal aus für kostenlose, private Audio-Transkription. Enthält CLI, Docker, GPU, whisper.cpp und Web-UI-Optionen.
Whisper: Transcripción de Voz a Texto Self-Hosted — Local, Privado y Gratuito
Ejecuta el modelo Whisper de OpenAI localmente para transcripción de audio gratuita y privada. Incluye CLI, Docker, GPU, whisper.cpp para CPU y opciones de interfaz web.
Whisper : Transcription Vocale Auto-Hébergée — Locale, Privée et Gratuite
Exécutez le modèle Whisper d'OpenAI localement pour une transcription audio gratuite et privée. Inclut CLI, Docker, GPU, whisper.cpp et interfaces web.
Whisper: Transcrição de Voz para Texto Auto-Hospedada — Local, Privada e Gratuita
Execute o modelo Whisper da OpenAI localmente para transcrição de áudio gratuita e privada. Inclui CLI, Docker, GPU, whisper.cpp e interfaces web.
Open WebUI: Self-Hosted ChatGPT Interface for Ollama and OpenAI Models
Deploy Open WebUI for a ChatGPT-like experience with Ollama, OpenAI, or any OpenAI-compatible API. Covers Docker setup, RAG, multi-user RBAC, web search, and admin configuration.
Open WebUI: Selbst-Gehostete ChatGPT-Oberfläche für Ollama und OpenAI-Modelle
Deployen Sie Open WebUI für eine ChatGPT-ähnliche Erfahrung mit Ollama, OpenAI oder jeder kompatiblen API. Docker-Setup, RAG, Multi-User RBAC und Admin-Konfiguration.
Open WebUI: Interfaz ChatGPT Self-Hosted para Ollama y Modelos OpenAI
Despliega Open WebUI para una experiencia tipo ChatGPT con Ollama, OpenAI o cualquier API compatible. Cubre Docker, RAG, multi-usuario RBAC y búsqueda web.
Open WebUI : Interface ChatGPT Auto-Hébergée pour Ollama et Modèles OpenAI
Déployez Open WebUI pour une expérience type ChatGPT avec Ollama, OpenAI ou toute API compatible. Couvre Docker, RAG, multi-utilisateurs RBAC et recherche web.
Open WebUI: Interface ChatGPT Auto-Hospedada para Ollama e Modelos OpenAI
Implante Open WebUI para uma experiência tipo ChatGPT com Ollama, OpenAI ou qualquer API compatível. Cobre Docker, RAG, multi-usuário RBAC e busca web.
RAG with Ollama: Chat with Your Documents Using Local AI
Build a private RAG (Retrieval-Augmented Generation) pipeline with Ollama. Use local embeddings, vector databases, and Open WebUI to chat with PDFs, docs, and knowledge bases without cloud APIs.
RAG mit Ollama: Chatten Sie mit Ihren Dokumenten per Lokaler KI
Bauen Sie eine private RAG-Pipeline mit Ollama. Nutzen Sie lokale Embeddings, Vektordatenbanken und Open WebUI, um mit Ihren Dokumenten zu chatten.
RAG con Ollama: Chatea con tus Documentos Usando IA Local
Construye un pipeline RAG privado con Ollama. Usa embeddings locales, bases de datos vectoriales y Open WebUI para chatear con PDFs y documentos sin APIs en la nube.
RAG avec Ollama : Discutez avec vos Documents en IA Locale
Construisez un pipeline RAG privé avec Ollama. Utilisez des embeddings locaux, des bases vectorielles et Open WebUI pour discuter avec vos PDF et documents.
RAG com Ollama: Converse com seus Documentos Usando IA Local
Construa um pipeline RAG privado com Ollama. Use embeddings locais, bancos vetoriais e Open WebUI para conversar com PDFs e documentos sem APIs na nuvem.