30 articles
Ollama: Run Large Language Models Locally on Your Machine
Ollama makes running LLMs locally as easy as Docker. Pull Llama 3, Mistral, Gemma, or Code Llama and chat privately — no API keys, no cloud, full privacy.
Ollama: Große Sprachmodelle (LLM) Lokal Ausführen
Ollama führt LLMs lokal aus. Laden Sie Llama 3, Mistral herunter und chatten Sie privat.
Ollama: Ejecutar Modelos de Lenguaje (LLM) Localmente en tu Máquina
Ollama ejecuta LLMs localmente como Docker. Descarga Llama 3, Mistral o Code Llama y chatea en privado — sin APIs ni cloud.
Ollama : Exécuter des LLM Localement sur Votre Machine
Ollama exécute des LLM localement. Téléchargez Llama 3, Mistral et chattez en privé.
Ollama: Executar LLMs Localmente na Sua Máquina
Ollama executa LLMs localmente como Docker. Baixe Llama 3, Mistral e converse com privacidade total.
Ollama: Run AI Language Models Locally — Setup, GPU Acceleration, and API Guide
Run LLMs like Llama 3, Mistral, Gemma, and Phi locally with Ollama. Covers installation, GPU acceleration, Docker, REST API, and Open WebUI integration.
Ollama: KI-Sprachmodelle Lokal Ausführen — Setup, GPU und API
LLMs wie Llama 3, Mistral, Gemma und Phi lokal mit Ollama ausführen. Installation, GPU-Beschleunigung, Docker, REST-API und Open WebUI-Integration.
Ollama: Ejecuta Modelos de IA Localmente — Instalación, GPU y API
Ejecuta LLMs como Llama 3, Mistral, Gemma y Phi localmente con Ollama. Instalación, aceleración GPU, Docker, API REST e integración con Open WebUI.
Ollama : Exécutez des Modèles IA Localement — Installation, GPU et API
Exécutez des LLMs comme Llama 3, Mistral, Gemma et Phi localement avec Ollama. Installation, accélération GPU, Docker, API REST et intégration Open WebUI.
Ollama: Execute Modelos de IA Localmente — Instalação, GPU e API
Execute LLMs como Llama 3, Mistral, Gemma e Phi localmente com Ollama. Instalação, aceleração GPU, Docker, API REST e integração com Open WebUI.
Stable Diffusion WebUI: Self-Hosted AI Image Generation — Free, Private, GPU-Accelerated
Run Stable Diffusion locally for AI image generation with AUTOMATIC1111 WebUI, ComfyUI, SDXL models, LoRA fine-tuning, ControlNet, and GPU tuning.
Stable Diffusion WebUI: Selbst-Gehostete KI-Bildgenerierung — Kostenlos mit GPU
Führen Sie Stable Diffusion lokal aus für KI-Bildgenerierung. Enthält AUTOMATIC1111, ComfyUI, SDXL-Modelle, LoRA, ControlNet und GPU-Optimierung.
Stable Diffusion WebUI: Generación de Imágenes con IA Self-Hosted — Gratis y con GPU
Ejecuta Stable Diffusion localmente para generar imágenes con IA. Cubre AUTOMATIC1111, ComfyUI, modelos SDXL, LoRA, ControlNet y optimización GPU.
Stable Diffusion WebUI : Génération d'Images IA Auto-Hébergée — Gratuite avec GPU
Exécutez Stable Diffusion localement pour générer des images IA. Couvre AUTOMATIC1111, ComfyUI, modèles SDXL, LoRA, ControlNet et optimisation GPU.
Stable Diffusion WebUI: Geração de Imagens com IA Auto-Hospedada — Grátis e com GPU
Execute Stable Diffusion localmente para gerar imagens com IA. Cobre AUTOMATIC1111, ComfyUI, modelos SDXL, LoRA, ControlNet e otimização GPU.
Whisper: Self-Hosted Speech-to-Text with OpenAI's Model — Local, Private, Free
Run OpenAI's Whisper speech-to-text locally for private, free transcription. Covers CLI, Docker, GPU, Whisper.cpp for CPU, faster-whisper, and web UI.
Whisper: Selbst-Gehostete Spracherkennung — Lokal, Privat und Kostenlos
Führen Sie OpenAIs Whisper lokal aus für kostenlose, private Audio-Transkription. Enthält CLI, Docker, GPU, whisper.cpp und Web-UI-Optionen.
Whisper: Transcripción de Voz a Texto Self-Hosted — Local, Privado y Gratuito
Ejecuta el modelo Whisper de OpenAI localmente para transcripción de audio gratuita y privada. Incluye CLI, Docker, GPU, whisper.cpp para CPU e interfaces web.
Whisper : Transcription Vocale Auto-Hébergée — Locale, Privée et Gratuite
Exécutez le modèle Whisper d'OpenAI localement pour une transcription audio gratuite et privée. Inclut CLI, Docker, GPU, whisper.cpp et interfaces web.
Whisper: Transcrição de Voz para Texto Auto-Hospedada — Local, Privada e Gratuita
Execute o modelo Whisper da OpenAI localmente para transcrição de áudio gratuita e privada. Inclui CLI, Docker, GPU, whisper.cpp e interfaces web.
Open WebUI: Self-Hosted ChatGPT Interface for Ollama and OpenAI Models
Deploy Open WebUI for a ChatGPT-like experience with Ollama or OpenAI-compatible APIs. Covers Docker setup, RAG, multi-user RBAC, and web search.
Open WebUI: Selbst-Gehostete ChatGPT-Oberfläche für Ollama und OpenAI-Modelle
Open WebUI für eine ChatGPT-ähnliche Erfahrung mit Ollama oder OpenAI deployen. Docker-Setup, RAG, Multi-User RBAC und Admin-Konfiguration inklusive.
Open WebUI: Interfaz ChatGPT Self-Hosted para Ollama y Modelos OpenAI
Despliega Open WebUI para una experiencia tipo ChatGPT con Ollama, OpenAI o cualquier API compatible. Cubre Docker, RAG, multi-usuario RBAC y búsqueda web.
Open WebUI : Interface ChatGPT Auto-Hébergée pour Ollama et Modèles OpenAI
Déployez Open WebUI pour une expérience type ChatGPT avec Ollama, OpenAI ou toute API compatible. Couvre Docker, RAG, multi-utilisateurs RBAC et recherche web.
Open WebUI: Interface ChatGPT Auto-Hospedada para Ollama e Modelos OpenAI
Implante Open WebUI para uma experiência tipo ChatGPT com Ollama, OpenAI ou qualquer API compatível. Cobre Docker, RAG, multi-usuário RBAC e busca web.
RAG with Ollama: Chat with Your Documents Using Local AI
Build a private RAG pipeline with Ollama. Use local embeddings, vector databases, and Open WebUI to chat with PDFs and knowledge bases without cloud APIs.
RAG mit Ollama: Chatten Sie mit Ihren Dokumenten per Lokaler KI
Bauen Sie eine private RAG-Pipeline mit Ollama. Nutzen Sie lokale Embeddings, Vektordatenbanken und Open WebUI, um mit Ihren Dokumenten zu chatten.
RAG con Ollama: Chatea con tus Documentos Usando IA Local
Construye un pipeline RAG privado con Ollama. Usa embeddings locales, bases vectoriales y Open WebUI para chatear con PDFs y documentos sin APIs en la nube.
RAG avec Ollama : Discutez avec vos Documents en IA Locale
Construisez un pipeline RAG privé avec Ollama. Utilisez des embeddings locaux, des bases vectorielles et Open WebUI pour discuter avec vos PDF et documents.
RAG com Ollama: Converse com seus Documentos Usando IA Local
Construa um pipeline RAG privado com Ollama. Use embeddings locais, bancos vetoriais e Open WebUI para conversar com PDFs e documentos sem APIs na nuvem.