21 articles tagged with "IA"
Ollama: Ejecutar Modelos de Lenguaje (LLM) Localmente en tu Máquina
Ollama ejecuta LLMs localmente como Docker. Descarga Llama 3, Mistral o Code Llama y chatea en privado — sin APIs ni cloud.
Ollama : Exécuter des LLM Localement sur Votre Machine
Ollama exécute des LLM localement. Téléchargez Llama 3, Mistral et chattez en privé.
Ollama: Executar LLMs Localmente na Sua Máquina
Ollama executa LLMs localmente como Docker. Baixe Llama 3, Mistral e converse com privacidade total.
Ollama: Ejecuta Modelos de IA Localmente — Instalación, GPU y API
Ejecuta LLMs como Llama 3, Mistral, Gemma y Phi localmente con Ollama. Instalación, aceleración GPU, Docker, API REST e integración con Open WebUI.
Ollama : Exécutez des Modèles IA Localement — Installation, GPU et API
Exécutez des LLMs comme Llama 3, Mistral, Gemma et Phi localement avec Ollama. Installation, accélération GPU, Docker, API REST et intégration Open WebUI.
Ollama: Execute Modelos de IA Localmente — Instalação, GPU e API
Execute LLMs como Llama 3, Mistral, Gemma e Phi localmente com Ollama. Instalação, aceleração GPU, Docker, API REST e integração com Open WebUI.
PhotoPrism: Alternativa Self-Hosted a Google Fotos con IA
Despliega PhotoPrism para gestión de fotos con reconocimiento facial IA, detección de lugares, etiquetado automático y soporte RAW. Alternativa a Google Fotos.
PhotoPrism : Alternative Auto-Hébergée à Google Photos avec IA
Déployez PhotoPrism pour la gestion de photos auto-hébergée avec reconnaissance faciale IA, détection de lieux, étiquetage automatique et support RAW.
PhotoPrism: Alternativa Auto-Hospedada ao Google Fotos com IA
Implante PhotoPrism para gestão de fotos com reconhecimento facial IA, detecção de locais, marcação automática e suporte RAW. Alternativa ao Google Fotos.
Stable Diffusion WebUI: Generación de Imágenes con IA Self-Hosted — Gratis y con GPU
Ejecuta Stable Diffusion localmente para generar imágenes con IA. Cubre AUTOMATIC1111, ComfyUI, modelos SDXL, LoRA, ControlNet y optimización GPU.
Stable Diffusion WebUI : Génération d'Images IA Auto-Hébergée — Gratuite avec GPU
Exécutez Stable Diffusion localement pour générer des images IA. Couvre AUTOMATIC1111, ComfyUI, modèles SDXL, LoRA, ControlNet et optimisation GPU.
Stable Diffusion WebUI: Geração de Imagens com IA Auto-Hospedada — Grátis e com GPU
Execute Stable Diffusion localmente para gerar imagens com IA. Cobre AUTOMATIC1111, ComfyUI, modelos SDXL, LoRA, ControlNet e otimização GPU.
Whisper: Transcripción de Voz a Texto Self-Hosted — Local, Privado y Gratuito
Ejecuta el modelo Whisper de OpenAI localmente para transcripción de audio gratuita y privada. Incluye CLI, Docker, GPU, whisper.cpp para CPU e interfaces web.
Whisper : Transcription Vocale Auto-Hébergée — Locale, Privée et Gratuite
Exécutez le modèle Whisper d'OpenAI localement pour une transcription audio gratuite et privée. Inclut CLI, Docker, GPU, whisper.cpp et interfaces web.
Whisper: Transcrição de Voz para Texto Auto-Hospedada — Local, Privada e Gratuita
Execute o modelo Whisper da OpenAI localmente para transcrição de áudio gratuita e privada. Inclui CLI, Docker, GPU, whisper.cpp e interfaces web.
Open WebUI: Interfaz ChatGPT Self-Hosted para Ollama y Modelos OpenAI
Despliega Open WebUI para una experiencia tipo ChatGPT con Ollama, OpenAI o cualquier API compatible. Cubre Docker, RAG, multi-usuario RBAC y búsqueda web.
Open WebUI : Interface ChatGPT Auto-Hébergée pour Ollama et Modèles OpenAI
Déployez Open WebUI pour une expérience type ChatGPT avec Ollama, OpenAI ou toute API compatible. Couvre Docker, RAG, multi-utilisateurs RBAC et recherche web.
Open WebUI: Interface ChatGPT Auto-Hospedada para Ollama e Modelos OpenAI
Implante Open WebUI para uma experiência tipo ChatGPT com Ollama, OpenAI ou qualquer API compatível. Cobre Docker, RAG, multi-usuário RBAC e busca web.
RAG con Ollama: Chatea con tus Documentos Usando IA Local
Construye un pipeline RAG privado con Ollama. Usa embeddings locales, bases vectoriales y Open WebUI para chatear con PDFs y documentos sin APIs en la nube.
RAG avec Ollama : Discutez avec vos Documents en IA Locale
Construisez un pipeline RAG privé avec Ollama. Utilisez des embeddings locaux, des bases vectorielles et Open WebUI pour discuter avec vos PDF et documents.
RAG com Ollama: Converse com seus Documentos Usando IA Local
Construa um pipeline RAG privado com Ollama. Use embeddings locais, bancos vetoriais e Open WebUI para conversar com PDFs e documentos sem APIs na nuvem.