Saltar a contenido
Ollama

IA · LLM (modelo de lenguaje de IA) · RAG (generación aumentada con documentos (IA)) · Vectorial · GPU (procesador gráfico (usado para IA))

📌 v0.23.2 · 2026-05-07

Ollama + Qdrant — Motor de conocimiento del sistema

La inteligencia artificial de SmallCountry. Ollama ejecuta los modelos de lenguaje (LLMs) en la GPU de Horus (servidor secundario con GPU para IA). Qdrant almacena la memoria vectorial (RAG) para que la IA acceda a documentos, métricas y conocimiento del sistema.

Como usuario

No se usa directamente — Open WebUI es la interfaz de usuario. La IA asiste en:

  • Responder preguntas sobre documentos propios
  • Analizar datos de la finca
  • Generar resúmenes e informes
  • Diagnosticar problemas del sistema
  • Transcribir notas de voz
Plataforma Acceso
Navegador Solo vía Open WebUI (https://ai.sc)
Ubuntu Navegador (https://ai.sc)
Android Navegador (https://ai.sc)
FireTV No aplica

Ollama y Qdrant no tienen interfaz de usuario propia.

Integración con otros servicios de SmallCountry

Servicio Relación
Open WebUI Interfaz de chat
Qdrant Memoria vectorial RAG con 6 colecciones
Searxng Búsqueda web
n8n Agentes nocturnos de análisis
Node-RED Datos de sensores
Hermes Agent Agente unificado de IA: análisis de logs, agente conversacional de solo lectura, transcripción de audio con faster-whisper local (STT) y Edge TTS/NeuTTS
Continue.dev Asistente de código en code-server
farmOS Datos de finca indexados
Joplin Server Notas como fuente de conocimiento

Servicios que lo hacen posible

  • Ollama — Ejecución de LLMs en GPU (bare metal en Horus)
  • Qdrant — Base de datos vectorial para RAG
  • Modelos: qwen3:30b, qwen3:14b, deepseek-r1:14b, qwen2.5-coder:14b, nomic-embed-text (embeddings)

Colecciones Qdrant:

Colección Contenido
documentos_semanticos Biblioteca, papers
logs_tecnicos Logs y métricas
estilo_autor Textos de autores específicos
finca Registros agrícolas
psicologia Literatura científica psicología
sistema Playbooks, documentación
Para el administrador (diseño previsto)
Parámetro Valor
Host Horus (bare metal, GPU RTX 2070)
Puertos Ollama 11434, Qdrant 6333
Tier 2
Impacto 🟢 Bajo

Ejecución: - Ollama en Horus (bare metal, no Docker — Debian 13). - Qdrant en Horus como Docker.

ZFS (sistema de archivos con integridad de datos) persistente: No aplica — discos locales en Horus.

Healthcheck: curl http://horus:11434/api/tags.

Backup: Modelos en disco, colecciones Qdrant con snapshots.

Ciclo de vida: Horus se enciende bajo demanda vía Wake-on-LAN desde n8n/Node-RED y se apaga por inactividad.

Problemas comunes: - «IA no responde» → Horus puede estar apagado, ejecutar /horus en Matrix para encenderlo. - «Respuestas lentas» → modelo grande (30b) cargando en GPU. - «No encuentra documentos» → reindexar colección Qdrant vía n8n.

Para el arquitecto (diseño previsto)
graph TD
    subgraph Horus [Horus - Bare Metal GPU]
        OLLAMA[Ollama :11434]
        QDRANT[Qdrant :6333]
    end

    N8N[n8n] -->|WoL| HORUS[Horus]
    NODE_RED[Node-RED] -->|WoL| HORUS
    N8N -->|Agentes nocturnos| OLLAMA
    OLLAMA -->|Consultas vectoriales| QDRANT

    WEBUI[Open WebUI] -->|Chat| OLLAMA
    SEARXNG[Searxng] -->|Búsqueda| OLLAMA
    HERMES[Hermes Agent] -->|Análisis y transcripción| OLLAMA
    CONTINUE[Continue.dev] -->|Código| OLLAMA

    subgraph Ingesta [Pipeline de ingesta]
        DOCS[Documentos] -->|Chunking 512-1500 tokens| EMBED[BGE-M3 / E5-base]
        EMBED --> QDRANT
    end

Red: Horus en red física 192.168.1.X, accesible desde vmbr2.

Wake-on-LAN: Desde n8n.

Embeddings: BGE-M3 para documentos, E5-base para logs.

Chunking: 512–1500 tokens según dominio.

Pipeline de ingesta: Lidarr/n8n → preprocesado → embedding → Qdrant.

Agentes nocturnos: n8n + Ollama analizan métricas y logs para detectar anomalías.

Nota: Qdrant NO es Tier A — si Horus está apagado, la IA simplemente no está disponible; el resto del sistema sigue funcionando.

Artefacto Ruta
Playbook deploy-ollama-qdrant.yml
Rol roles/ollama-qdrant/
Tofu modules/ollama-qdrant/

Secciones relacionadas

🌐 Enlaces de interés