IA · LLM (modelo de lenguaje de IA) · RAG (generación aumentada con documentos (IA)) · Vectorial · GPU (procesador gráfico (usado para IA))
Ollama + Qdrant — Motor de conocimiento del sistema¶
La inteligencia artificial de SmallCountry. Ollama ejecuta los modelos de lenguaje (LLMs) en la GPU de Horus (servidor secundario con GPU para IA). Qdrant almacena la memoria vectorial (RAG) para que la IA acceda a documentos, métricas y conocimiento del sistema.
Como usuario¶
No se usa directamente — Open WebUI es la interfaz de usuario. La IA asiste en:
- Responder preguntas sobre documentos propios
- Analizar datos de la finca
- Generar resúmenes e informes
- Diagnosticar problemas del sistema
- Transcribir notas de voz
| Plataforma | Acceso |
|---|---|
| Navegador | Solo vía Open WebUI (https://ai.sc) |
| Ubuntu | Navegador (https://ai.sc) |
| Android | Navegador (https://ai.sc) |
| FireTV | No aplica |
Ollama y Qdrant no tienen interfaz de usuario propia.
Integración con otros servicios de SmallCountry¶
| Servicio | Relación |
|---|---|
| Open WebUI | Interfaz de chat |
| Qdrant | Memoria vectorial RAG con 6 colecciones |
| Searxng | Búsqueda web |
| n8n | Agentes nocturnos de análisis |
| Node-RED | Datos de sensores |
| Hermes Agent | Agente unificado de IA: análisis de logs, agente conversacional de solo lectura, transcripción de audio con faster-whisper local (STT) y Edge TTS/NeuTTS |
| Continue.dev | Asistente de código en code-server |
| farmOS | Datos de finca indexados |
| Joplin Server | Notas como fuente de conocimiento |
Servicios que lo hacen posible¶
- Ollama — Ejecución de LLMs en GPU (bare metal en Horus)
- Qdrant — Base de datos vectorial para RAG
- Modelos:
qwen3:30b,qwen3:14b,deepseek-r1:14b,qwen2.5-coder:14b,nomic-embed-text(embeddings)
Colecciones Qdrant:
| Colección | Contenido |
|---|---|
documentos_semanticos |
Biblioteca, papers |
logs_tecnicos |
Logs y métricas |
estilo_autor |
Textos de autores específicos |
finca |
Registros agrícolas |
psicologia |
Literatura científica psicología |
sistema |
Playbooks, documentación |
Para el administrador (diseño previsto)
| Parámetro | Valor |
|---|---|
| Host | Horus (bare metal, GPU RTX 2070) |
| Puertos | Ollama 11434, Qdrant 6333 |
| Tier | 2 |
| Impacto | 🟢 Bajo |
Ejecución: - Ollama en Horus (bare metal, no Docker — Debian 13). - Qdrant en Horus como Docker.
ZFS (sistema de archivos con integridad de datos) persistente: No aplica — discos locales en Horus.
Healthcheck: curl http://horus:11434/api/tags.
Backup: Modelos en disco, colecciones Qdrant con snapshots.
Ciclo de vida: Horus se enciende bajo demanda vía Wake-on-LAN desde n8n/Node-RED y se apaga por inactividad.
Problemas comunes:
- «IA no responde» → Horus puede estar apagado, ejecutar /horus en Matrix para encenderlo.
- «Respuestas lentas» → modelo grande (30b) cargando en GPU.
- «No encuentra documentos» → reindexar colección Qdrant vía n8n.
Para el arquitecto (diseño previsto)
graph TD
subgraph Horus [Horus - Bare Metal GPU]
OLLAMA[Ollama :11434]
QDRANT[Qdrant :6333]
end
N8N[n8n] -->|WoL| HORUS[Horus]
NODE_RED[Node-RED] -->|WoL| HORUS
N8N -->|Agentes nocturnos| OLLAMA
OLLAMA -->|Consultas vectoriales| QDRANT
WEBUI[Open WebUI] -->|Chat| OLLAMA
SEARXNG[Searxng] -->|Búsqueda| OLLAMA
HERMES[Hermes Agent] -->|Análisis y transcripción| OLLAMA
CONTINUE[Continue.dev] -->|Código| OLLAMA
subgraph Ingesta [Pipeline de ingesta]
DOCS[Documentos] -->|Chunking 512-1500 tokens| EMBED[BGE-M3 / E5-base]
EMBED --> QDRANT
end
Red: Horus en red física 192.168.1.X, accesible desde vmbr2.
Wake-on-LAN: Desde n8n.
Embeddings: BGE-M3 para documentos, E5-base para logs.
Chunking: 512–1500 tokens según dominio.
Pipeline de ingesta: Lidarr/n8n → preprocesado → embedding → Qdrant.
Agentes nocturnos: n8n + Ollama analizan métricas y logs para detectar anomalías.
Nota: Qdrant NO es Tier A — si Horus está apagado, la IA simplemente no está disponible; el resto del sistema sigue funcionando.
| Artefacto | Ruta |
|---|---|
| Playbook | deploy-ollama-qdrant.yml |
| Rol | roles/ollama-qdrant/ |
| Tofu | modules/ollama-qdrant/ |
Secciones relacionadas¶
- Guía de estilo: Clasificación de estado
- Principio 10: Asistencia supervisada
- Mecanismo 8: IA Degradable