El agente individual

El Agente AIMOS

Especialistas autónomos con memoria propia, herramientas propias y personalidad — cada agente es un asistente digital especializado.

Cinco componentes

Estructura de un asistente AIMOS

Un asistente AIMOS es un especialista autónomo que combina cinco componentes clave:

O

Orchestrator

Controla el proceso de pensamiento en fases: Observar, Orientar, Actuar — según el principio OODA.

M

Memory (Memoria)

Base de datos SQLite propia con memoria a largo plazo semántica, episódica y procedimental.

S

Skills (Herramientas)

Colección de herramientas especializadas: consultas SQL, llamadas REST, operaciones de archivos, funciones específicas del dominio.

C

Connector (Conexión)

Canal de comunicación con el usuario: Telegram, e-mail, voz o dashboard.

L

LLM (Modelo de lenguaje)

Modelo local mediante LLM-Runtime. El asistente construye el prompt completo a partir del system prompt, contexto de memoria y consulta del usuario.

El punto clave: El asistente prepara — usted decide. Su conocimiento especializado, su experiencia y su criterio siguen siendo indispensables. El asistente le quita el trabajo rutinario: recopilar datos, supervisar plazos, preparar borradores. El trabajo profesional sigue siendo suyo.

Ciclo OODA

El orquestador — cómo piensa un asistente AIMOS

Un chatbot reacciona a cada mensaje de forma individual. Un asistente AIMOS abre su bandeja de entrada, lo revisa todo, reconoce conexiones — y luego actúa de forma coordinada. El principio detrás: el ciclo OODA de la teoría de decisiones.

CONTEXTO Leer workspace Verificar fuentes de datos «Escritorio» O · O · D · A OBSERVE Leer mensajes Agrupar, clasificar Encontrar conexiones ORIENT Investigar, verificar Reconocer dependencias Crear cuadro de situación DECIDE Crear plan de acción Por interlocutor: ¿Qué necesita saber? ACT Responder por hilo E-mails, tickets Actuar coordinadamente PERSISTIR Actualizar tareas Documentar estado Programar recordatorios Los archivos de trabajo transmiten el estado a la siguiente sesión El asistente mantiene la GPU durante todas las fases — como un empleado que cierra su puerta.

Chatbot convencional

Modo reactivo

× Procesa cada mensaje de forma aislada
× No reconoce conexiones entre consultas
× Responde inmediatamente — sin conocer el panorama completo
× No puede informar al interlocutor A sobre las implicaciones del interlocutor B

Asistente AIMOS

Modo OODA

Revisa todos los mensajes a la vez
Reconoce conexiones entre hilos
Crea un cuadro de situación antes de actuar
Responde por interlocutor — pero informado por el panorama completo

Ejemplo: Tres mensajes, un cuadro de situación

Thread tg:garcía

Desarrollador García

«Los tests unitarios para SG-03 están listos.»

Thread email:resp-req

Responsable de Requisitos

«TSR-17 ha sido elevado a ASIL D.»

Thread int:resp-pruebas

Responsable de Pruebas

«El test de integración de SG-03 falla.»

CUADRO DE SITUACIÓN (transversal entre hilos)

«Los tres mensajes se refieren al Safety Goal SG-03. La elevación a ASIL-D de TSR-17 modifica los requisitos de verificación: los tests unitarios de García ya no son suficientes (se requiere cobertura MC/DC). El fallo en el test de integración es un problema de timing independiente.»

→ A García

«Tests completados, pero por la elevación a ASIL-D ya no basta con Statement Coverage. Se requiere MC/DC.»

→ Al Responsable de Requisitos

«Elevación registrada. 3 requisitos SW afectados, los tests unitarios deben ampliarse. Análisis de impacto adjunto.»

→ Al Responsable de Pruebas

«Problema de timing, no causado por la elevación ASIL. Por favor envíe el logfile. El test de integración debe repetirse tras la ampliación de tests unitarios.»

Cada interlocutor recibe solo lo relevante para él — pero cada respuesta está informada por el panorama completo.

¿Cómo funciona técnicamente?

El orquestador no es un modelo de IA, sino código determinístico. Controla el ciclo OODA llamando al LLM varias veces con tareas diferentes:

O+O Todos los mensajes se presentan al LLM como bloque: «Analiza y encuentra conexiones.»
D El análisis se devuelve. El orquestador lo establece como contexto en el siguiente prompt: «Consolida y crea un cuadro de situación.»
A Por hilo: cuadro de situación + historial de conversación individual + encargo de respuesta. Cada interlocutor recibe su propia respuesta.

Lo que hace especial al cuadro de situación

Efímero, no permanente

El cuadro de situación solo existe durante un ciclo batch. No se almacena — en el siguiente ciclo se genera uno nuevo. Los conocimientos a largo plazo se transfieren a la memoria.

El aislamiento de hilos se mantiene

El asistente conoce el panorama completo, pero el interlocutor A no se entera de la conversación con el interlocutor B — solo de las repercusiones relevantes para él.

El orquestador decide, no el LLM

El orden de las fases es determinístico. El LLM no puede saltarse ni mezclar fases — recibe un encargo claro para cada fase.

Tres modos

No todos los asistentes necesitan el ciclo OODA completo

AIMOS dispone de tres tipos de asistentes — desde la respuesta rápida por voz hasta el administrativo estructurado. Los tres pueden actuar de forma proactiva (cronjobs, recordatorios, seguimientos).

Asistente de voz

<500ms latencia

Reacción inmediata a entrada de voz. Transcripción Whisper en paralelo con el warmup del LLM. Respuestas cortas y precisas.

Recepción, control por voz, consultas rápidas

Asistente de chat

<5s latencia

Conversación rápida por Telegram, e-mail o dashboard. Memoria, expedientes de clientes, delegación a colegas. Cronjobs para recordatorios proactivos.

Soporte al cliente, helpdesk, recepción de pedidos

OODA

Colaborador

Batch — Ciclo OODA

Revisa su bandeja de entrada, supervisa todos los procesos, reconoce conexiones entre hilos, crea un cuadro de situación — y luego actúa de forma coordinada.

Gestión de procesos, cumplimiento, asistencia a proyectos

Los tres tipos disponen de memoria, habilidades, conectores y pueden actuar de forma proactiva. La diferencia está en el enfoque: un hilo vs. la visión general.

3-Tier Memory

Memoria a largo plazo

Tres tipos de memoria, búsqueda híbrida y un ciclo Dreaming para la consolidación.

Semántica Hechos y conocimiento "Precio acero Q1: 850 EUR/t" "SAP API: /api/v2/stock" "Proveedor X: 14 días plazo" Episódica Vivencias y conversaciones "2026-03-15: Consulta stock" "2026-03-18: Comparativa precios" "2026-03-20: Análisis CAD" Procedimental Procedimientos y patrones "Pedido: Verificar→Aprobar→Contabilizar" "BOM-Export: DWG→Parse→CSV" "Inventario: SQL→Diff→Report" Búsqueda híbrida: FTS5 + Embeddings vectoriales + RRF Fusion El ranking de relevancia combina resultados por palabras clave y semánticos

Dreaming — Consolidación de memoria por llamada LLM

En estado de reposo, el agente analiza sus conversaciones con una llamada LLM, extrae hechos, actualiza notas y listas de tareas, consolida su memoria y genera informes semanales.

Como el cerebro humano durante el sueño — el agente condensa experiencias en conocimiento, elimina entradas redundantes y refuerza conexiones importantes. El resultado: respuestas más precisas con menor consumo de tokens.

Ciclo Dreaming (Consolidación)

Como el cerebro humano durante el sueño, AIMOS consolida recuerdos en períodos de inactividad:

Recopilar episodios Todas las conversaciones Reconocer patrones Análisis LLM Condensar Extraer hechos Almacenar semántico Memoria a largo plazo

Modelo de lenguaje

El LLM — cerebro del asistente

El Large Language Model (LLM) es el motor de pensamiento detrás de cada asistente. Comprende el lenguaje, toma decisiones y controla herramientas — y funciona completamente en su propio hardware.

¿Qué hace el LLM?

  • Comprende consultas — en lenguaje natural, en cualquier idioma
  • Selecciona herramientas — decide de forma autónoma si se necesita una consulta a base de datos, un envío de correo o un cálculo
  • Formula respuestas — técnicamente correctas, en el contexto de la conversación previa
  • Aprende de correcciones — a través de la memoria a largo plazo, no mediante entrenamiento del modelo

¿Por qué local en lugar de la nube?

Soberanía de datos

Sus consultas nunca abandonan la red. Ningún proveedor de nube ve sus datos.

Sin costes recurrentes

Sin precio por token por consulta. El modelo funciona de forma ilimitada en su GPU.

Disponibilidad

Sin límite de API, sin rate-limiting, sin dependencia de servicios externos.

Escalado cuando es necesario

Para tareas complejas: escalado automático y anonimizado a un LLM en la nube. → Detalles

Conexión

Conectores disponibles actualmente

El agente se comunica a través de conectores — interfaces estandarizadas hacia usuarios, sistemas y otros agentes. Se desarrollan nuevos conectores continuamente y pueden añadirse en cualquier momento para su infraestructura de TI específica.

Telegram

Texto, mensajes de voz, documentos. Mensajes proactivos para recordatorios, alarmas y resultados. Shared Listener para todos los agentes.

E-Mail

IMAP/SMTP para envío y recepción. Monitorización POP3 para buzones entrantes. Formato HTML y archivos adjuntos.

Voice

Whisper STT + Piper TTS — completamente local. Reconocimiento y síntesis de voz en todos los idiomas, sin servicios en la nube.

SFTP

Acceso a archivos en equipos de trabajo vía Tailscale VPN. Carpeta compartida para DXF, PDF, Excel — cifrada y sin puertos abiertos.

Bases de datos SQL

PostgreSQL, MSSQL, Firebird — exclusivamente consultas SELECT. Sin acceso de escritura a datos de producción. Read-Only by Design.

REST / SOAP API

Conexión API universal para ERP, CRM, gestión de mercancías. GET, POST, PUT con autenticación configurable.

Arquitectura de Threads

Un asistente, muchos clientes — simultáneamente

Cada proceso recibe su propia Thread-ID. El asistente solo ve al cliente actual — sin importar cuántos se ejecuten en paralelo.

Threads aislados

Cada cliente recibe automáticamente su propio thread. El usuario de Telegram A nunca ve la conversación del cliente de correo B.

Multicanal

Un cliente escribe por Telegram: «Le envié un correo.» El asistente encuentra el thread de correo y tiene el contexto de inmediato.

Thread-Propagation

Cuando un asistente delega una tarea a un colega, la Thread-ID viaja con ella. El destinatario trabaja en el mismo contexto de cliente.

Asignación automática — cada canal genera la Thread-ID correcta al recibir un mensaje

E-Mail-Threading — cabeceras In-Reply-To y References para asignación correcta

Archivos por thread — adjuntos asignados al proceso, multicanal

Code-Level Isolation — aplicada a nivel de base de datos, no depende del modelo de IA

Caja de herramientas

Más de 30 Skills — configurables de forma modular

Cada asistente de IA recibe exactamente las skills que necesita. Se pueden añadir skills personalizados en cualquier momento — para cualquier sector, cualquier sistema, cualquier flujo de trabajo.

Comunicación

Correo electrónico

IMAP/SMTP, monitorización POP3. Enviar, recibir, adjuntos, monitorización automática del buzón.

Telegram

Texto, mensajes de voz, documentos. Notificaciones proactivas para alertas y resultados.

Voz

Whisper STT + Piper TTS — completamente local. Reconocimiento y síntesis de voz en todos los idiomas.

MS Teams

Leer y enviar mensajes en canales, crear reuniones en línea.

Gestión de proyectos

JIRA

Buscar, crear, cambiar estado de incidencias, comentar. Consultas JQL, vista de sprint.

Azure DevOps

Work items, pipelines, boards. Crear tareas, seguimiento de estado, monitorizar CI/CD.

MS Project

Leer proyectos y tareas, seguir hitos, actualizar plazos.

Codebeamer (ALM)

Requisitos, casos de prueba, enlaces de trazabilidad, comparación de baselines. Para desarrollo automotriz.

Documentación & Informes

Confluence / SharePoint

Páginas wiki y documentos — leer, crear, actualizar. Integración DMS.

Word / Excel / PowerPoint

Crear documentos Office: informes en Word, datos en Excel, presentaciones en PowerPoint.

Reconocimiento de documentos (OCR)

Escanear facturas, albaranes, contratos. Detección automática de campos. Procesado localmente.

Informes KPI

Resúmenes diarios y semanales, exportación CSV, resúmenes automáticos.

Datos & Sistemas

ERP (SAP / DATEV)

Consultar artículos, clientes, pedidos, niveles de inventario. Multi-backend: SAP, DATEV, personalizado.

Bases de datos SQL

PostgreSQL, MSSQL, Firebird — solo lectura por diseño. Sin acceso de escritura a datos de producción.

GitLab / GitHub

Repositorios, merge requests, pipelines CI/CD. Leer commits, crear incidencias, comentar.

SFTP / Archivos remotos

Acceso a archivos en estaciones de trabajo vía VPN. Cifrado y sin puertos abiertos.

Cumplimiento & Organización

Gestión de plazos

Certificaciones, intervalos de mantenimiento, duración de contratos. Recordatorios proactivos antes del vencimiento.

Gestión de inventario

Monitorizar niveles de stock, sugerencias de reposición, alertas de cantidad mínima.

Calendario (local + Outlook)

Citas, plazos, seguimientos. Enviar invitaciones de Outlook. Festivos considerados automáticamente.

Gestión de contactos

Personas, empresas, números de teléfono, direcciones de correo. Actualización automática.

Caja de herramientas modular: Cada asistente de IA recibe solo las skills que necesita. Las integraciones personalizadas (sistemas ERP especializados, herramientas sectoriales, bases de datos internas) pueden desarrollarse y añadirse como nuevas skills en cualquier momento — sin modificar el núcleo.