El agente individual
Especialistas autónomos con memoria propia, herramientas propias y personalidad — cada agente es un asistente digital especializado.
Cinco componentes
Un asistente AIMOS es un especialista autónomo que combina cinco componentes clave:
Controla el proceso de pensamiento en fases: Observar, Orientar, Actuar — según el principio OODA.
Base de datos SQLite propia con memoria a largo plazo semántica, episódica y procedimental.
Colección de herramientas especializadas: consultas SQL, llamadas REST, operaciones de archivos, funciones específicas del dominio.
Canal de comunicación con el usuario: Telegram, e-mail, voz o dashboard.
Modelo local mediante LLM-Runtime. El asistente construye el prompt completo a partir del system prompt, contexto de memoria y consulta del usuario.
El punto clave: El asistente prepara — usted decide. Su conocimiento especializado, su experiencia y su criterio siguen siendo indispensables. El asistente le quita el trabajo rutinario: recopilar datos, supervisar plazos, preparar borradores. El trabajo profesional sigue siendo suyo.
Ciclo OODA
Un chatbot reacciona a cada mensaje de forma individual. Un asistente AIMOS abre su bandeja de entrada, lo revisa todo, reconoce conexiones — y luego actúa de forma coordinada. El principio detrás: el ciclo OODA de la teoría de decisiones.
Modo reactivo
Modo OODA
Thread tg:garcía
Desarrollador García
«Los tests unitarios para SG-03 están listos.»
Thread email:resp-req
Responsable de Requisitos
«TSR-17 ha sido elevado a ASIL D.»
Thread int:resp-pruebas
Responsable de Pruebas
«El test de integración de SG-03 falla.»
CUADRO DE SITUACIÓN (transversal entre hilos)
«Los tres mensajes se refieren al Safety Goal SG-03. La elevación a ASIL-D de TSR-17 modifica los requisitos de verificación: los tests unitarios de García ya no son suficientes (se requiere cobertura MC/DC). El fallo en el test de integración es un problema de timing independiente.»
→ A García
«Tests completados, pero por la elevación a ASIL-D ya no basta con Statement Coverage. Se requiere MC/DC.»
→ Al Responsable de Requisitos
«Elevación registrada. 3 requisitos SW afectados, los tests unitarios deben ampliarse. Análisis de impacto adjunto.»
→ Al Responsable de Pruebas
«Problema de timing, no causado por la elevación ASIL. Por favor envíe el logfile. El test de integración debe repetirse tras la ampliación de tests unitarios.»
Cada interlocutor recibe solo lo relevante para él — pero cada respuesta está informada por el panorama completo.
El orquestador no es un modelo de IA, sino código determinístico. Controla el ciclo OODA llamando al LLM varias veces con tareas diferentes:
El cuadro de situación solo existe durante un ciclo batch. No se almacena — en el siguiente ciclo se genera uno nuevo. Los conocimientos a largo plazo se transfieren a la memoria.
El asistente conoce el panorama completo, pero el interlocutor A no se entera de la conversación con el interlocutor B — solo de las repercusiones relevantes para él.
El orden de las fases es determinístico. El LLM no puede saltarse ni mezclar fases — recibe un encargo claro para cada fase.
Tres modos
AIMOS dispone de tres tipos de asistentes — desde la respuesta rápida por voz hasta el administrativo estructurado. Los tres pueden actuar de forma proactiva (cronjobs, recordatorios, seguimientos).
<500ms latencia
Reacción inmediata a entrada de voz. Transcripción Whisper en paralelo con el warmup del LLM. Respuestas cortas y precisas.
Recepción, control por voz, consultas rápidas
<5s latencia
Conversación rápida por Telegram, e-mail o dashboard. Memoria, expedientes de clientes, delegación a colegas. Cronjobs para recordatorios proactivos.
Soporte al cliente, helpdesk, recepción de pedidos
Batch — Ciclo OODA
Revisa su bandeja de entrada, supervisa todos los procesos, reconoce conexiones entre hilos, crea un cuadro de situación — y luego actúa de forma coordinada.
Gestión de procesos, cumplimiento, asistencia a proyectos
Los tres tipos disponen de memoria, habilidades, conectores y pueden actuar de forma proactiva. La diferencia está en el enfoque: un hilo vs. la visión general.
3-Tier Memory
Tres tipos de memoria, búsqueda híbrida y un ciclo Dreaming para la consolidación.
En estado de reposo, el agente analiza sus conversaciones con una llamada LLM, extrae hechos, actualiza notas y listas de tareas, consolida su memoria y genera informes semanales.
Como el cerebro humano durante el sueño — el agente condensa experiencias en conocimiento, elimina entradas redundantes y refuerza conexiones importantes. El resultado: respuestas más precisas con menor consumo de tokens.
Como el cerebro humano durante el sueño, AIMOS consolida recuerdos en períodos de inactividad:
Modelo de lenguaje
El Large Language Model (LLM) es el motor de pensamiento detrás de cada asistente. Comprende el lenguaje, toma decisiones y controla herramientas — y funciona completamente en su propio hardware.
Sus consultas nunca abandonan la red. Ningún proveedor de nube ve sus datos.
Sin precio por token por consulta. El modelo funciona de forma ilimitada en su GPU.
Sin límite de API, sin rate-limiting, sin dependencia de servicios externos.
Para tareas complejas: escalado automático y anonimizado a un LLM en la nube. → Detalles
Conexión
El agente se comunica a través de conectores — interfaces estandarizadas hacia usuarios, sistemas y otros agentes. Se desarrollan nuevos conectores continuamente y pueden añadirse en cualquier momento para su infraestructura de TI específica.
Texto, mensajes de voz, documentos. Mensajes proactivos para recordatorios, alarmas y resultados. Shared Listener para todos los agentes.
IMAP/SMTP para envío y recepción. Monitorización POP3 para buzones entrantes. Formato HTML y archivos adjuntos.
Whisper STT + Piper TTS — completamente local. Reconocimiento y síntesis de voz en todos los idiomas, sin servicios en la nube.
Acceso a archivos en equipos de trabajo vía Tailscale VPN. Carpeta compartida para DXF, PDF, Excel — cifrada y sin puertos abiertos.
PostgreSQL, MSSQL, Firebird — exclusivamente consultas SELECT. Sin acceso de escritura a datos de producción. Read-Only by Design.
Conexión API universal para ERP, CRM, gestión de mercancías. GET, POST, PUT con autenticación configurable.
Arquitectura de Threads
Cada proceso recibe su propia Thread-ID. El asistente solo ve al cliente actual — sin importar cuántos se ejecuten en paralelo.
Cada cliente recibe automáticamente su propio thread. El usuario de Telegram A nunca ve la conversación del cliente de correo B.
Un cliente escribe por Telegram: «Le envié un correo.» El asistente encuentra el thread de correo y tiene el contexto de inmediato.
Cuando un asistente delega una tarea a un colega, la Thread-ID viaja con ella. El destinatario trabaja en el mismo contexto de cliente.
Asignación automática — cada canal genera la Thread-ID correcta al recibir un mensaje
E-Mail-Threading — cabeceras In-Reply-To y References para asignación correcta
Archivos por thread — adjuntos asignados al proceso, multicanal
Code-Level Isolation — aplicada a nivel de base de datos, no depende del modelo de IA
Caja de herramientas
Cada asistente de IA recibe exactamente las skills que necesita. Se pueden añadir skills personalizados en cualquier momento — para cualquier sector, cualquier sistema, cualquier flujo de trabajo.
IMAP/SMTP, monitorización POP3. Enviar, recibir, adjuntos, monitorización automática del buzón.
Texto, mensajes de voz, documentos. Notificaciones proactivas para alertas y resultados.
Whisper STT + Piper TTS — completamente local. Reconocimiento y síntesis de voz en todos los idiomas.
Leer y enviar mensajes en canales, crear reuniones en línea.
Buscar, crear, cambiar estado de incidencias, comentar. Consultas JQL, vista de sprint.
Work items, pipelines, boards. Crear tareas, seguimiento de estado, monitorizar CI/CD.
Leer proyectos y tareas, seguir hitos, actualizar plazos.
Requisitos, casos de prueba, enlaces de trazabilidad, comparación de baselines. Para desarrollo automotriz.
Páginas wiki y documentos — leer, crear, actualizar. Integración DMS.
Crear documentos Office: informes en Word, datos en Excel, presentaciones en PowerPoint.
Escanear facturas, albaranes, contratos. Detección automática de campos. Procesado localmente.
Resúmenes diarios y semanales, exportación CSV, resúmenes automáticos.
Consultar artículos, clientes, pedidos, niveles de inventario. Multi-backend: SAP, DATEV, personalizado.
PostgreSQL, MSSQL, Firebird — solo lectura por diseño. Sin acceso de escritura a datos de producción.
Repositorios, merge requests, pipelines CI/CD. Leer commits, crear incidencias, comentar.
Acceso a archivos en estaciones de trabajo vía VPN. Cifrado y sin puertos abiertos.
Certificaciones, intervalos de mantenimiento, duración de contratos. Recordatorios proactivos antes del vencimiento.
Monitorizar niveles de stock, sugerencias de reposición, alertas de cantidad mínima.
Citas, plazos, seguimientos. Enviar invitaciones de Outlook. Festivos considerados automáticamente.
Personas, empresas, números de teléfono, direcciones de correo. Actualización automática.
Caja de herramientas modular: Cada asistente de IA recibe solo las skills que necesita. Las integraciones personalizadas (sistemas ERP especializados, herramientas sectoriales, bases de datos internas) pueden desarrollarse y añadirse como nuevas skills en cualquier momento — sin modificar el núcleo.