Il singolo agente

L'agente AIMOS

Specialisti autonomi con memoria propria, strumenti propri e personalità — ogni agente è un assistente digitale specializzato.

Cinque componenti

Struttura di un assistente AIMOS

Un assistente AIMOS è uno specialista autonomo che collega cinque componenti fondamentali:

O

Orchestrator

Controlla il processo di pensiero in fasi: Osservare, Orientare, Agire — secondo il principio OODA.

M

Memory (Memoria)

Database SQLite proprio con memoria a lungo termine semantica, episodica e procedurale.

S

Skills (Strumenti)

Raccolta di strumenti specifici: query SQL, chiamate REST, operazioni su file, funzioni specifiche del dominio.

C

Connector (Collegamento)

Canale di comunicazione con l'utente: Telegram, e-mail, voce o dashboard.

L

LLM (Modello linguistico)

Modello locale tramite runtime LLM locale. L'assistente costruisce il prompt completo da system prompt, contesto memoria e richiesta dell'utente.

Il punto decisivo: L'assistente IA prepara — Lei decide. La Sua competenza, la Sua esperienza e la Sua capacità di giudizio restano indispensabili. L'assistente IA La solleva dal lavoro di routine: raccogliere dati, monitorare scadenze, preparare bozze. Il lavoro specialistico resta a Lei.

Ciclo OODA

L'orchestratore — come pensa un assistente AIMOS

Un chatbot reagisce a ogni messaggio singolarmente. Un assistente AIMOS apre la propria casella di posta, ha una visione d'insieme, riconosce le correlazioni — e poi agisce in modo coordinato. Il principio alla base: il ciclo OODA dalla teoria decisionale.

CONTESTO Leggere workspace Verificare sorgenti dati «Scrivania» O · O · D · A OBSERVE Leggere messaggi Raggruppare, ordinare Trovare correlazioni ORIENT Ricercare, verificare Riconoscere dipendenze Creare quadro situazionale DECIDE Creare piano d'azione Per stakeholder: Cosa deve sapere? ACT Rispondere per thread E-mail, ticket Agire in modo coordinato PERSISTERE Aggiornare todo Documentare stato Impostare promemoria I file di lavoro trasmettono lo stato alla sessione successiva L'assistente mantiene la GPU durante tutte le fasi — come un collaboratore che chiude la porta.

Chatbot convenzionale

Modalità reattiva

× Elabora ogni messaggio in modo isolato
× Non riconosce correlazioni tra le richieste
× Risponde immediatamente — senza conoscere il quadro generale
× Non può informare lo stakeholder A sugli effetti dello stakeholder B

Assistente AIMOS

Modalità OODA

Ha una visione d'insieme di tutti i messaggi contemporaneamente
Riconosce correlazioni tra thread diversi
Crea un quadro situazionale prima di agire
Risponde per stakeholder — ma informato dal quadro generale

Esempio: Tre messaggi, un quadro situazionale

Thread tg:rossi

Sviluppatore Rossi

«I test unitari per SG-03 sono completati.»

Thread email:resp-req

Responsabile Requisiti

«TSR-17 è stato elevato ad ASIL D.»

Thread int:resp-test

Responsabile Test

«Il test di integrazione per SG-03 fallisce.»

QUADRO SITUAZIONALE (trasversale ai thread)

«Tutti e tre i messaggi riguardano il Safety Goal SG-03. L'elevazione ad ASIL D di TSR-17 modifica i requisiti di verifica: i test unitari di Rossi non sono più sufficienti (necessaria copertura MC/DC). Il test di integrazione che fallisce è un problema di timing separato.»

→ A Rossi

«Test completati, ma a causa dell'elevazione ad ASIL D la Statement Coverage non è più sufficiente. Necessaria MC/DC.»

→ Al Responsabile Requisiti

«Elevazione registrata. 3 requisiti SW interessati, i test unitari devono essere ampliati. Impact Analysis in allegato.»

→ Al Responsabile Test

«Problema di timing, non causato dall'elevazione ASIL. Inviare logfile. Il test di integrazione deve essere ripetuto dopo l'ampliamento dei test unitari.»

Ogni stakeholder riceve solo ciò che è rilevante per lui — ma ogni risposta è informata dal quadro generale.

Come funziona tecnicamente?

L'orchestratore non è un modello IA, ma codice deterministico. Controlla il ciclo OODA richiamando l'LLM più volte con compiti diversi:

O+O Tutti i messaggi vengono presentati all'LLM come blocco: «Analizza e trova correlazioni.»
D L'analisi viene restituita. L'orchestratore la inserisce come contesto nel prompt successivo: «Consolida e crea un quadro situazionale.»
A Per thread: quadro situazionale + cronologia conversazione individuale + incarico di risposta. Ogni stakeholder riceve una risposta dedicata.

Cosa rende speciale il quadro situazionale

Effimero, non permanente

Il quadro situazionale esiste solo durante un ciclo batch. Non viene salvato — ciclo successivo, nuovo quadro. Le conoscenze a lungo termine vengono trasferite nella memoria.

L'isolamento dei thread resta

L'assistente conosce il quadro generale, ma lo stakeholder A non viene a conoscenza della conversazione con lo stakeholder B — solo degli effetti rilevanti per lui.

L'orchestratore decide, non l'LLM

La sequenza delle fasi è deterministica. L'LLM non può saltare o mescolare le fasi — riceve un incarico chiaro per ogni fase.

Tre modalità

Non ogni assistente ha bisogno del ciclo OODA completo

AIMOS prevede tre tipologie di assistenti — dalla risposta vocale rapida all'impiegato strutturato. Tutti e tre possono agire in modo proattivo (cronjob, promemoria, richiami).

Assistente vocale

<500ms latenza

Reazione immediata all'input vocale. Trascrizione Whisper in parallelo al warmup dell'LLM. Risposte brevi e precise.

Reception, controllo vocale, interrogazioni rapide

Assistente chat

<5s latenza

Conversazione rapida via Telegram, e-mail o dashboard. Memoria, schede cliente, delega ai colleghi. Cronjob per promemoria proattivi.

Supporto clienti, helpdesk, acquisizione ordini

OODA

Collaboratore

Batch — Ciclo OODA

Controlla la propria casella di posta, ha una visione d'insieme di tutti i processi, riconosce correlazioni tra thread diversi, crea un quadro situazionale — e poi agisce in modo coordinato.

Gestione processi, conformità, assistenza progetti

Tutti e tre i tipi dispongono di memoria, competenze, connettori e possono agire in modo proattivo. La differenza sta nell'approccio: un thread vs. il quadro generale.

3-Tier Memory

Memoria a lungo termine

Tre tipi di memoria, ricerca ibrida e un ciclo Dreaming per il consolidamento.

Semantica Fatti & Conoscenza "Prezzo acciaio Q1: 850 EUR/t" "SAP API: /api/v2/stock" "Fornitore X: 14 giorni di anticipo" Episodica Esperienze & Conversazioni "2026-03-15: Interrogazione scorte" "2026-03-18: Confronto prezzi" "2026-03-20: Analisi CAD" Procedurale Procedure & Schemi "Ordine: Verifica→Approvazione→Registrazione" "Esportazione BOM: DWG→Analisi→CSV" "Inventario: SQL→Differenze→Report" Ricerca ibrida: FTS5 + Vettori Embeddings + RRF Fusion Il ranking di rilevanza combina risultati per parole chiave e semantici

Dreaming — Consolidamento della memoria tramite chiamata LLM

In stato di riposo l'agente analizza le proprie conversazioni con una chiamata LLM, estrae fatti, aggiorna note e liste attività, consolida la propria memoria e crea report settimanali.

Come il cervello umano durante il sonno — l'agente condensa le esperienze in conoscenza, rimuove le voci ridondanti e rafforza le connessioni importanti. Il risultato: risposte più precise con un minor consumo di token.

Ciclo Dreaming (Consolidamento)

Come il cervello umano durante il sonno, AIMOS consolida i ricordi durante l'inattività:

Raccolta episodi Tutte le conversazioni Riconoscimento pattern Analisi LLM Condensare Estrarre fatti Memorizzazione semantica Memoria a lungo termine

Modello linguistico

Il LLM — cervello dell'agente

Il Large Language Model (LLM) è il motore di pensiero dietro ogni agente. Comprende il linguaggio, prende decisioni e gestisce gli strumenti — e funziona completamente sul Suo hardware.

Cosa fa il LLM?

  • Comprende le richieste — in linguaggio naturale, in qualsiasi lingua
  • Seleziona gli strumenti — decide autonomamente se è necessaria una query al database, un invio di e-mail o un calcolo
  • Formula le risposte — tecnicamente corrette, nel contesto della conversazione precedente
  • Impara dalle correzioni — tramite la memoria a lungo termine, non attraverso l'addestramento del modello

Perché locale invece che cloud?

Sovranità dei dati

Le Sue richieste non lasciano mai la rete. Nessun provider cloud vede i Suoi dati.

Nessun costo ricorrente

Nessun costo per token per richiesta. Il modello funziona illimitatamente sulla Sua GPU.

Disponibilità

Nessun limite API, nessun rate-limiting, nessuna dipendenza da servizi esterni.

Escalation al bisogno

Per attività complesse: escalation automatica e anonimizzata a un LLM cloud. → Dettagli

Collegamento

Connettori attualmente disponibili

L'assistente comunica tramite connettori — interfacce standardizzate verso utenti, sistemi e altri assistenti. Nuovi connettori vengono sviluppati continuamente e possono essere aggiunti in qualsiasi momento per il Suo specifico panorama IT.

Telegram

Testo, messaggi vocali, documenti. Messaggi proattivi per promemoria, allarmi e risultati. Shared Listener per tutti gli assistenti.

E-mail

IMAP/SMTP per invio e ricezione. Monitoraggio POP3 per caselle in entrata. Formato HTML e allegati.

Voce

Whisper STT + Piper TTS — completamente locale. Riconoscimento e sintesi vocale in tutte le lingue, senza servizi cloud.

SFTP

Accesso file su postazioni di lavoro via Tailscale VPN. Cartelle condivise per DXF, PDF, Excel — crittografato e senza porte aperte.

Database SQL

PostgreSQL, MSSQL, Firebird — esclusivamente query SELECT. Nessun accesso in scrittura ai dati di produzione. Read-Only by Design.

REST / SOAP API

Collegamento API universale per ERP, CRM, gestione merci. GET, POST, PUT con autenticazione configurabile.

Architettura dei Thread

Un assistente, molti clienti — contemporaneamente

Ogni operazione riceve un proprio ID di thread. L'assistente vede sempre solo il cliente corrente — indipendentemente da quanti ne siano attivi in parallelo.

Thread isolati

Ogni cliente riceve automaticamente un proprio thread. L'utente Telegram A non vede mai la conversazione del cliente e-mail B.

Multi-canale

Un cliente scrive via Telegram: «Le ho inviato un'e-mail.» L'assistente trova il thread e-mail e ha subito il contesto.

Propagazione del thread

Quando un assistente delega un'operazione a un collega, l'ID del thread viaggia con esso. Il destinatario lavora nello stesso contesto cliente.

Assegnazione automatica — ogni canale genera l'ID di thread corretto all'arrivo

Threading e-mail — In-Reply-To e References-Header per l'associazione corretta

File per thread — allegati associati all'operazione, multi-canale

Isolamento a livello di codice — applicato a livello di database, non dipendente dal modello IA

Cassetta degli attrezzi

Oltre 30 skill — configurabili in modo modulare

Ogni assistente IA riceve esattamente le skill di cui ha bisogno. Skill personalizzate possono essere aggiunte in qualsiasi momento — per ogni settore, ogni sistema, ogni flusso di lavoro.

Comunicazione

E-mail

IMAP/SMTP, monitoraggio POP3. Invio, ricezione, allegati, monitoraggio automatico della casella di posta.

Telegram

Testo, messaggi vocali, documenti. Notifiche proattive per allarmi e risultati.

Voce

Whisper STT + Piper TTS — completamente locale. Riconoscimento e sintesi vocale in tutte le lingue.

MS Teams

Leggere e inviare messaggi nei canali, creare riunioni online.

Gestione progetti

JIRA

Cercare, creare, cambiare stato dei ticket, commentare. Query JQL, panoramica sprint.

Azure DevOps

Work item, pipeline, board. Creare attività, monitorare lo stato, sorvegliare CI/CD.

MS Project

Leggere progetti e attività, seguire le milestone, aggiornare le scadenze.

Codebeamer (ALM)

Requisiti, casi di test, link di tracciabilità, confronto baseline. Per lo sviluppo automotive.

Documentazione & Reporting

Confluence / SharePoint

Pagine wiki e documenti — leggere, creare, aggiornare. Integrazione DMS.

Word / Excel / PowerPoint

Creare documenti Office: report in Word, dati in Excel, presentazioni in PowerPoint.

Riconoscimento documenti (OCR)

Scansione fatture, bolle di consegna, contratti. Rilevamento automatico dei campi. Elaborato localmente.

Report KPI

Riepiloghi giornalieri e settimanali, esportazione CSV, sintesi automatiche.

Dati & Sistemi

ERP (SAP / DATEV)

Interrogare articoli, clienti, ordini, livelli di scorta. Multi-backend: SAP, DATEV, personalizzato.

Database SQL

PostgreSQL, MSSQL, Firebird — sola lettura per design. Nessun accesso in scrittura ai dati di produzione.

GitLab / GitHub

Repository, merge request, pipeline CI/CD. Leggere commit, creare issue, commentare.

SFTP / File remoti

Accesso ai file sulle postazioni di lavoro tramite VPN. Crittografato e senza porte aperte.

Conformità & Organizzazione

Gestione scadenze

Certificazioni, intervalli di manutenzione, durate contrattuali. Promemoria proattivi prima della scadenza.

Gestione magazzino

Monitorare livelli di scorta, suggerimenti di riordino, avvisi di quantità minima.

Calendario (locale + Outlook)

Appuntamenti, scadenze, promemoria. Invio di inviti Outlook. Festività considerate automaticamente.

Gestione contatti

Persone, aziende, numeri di telefono, indirizzi e-mail. Aggiornamento automatico.

Cassetta degli attrezzi modulare: Ogni assistente IA riceve solo le skill di cui ha bisogno. Le integrazioni personalizzate (sistemi ERP specializzati, strumenti di settore, database interni) possono essere sviluppate e aggiunte come nuove skill in qualsiasi momento — senza modificare il nucleo.