L’assistant individuel

L’assistant AIMOS

Des spécialistes autonomes dotés de leur propre mémoire, de leurs propres outils et d’une personnalité — chaque assistant IA est un spécialiste autonome.

Cinq composants

Structure d’un assistant AIMOS

Un assistant AIMOS est un spécialiste autonome qui réunit cinq composants clés :

O

Orchestrateur

Contrôle le processus de réflexion en phases : Observer, Orienter, Agir — selon le principe OODA.

M

Memory (mémoire)

Base de données SQLite propre avec mémoire à long terme sémantique, épisodique et procédurale.

S

Skills (outils)

Collection d’outils spécifiques au domaine : requêtes SQL, appels REST, opérations sur fichiers, fonctions métier.

C

Connector (connexion)

Canal de communication avec l’utilisateur : Telegram, e-mail, voix ou tableau de bord.

L

LLM (modèle de langage)

Modèle local via runtime LLM. L’assistant construit le prompt complet à partir du prompt système, du contexte mémoire et de la demande utilisateur.

Le point essentiel : l’assistant prépare — vous décidez. Votre expertise, votre expérience et votre jugement restent indispensables. L’assistant vous décharge du travail routinier : collecter des données, surveiller des échéances, préparer des brouillons. Le travail d’expertise reste entre vos mains.

Cycle OODA

L’orchestrateur — comment un assistant AIMOS réfléchit

Un chatbot réagit à chaque message individuellement. Un assistant AIMOS ouvre sa boîte de réception, embrasse l’ensemble, reconnaît les liens — puis agit de manière coordonnée. Le principe sous-jacent : le cycle OODA issu de la théorie de la décision.

CONTEXTE Lire le workspace Vérifier les sources « Bureau » O · O · D · A OBSERVE Lire les messages Regrouper, trier Trouver les liens ORIENT Rechercher, vérifier Détecter les dépendances Établir un état des lieux DECIDE Plan d’action Par partie prenante : Que doit-il savoir ? ACT Répondre par thread E-mails, tickets Agir de manière coordonnée PERSISTER Mettre à jour les tâches Documenter le statut Définir des rappels Les fichiers de travail transmettent l’état à la session suivante L’assistant garde le GPU pendant toutes les phases — comme un collaborateur qui ferme sa porte.

Chatbot classique

Mode réactif

× Traite chaque message de manière isolée
× Ne reconnaît pas les liens entre les demandes
× Répond immédiatement — sans connaître la vue d’ensemble
× Ne peut pas informer la partie prenante A des impacts de la partie prenante B

Assistant AIMOS

Mode OODA

Embrasse tous les messages d’un coup
Reconnaît les liens entre les threads
Établit un état des lieux avant d’agir
Répond par partie prenante — mais informé par la vue d’ensemble

Exemple : Trois messages, un état des lieux

Thread tg:dupont

Développeur Dupont

« Les tests unitaires pour SG-03 sont terminés. »

Thread email:resp-exig

Responsable Exigences

« TSR-17 a été classé ASIL D. »

Thread int:resp-tests

Responsable Tests

« Le test d’intégration pour SG-03 échoue. »

ÉTAT DES LIEUX (inter-threads)

« Les trois messages concernent le Safety Goal SG-03. La classification ASIL D de TSR-17 modifie les exigences de vérification : les tests unitaires de Dupont ne suffisent plus (couverture MC/DC requise). L’échec du test d’intégration est un problème de timing distinct. »

→ À Dupont

« Tests terminés, mais la classification ASIL D rend la couverture Statement insuffisante. MC/DC requis. »

→ Au Resp. Exigences

« Classification enregistrée. 3 exigences SW concernées, les tests unitaires doivent être étendus. Analyse d’impact en annexe. »

→ Au Resp. Tests

« Problème de timing, non causé par la classification ASIL. Merci d’envoyer le fichier journal. Le test d’intégration devra être relancé après l’extension des tests unitaires. »

Chaque partie prenante ne reçoit que ce qui la concerne — mais chaque réponse est éclairée par la vue d’ensemble.

Comment cela fonctionne-t-il techniquement ?

L’orchestrateur n’est pas un modèle IA mais du code déterministe. Il pilote le cycle OODA en appelant le LLM plusieurs fois avec des tâches différentes :

O+O Tous les messages sont soumis au LLM en bloc : « Analyse et trouve les liens. »
D L’analyse est renvoyée. L’orchestrateur l’insère comme contexte dans le prompt suivant : « Consolide et établis un état des lieux. »
A Par thread : état des lieux + historique de conversation individuel + consigne de réponse. Chaque partie prenante reçoit sa propre réponse.

Ce qui rend l’état des lieux spécial

Éphémère, pas permanent

L’état des lieux ne vit que pendant un cycle batch. Il n’est pas sauvegardé — cycle suivant, nouvel état des lieux. Les enseignements durables migrent vers la mémoire.

L’isolation des threads est préservée

L’assistant connaît la vue d’ensemble, mais la partie prenante A n’apprend rien de la conversation avec la partie prenante B — uniquement les impacts qui la concernent.

C’est l’orchestrateur qui décide, pas le LLM

L’ordre des phases est déterministe. Le LLM ne peut ni sauter ni mélanger de phase — il reçoit une consigne claire pour chaque phase.

Trois modes

Tous les assistants n’ont pas besoin du cycle OODA complet

AIMOS connaît trois types d’assistants — de la réponse vocale rapide au collaborateur structuré. Les trois peuvent agir de manière proactive (cronjobs, rappels, relances).

Assistant vocal

<500ms de latence

Réaction immédiate à l’entrée vocale. Transcription Whisper en parallèle du préchauffage LLM. Réponses courtes et précises.

Réception, commande vocale, requêtes rapides

Assistant chat

<5s de latence

Conversation rapide via Telegram, e-mail ou tableau de bord. Mémoire, dossiers clients, délégation aux collègues. Cronjobs pour les rappels proactifs.

Support client, helpdesk, prise de commandes

OODA

Collaborateur

Batch — Cycle OODA

Consulte sa boîte de réception, embrasse tous les dossiers, reconnaît les liens entre les threads, établit un état des lieux — puis agit de manière coordonnée.

Gestion de processus, conformité, assistance projet

Les trois types disposent de mémoire, de compétences, de connecteurs et peuvent agir de manière proactive. La différence réside dans l’approche : un fil vs. la vue d’ensemble.

3-Tier Memory

Mémoire à long terme

Trois types de mémoire, recherche hybride et un cycle Dreaming pour la consolidation.

Sémantique Faits & connaissances "Prix acier T1 : 850 EUR/t" "SAP API : /api/v2/stock" "Fournisseur X : 14 j. délai" Épisodique Vécus & conversations "2026-03-15 : Requête stock" "2026-03-18 : Comparaison prix" "2026-03-20 : Analyse CAO" Procédural Processus & modèles "Commande : Vérif.→Valid.→Compta." "Export BOM : DWG→Parse→CSV" "Inventaire : SQL→Diff→Rapport" Recherche hybride : FTS5 + Embeddings vectoriels + Fusion RRF Le classement par pertinence combine résultats par mots-clés et sémantiques

Dreaming — Consolidation de la mémoire par appel LLM

En phase de repos, l’assistant IA analyse ses conversations par un appel LLM, extrait des faits, met à jour ses notes et listes de tâches, consolide sa mémoire et génère des rapports hebdomadaires.

Comme le cerveau humain pendant le sommeil — l’assistant IA condense les vécus en savoir, supprime les entrées redondantes et renforce les connexions importantes. Résultat : des réponses plus précises avec une consommation de tokens réduite.

Cycle Dreaming (consolidation)

Comme le cerveau humain pendant le sommeil, AIMOS consolide les souvenirs en période d’inactivité :

Collecter les épisodes Toutes les conversations Détecter les modèles Analyse LLM Condenser Extraire les faits Stocker sémantiquement Mémoire à long terme

Modèle de langage

Le LLM — cerveau de l’assistant IA

Le Large Language Model (LLM) est le moteur de réflexion derrière chaque assistant IA. Il comprend le langage, prend des décisions et pilote les outils — et fonctionne entièrement sur votre propre matériel.

Que fait le LLM ?

  • Comprend les demandes — en langage naturel, dans toutes les langues
  • Choisit les outils — décide de manière autonome si une requête base de données, un envoi d’e-mail ou un calcul est nécessaire
  • Formule les réponses — techniquement correctes, dans le contexte de la conversation en cours
  • Apprend des corrections — via la mémoire à long terme, pas par entraînement du modèle

Pourquoi en local plutôt qu’en cloud ?

Souveraineté des données

Vos requêtes ne quittent jamais le réseau. Aucun fournisseur cloud ne voit vos données.

Aucun coût récurrent

Pas de prix au token par requête. Le modèle tourne sans limite sur votre GPU.

Disponibilité

Pas de limite API, pas de rate-limiting, aucune dépendance à des services externes.

Escalade en cas de besoin

Pour les tâches complexes : escalade automatique et anonymisée vers un LLM cloud. → Détails PII-Vault

Connexion

Connecteurs disponibles

L’assistant IA communique via des connecteurs — des interfaces standardisées vers les utilisateurs, les systèmes et les autres assistants IA. De nouveaux connecteurs sont développés en continu et peuvent être ajoutés à tout moment pour votre paysage informatique spécifique.

Telegram

Texte, messages vocaux, documents. Messages proactifs pour les rappels, alertes et résultats. Shared Listener pour tous les assistants IA.

E-mail

IMAP/SMTP pour l’envoi et la réception. Surveillance POP3 pour les boîtes entrantes. Format HTML et pièces jointes.

Voice

Whisper STT + Piper TTS — entièrement local. Reconnaissance et synthèse vocale dans toutes les langues, sans services cloud.

SFTP

Accès fichiers aux postes de travail via Tailscale VPN. Dossier partagé pour DXF, PDF, Excel — chiffré et sans ports ouverts.

Bases de données SQL

PostgreSQL, MSSQL, Firebird — exclusivement des requêtes SELECT. Aucun accès en écriture aux données de production. Read-Only by Design.

REST / SOAP API

Connexion API universelle pour ERP, CRM, gestion des stocks. GET, POST, PUT avec authentification configurable.

Architecture de Threads

Un assistant, plusieurs clients — simultanément

Chaque conversation reçoit son propre identifiant de thread. L’assistant IA ne voit que le client en cours — peu importe combien tournent en parallèle.

Threads isolés

Chaque client reçoit automatiquement son propre thread. L’utilisateur Telegram A ne voit jamais la conversation du client e-mail B.

Multi-canal

Un client écrit via Telegram : « Je vous ai envoyé un e-mail. » L’assistant IA trouve le thread e-mail et dispose immédiatement du contexte.

Propagation de Thread

Lorsqu’un assistant délègue une tâche à un collègue, l’identifiant de thread l’accompagne. Le destinataire travaille dans le même contexte client.

Attribution automatique — chaque canal génère le bon identifiant de thread à l’arrivée

Threading e-mail — en-têtes In-Reply-To et References pour une attribution correcte

Fichiers par thread — les pièces jointes sont attribuées au dossier, tous canaux confondus

Isolation au niveau du code — appliquée au niveau de la base de données, indépendamment du modèle IA

Boîte à outils

Plus de 30 skills — modulaires et configurables

Chaque assistant IA reçoit exactement les skills dont il a besoin. Des skills personnalisés peuvent être ajoutés à tout moment — pour chaque secteur, chaque système, chaque workflow.

Communication

E-mail

IMAP/SMTP, surveillance POP3. Envoi, réception, pièces jointes, surveillance automatique de la boîte mail.

Telegram

Texte, messages vocaux, documents. Notifications proactives pour les alertes et résultats.

Voix

Whisper STT + Piper TTS — entièrement local. Reconnaissance et synthèse vocale dans toutes les langues.

MS Teams

Lire et envoyer des messages, créer des réunions en ligne.

Gestion de projet

JIRA

Rechercher, créer, modifier le statut des tickets, commenter. Requêtes JQL, vue sprint.

Azure DevOps

Work items, pipelines, boards. Création de tâches, suivi de statut, surveillance CI/CD.

MS Project

Lire projets et tâches, suivre les jalons, mettre à jour les échéances.

Codebeamer (ALM)

Exigences, cas de test, liens de traçabilité, comparaison de baselines. Pour le développement automobile.

Documentation & Reporting

Confluence / SharePoint

Pages wiki et documents — lire, créer, mettre à jour. Intégration DMS.

Word / Excel / PowerPoint

Créer des documents Office : rapports en Word, données en Excel, présentations en PowerPoint.

Reconnaissance de documents (OCR)

Scanner factures, bons de livraison, contrats. Détection automatique des champs. Traité localement.

Rapports KPI

Résumés quotidiens et hebdomadaires, export CSV, synthèses automatiques.

Données & Systèmes

ERP (SAP / DATEV)

Interroger articles, clients, commandes, niveaux de stock. Multi-backend : SAP, DATEV, personnalisé.

Bases de données SQL

PostgreSQL, MSSQL, Firebird — lecture seule par conception. Aucun accès en écriture aux données de production.

GitLab / GitHub

Dépôts, merge requests, pipelines CI/CD. Lire les commits, créer des tickets, commenter.

SFTP / Fichiers distants

Accès aux fichiers sur les postes de travail via VPN. Chiffré et sans ports ouverts.

Conformité & Organisation

Gestion des échéances

Certifications, intervalles de maintenance, durées de contrat. Rappels proactifs avant expiration.

Gestion des stocks

Surveiller les niveaux de stock, suggestions de réapprovisionnement, alertes de quantité minimale.

Calendrier (local + Outlook)

Rendez-vous, échéances, relances. Envoi d’invitations Outlook. Jours fériés pris en compte automatiquement.

Gestion des contacts

Personnes, entreprises, numéros de téléphone, adresses e-mail. Mise à jour automatique.

Boîte à outils modulaire : Chaque assistant IA ne reçoit que les skills dont il a besoin. Les intégrations personnalisées (systèmes ERP spécifiques, outils sectoriels, bases de données internes) peuvent être développées et ajoutées comme nouveaux skills à tout moment — sans modifier le noyau.