Der einzelne Assistent
Autonome Spezialisten mit eigenem Gedächtnis, eigenen Werkzeugen und Persönlichkeit — jeder KI-Assistent ist ein autonomer Spezialist.
Fünf Bausteine
Ein AIMOS-Assistent ist ein autonomer Spezialist, der fünf Kernkomponenten verbindet:
Steuert den Denkprozess in Phasen: Beobachten, Orientieren, Handeln — nach dem OODA-Prinzip.
Eigene SQLite-Datenbank mit semantischem, episodischem und prozeduralem Langzeitgedächtnis.
Fachspezifische Tool-Sammlung: SQL-Abfragen, REST-Aufrufe, Datei-Operationen, domänenspezifische Funktionen.
Kommunikationskanal zum Benutzer: Telegram, E-Mail, Sprache oder Dashboard.
Lokales Modell via LLM-Runtime. Der KI-Assistent baut den vollständigen Prompt aus System-Prompt, Memory-Kontext und Benutzeranfrage.
Der entscheidende Punkt: Der KI-Assistent bereitet vor — Sie entscheiden. Ihr Fachwissen, Ihre Erfahrung und Ihr Urteilsvermögen bleiben unverzichtbar. Der KI-Assistent nimmt Ihnen Routinearbeit ab: Daten zusammensuchen, Fristen überwachen, Entwürfe vorbereiten. Die fachliche Arbeit bleibt bei Ihnen.
OODA-Zyklus
Ein Chatbot reagiert auf jede Nachricht einzeln. Ein AIMOS-Assistent öffnet seinen Posteingang, überblickt alles, erkennt Zusammenhänge — und handelt dann koordiniert. Das Prinzip dahinter: der OODA-Zyklus aus der Entscheidungstheorie.
Reaktiver Modus
OODA-Modus
Thread tg:müller
Entwickler Müller
„Unit Tests für SG-03 sind fertig.“
Thread email:req-mgr
Req-Manager
„TSR-17 wurde auf ASIL D hochgestuft.“
Thread int:testmgr
Testmanager
„Integrationstest für SG-03 schlägt fehl.“
LAGEBILD (threadübergreifend)
„Alle drei Nachrichten betreffen Safety Goal SG-03. Die ASIL-D-Hochstufung von TSR-17 ändert die Verifikationsanforderungen: Müllers Unit Tests reichen nicht mehr aus (MC/DC Coverage erforderlich). Der fehlschlagende Integrationstest ist ein separates Timing-Problem.“
→ An Müller
„Tests abgeschlossen, aber durch ASIL-D-Hochstufung reicht Statement Coverage nicht mehr. MC/DC erforderlich.“
→ An Req-Manager
„Hochstufung registriert. 3 SW-Requirements betroffen, Unit Tests müssen erweitert werden. Impact Analysis im Anhang.“
→ An Testmanager
„Timing-Problem, nicht durch ASIL-Hochstufung verursacht. Bitte Logfile. Integrationstest muss nach Unit-Test-Erweiterung wiederholt werden.“
Jeder Stakeholder bekommt nur das für ihn Relevante — aber jede Antwort ist informiert durch das Gesamtbild.
Der Orchestrator ist kein KI-Modell, sondern deterministischer Code. Er steuert den OODA-Zyklus, indem er das LLM mehrfach mit unterschiedlichen Aufgaben aufruft:
Das Lagebild lebt nur während eines Batch-Durchlaufs. Es wird nicht gespeichert — nächster Durchlauf, neues Lagebild. Langfristige Erkenntnisse wandern ins Gedächtnis.
Der Assistent kennt das Gesamtbild, aber Stakeholder A erfährt nichts über die Konversation mit Stakeholder B — nur über die für ihn relevanten Auswirkungen.
Die Phasenreihenfolge ist deterministisch. Das LLM kann keine Phase überspringen oder vermischen — es bekommt für jede Phase einen klaren Auftrag.
Drei Modi
AIMOS kennt drei Agententypen — von der schnellen Sprachantwort bis zum strukturierten Sachbearbeiter. Alle drei können proaktiv handeln (Cronjobs, Erinnerungen, Wiedervorlagen).
<500ms Latenz
Sofortige Reaktion auf Spracheingabe. Whisper-Transkription parallel zum LLM-Warmup. Kurze, präzise Antworten.
Empfang, Sprachsteuerung, schnelle Abfragen
<5s Latenz
Schnelle Konversation per Telegram, E-Mail oder Dashboard. Gedächtnis, Kundenakten, Delegation an Kollegen. Cronjobs für proaktive Erinnerungen.
Kundensupport, Helpdesk, Auftragsannahme
Batch — OODA-Zyklus
Checkt seinen Posteingang, überblickt alle Vorgänge, erkennt threadübergreifende Zusammenhänge, erstellt ein Lagebild — und handelt dann koordiniert.
Prozessmanagement, Compliance, Projektassistenz
Alle drei Typen verfügen über Gedächtnis, Skills, Konnektoren und können proaktiv handeln. Der Unterschied liegt in der Denkweise: ein Thread vs. das Gesamtbild.
3-Tier Memory
Drei Gedächtnistypen, Hybrid-Suche und ein Dreaming-Zyklus zur Konsolidierung.
Im Ruhezustand analysiert der KI-Assistent seine Gespräche mit einem LLM-Call, extrahiert Fakten, aktualisiert Notizen und Todo-Listen, konsolidiert sein Gedächtnis und erstellt wöchentliche Berichte.
Wie das menschliche Gehirn im Schlaf — der KI-Assistent verdichtet Erlebnisse zu Wissen, entfernt redundante Einträge und stärkt wichtige Verbindungen. Das Ergebnis: präzisere Antworten bei niedrigerem Token-Verbrauch.
Wie das menschliche Gehirn im Schlaf konsolidiert AIMOS Erinnerungen im Leerlauf:
Sprachmodell
Das Large Language Model (LLM) ist die Denkmaschine hinter jedem KI-Assistenten. Es versteht Sprache, fällt Entscheidungen und steuert Werkzeuge — und läuft vollständig auf Ihrer eigenen Hardware.
Ihre Anfragen verlassen nie das Netzwerk. Kein Cloud-Anbieter sieht Ihre Daten.
Kein Token-Preis pro Anfrage. Das Modell läuft unbegrenzt auf Ihrer GPU.
Kein API-Limit, kein Rate-Limiting, keine Abhängigkeit von externen Diensten.
Bei komplexen Aufgaben: automatische, anonymisierte Eskalation an ein Cloud-LLM. → PII-Vault Details
Anbindung
Der KI-Assistent kommuniziert über Konnektoren — standardisierte Schnittstellen zu Benutzern, Systemen und anderen KI-Assistenten. Neue Konnektoren werden laufend entwickelt und können jederzeit für Ihre spezifische IT-Landschaft ergänzt werden.
Text, Sprachnachrichten, Dokumente. Proaktive Nachrichten bei Erinnerungen, Alarmen und Ergebnissen. Shared Listener für alle KI-Assistenten.
IMAP/SMTP für Senden und Empfangen. POP3-Monitoring für eingehende Postfächer. HTML-Format und Dateianhänge.
Whisper STT + Piper TTS — komplett lokal. Spracherkennung und -synthese in allen Sprachen, ohne Cloud-Dienste.
Dateizugriff auf Arbeitsrechner via Tailscale VPN. Shared Folder für DXF, PDF, Excel — verschlüsselt und ohne offene Ports.
PostgreSQL, MSSQL, Firebird — ausschliesslich SELECT-Abfragen. Kein Schreibzugriff auf Produktionsdaten. Read-Only by Design.
Universelle API-Anbindung für ERP, CRM, Warenwirtschaft. GET, POST, PUT mit konfigurierbarer Authentifizierung.
Thread-Architektur
Jeder Vorgang erhält eine eigene Thread-ID. Der KI-Assistent sieht immer nur den aktuellen Kunden — egal wie viele parallel laufen.
Jeder Kunde erhält automatisch einen eigenen Thread. Telegram-Nutzer A sieht nie die Konversation von E-Mail-Kunde B.
Ein Kunde schreibt per Telegram: „Ich habe Ihnen eine E-Mail geschickt.“ Der KI-Assistent findet den E-Mail-Thread und hat sofort den Kontext.
Wenn ein Assistent einen Vorgang an einen Kollegen delegiert, wandert die Thread-ID mit. Der Empfänger arbeitet im selben Kundenkontext.
Automatische Zuweisung — jeder Kanal erzeugt die richtige Thread-ID beim Eingang
E-Mail-Threading — In-Reply-To und References-Header für korrekte Zuordnung
Dateien pro Thread — Anhänge werden dem Vorgang zugeordnet, kanalübergreifend
Code-Level Isolation — auf Datenbankebene erzwungen, nicht vom KI-Modell abhängig
Werkzeugkasten
Jeder KI-Assistent erhält genau die Skills, die er braucht. Kundenspezifische Skills können jederzeit ergänzt werden — für jede Branche, jedes System, jeden Workflow.
IMAP/SMTP, POP3-Monitoring. Senden, empfangen, Anhänge, automatische Postfachüberwachung.
Channel-Nachrichten lesen und senden, Online-Meetings erstellen. Microsoft Graph API.
Text, Sprachnachrichten, Dokumente. Proaktive Benachrichtigungen bei Alarmen und Ergebnissen.
Whisper STT + Piper TTS — komplett lokal. Spracherkennung und -synthese in allen Sprachen.
Issues suchen, erstellen, Status ändern, kommentieren. JQL-Suche, Sprint-Übersicht.
Work Items, Pipelines, Boards. Aufgaben erstellen, Status verfolgen, CI/CD überwachen.
Projekte und Aufgaben lesen, Meilensteine verfolgen, Termine aktualisieren.
Requirements, Testfälle, Traceability-Links, Baseline-Vergleich. Für Automotive-Entwicklung.
Wiki-Seiten und Dokumente lesen, erstellen, aktualisieren. DMS-Integration.
Office-Dokumente erstellen: Berichte als Word, Daten als Excel, Präsentationen als PowerPoint.
Rechnungen, Lieferscheine und Verträge scannen. Felder automatisch erkennen. Lokal verarbeitet.
Tages- und Wochenübersichten, HTML-Dashboards, CSV-Export. Automatische Zusammenfassungen.
Artikel, Kunden, Aufträge, Lagerbestände abfragen. Multi-Backend: SAP, DATEV, Custom.
PostgreSQL, MSSQL, Firebird — Read-Only by Design. Kein Schreibzugriff auf Produktionsdaten.
Repositories, Merge Requests, CI/CD-Pipelines. Commits lesen, Issues erstellen, kommentieren.
Dateizugriff auf Arbeitsrechner via VPN. Verschlüsselt und ohne offene Ports.
Zertifizierungen, Wartungsintervalle, Vertragslaufzeiten. Proaktive Erinnerung vor Ablauf.
Bestände überwachen, Nachbestellvorschläge, Mindestmengen-Warnungen.
Termine, Fristen, Wiedervorlagen. Outlook-Einladungen senden. Feiertage automatisch berücksichtigt.
Personen, Firmen, Telefonnummern, E-Mail-Adressen. Automatische Aktualisierung.
Modularer Werkzeugkasten: Jeder KI-Assistent bekommt nur die Skills die er braucht. Kundenspezifische Anbindungen (spezielle ERP-Systeme, branchenspezifische Tools, interne Datenbanken) können jederzeit als neue Skills entwickelt und hinzugefügt werden — ohne den Kern zu verändern.