Der einzelne Assistent

Der AIMOS-Assistent

Autonome Spezialisten mit eigenem Gedächtnis, eigenen Werkzeugen und Persönlichkeit — jeder KI-Assistent ist ein autonomer Spezialist.

Fünf Bausteine

Aufbau eines AIMOS-Assistenten

Ein AIMOS-Assistent ist ein autonomer Spezialist, der fünf Kernkomponenten verbindet:

O

Orchestrator

Steuert den Denkprozess in Phasen: Beobachten, Orientieren, Handeln — nach dem OODA-Prinzip.

M

Memory (Gedächtnis)

Eigene SQLite-Datenbank mit semantischem, episodischem und prozeduralem Langzeitgedächtnis.

S

Skills (Werkzeuge)

Fachspezifische Tool-Sammlung: SQL-Abfragen, REST-Aufrufe, Datei-Operationen, domänenspezifische Funktionen.

C

Connector (Anbindung)

Kommunikationskanal zum Benutzer: Telegram, E-Mail, Sprache oder Dashboard.

L

LLM (Sprachmodell)

Lokales Modell via LLM-Runtime. Der KI-Assistent baut den vollständigen Prompt aus System-Prompt, Memory-Kontext und Benutzeranfrage.

Der entscheidende Punkt: Der KI-Assistent bereitet vor — Sie entscheiden. Ihr Fachwissen, Ihre Erfahrung und Ihr Urteilsvermögen bleiben unverzichtbar. Der KI-Assistent nimmt Ihnen Routinearbeit ab: Daten zusammensuchen, Fristen überwachen, Entwürfe vorbereiten. Die fachliche Arbeit bleibt bei Ihnen.

OODA-Zyklus

Der Orchestrator — wie ein AIMOS-Assistent denkt

Ein Chatbot reagiert auf jede Nachricht einzeln. Ein AIMOS-Assistent öffnet seinen Posteingang, überblickt alles, erkennt Zusammenhänge — und handelt dann koordiniert. Das Prinzip dahinter: der OODA-Zyklus aus der Entscheidungstheorie.

KONTEXT Workspace lesen Datenquellen prüfen „Schreibtisch“ O · O · D · A OBSERVE Nachrichten einlesen Gruppieren, Sortieren Zusammenhänge finden ORIENT Recherchieren, prüfen Abhängigkeiten erkennen Lagebild erstellen DECIDE Aktionsplan erstellen Pro Stakeholder: Was muss er wissen? ACT Pro Thread antworten E-Mails, Tickets Koordiniert handeln PERSIST Todo aktualisieren Status dokumentieren Erinnerungen setzen Workspace-Dateien tragen den Zustand in die nächste Sitzung Der Assistent hält die GPU über alle Phasen — wie ein Sachbearbeiter der seine Tür zumacht.

Herkömmlicher Chatbot

Reaktiver Modus

× Verarbeitet jede Nachricht isoliert
× Erkennt keine Zusammenhänge zwischen Anfragen
× Antwortet sofort — ohne das Gesamtbild zu kennen
× Kann Stakeholder A nicht über Auswirkungen von Stakeholder B informieren

AIMOS-Assistent

OODA-Modus

Überblickt alle Nachrichten auf einmal
Erkennt threadübergreifende Zusammenhänge
Erstellt ein Lagebild, bevor er handelt
Antwortet pro Stakeholder — aber informiert durch das Gesamtbild

Beispiel: Drei Nachrichten, ein Lagebild

Thread tg:müller

Entwickler Müller

„Unit Tests für SG-03 sind fertig.“

Thread email:req-mgr

Req-Manager

„TSR-17 wurde auf ASIL D hochgestuft.“

Thread int:testmgr

Testmanager

„Integrationstest für SG-03 schlägt fehl.“

LAGEBILD (threadübergreifend)

„Alle drei Nachrichten betreffen Safety Goal SG-03. Die ASIL-D-Hochstufung von TSR-17 ändert die Verifikationsanforderungen: Müllers Unit Tests reichen nicht mehr aus (MC/DC Coverage erforderlich). Der fehlschlagende Integrationstest ist ein separates Timing-Problem.“

→ An Müller

„Tests abgeschlossen, aber durch ASIL-D-Hochstufung reicht Statement Coverage nicht mehr. MC/DC erforderlich.“

→ An Req-Manager

„Hochstufung registriert. 3 SW-Requirements betroffen, Unit Tests müssen erweitert werden. Impact Analysis im Anhang.“

→ An Testmanager

„Timing-Problem, nicht durch ASIL-Hochstufung verursacht. Bitte Logfile. Integrationstest muss nach Unit-Test-Erweiterung wiederholt werden.“

Jeder Stakeholder bekommt nur das für ihn Relevante — aber jede Antwort ist informiert durch das Gesamtbild.

Wie funktioniert das technisch?

Der Orchestrator ist kein KI-Modell, sondern deterministischer Code. Er steuert den OODA-Zyklus, indem er das LLM mehrfach mit unterschiedlichen Aufgaben aufruft:

O+O Alle Nachrichten werden dem LLM als Block vorgelegt: „Analysiere und finde Zusammenhänge.“
D Die Analyse wird zurückgegeben. Der Orchestrator setzt sie als Kontext in den nächsten Prompt: „Konsolidiere und erstelle ein Lagebild.“
A Pro Thread: Lagebild + individuelle Konversationshistorie + Antwortauftrag. Jeder Stakeholder bekommt eine eigene Antwort.

Was das Lagebild besonders macht

Ephemer, nicht dauerhaft

Das Lagebild lebt nur während eines Batch-Durchlaufs. Es wird nicht gespeichert — nächster Durchlauf, neues Lagebild. Langfristige Erkenntnisse wandern ins Gedächtnis.

Thread-Isolation bleibt

Der Assistent kennt das Gesamtbild, aber Stakeholder A erfährt nichts über die Konversation mit Stakeholder B — nur über die für ihn relevanten Auswirkungen.

Der Orchestrator entscheidet, nicht das LLM

Die Phasenreihenfolge ist deterministisch. Das LLM kann keine Phase überspringen oder vermischen — es bekommt für jede Phase einen klaren Auftrag.

Drei Modi

Nicht jeder Assistent braucht den vollen OODA-Zyklus

AIMOS kennt drei Agententypen — von der schnellen Sprachantwort bis zum strukturierten Sachbearbeiter. Alle drei können proaktiv handeln (Cronjobs, Erinnerungen, Wiedervorlagen).

Sprach-Assistent

<500ms Latenz

Sofortige Reaktion auf Spracheingabe. Whisper-Transkription parallel zum LLM-Warmup. Kurze, präzise Antworten.

Empfang, Sprachsteuerung, schnelle Abfragen

Chat-Assistent

<5s Latenz

Schnelle Konversation per Telegram, E-Mail oder Dashboard. Gedächtnis, Kundenakten, Delegation an Kollegen. Cronjobs für proaktive Erinnerungen.

Kundensupport, Helpdesk, Auftragsannahme

OODA

Mitarbeiter

Batch — OODA-Zyklus

Checkt seinen Posteingang, überblickt alle Vorgänge, erkennt threadübergreifende Zusammenhänge, erstellt ein Lagebild — und handelt dann koordiniert.

Prozessmanagement, Compliance, Projektassistenz

Alle drei Typen verfügen über Gedächtnis, Skills, Konnektoren und können proaktiv handeln. Der Unterschied liegt in der Denkweise: ein Thread vs. das Gesamtbild.

3-Tier Memory

Langzeitgedächtnis

Drei Gedächtnistypen, Hybrid-Suche und ein Dreaming-Zyklus zur Konsolidierung.

Semantisch Fakten & Wissen "Stahlpreis Q1: 850 EUR/t" "SAP API: /api/v2/stock" "Lieferant X: 14 Tage Vorlauf" Episodisch Erlebnisse & Konversationen "2026-03-15: Bestandsabfrage" "2026-03-18: Preisvergleich" "2026-03-20: CAD-Analyse" Prozedural Abläufe & Muster "Bestellung: Prüfen→Freigabe→Buchen" "BOM-Export: DWG→Parse→CSV" "Inventur: SQL→Diff→Report" Hybrid-Suche: FTS5 + Vektor-Embeddings + RRF Fusion Relevanz-Ranking kombiniert Keyword- und Semantik-Treffer

Dreaming — Gedächtniskonsolidierung per LLM-Call

Im Ruhezustand analysiert der KI-Assistent seine Gespräche mit einem LLM-Call, extrahiert Fakten, aktualisiert Notizen und Todo-Listen, konsolidiert sein Gedächtnis und erstellt wöchentliche Berichte.

Wie das menschliche Gehirn im Schlaf — der KI-Assistent verdichtet Erlebnisse zu Wissen, entfernt redundante Einträge und stärkt wichtige Verbindungen. Das Ergebnis: präzisere Antworten bei niedrigerem Token-Verbrauch.

Dreaming-Zyklus (Konsolidierung)

Wie das menschliche Gehirn im Schlaf konsolidiert AIMOS Erinnerungen im Leerlauf:

Episoden sammeln Alle Konversationen Muster erkennen LLM-Analyse Verdichten Fakten extrahieren Semantisch speichern Langzeitgedächtnis

Sprachmodell

Das LLM — Gehirn des KI-Assistenten

Das Large Language Model (LLM) ist die Denkmaschine hinter jedem KI-Assistenten. Es versteht Sprache, fällt Entscheidungen und steuert Werkzeuge — und läuft vollständig auf Ihrer eigenen Hardware.

Was macht das LLM?

  • Versteht Anfragen — in natürlicher Sprache, in jeder Sprache
  • Wählt Werkzeuge — entscheidet selbständig, ob eine Datenbankabfrage, ein E-Mail-Versand oder eine Berechnung nötig ist
  • Formuliert Antworten — fachlich korrekt, im Kontext des bisherigen Gesprächs
  • Lernt aus Korrekturen — über das Langzeitgedächtnis, nicht durch Modell-Training

Warum lokal statt Cloud?

Datensouveränität

Ihre Anfragen verlassen nie das Netzwerk. Kein Cloud-Anbieter sieht Ihre Daten.

Keine laufenden Kosten

Kein Token-Preis pro Anfrage. Das Modell läuft unbegrenzt auf Ihrer GPU.

Verfügbarkeit

Kein API-Limit, kein Rate-Limiting, keine Abhängigkeit von externen Diensten.

Eskalation bei Bedarf

Bei komplexen Aufgaben: automatische, anonymisierte Eskalation an ein Cloud-LLM. → PII-Vault Details

Anbindung

Bisher verfügbare Konnektoren

Der KI-Assistent kommuniziert über Konnektoren — standardisierte Schnittstellen zu Benutzern, Systemen und anderen KI-Assistenten. Neue Konnektoren werden laufend entwickelt und können jederzeit für Ihre spezifische IT-Landschaft ergänzt werden.

Telegram

Text, Sprachnachrichten, Dokumente. Proaktive Nachrichten bei Erinnerungen, Alarmen und Ergebnissen. Shared Listener für alle KI-Assistenten.

E-Mail

IMAP/SMTP für Senden und Empfangen. POP3-Monitoring für eingehende Postfächer. HTML-Format und Dateianhänge.

Voice

Whisper STT + Piper TTS — komplett lokal. Spracherkennung und -synthese in allen Sprachen, ohne Cloud-Dienste.

SFTP

Dateizugriff auf Arbeitsrechner via Tailscale VPN. Shared Folder für DXF, PDF, Excel — verschlüsselt und ohne offene Ports.

SQL-Datenbanken

PostgreSQL, MSSQL, Firebird — ausschliesslich SELECT-Abfragen. Kein Schreibzugriff auf Produktionsdaten. Read-Only by Design.

REST / SOAP API

Universelle API-Anbindung für ERP, CRM, Warenwirtschaft. GET, POST, PUT mit konfigurierbarer Authentifizierung.

Thread-Architektur

Ein KI-Assistent, viele Kunden — gleichzeitig

Jeder Vorgang erhält eine eigene Thread-ID. Der KI-Assistent sieht immer nur den aktuellen Kunden — egal wie viele parallel laufen.

Isolierte Threads

Jeder Kunde erhält automatisch einen eigenen Thread. Telegram-Nutzer A sieht nie die Konversation von E-Mail-Kunde B.

Kanalübergreifend

Ein Kunde schreibt per Telegram: „Ich habe Ihnen eine E-Mail geschickt.“ Der KI-Assistent findet den E-Mail-Thread und hat sofort den Kontext.

Thread-Propagation

Wenn ein Assistent einen Vorgang an einen Kollegen delegiert, wandert die Thread-ID mit. Der Empfänger arbeitet im selben Kundenkontext.

Automatische Zuweisung — jeder Kanal erzeugt die richtige Thread-ID beim Eingang

E-Mail-Threading — In-Reply-To und References-Header für korrekte Zuordnung

Dateien pro Thread — Anhänge werden dem Vorgang zugeordnet, kanalübergreifend

Code-Level Isolation — auf Datenbankebene erzwungen, nicht vom KI-Modell abhängig

Werkzeugkasten

Über 30 Skills — modular zusammenstellbar

Jeder KI-Assistent erhält genau die Skills, die er braucht. Kundenspezifische Skills können jederzeit ergänzt werden — für jede Branche, jedes System, jeden Workflow.

Kommunikation

E-Mail

IMAP/SMTP, POP3-Monitoring. Senden, empfangen, Anhänge, automatische Postfachüberwachung.

MS Teams

Channel-Nachrichten lesen und senden, Online-Meetings erstellen. Microsoft Graph API.

Telegram

Text, Sprachnachrichten, Dokumente. Proaktive Benachrichtigungen bei Alarmen und Ergebnissen.

Sprache

Whisper STT + Piper TTS — komplett lokal. Spracherkennung und -synthese in allen Sprachen.

Projektmanagement

JIRA

Issues suchen, erstellen, Status ändern, kommentieren. JQL-Suche, Sprint-Übersicht.

Azure DevOps

Work Items, Pipelines, Boards. Aufgaben erstellen, Status verfolgen, CI/CD überwachen.

MS Project

Projekte und Aufgaben lesen, Meilensteine verfolgen, Termine aktualisieren.

Codebeamer (ALM)

Requirements, Testfälle, Traceability-Links, Baseline-Vergleich. Für Automotive-Entwicklung.

Dokumentation & Reporting

Confluence / SharePoint

Wiki-Seiten und Dokumente lesen, erstellen, aktualisieren. DMS-Integration.

Word / Excel / PowerPoint

Office-Dokumente erstellen: Berichte als Word, Daten als Excel, Präsentationen als PowerPoint.

Dokumentenerkennung (OCR)

Rechnungen, Lieferscheine und Verträge scannen. Felder automatisch erkennen. Lokal verarbeitet.

KPI-Berichte

Tages- und Wochenübersichten, HTML-Dashboards, CSV-Export. Automatische Zusammenfassungen.

Daten & Systeme

ERP (SAP / DATEV)

Artikel, Kunden, Aufträge, Lagerbestände abfragen. Multi-Backend: SAP, DATEV, Custom.

SQL-Datenbanken

PostgreSQL, MSSQL, Firebird — Read-Only by Design. Kein Schreibzugriff auf Produktionsdaten.

GitLab / GitHub

Repositories, Merge Requests, CI/CD-Pipelines. Commits lesen, Issues erstellen, kommentieren.

SFTP / Remote-Dateien

Dateizugriff auf Arbeitsrechner via VPN. Verschlüsselt und ohne offene Ports.

Compliance & Organisation

Fristenverwaltung

Zertifizierungen, Wartungsintervalle, Vertragslaufzeiten. Proaktive Erinnerung vor Ablauf.

Lagerverwaltung

Bestände überwachen, Nachbestellvorschläge, Mindestmengen-Warnungen.

Kalender (lokal + Outlook)

Termine, Fristen, Wiedervorlagen. Outlook-Einladungen senden. Feiertage automatisch berücksichtigt.

Kontaktverwaltung

Personen, Firmen, Telefonnummern, E-Mail-Adressen. Automatische Aktualisierung.

Modularer Werkzeugkasten: Jeder KI-Assistent bekommt nur die Skills die er braucht. Kundenspezifische Anbindungen (spezielle ERP-Systeme, branchenspezifische Tools, interne Datenbanken) können jederzeit als neue Skills entwickelt und hinzugefügt werden — ohne den Kern zu verändern.