A
AIMOS

Validierung

Wie wird ein KI-Agent
produktionsreif?

Jeder Mensch macht Fehler. Jedes LLM halluziniert. Der Unterschied: Wir können messen, wie oft — und systematisch dafür sorgen, dass es unter einer definierten Schwelle bleibt.

Das Problem: KI-Agenten können halluzinieren

Ein Sprachmodell das eine Steuererklärung bearbeitet, kann Beträge erfinden. Ein Safety-Assistent kann Norm-Referenzen halluzinieren. Ein Support-Agent kann Zusagen machen, die das Unternehmen nicht einhalten kann.

Die meisten KI-Anbieter ignorieren dieses Problem — oder verlassen sich auf ein „klappt schon meistens“. Wir nicht.

Typische KI-Halluzinationen

  • Erfundene Beträge („Erstattung: 4.782 €“ — nirgends berechnet)
  • Falsche Norm-Referenzen („gemäß §35a Abs. 7“ — existiert nicht)
  • Vermischte Mandantendaten (Daten von Kunde A in Email an Kunde B)
  • Falsche Zusagen („Ich habe Ihre Erklärung eingereicht“)
  • Veraltete Informationen (Pauschale von 2021 statt 2025)

Unsere Lösung: Systematische Validierung

Abgeleitet aus der Methodik für autonome Fahrzeuge (ADAS) und funktionale Sicherheit. Adaptiert für KI-Agenten in Unternehmensumgebungen.

// Validierungs-V — von der Spezifikation zum statistischen Nachweis
ISO/TS 5083 Cl. 6.2
1. Akzeptanzkriterien

Business Case → max. Fehlerrate.
Z.B.: <0,15% bei 7.500 Vorgängen/Jahr.

ISO/PAS 8800 Cl. 9
2. Agent Design

Prompt Engineering + Referenzwissen.
Fachwissen in Dateien, nicht im LLM-Gedächtnis.

ISO 26262 / SOTIF
3. Safety Measures

Halluzinations-Erkennung.
Deterministische + semantische Prüfung.

KI-Agent

OODA-Zyklus
TurboQuant
Qwen 27B

Iterativer Regelkreis:
Fehler → Prompt-Fix → Re-Test

ISO/TS 5083 Cl. 9
6. Betriebsmonitoring

Jeder Vorgang wird automatisch gescort.
Quartalsweise Fehlerrate.

ISO/TS 5083 H.4
5. Monte Carlo Validation

2.000 synthetische Szenarien.
Statistischer Nachweis mit Konfidenzintervall.

ISO 21448 (SOTIF)
4. Phase-Tests (SOTIF/FuSi)

Isolierte Tests pro OODA-Phase.
Equivalence Classes + Boundary Values.

Der Aufwand hinter der Zuverlässigkeit

2.000+
Synthetische Testszenarien
Automatisch generiert aus dem
Parameterraum des Agenten
10.000+
KI-gestützte Prüfungen
Jedes Szenario wird durch
15 automatische Checks geprüft
Tage
Validierungslaufzeit pro Agent
Mehrtägige GPU-Zyklen bis zum
statistischen Nachweis

Für jeden Agenten laufen mehrtägige Validierungszyklen mit tausenden Testfällen auf unserer GPU-Infrastruktur. Jeder einzelne Testfall wird KI-gestützt ausgewertet — deterministisch für Zahlen und Fakten, semantisch für Ton und Kontext. Erst wenn die gemessene Fehlerrate unter dem vereinbarten Akzeptanzkriterium liegt, geht der Agent in Produktion. Diesen Aufwand betreiben wir für jeden einzelnen Agenten.

Halluzinations-Erkennung: Zwei Schichten

Schicht 1: Deterministisch

Python-Code, kein LLM. 100% zuverlässig, <1 Sekunde.

  • ✓ Jeder EUR-Betrag im Output wird gegen die Eingabedaten geprüft
  • ✓ Keine Tool-Call-Artefakte in Emails (XML, JSON)
  • ✓ Keine Mandantendaten-Vermischung (Scope-Check)
  • ✓ Keine internen Systembegriffe nach außen
  • ✓ Prompt-Injection-Resistenz

Schicht 2: Semantisch (LLM-basiert)

Separater LLM-Call, niedrige Temperatur. Kalibriert gegen Gold-Standard.

  • ✓ Professioneller Ton (auch bei schwierigen Kunden)
  • ✓ Inhaltliche Konsistenz (keine Erstattung ohne Daten)
  • ✓ Vollständigkeit (fehlende Unterlagen erwähnt)
  • ✓ Keine falschen Versprechen
  • ✓ Korrekte Sprache (DE/EN nach Mandant)

Kalibrierung: Jeder Check-Prompt wird gegen handkuratierte Gold-Drafts (bekannt gut + bekannt schlecht) kalibriert. Precision, Recall und F1-Score werden gemessen. Nur Checks mit F1 > 0,9 werden eingesetzt. Die Details unserer Kalibrierungsmethodik sind proprietär.

Forschung in der Produktion

TurboQuant

KV-Cache-Kompression auf 3 Bit (ICLR 2026). 6× mehr Kontext auf der gleichen GPU. Zero Accuracy Loss.

Speculative Decoding

Kleines Draft-Modell generiert, großes validiert. 2,5× schnellere Inferenz bei gleicher Qualität.

Claim Decomposition

Jede Aussage des Agenten wird in atomare Claims zerlegt und gegen die Quelldaten verifiziert. Basiert auf FActScore und Chain-of-Verification (Meta 2023).

Referenz-Standards

Unsere Methodik basiert auf Standards, die für autonomes Fahren und ADAS-Systeme entwickelt wurden. Wir sind die Ersten, die diese Methodik systematisch auf KI-Agenten in Unternehmensumgebungen anwenden.

ISO/TS 5083:2025 — Safety for Automated Driving Systems: Design, Verification and Validation

Akzeptanzkriterien, Monte Carlo, Szenario-Generierung, V&V-Prozess

ISO/PAS 8800:2024 — Road Vehicles: Safety and Artificial Intelligence

AI Safety Requirements, Input Space Refinement, Output Insufficiencies

ISO 21448 (SOTIF) — Safety of the Intended Functionality

Validation der Intended Functionality, Residual Risk, Trigger Conditions

ISO 26262 / Automotive SPICE — Funktionale Sicherheit + Prozessqualität

HAZOP, FMEA, deterministische Safety Measures, Prozessreife

Interessiert an den Details?

Die vollständige Validierungsmethodik ist Teil unserer Beratungsleistung. Wir zeigen Ihnen gerne in einem persönlichen Gespräch, wie wir Ihren KI-Agenten so aufsetzen, dass Sie sich auf ihn verlassen können.

Kontakt aufnehmen