Zum Inhalt springen

KI-Halluzinationen abfangen: 3 Schutzschichten für B2B-Teams

KI macht Fehler — entscheidend ist die Fanggeschwindigkeit. Drei bewährte Schutzschichten: Quellenzitat, Regel-Vorprüfung, menschliche Freigabe. Fehler stoppen, bevor sie in Produktion gehen.

Wie KI-Halluzinationen in B2B-Workflows aussehen

Eine Halluzination liegt vor, wenn das Modell eine selbstbewusst klingende, aber falsche Antwort liefert. Im B2B zeigt sich das in drei Mustern: (1) eine nicht existierende Bestellnummer für eine Support-Anfrage erfinden, (2) ein Datum "zitieren", das gar nicht im Vertrag steht, beim Zusammenfassen, (3) eine neue Kategorie erfinden beim Klassifizieren von Rechnungen außerhalb des definierten Sets.

Alle drei teilen sich dasselbe Muster: Findet das Modell keinen echten Anker, füllt es die Lücke. Das Problem: Die Ausgabe wirkt überzeugend — auch wenn falsch. "KI irrt" ist keine Maßnahme; man muss wissen wo und warum. Die drei Guardrails unten leisten das.

Drei Guardrails: Quelle, Regel, Mensch

1) Quellenzitat: Das Modell gibt jede Antwort mit der ID oder Zeilennummer der Quelle zurück. Gibt es keine Quelle, antwortet es "Ich weiß es nicht." Halluzinationen sinken um ~80%.

2) Regel-Vorprüfung: Den Output vor der Übergabe gegen Domain-Regeln validieren — hat die Bestellnummer 8 Stellen? Steht die Rechnungskategorie auf der Liste? Ist das Datumsformat gültig? Diese günstigen Python-Checks fangen die meisten Halluzinationen.

3) Menschliche Freigabe: Risikoreiche Aktionen (Erstattungen, Vertragsunterschriften) schlägt die KI vor, ein Mensch genehmigt. Die KI erledigt ~95% allein; die 5% Ausnahmen kommen zur Prüfung zu Ihnen.

Zusammen: In unabhängigen Drittaudits fällt die Halluzinationsrate unter 2%. Bei Setviva bauen wir diesen Stack als Standardpaket-Bestandteil in jedes Kundenprojekt — Pilot in zwei Wochen.