Naar de inhoud

AI-hallucinaties opvangen: 3 vangrails voor B2B-teams

AI maakt fouten — wat telt is detectiesnelheid. Drie bewezen vangrails: broncitatie, regel-vooraf-checks, menselijke voorgoedkeuring. Stop fouten vóór de productie.

Hoe AI-hallucinaties eruitzien in echte B2B-workflows

Een hallucinatie is wanneer het model een zelfverzekerd klinkend maar fout antwoord geeft. In B2B duikt dit op in drie klassieke vormen: (1) een niet-bestaand ordernummer verzinnen voor een supportvraag, (2) bij het samenvatten "citeren" uit een datum die helemaal niet in het contract staat, (3) een nieuwe categorie verzinnen bij het classificeren van facturen buiten de gedefinieerde set.

Alle drie volgen hetzelfde patroon: zonder echt anker vult het model het gat. Het probleem is dat de output overtuigend lijkt — zelfs als die fout is. "De AI heeft het mis" is niet actionable; je moet weten waar en waarom. De drie vangrails hieronder doen dat.

Drie vangrails: bron, regel, mens

1) Broncitatie: het model retourneert elk antwoord met de id of regelnummer van het bronndocument. Geen bron → "ik weet het niet". Hallucinaties dalen ~80%.

2) Regel-vooraf-check: valideer de output tegen domeinregels vóórdat hij landt — heeft het ordernummer 8 cijfers? Staat de factuurcategorie op de lijst? Is het datumformaat geldig? Deze goedkope Python-checks vangen de meeste hallucinaties.

3) Menselijke voorgoedkeuring: risicovolle acties (terugbetalingen, contractondertekening) worden door AI voorgesteld en door een mens goedgekeurd. AI doet ~95% zelf; de 5% uitzonderingen komen bij u voor review.

De drie samen: in onafhankelijke audits zakt het hallucinatiepercentage onder 2%. Bij Setviva bouwen we deze stack standaard in elk klantproject — pilot binnen twee weken klaar.