Przejdź do treści

Łapanie halucynacji AI: 3 zabezpieczenia dla zespołów B2B

AI się myli — liczy się szybkość wychwytywania. Trzy sprawdzone zabezpieczenia: cytat źródła, pre-checki regułami, ludzka aprobata. Powstrzymaj błędy przed produkcją.

Jak wyglądają halucynacje AI w realnych workflow B2B

Halucynacja to gdy model generuje pewną siebie, ale błędną odpowiedź. W B2B objawia się w trzech klasycznych formach: (1) wymyślenie nieistniejącego numeru zamówienia w odpowiedzi na zapytanie supportu, (2) "cytowanie" daty, której nie ma w umowie, podczas jej podsumowania, (3) wymyślenie nowej kategorii przy klasyfikacji faktur poza zdefiniowanym zbiorem.

Wszystkie trzy mają ten sam wzorzec: bez prawdziwego zakotwiczenia model uzupełnia lukę. Problem w tym, że wyjście brzmi pewnie — nawet jeśli jest błędne. "AI się myli" to za mało; trzeba wiedzieć gdzie i dlaczego. Trzy zabezpieczenia poniżej to robią.

Trzy zabezpieczenia: źródło, reguła, człowiek

1) Cytat źródła: model zwraca każdą odpowiedź z id lub numerem wiersza dokumentu źródłowego. Bez źródła odpowiada "nie wiem". Halucynacje spadają o ~80%.

2) Pre-check regułami: walidacja wyjścia przed przekazaniem — czy numer zamówienia ma 8 cyfr? Czy kategoria faktury jest na liście? Czy format daty jest poprawny? Te tanie checki w Pythonie łapią większość.

3) Ludzka aprobata: działania wysokiego ryzyka (zwroty, podpisy umów) są proponowane przez AI, a zatwierdzane przez człowieka. AI obsługuje ~95% samodzielnie; 5% wyjątków trafia do Ciebie do przeglądu.

Trzy razem: w niezależnych audytach poziom halucynacji spada poniżej 2%. W Setviva wbudowujemy ten stack w każdy projekt klienta jako standard — pilot gotowy w dwa tygodnie.