Apanhar alucinações da IA: 3 guardrails para equipas B2B
A IA erra — o que importa é a velocidade de captura. Três guardrails comprovados: citação de fonte, pré-checks por regras, aprovação humana prévia. Pare erros antes de chegarem à produção.
Como são as alucinações da IA em workflows B2B reais
Uma alucinação é quando o modelo gera uma resposta com tom seguro mas errada. No B2B aparece em três formas clássicas: (1) inventar um número de encomenda que não existe para um pedido de suporte, (2) "citar" uma data que não está realmente no contrato ao resumi-lo, (3) inventar uma categoria nova ao classificar faturas fora do conjunto definido.
As três partilham o mesmo padrão: sem âncora real, o modelo preenche o vazio. O problema é que a saída parece confiante — mesmo quando errada. "A IA erra" não é acionável; é preciso saber onde e porquê. Os três guardrails abaixo fazem isso.
Três guardrails: fonte, regra, humano
1) Citação de fonte: o modelo devolve cada resposta com o id ou número de linha do documento fonte. Sem fonte, responde "não sei". As alucinações caem ~80%.
2) Pré-check por regras: validar a saída contra regras de domínio antes de chegar — o número de encomenda tem 8 dígitos? A categoria da fatura está na lista? O formato de data é válido? Estes checks baratos em Python apanham a maioria.
3) Aprovação humana prévia: ações de alto risco (reembolsos, assinaturas de contrato) são propostas pela IA mas aprovadas por um humano. A IA trata ~95% sozinha; os 5% de exceções são encaminhados a si para revisão.
Os três juntos: em auditorias independentes a taxa de alucinação cai abaixo dos 2%. Na Setviva integramos esta pilha em cada projeto cliente como parte do pacote padrão — piloto pronto em duas semanas.