Saltar para o conteúdo

Apanhar alucinações da IA: 3 guardrails para equipas B2B

A IA erra — o que importa é a velocidade de captura. Três guardrails comprovados: citação de fonte, pré-checks por regras, aprovação humana prévia. Pare erros antes de chegarem à produção.

Como são as alucinações da IA em workflows B2B reais

Uma alucinação é quando o modelo gera uma resposta com tom seguro mas errada. No B2B aparece em três formas clássicas: (1) inventar um número de encomenda que não existe para um pedido de suporte, (2) "citar" uma data que não está realmente no contrato ao resumi-lo, (3) inventar uma categoria nova ao classificar faturas fora do conjunto definido.

As três partilham o mesmo padrão: sem âncora real, o modelo preenche o vazio. O problema é que a saída parece confiante — mesmo quando errada. "A IA erra" não é acionável; é preciso saber onde e porquê. Os três guardrails abaixo fazem isso.

Três guardrails: fonte, regra, humano

1) Citação de fonte: o modelo devolve cada resposta com o id ou número de linha do documento fonte. Sem fonte, responde "não sei". As alucinações caem ~80%.

2) Pré-check por regras: validar a saída contra regras de domínio antes de chegar — o número de encomenda tem 8 dígitos? A categoria da fatura está na lista? O formato de data é válido? Estes checks baratos em Python apanham a maioria.

3) Aprovação humana prévia: ações de alto risco (reembolsos, assinaturas de contrato) são propostas pela IA mas aprovadas por um humano. A IA trata ~95% sozinha; os 5% de exceções são encaminhados a si para revisão.

Os três juntos: em auditorias independentes a taxa de alucinação cai abaixo dos 2%. Na Setviva integramos esta pilha em cada projeto cliente como parte do pacote padrão — piloto pronto em duas semanas.