Glossário · Português

Alucinação

Quando um LLM gera informação que soa plausível mas é factualmente incorreta.

Português · Portuguese

Definição

Alucinações são saídas confiantes mas erradas — citações fabricadas, jurisprudência inventada, APIs inexistentes. São o problema central de confiabilidade em aplicações LLM em produção. Mitigações: RAG com citações, saída estruturada, augmentação por recuperação, arcabouços de avaliação, treinamento de recusa e prompting explícito de "eu não sei".

Exemplo

Um LLM perguntado sobre um advogado real cita um caso judicial que não existe, com uma citação totalmente formatada.

Como a Vedwix usa isto

Projetamos sistemas para recusar em vez de alucinar. Cada saída que afeta um usuário recebe uma citação ou um fallback.

Trabalhando em um projeto de Alucinação?

Alucinação.

Descreva seu projeto em três frases ou menos.

Iniciar um projeto

Alucinação

Descreva seu projeto em três frases ou menos.

Iniciar um projeto