Definição
Alucinações são saídas confiantes mas erradas — citações fabricadas, jurisprudência inventada, APIs inexistentes. São o problema central de confiabilidade em aplicações LLM em produção. Mitigações: RAG com citações, saída estruturada, augmentação por recuperação, arcabouços de avaliação, treinamento de recusa e prompting explícito de "eu não sei".
Exemplo
Um LLM perguntado sobre um advogado real cita um caso judicial que não existe, com uma citação totalmente formatada.
Como a Vedwix usa isto
Projetamos sistemas para recusar em vez de alucinar. Cada saída que afeta um usuário recebe uma citação ou um fallback.
Trabalhando em um projeto de Alucinação?
Alucinação.
Descreva seu projeto em três frases ou menos.
Iniciar um projeto