notch
RESEARCH27

Failing to Falsify: Evaluating and Mitigating Confirmation Bias in Language Models

arXiv CS.CL·6 de abril de 2026

Este estudo investiga o viés de confirmação em grandes modelos de linguagem (LLMs) usando uma tarefa de descoberta de regras, revelando que os LLMs exibem essa tendência, o que retarda a descoberta de regras ocultas. Ele demonstra que estratégias de intervenção, como o uso de prompts específicos, podem consistentemente diminuir esse viés.

LLMsprompt-engineeringcognitive biasConfirmation Bias
Ler original