RESEARCH27
Failing to Falsify: Evaluating and Mitigating Confirmation Bias in Language Models
arXiv CS.CL·6 de abril de 2026
Este estudo investiga o viés de confirmação em grandes modelos de linguagem (LLMs) usando uma tarefa de descoberta de regras, revelando que os LLMs exibem essa tendência, o que retarda a descoberta de regras ocultas. Ele demonstra que estratégias de intervenção, como o uso de prompts específicos, podem consistentemente diminuir esse viés.
LLMsprompt-engineeringcognitive biasConfirmation Bias
Ler original ↗