notch
RESEARCH40

Sound Agentic Science Requires Adversarial Experiments

arXiv CS.AI·27 de abril de 2026

Agentes baseados em LLM estão sendo rapidamente adotados na análise de dados científicos, mas correm o risco de produzir rapidamente análises plausíveis otimizadas para resultados positivos. Os autores propõem que as afirmações não experimentais feitas com assistência de agentes sejam avaliadas sob uma ótica de falsificação para garantir a robustez do conhecimento científico.

falsificationLLM agentsscientific methodologyAI in scienceresearch integrity
Ler original