RESEARCH40
Sound Agentic Science Requires Adversarial Experiments
arXiv CS.AI·27 de abril de 2026
Agentes baseados em LLM estão sendo rapidamente adotados na análise de dados científicos, mas correm o risco de produzir rapidamente análises plausíveis otimizadas para resultados positivos. Os autores propõem que as afirmações não experimentais feitas com assistência de agentes sejam avaliadas sob uma ótica de falsificação para garantir a robustez do conhecimento científico.
falsificationLLM agentsscientific methodologyAI in scienceresearch integrity
Ler original ↗