RESEARCH↑ trending45
New project about llm hallucination [P]
Reddit r/MachineLearning·24 de abril de 2026

Este conteúdo apresenta um novo projeto paralelo e seu repositório no GitHub, focado na mitigação da alucinação em LLMs através de um novo método de amostragem contrastiva e treinamento seletivo. A ideia central trata a alucinação como um problema de preferência, utilizando amostras negativas auto-geradas e aprendizado baseado em divergência e controlado para promover respostas corretas e suprimir as erradas.
hallucinationmodel trainingNatural Language ProcessingAI safetyLLM
Ler original ↗