RESEARCH27
Reinforcing privacy reasoning in LLMs via normative simulacra from fiction
arXiv CS.LG·24 de abril de 2026
Este artigo propõe um novo método para melhorar o raciocínio de privacidade em LLMs, extraindo simulacros normativos de romances de ficção. A abordagem envolve ajuste fino de LLMs via aprendizado supervisionado e GRPO, utilizando uma função de recompensa composta para alinhar as práticas de tratamento de informações com as expectativas de privacidade do usuário.
LLMsprivacysecuritymachine learningAI ethics
Ler original ↗