RESEARCH27
Why Attend to Everything? Focus is the Key
arXiv CS.CL·7 de abril de 2026
Este artigo apresenta o Focus, um método inovador que aprende quais pares de tokens são relevantes em mecanismos de atenção, em vez de aproximar todos. Ele melhora a perplexidade do domínio e oferece até 2x de aceleração na inferência, superando a atenção completa em diversas escalas e arquiteturas.
retrofit settingneural networksFocus methodPerplexityMachine Learningattention mechanismsspeedupefficient attentionTransformers
Ler original ↗