notch
RESEARCH27

Why Attend to Everything? Focus is the Key

arXiv CS.CL·7 de abril de 2026

Este artigo apresenta o Focus, um método inovador que aprende quais pares de tokens são relevantes em mecanismos de atenção, em vez de aproximar todos. Ele melhora a perplexidade do domínio e oferece até 2x de aceleração na inferência, superando a atenção completa em diversas escalas e arquiteturas.

retrofit settingneural networksFocus methodPerplexityMachine Learningattention mechanismsspeedupefficient attentionTransformers
Ler original