RESEARCH27
Absorber LLM: Harnessing Causal Synchronization for Test-Time Training
arXiv CS.LG·24 de abril de 2026
Transformers enfrentam altos custos computacionais e consumo de memória para sequências longas, enquanto alternativas perdem dependências de longo alcance. Absorber LLM propõe uma sincronização causal auto-supervisionada para absorver contextos históricos nos parâmetros, garantindo que um modelo sem contexto corresponda ao original com contexto total em gerações futuras.
AI ArchitectureNatural Language ProcessingMachine Learning Optimizationlarge language modelstransformers
Ler original ↗