heapsort-ai
RESEARCH27

Absorber LLM: Harnessing Causal Synchronization for Test-Time Training

arXiv CS.LG·24 de abril de 2026

Transformers enfrentam altos custos computacionais e consumo de memória para sequências longas, enquanto alternativas perdem dependências de longo alcance. Absorber LLM propõe uma sincronização causal auto-supervisionada para absorver contextos históricos nos parâmetros, garantindo que um modelo sem contexto corresponda ao original com contexto total em gerações futuras.

AI ArchitectureNatural Language ProcessingMachine Learning Optimizationlarge language modelstransformers
Ler original