RESEARCH27
Haiku to Opus in Just 10 bits: LLMs Unlock Massive Compression Gains
arXiv CS.LG·6 de abril de 2026
Este estudo explora a compressão de texto gerado por LLMs em regimes com e sem perdas, apresentando métodos que melhoram a eficiência em 2x, como adaptadores LoRA e reescritas concisas. Introduz também a compressão interativa por Perguntas e Respostas (QA), um protocolo que transfere um bit por resposta para recuperar uma parte significativa da capacidade de modelos maiores.
lossy compressionLLMsarithmetic codingcompute frontierQuestion-Asking compressionLossless compressioncompression
Ler original ↗