notch
RESEARCH27

Haiku to Opus in Just 10 bits: LLMs Unlock Massive Compression Gains

arXiv CS.LG·6 de abril de 2026

Este estudo explora a compressão de texto gerado por LLMs em regimes com e sem perdas, apresentando métodos que melhoram a eficiência em 2x, como adaptadores LoRA e reescritas concisas. Introduz também a compressão interativa por Perguntas e Respostas (QA), um protocolo que transfere um bit por resposta para recuperar uma parte significativa da capacidade de modelos maiores.

lossy compressionLLMsarithmetic codingcompute frontierQuestion-Asking compressionLossless compressioncompression
Ler original