notch
RESEARCH29

Dependency-Guided Parallel Decoding in Discrete Diffusion Language Models

arXiv CS.CL·6 de abril de 2026

Modelos de linguagem de difusão discreta (dLLMs) aceleram a geração de texto, mas a decodificação paralela degrada a qualidade ao desconsiderar a dependência entre tokens. DEMASK propõe um preditor leve que estima influências condicionais para guiar o desmascaramento simultâneo, comprovadamente melhorando a qualidade. A técnica resulta em um ganho de velocidade de 1.7 a 2.2x, mantendo ou superando o desempenho.

Dependency PredictionDEMASKParallel DecodingMachine Learningperformance-optimizationNatural Language Processingtext generationDiffusion Language Models
Ler original