RESEARCH30
FLeX: Fourier-based Low-rank EXpansion for multilingual transfer
arXiv CS.LG·9 de abril de 2026
Este artigo investiga a geração de código cross-lingual, focando em métodos de fine-tuning paramétrico-eficiente (PEFT) e otimizadores para LLMs. Os autores demonstram que o fine-tuning LoRA no Code Llama 7B, com um dataset pequeno de alta qualidade, pode superar o desempenho de modelos mais amplamente fine-tuned, e que otimizadores como Sophia oferecem convergência mais rápida com resultados finais comparáveis.
Cross-lingual code generationPEFTLoRALLM fine-tuningOptimizers
Ler original ↗