notch
RESEARCH27

LiME: Lightweight Mixture of Experts for Efficient Multimodal Multi-task Learning

arXiv CS.LG·6 de abril de 2026

O LiME (Lightweight Mixture of Experts) propõe uma nova abordagem para MoE-PEFT, utilizando modulação leve de um único módulo PEFT compartilhado em vez de adaptadores separados por especialista. Isso reduz significativamente os parâmetros, introduz roteamento de parâmetros zero e generaliza para qualquer método PEFT, superando as limitações de escalabilidade e aplicabilidade.

multi-task learningmodel efficiencyDeep Learning ArchitecturesMixture-of-ExpertsPEFT
Ler original