NEWS27
llama.cpp Adds Gemma 4 Audio, Speculative Decoding & Ollama Agent Boost Local AI
DEV.to AI·12 de abril de 2026
O llama.cpp agora suporta processamento de áudio multimodal para modelos Gemma 4, aumentando sua versatilidade em hardware de consumo. Também foram implementados ganhos de desempenho com decodificação especulativa e um novo agente Ollama para codificação local.
ollamaGemma-4llama.cppdecodificação especulativaprocessamento de áudio
Ler original ↗