Secondo una ricerca Nvidia, i Small Language Models (SLM), ottimizzati per domini specifici e a basso consumo, affiancheranno i grandi modelli linguistici (LLM) più generali e costosi. La combinazione permetterà di bilanciare efficienza, velocità e scalabilità, con SLM per applicazioni edge e LLM per il cloud computing su larga scala.




