Il modello DeepSeek-R1 utilizza un approccio di apprendimento per rinforzo senza supervisione manuale, mostrando capacità di auto-riflessione e creatività. Pubblicato con trasparenza e revisione scientifica, il progetto stabilisce nuovi standard per l’open research e promette di ridurre costi e migliorare l’efficienza nello sviluppo di AI avanzate.
generative ai and innovation
Gemini 2.5 ha risolto un problema complesso di distribuzione liquidi in un sistema di tubature, impiegando meno di mezz’ora e superando 139 partecipanti umani. Google definisce il risultato un salto epocale verso l’intelligenza artificiale generale (AGI). Sebbene alcuni esperti invitino alla cautela, il modello dimostra capacità di ragionamento astratto e creatività paragonabili a programmatori top mondiali.
Nonostante la convinzione diffusa che aumentare la dimensione dei modelli AI porti a migliori prestazioni, esperti come Demis Hassabis di DeepMind evidenziano che il futuro dell’AI sarà equamente diviso tra scaling e nuove scoperte. La crescente attenzione alle tecniche cognitive e all’efficienza indica una svolta verso un’intelligenza artificiale più intelligente e meno gigantesca.
Il modello K2 Think, sviluppato dall’Università Mohamed bin Zayed per l’Intelligenza Artificiale e G42 negli Emirati Arabi Uniti, sfida il paradigma del ‘più grande è meglio’ con un approccio di ragionamento intelligente. Completamente open-source, il modello integra tecniche avanzate di fine-tuning e apprendimento per rinforzo, offrendo prestazioni elevate in matematica, scienza e programmazione. La trasparenza e apertura del progetto mirano a stimolare innovazione e fiducia globale.
Il modello AI Gemini 2.5 Flash di Google, noto come ‘Nano Banana’, ha generato oltre 500 milioni di immagini e conquistato l’entusiasmo degli utenti per la sua capacità di funzionare su hardware tradizionale con ottime prestazioni. Il nome giocoso è nato per caso ma ha contribuito a renderlo un fenomeno virale, soprattutto in India, evidenziando il trend verso AI più leggere e accessibili.
OpenAI ha creato Grove, un programma che consente a chi ha idee embrionali di accedere a strumenti, mentoring e community per iniziare a costruire soluzioni AI. L’obiettivo è ampliare il bacino di innovatori e facilitare l’accesso alla creazione di tecnologie AI, promuovendo diversità e inclusione nel settore.
Scienziati cinesi dell’Accademia delle Scienze hanno sviluppato SpikingBrain1.0, un modello AI che simula il modo in cui il cervello attiva solo i neuroni necessari, riducendo drasticamente i costi di training e l’energia rispetto ai modelli tradizionali come ChatGPT. La tecnologia non dipende da hardware Nvidia, ampliando potenzialmente l’accesso allo sviluppo AI.
L’interesse per i grandi modelli linguistici (LLM) sta rallentando, mentre le aziende prediligono modelli più piccoli (SLM) che garantiscono efficienza energetica, velocità e adattabilità ai compiti specifici. Questi SLM sono ideali per dispositivi mobili e agenti AI, offrendo un’alternativa economica e pragmatica ai modelli ‘tuttofare’ e sovradimensionati.
Durante il WAVE SUMMIT 2025, Baidu ha rilasciato ERNIE X1.1, che migliora fattualità, capacità di seguire istruzioni e autonomia rispetto alla versione precedente, competendo con GPT-5 e Gemini 2.5 Pro. È stata anche annunciata l’open source del modello ERNIE-4.5-21B-A3B-Thinking, con ampio supporto per la comunità degli sviluppatori.
Un’analisi mostra che solo l’11,2% delle raccomandazioni di Mario Draghi per rilanciare l’innovazione in Europa è stato implementato, con settori come energia e digitalizzazione ancora ostacolati da regolamentazioni e politiche frammentate. Nonostante investimenti difensivi e iniziative AI, la scala di finanziamento e infrastrutture tecnologiche rimane insufficiente per competere con le potenze globali.