
Nel corso della conferenza tenutasi il 10 maggio 2025 all’I/O, Google ha presentato significativi aggiornamenti per la sua linea di modelli Gemini 2.5, con particolare attenzione ai dispositivi Gemini 2.5 Pro e Flash. L’evento ha messo in evidenza le straordinarie potenzialità di questi modelli, già discussi approfonditamente in precedenti articoli.
Le novità di Gemini 2.5 Pro
Google ha annunciato che Gemini 2.5 Pro si è affermato come il modello leader a livello globale nelle classifiche WebDev Arena e LMAArena, eccellendo sia nella programmazione che nelle capacità didattiche, grazie all’integrazione di LearnLM. Tra le innovazioni più significative c’è la modalità sperimentale chiamata Deep Think, progettata per gestire operazioni matematiche e di programmazione complesse. Questa funzionalità è stata già testata con successo su benchmark prestigiosi come USAMO 2025 e MMMU, dimostrando così l’affidabilità e la potenza del modello.
Miglioramenti per Gemini 2.5 Flash
Anche Gemini 2.5 Flash ha ricevuto aggiornamenti notevoli, con una riduzione del consumo di token compresa tra il 20 e il 30%, senza compromettere le prestazioni in termini di ragionamento, multimodalità e contesto. Questi miglioramenti consentono agli utenti di ottenere risultati più efficienti, rendendo il dispositivo ancora più competitivo nel panorama tecnologico attuale.
Funzionalità avanzate e sicurezza
Entrambi i modelli, Pro e Flash, ora supportano l’output audio nativo, permettendo di offrire dialoghi empatici, audio proattivo e sintesi vocale in oltre 24 lingue. Queste funzionalità includono cambi di tono e voce in tempo reale, migliorando ulteriormente l’interazione con gli utenti. Google ha anche potenziato le misure di sicurezza, aumentando la protezione contro le iniezioni di prompt dirette, che possono compromettere l’integrità dei modelli.
In aggiunta, l’esperienza degli sviluppatori è stata affinata con l’introduzione di riassunti del ragionamento strutturati, budget di ragionamento per controllare latenza e qualità delle risposte, e il supporto SDK per il Model Context Protocol. Questi strumenti facilitano l’integrazione con applicazioni open source, rendendo il processo di sviluppo più fluido e accessibile.
Progetto Matter e interazione con le app
Infine, Google ha svelato il progetto Matter, che prevede che l’intelligenza artificiale possa interagire con le applicazioni sui computer. L’accesso a questa funzionalità sarà inizialmente riservato agli sviluppatori, con l’avvio previsto per l’estate del 2025. Questo passo rappresenta un ulteriore avanzamento nella fusione tra intelligenza artificiale e applicazioni quotidiane, promettendo un futuro in cui le tecnologie saranno sempre più integrate nelle nostre vite.