L’edizione 2025 del Google I/O è stata molto importante per l’azienda, che ha sparato una raffica di annunci che puntano a ridefinire l’interazione tra utenti e tecnologia tramite l’intelligenza artificiale, attraverso la sua incarnazione in Gemini, con nuove prospettive di realtà estesa (XR) che sono state le colonne portanti dell’evento. La rotta per il futuro dell’ecosistema Google è abbastanza chiara: Gemini sarà ovunque.
Al centro delle novità si colloca infatti Gemini 2.5, presentato come il modello IA più evoluto fino ad oggi. Google ha dettagliato i progressi dei suoi modelli, incluso il 2.5 Pro, che sarà affiancato dal modello 2.5 Flash. Quest’ultimo è stato ottimizzato per velocità e efficienza, con miglioramenti nel ragionamento, nella multimodalità, nella generazione di codice e nella gestione di contesti estesi.
È in fase di sperimentazione anche Deep Think, una modalità di ragionamento che abilita l’IA a esplorare diverse ipotesi prima di formulare una risposta. Le capacità di sintesi vocale del nuovo Gemini supporteranno 24 lingue, con la facoltà di alternarle mantenendo la stessa tonalità vocale. Gemini Diffusion, inoltre, ha mostrato i muscoli con una generazione di codice cinque volte più rapida rispett oal passato. Le nuove versioni Flash e Pro di Gemini 2.5 saranno disponibili a partire da giugno.
Anche la ricerca di Google si prepara a un’importante trasformazione con l’integrazione di una versione customizzata del modello Gemini 2.5 sia in AI Mode sia in AI Overviews. Questo permetterà agli utenti di formulare richieste più elaborate e mirate. Di rilievo è anche l’incorporazione di Project Astra, che introduce funzionalità multimodali avanzate.
Gli utenti potranno dialogare con Gemini usando la fotocamera del proprio dispositivo per ottenere informazioni e assistenza su ciò che stanno osservando, il che renderà la ricerca un vero e proprio strumento di apprendimento dinamico. Le funzionalità di condivisione tramite fotocamera e schermo di Gemini Live sono in distribuzione sia per Android che per iOS.
Non è mancata sul palco la meravigliosa Deep Search, una caratteristica che fornisce risposte più esaurienti, aggregando dati da centinaia di siti web per elaborare report dettagliati e corredati di fonti. Si aggiungono le potenzialità di Project Mariner, un agente IA capace di interpretare gli elementi di una pagina web (immagini, testo, codice, pixel) per automatizzare attività come la ricerca di biglietti o l’organizzazione di uscite, personalizzando i risultati in base alle preferenze dell’utente. Anche l’esperienza di acquisto online viene migliorata: AI Mode offrirà una funzione try on, ossia la possibilità di provare virtualmente abiti e di monitorare i prezzi per acquisti più consapevoli e assistiti. Questa modalità consentirà anche di delegare l’acquisto all’IA, che completerà il checkout tramite Google Pay sotto la supervisione dell’utente.
Nel campo della creatività digitale, Google ha svelato Imagen 4 e Veo 3, modelli di nuova generazione per la creazione di immagini e video. Imagen 4 è stato sviluppato per generare immagini con dettagli vividi e una migliore resa del testo e della tipografia. Veo 3 consente di produrre scene video articolate, completi di suoni ambientali e dialoghi, anche partendo da semplici input testuali. A questi si affianca Flow, uno strumento che ambisce a integrare le funzioni di sceneggiatore, direttore della fotografia ed editor, e permette di trasformare concept in sequenze cinematografiche elaborate con Veo 3, con la possibilità di modificare inquadrature e altri elementi.
Imagen 4 è accessibile nell’app Gemini, mentre Veo 3 è disponibile per gli abbonati Google AI Ultra residenti negli Stati Uniti. Flow è in fase di rilascio per gli utenti AI Pro e Ultra negli USA.
Per innovare la comunicazione, è stata presentata Google Beam, una piattaforma di videoconferenza che si propone di trasformare le chiamate 2D in esperienze tridimensionali. Sfruttando la tecnologia di Project Starline, con display a campo luminoso e fotocamere multiple, Beam crea una copia digitale 3D dal vivo dell’interlocutore, ed offre un senso di presenza reale senza l’uso di occhiali o visori speciali.
Beam includerà anche una funzione di traduzione vocale simultanea, che sarà estesa anche a Google Meet. Parallelamente, Google ha aggiornato la sua offerta di abbonamenti IA: nasce Google AI Ultra, un piano onnicomprensivo (e molto costoso) con accesso ai modelli più sofisticati (Veo 3, Imagen 4, Flow, Gemini su Chrome) e limiti di utilizzo superiori, mentre il piano premium esistente è stato rinominato Google AI Pro, che include l’accesso all’app Gemini con modelli come 2.5 Pro e Veo 2, oltre all’integrazione IA in app come Gmail e Docs.
Infine, un ampio spazio è stato dedicato ad Android XR, con l’illustrazione dei piani per occhiali smart e per la realtà aumentata potenziati da Gemini. È stato menzionato Project Moohan, il visore XR di Samsung che utilizzerà Gemini e il cui lancio è previsto entro la fine dell’anno. Sebbene non sia stato ancora comunicato un nome ufficiale per gli occhiali XR di Google, le dimostrazioni hanno fatto vedere dei prototipi in grado di fornire informazioni contestuali, navigazione e traduzione in tempo reale.
Google ha inoltre reso noto che marchi di occhialeria come Gentle Monster e Warby Parker avranno accesso prioritario alla progettazione di occhiali Android XR a partire dal prossimo anno, con l’obiettivo di offrire diverse opzioni di design.
Lascia un commento