Il Galaxy Unpacked 2026, tenutosi ieri 25 febbraio a San Francisco, ha segnato un momento di discontinuità nel modo in cui Google e Samsung immaginano il futuro degli smartphone. Android 17 si candida a diventare qualcosa di diverso da un sistema operativo classico.
Il presidente dell’ecosistema Android, Sameer Samat, lo ha detto chiaramente sul palco: la piattaforma sta passando da un classico sistema operativo a un sistema intelligente, capace di capire il contesto e agire di conseguenza. L’idea di fondo è che aprire un’app per completare un’azione — ordinare da mangiare, fissare un appuntamento, cercare una foto — stia diventando un modello obsoleto.
Al suo posto si afferma quello degli agenti AI, che eseguono svariate operazioni su istruzione vocale o testuale. Il Galaxy S26 series è il primo banco di prova per questa visione, mentre il beta program di Android 17, già aperto anche da Motorola per una ristretta selezione di dispositivi, inizia a portare queste idee fuori dai laboratori.

AppFunctions: Gemini dialoga con le app
Il cuore tecnico di questo cambiamento si chiama AppFunctions, una libreria Jetpack che consente agli sviluppatori di esporre funzionalità specifiche delle loro app direttamente agli agenti AI come Gemini. Il meccanismo ricorda quello dei server MCP in ambito cloud, ma qui tutto avviene sul dispositivo, senza passare per server esterni.
In pratica, un’app può dichiarare le proprie funzionalità in modo che Gemini le scopra e le invochi tramite linguaggio naturale. Un esempio è quello della Galaxy Gallery sul Samsung Galaxy S26: chiedendo a Gemini di mostrare le foto del gatto scattate con Samsung Gallery, l’assistente identifica la funzione corretta, la esegue e restituisce le foto direttamente nella propria interfaccia, senza necessità di aprire l’app. L’interazione funziona sia via testo che via voce.
Per chi sviluppa app Android, integrare AppFunctions significa rendere la propria app accessibile a un nuovo livello di interazione, senza costruire un’interfaccia dedicata. Vale però la pena tenere presente che si è ancora in una fase beta, pensata per raccogliere feedback prima di un’espansione più ampia prevista con Android 17. È quindi il momento giusto per iniziare a capire come questa architettura potrebbe cambiare il ciclo di vita delle integrazioni esistenti.
Android 17: UI automation e Motorola beta
Google sta sviluppando in parallelo un framework di UI automation che permette a Gemini di operare su qualsiasi app installata, anche senza integrazione nativa da parte dello sviluppatore. Basta premere a lungo il tasto accensione, delegare un’attività a Gemini, e l’assistente la esegue in autonomia. Gemini è inoltre configurato per chiedere conferma prima di completare azioni sensibili, come un acquisto.

Questa modalità è al momento disponibile in anteprima su Galaxy S26 e su alcuni Pixel 10, con supporto per categorie come food delivery, grocery e ride sharing negli Stati Uniti e in Corea.
Samsung ha già pronto l’hardware sul Galaxy S26 Ultra 🧺: una NPU il 39% più potente, il SoC Exynos 2600 costruito su misura (il 19% più veloce), e un’architettura di sicurezza — tra cui il Personal Data Engine, il Knox Vault e il sistema KEEP — pensata per proteggere i dati personali.
Su un altro fronte, Motorola ha già aperto il proprio beta program per Android 17, coinvolgendo questi dispositivi:
- Motorola Edge 2025. Disponibile per chi si trova negli USA
- Moto G57 e Moto G57 Power. Rivolti a chi è nell’area EMEA (Europa, Medio Oriente e Africa)
- Moto G57 Power. Versione dedicata al mercato India
I posti sono limitati e non tutti i richiedenti verranno selezionati. È una scelta insolita per i tempi: storicamente Motorola non si è distinta per la velocità negli aggiornamenti major. Aprire il programma ora, mentre Samsung non ha ancora annunciato il proprio per One UI 9, segnala un cambio di approccio nei confronti della community Motorola degli early adopter.
Un sistema operativo pronto ad aiutarti
Quello che emerge dagli annunci al Galaxy Unpacked 2026 è un cambio di paradigma, anche se ancora in costruzione. Android non viene semplicemente aggiornato: viene riprogettato attorno all’idea che l’assistente AI debba essere in grado di agire, non solo rispondere.
AppFunctions fornisce il canale strutturato per le app che scelgono di integrarsi. La UI automation copre tutto il resto senza richiedere lavoro aggiuntivo agli sviluppatori.
Per chi sviluppa e per chi vuole restare al passo, familiarizzare adesso con questi strumenti — AppFunctions, UI automation, i nuovi modelli di interazione agente — significa avere margine per influenzare come si consolideranno, invece di rincorrerli una volta stabilizzati.
I prezzi di tutti i prodotti presenti in questo articolo sono stati presi al momento della scrittura. Se apprezzi le recensioni e i consigli che trovi sul nostro blog, ti invitiamo a utilizzare i link Amazon 🧺 presenti in questa pagina. Così facendo, ci aiuti a guadagnare piccole commissioni incluse nel prezzo per sostenere il nostro lavoro e continuare a offrirti contenuti utili e informativi. Grazie per il tuo sostegno, lo apprezziamo tantissimo !











