Secondo quanto riportato poche ore fa su Bloomberg, Apple e Google hanno annunciato una partnership pluriennale destinata a trasformare radicalmente l’assistente vocale di Cupertino. La notizia era già circolata lo scorso novembre e ora ha avuto conferma ufficiale. L’accordo prevede l’integrazione dei modelli Gemini AI di Google nella prossima generazione di Siri, attesa nel corso del 2026. L’annuncio ha innescato reazioni immediate sui mercati finanziari, con le azioni di Alphabet che hanno raggiunto una capitalizzazione superiore a 4.000 miliardi di dollari.


L’accordo, stimato da Bloomberg intorno al miliardo di dollari annui, consolida ulteriormente il legame tra i due colossi tecnologici in un momento cruciale per la corsa all’intelligenza artificiale generativa.
Il ritardo di Apple nell’intelligenza artificiale su iPhone è diventato sempre più evidente nel corso del 2024 e 2025, quando concorrenti come Samsung con Galaxy AI e Google con Gemini hanno già integrato funzionalità AI avanzate nei loro dispositivi. L’azienda ha dato priorità all’on-device e alla privacy, aspetti complessi da implementare rispetto alle soluzioni cloud-based dei concorrenti.
Ciò, unito a una possibile sottovalutazione della velocità del mercato, ha creato un gap percepibile nelle capacità di Siri. L’intesa con Gemini è quindi una corsa ai ripari, necessaria per recuperare terreno tecnico. Chi acquista un iPhone premium si aspetta innovazione all’altezza del prezzo, e questo accordo dimostra che Cupertino ha dovuto ammettere i propri limiti, affidandosi a un rivale storico. L’accordo ha generato reazioni contrastanti. Elon Musk, fondatore di xAI e CEO di Tesla, ha criticato apertamente l’accordo attraverso un post su X, definendolo “una concentrazione di potere irragionevole per Google”.
Perché Apple ha scelto Google Gemini AI
Secondo la dichiarazione congiunta rilasciata dalle due aziende, la scelta è ricaduta su Google dopo una valutazione attenta di diverse alternative. Apple ha esplicitamente affermato che “la tecnologia AI di Google fornisce la base più capace per gli Apple Foundation Models”.
Questa decisione arriva dopo che Cupertino aveva già stretto una partnership con OpenAI nel 2024, integrando ChatGPT come funzionalità opzionale in Siri per rispondere a specifiche richieste.
L’accordo con Google, tuttavia, ha una portata ben più ampia. I modelli Gemini e l’infrastruttura cloud di Mountain View diventeranno il fondamento della prossima generazione di Apple Foundation Models, ovvero i grandi modelli linguistici che alimenteranno le app e i servizi del produttore di iPhone.
La collaborazione prevede che il team interno di Apple lavori fianco a fianco con gli ingegneri di Google per ottimizzare Gemini per casi d’uso specifici, implementare salvaguardie sulla privacy on-device e integrare il modello all’interno di servizi come iCloud, Apple Pay e Apple Music.
Nonostante la dipendenza esterna per il motore Gemini AI, l’azienda di Cupertino garantisce che l’elaborazione avverrà sia localmente sul dispositivo, sia tramite il sistema sicuro Private Cloud Compute. Questo approccio ibrido, che potrebbe includere l’uso del chip A17 Bionic nel prossimo Apple TV, mira a bilanciare la potenza di calcolo richiesta dai modelli con l’esigenza di mantenere la riservatezza dei dati intatta.
Questa strategia permetterebbe di mantenere gli standard di privacy che Apple ha sempre considerato un elemento distintivo del proprio ecosistema, pur beneficiando della potenza computazionale necessaria per gestire richieste complesse.
Apple ha già una partnership attiva con OpenAI siglata nel 2024. Almeno nel breve-medio termine, Apple sembra perseguire una strategia di partnership multiple in ambito AI, utilizzando sia OpenAI (per una funzionalità chatbot specifica) che Google (per il modello di base generale), mantenendo così diverse opzioni a disposizione.
Gemini e Siri: conclusione
Google ha rafforzato la sua posizione, essendo già presente in Samsung Galaxy AI. L’alleanza strategica si somma all’esistente accordo per cui Google paga miliardi a Apple per essere il motore di ricerca predefinito su Safari, creando un legame sempre più stretto tra i due giganti.
La versione aggiornata dell’assistente vocale dovrebbe essere lanciata nella primavera del 2026, inizialmente in versione beta per poi espandersi progressivamente su iPhone, iPad, Mac, Apple Watch e HomePod entro il 2027.
La roadmap prevede che il nuovo Siri sarà in grado di comprendere il contesto personale e mantenere conversazioni più naturali e articolate. Un aspetto particolarmente interessante riguarda le potenziali applicazioni su Apple TV. Google ha già implementato Gemini su Google TV lo scorso anno, sbloccando funzionalità come raccomandazioni personalizzate di film e serie TV, riassunti delle stagioni precedenti e informazioni sui trend attuali.
Con Siri ora alimentata dai modelli Gemini, chi utilizza dispositivi Apple potrebbe aspettarsi un livello simile di assistenza. L’attuale Apple TV non supporta Apple Intelligence, ma il prossimo modello dovrebbe essere equipaggiato con il chip A17 Bionic, abilitando finalmente queste capacità avanzate. Tuttavia, l’integrazione presenta ostacoli notevoli. Il primo riguarda la filosofia di privacy di Apple, che privilegia l’elaborazione on-device. Bilanciare questa esigenza con la necessità di potenza computazionale per modelli così complessi richiederà soluzioni architetturali innovative.
Se Apple riuscirà a offrire un Siri realmente conversazionale che integri perfettamente i propri servizi, il ritorno di fiducia da parte dei consumatori potrebbe essere sostanziale. La partnership mostra chiaramente la volontà di Cupertino di combinare competenze interne con innovazioni esterne per rimanere all’avanguardia. La posta in gioco, per entrambe le aziende, è altissima e i prossimi mesi di sviluppo saranno cruciali per delinearne l’esito.










