L’IA è stata il focus principale del keynote di due ore di I/O, con il termine menzionato da vari esecutivi di Google più di 110 volte.
“Siamo a un entusiasmante punto di svolta, abbiamo l’opportunità di rendere l’IA ancora più utile per le persone, per le aziende, per le comunità, per tutti. Stiamo applicando l’IA per rendere i nostri prodotti radicalmente più utili già da tempo. Con l’IA generativa, stiamo facendo il passo successivo con un approccio audace e responsabile. Stiamo ripensando tutti i nostri prodotti principali, compreso il motore di ricerca.” ha detto il CEO Sundar Pichai.
L’Intelligenza Artificiale (IA) generativa si riferisce a un tipo di algoritmi di apprendimento automatico che sono progettati per produrre output da un insieme di dati di input. Questi modelli “generano” nuovi risultati che sono simili, ma non identici, ai dati di addestramento.
Un esempio comune di IA generativa è la generazione di testo, dove un modello di linguaggio, come un chatbot, è addestrato su grandi quantità di testo e può generare nuovi passaggi di testo che suonano naturali e coerenti. Altri esempi di IA generativa includono la generazione di immagini (ad esempio, creare nuove immagini di volti umani o oggetti che non esistono realmente), la generazione di musica (comporre nuovi brani musicali) e la sintesi vocale (trasformare il testo in parlato). L’IA generativa può essere utilizzata in una vasta gamma di applicazioni, come l’assistenza nella creazione di contenuti, la traduzione automatica, il miglioramento dell’interazione uomo-macchina e l’innovazione in molti campi creativi e tecnici.
Il messaggio della conferenza è stato quello di “rendere l’IA utile per tutti“, con gli esecutivi ansiosi di sottolineare che l’azienda sta adottando un approccio responsabile all’adozione e allo sviluppo dell’IA – solo una settimana dopo che il visionario ricercatore di IA Geoffrey Hinton ha lasciato l’azienda esprimendo preoccupazioni sui pericoli dell’IA.
PaLM 2
Tra i più grandi annunci a I/O 2023 c’era PaLM 2, il modello di linguaggio di Google. Attualmente in anteprima, PaLM 2 supporta oltre 100 lingue ed è progettato per essere perfezionato per usi e applicazioni specifiche del dominio. Nell’ambito dell’intelligenza artificiale (IA), il termine “dominio” si riferisce generalmente all’area specifica di applicazione o al contesto in cui un modello o un algoritmo di IA viene utilizzato.
“PaLM dà il meglio di sé quando viene perfezionato su conoscenze specifiche del dominio,” ha detto Pichai.
Ad esempio, durante il keynote, il CEO Pichai ha parlato di Sec-PaLM, un grande modello di linguaggio focalizzato sulla sicurezza informatica per rilevare meglio gli script maligni in modo che gli esperti di sicurezza possano comprendere e risolvere le minacce. Ha accennato anche a Med-PaLM-2, in cui gli utenti possono sollecitare al modello di analizzare problemi medici con le immagini, come le radiografie. Med-PaLM-2 si è avvicinato alle valutazioni dei dottori quando ha dovuto rispondere allo stesso insieme di domande.
La prima iterazione di PaLM, svelata lo scorso aprile, vantava 540 miliardi di parametri, chiamate anche dimensioni. Era progettato per essere utilizzato in applicazioni come chatbot. Alla conferenza non è stato detto quanti parametri contiene ora PaLM .
PaLM 2 sarà pubblicato in una varietà di “dimensioni” – ognuna delle quali è stata nominata con un animale. Gecko è il più piccolo, poi c’è Otter, Bison, fino a Unicorn, il più grande.
Per esempio “Gecko” potrà funzionare su dispositivi mobili, sufficientemente veloce, anche quando offline.
PaLM 2 è più forte della precedente iterazione rilasciata ad aprile in termini di logica e ragionamento poiché il modello di linguaggio è stato addestrato su argomenti scientifici e matematici, ha detto Pichai.
A marzo, l’azienda ha permesso l’accesso agli sviluppatori a PaLM 1, dando la possibilità di personalizzare il modello utilizzando i dati tramite la piattaforma MakerSuite, a cui si può accedere tramite un browser. Se volete entrare in lista di attesa questo è il link MakerSuite.
Aggiornamenti di Bard
Alla conferenza sono stati annunciati gli aggiornamenti a Bard, la risposta chatbot di Google a ChatGPT. Bard ora è completamente alimentato da PaLM 2 il quale sostituisce il modello di linguaggio LaMDA.
Sissie Hsiao, direttore generale di Google Assistant e Bard, ha annunciato che l’azienda rimuoverà la lista d’attesa. Hsiao ha anche detto che l’applicazione è destinata a diventare più visuale – con gli utenti in grado di trovare immagini pertinenti come parte dei risultati generati. Gli utenti potranno presto usare le immagini con Bard.
Nonostante PaLM 2 supporti 110 lingue, per il momento Bard supporta la lingua inglese, coreana e giapponese e presto saranno aggiunte altre quaranta lingue. E’ stato annunciato che Bard sarà disponibile da oggi in 180 nazioni, e l’Italia non è tra questi, come indicato a questo link (probabilmente i problemi di Privacy che si sono creati con ChatGTP hanno rallentato l’uscita di Bard in Italia) .
Bard ora è in grado di generare codice di programmazione (come chatGPT), con una ampia varietà di linguaggi di programmazione. È stato anche annunciato che gli utenti di Bard potranno presto esportare il codice Python generato nell’applicazione, verso Replit. Replit è un ambiente di sviluppo online che offre la possibilità di scrivere, eseguire e distribuire codice direttamente dal browser web. Supporta molteplici linguaggi di programmazione, tra cui Python, JavaScript, Go, C++, Ruby e molti altri. Anche gli strumenti aggiuntivi sia di Google che dei partner arriveranno su Bard, il che significa che gli utenti possono utilizzare strumenti esterni nell’applicazione.
Tra gli strumenti esterni che arriveranno su Bard è stato annunciato Adobe Firefly, un insieme di modelli di IA per usi come la generazione di immagini. Tra tutti i miglioramenti e gli aggiornamenti a Bard, il più grande applauso è stato per il lancio della funzione Dark Mode, che ancora mancava.
Prodotti per gli utenti
Durante la conferenza, Google ha presentato diverse novità orientate agli utenti, per lo più sempre relative all’IA.
Tra queste Help Me Write, un aggiornamento dello strumento di completamento del testo presente in Gmail. Questo nuovo strumento è in grado di redigere email a partire da un prompt in linguaggio naturale da parte dell’utente. Non si sa con esattezza quando sarà reso disponibile.
È stato presentato Magic Editor, un’espansione IA dello strumento Magic Eraser già visto sui dispositivi Pixel. Gli utenti di Google Photos possono cancellare oggetti nelle immagini in modo simile a Eraser, ma possono anche spostare oggetti all’interno dell’immagine e addirittura generare parti di un’immagine non presenti nella foto originale; dovrebbe arrivare su Google Photos entro fine anno.
Poi si è parlato di Immersive View for Routes, una sovrapposizione di realtà mista per Google Maps già presentata a febbraio all’evento Google a Parigi. Il nuovo strumento utilizza l’IA per fornire agli utenti indicazioni del tracciato sulle mappe , dovrebbe essere rilasciato tra pochi mesi.
Qui sotto potere vedere la conferenza Google I/O.