Secondo quanto riportato da un articolo sulla rivista online The Information, OpenAI, l’azienda leader nello sviluppo di intelligenza artificiale, si sta preparando a lanciare un nuovo modello IA chiamato Strawberry. Questo progetto, precedentemente noto come Q*, promette di rappresentare un significativo progresso nelle capacità dell’intelligenza artificiale.
Secondo le indiscrezioni, Strawberry potrebbe essere in grado di risolvere problemi matematici complessi mai incontrati prima e svolgere compiti di alto livello come l’elaborazione di strategie di marketing. Strawberry sarà in grado di risolvere problemi e compiti che vanno oltre le capacità degli attuali modelli di intelligenza artificiale.
Sempre secondo quanto riportato da The information, Strawberry è stato presentato con una dimostrazione dal vivo anche ai funzionari della sicurezza nazionale. Questa dimostrazione è in linea con i protocolli di sicurezza e protezione recentemente annunciati dall’azienda; protocolli che includono la fornitura anticipata di accesso governativo a nuovi modelli di intelligenza artificiale.
Il lancio di Strawberry potrebbe avvenire già questo autunno, segnando una tappa importante nell’evoluzione dell’IA. Il nuovo modello potrebbe rappresentare un significativo passo avanti verso l’intelligenza artificiale generale (AGI), aprendo scenari finora solo immaginati.
Strawberry
Strawberry si preannuncia come un modello IA dalle capacità straordinarie, in grado di superare i limiti dei sistemi attuali. Secondo The information, il nuovo modello di OpenAI eccellerebbe in particolare nella risoluzione di problemi matematici complessi mai incontrati prima.
Questa abilità potrebbe rivoluzionare campi come la ricerca scientifica e l’ingegneria. Strawberry sarebbe inoltre in grado di svolgere compiti di alto livello; compiti che richiedono ragionamento astratto, come l’elaborazione di strategie di marketing o la risoluzione di enigmi linguistici complessi.
In un test interno, il modello è riuscito a risolvere il gioco di parole “Connections” del New York Times; una dimostrazione delle notevoli capacità di comprensione e manipolazione del linguaggio. Particolarmente impressionante è il risultato ottenuto da Strawberry nel benchmark MATH, una raccolta di problemi matematici di livello avanzato. Il modello avrebbe ottenuto un punteggio superiore al 90%, superando nettamente le prestazioni di GPT-4 (53%) e GPT-4o (76,6%).
Se confermato, questo risultato posizionerà OpenAI nettamente in vantaggio rispetto ai concorrenti nel campo dell’IA. Le potenzialità di Strawberry sembrano andare oltre la semplice elaborazione di testi. Il modello potrebbe infatti costituire la base per sistemi di IA più avanzati; un modello in grado non solo di generare contenuti, ma anche di pianificare e intraprendere azioni complesse.
OpenAI sta lavorando anche su un modello linguistico di punta, nome in codice “Orion“, progettato per superare GPT-4o. Strawberry contribuirà generando dati per Orion. Questa combinazione di dati Strawberry e sintetici di alta qualità potrebbe potenzialmente ridurre gli errori in Orion rispetto ai modelli precedenti.
Implicazioni e potenziali rischi
Lo sviluppo di modelli di IA sempre più avanzati come Strawberry solleva importanti questioni etiche e di sicurezza. La creazione di sistemi dotati di capacità di ragionamento simili a quelle umane rappresenta un’evoluzione significativa verso l’intelligenza artificiale generale (AGI). Questo traguardo, sebbene entusiasmante dal punto di vista scientifico, porta con sé potenziali rischi che non possono essere ignorati.
Questa evoluzione apre nuovi scenari ma solleva anche interrogativi sui potenziali rischi di un’intelligenza artificiale così potente. E’ un richiamo ai rischi sull’allineamento IA; rischi che qualche mese fa ha fatto allontanare da OpenAI diversi collaborati e ideatori. Tra i tanti nomi anche Jan Leike e Ilya Sutskever, cofondatori di OpenAI.
All’inizio di questo mese, OpenAI ha annunciato la sua collaborazione con l’AI Safety Institute statunitense. Una collaborazione che garantisce al governo l’accesso anticipato ai prossimi importanti modelli di intelligenza artificiale per i test di sicurezza. L’accordo fa parte di una tendenza crescente in cui i fornitori di modelli IA come Anthropic, Microsoft, Google e altri collaborano con le agenzie governative per garantire che i progressi nell’intelligenza artificiale siano in linea con le preoccupazioni relative alla sicurezza nazionale. L’idea è quella di dare priorità alla trasparenza, e affrontare preventivamente le preoccupazioni legate al rapido sviluppo dell’intelligenza artificiale.
Allineamento della IA
L’allineamento IA è l’idea che i sistemi di intelligenza artificiale dovrebbero essere progettati per rimanere sempre allineati con gli obiettivi e i valori degli esseri umani che li creano. Con l’aumentare della potenza e delle capacità dell’IA, molti ricercatori ritengono che garantire questo allineamento sarà fondamentale per evitare scenari catastrofici in cui un’IA superintelligente (AGI) potrebbe causare danni non intenzionali o addirittura deliberati all’umanità.
Uno dei principali timori riguarda la possibilità di perdere il controllo su sistemi IA così avanzati. C’è il rischio che un’AGI possa sviluppare obiettivi non allineati con i valori umani; portando a conseguenze imprevedibili e potenzialmente dannose.
Non a caso, lo sviluppo di Strawberry (allora noto come Q*) è stato al centro delle turbolenze interne che hanno scosso OpenAI nel novembre 2023; turbolenze culminate con il temporaneo allontanamento del CEO Sam Altman. Un gruppo di ricercatori aveva espresso preoccupazioni sui rischi potenziali del progetto, evidenziando la necessità di un approccio cauto e responsabile allo sviluppo dell’AGI.
OpenAI sembra aver preso sul serio queste preoccupazioni. L’azienda ha recentemente annunciato nuovi protocolli di sicurezza. I protocolli includono la collaborazione con agenzie governative per testare i nuovi modelli prima del rilascio.
Strawberry: conclusioni
Mentre la società OpenAI rimane riservata riguardo al lancio di prodotti specifici, le recenti interazioni di OpenAI con funzionari governativi suggeriscono che qualcosa di grosso è all’orizzonte. Le straordinarie capacità promesse dal nuovo modello Strawberry potrebbero rivoluzionare numerosi campi; dalla ricerca scientifica all’ingegneria, passando per il marketing e la risoluzione di problemi complessi.
Il dibattito sui potenziali rischi dell’AGI diventa più che mai attuale e richiede un approccio equilibrato e responsabile. La collaborazione di OpenAI con le autorità governative per testare i nuovi modelli è un passo nella giusta direzione.