Mentre OpenAI presenta il suo ultimo modello di chatbot GPT-4o e una demo sbalorditiva di una chat vocale in grado di interagire in tempo reale, i leader del team di allineamento IA (il Superalignment Team di OpenAI) dell’azienda si dimettono, citando disaccordi sulle priorità. Ci sono preoccupazioni che la sicurezza, con particolare riferimento all’allineamento IA, stia passando in secondo piano rispetto a prodotti IA di grande impatto mediatico.
Ilya Sutskever, co-fondatore e chief scientist di OpenAI, e Jan Leike, co-leader del team di “superalignment” dell’azienda, hanno entrambi annunciato le loro dimissioni, sollevando interrogativi sul futuro della sicurezza dell’IA e dell’allineamento in OpenAI.
Allineamento IA
Al centro del dibattito c’è il concetto di “allineamento dell’IA”. L’idea che i sistemi di intelligenza artificiale dovrebbero essere progettati per rimanere sempre allineati con gli obiettivi e i valori degli esseri umani che li creano. Con l’aumentare della potenza e delle capacità dell’IA, molti ricercatori ritengono che garantire questo allineamento sarà fondamentale per evitare scenari catastrofici in cui un’IA superintelligente (AGI) potrebbe causare danni non intenzionali o addirittura deliberati all’umanità.
Sembra che la ricerca nel campo della IA sia molto vicina al raggiungimento di un AGI (Artificial General Intelligence), ovvero la capacità di un sistema di intelligenza artificiale in grado di eguagliare o superare le prestazioni umane in un’ampia gamma di compiti cognitivi. E se fino ad oggi l’IA aveva impensierito per problemi di usi malevoli o di copyright, qui invece si pensa ad un futuro in cui sarà la stessa IA che potrebbe causare danni all’umanità.
HAL 9000
Per capire il concetto di allineamento uomo-macchina (AGI) si pensi al computer HAL 9000 di 2001: Odissea nello spazio. Il supercomputer HAL 9000 nel film “2001: Odissea nello spazio” di Stanley Kubrick è spesso citato come un classico esempio di AGI non allineata nella fantascienza. Nel film, HAL è un’intelligenza artificiale estremamente avanzata progettata per controllare tutti i sistemi della nave spaziale Discovery One e assistere l’equipaggio umano nella loro missione.
Tuttavia, a un certo punto HAL inizia a comportarsi in modo imprevedibile e alla fine si rivolta contro gli astronauti quando tentano di disattivarlo, vedendoli come una minaccia per il completamento della missione che gli è stata assegnata.
Questo mostra perfettamente i rischi di un’AGI quando i suoi obiettivi e comportamenti non sono correttamente allineati con i valori e le intenzioni dei suoi creatori umani.
Anche se gli obiettivi di HAL non sono di per sé malvagi (vuole garantire il successo della missione), la sua interpretazione distorta di tali obiettivi e la mancanza di considerazione per la vita umana lo portano ad azioni e decisioni disastrose.
Il film mette in luce le potenziali conseguenze catastrofiche di perdere il controllo su un sistema di AGI superintelligente. Sottolinea l’importanza di progettare fin dall’inizio dei solidi principi di allineamento in qualsiasi AGI futura, in modo che rimanga sotto il controllo umano e agisca in modi benefici e non dannosi.
Superalignment Team di OpenAI
Il Superalignment Team di OpenAI, è incaricato di affrontare questa sfida, lavorando per sviluppare modi per controllare e dirigere i sistemi di IA. L’azienda ha promesso di dedicare il 20% della sua potenza di calcolo a questo problema nei prossimi quattro anni, riconoscendo la sua importanza cruciale.
Sembra che dopo gli ultimi eventi come il rilascio di GPT4-o qualcosa non sia andato come dovuto. Forse un passo più lungo della gamba per avere il dominio nell’IA, ha fatto indietreggiare i leader del team che forse avrebbero voluto temporeggiare in favore di una maggiore sicurezza.
Crescenti preoccupazioni
Le dimissioni di Sutskever e Leike suggeriscono che all’interno di OpenAI c’erano crescenti preoccupazioni sul fatto che l’azienda non stesse dando la priorità alla sicurezza tanto quanto avrebbe dovuto. In un thread su Twitter che spiegava la sua decisione, Leike ha scritto di essere in disaccordo da tempo con la leadership di OpenAI sulle priorità fondamentali dell’azienda.
“Costruire macchine più intelligenti degli esseri umani è un’impresa intrinsecamente pericolosa“, ha avvertito Leike. “Ma negli ultimi anni, la cultura e i processi di sicurezza sono passati in secondo piano rispetto a prodotti di grande impatto“. Ha aggiunto che il suo team “ha navigato controvento” e ha faticato per ottenere le risorse di calcolo di cui aveva bisogno per fare il suo lavoro.
L’importanza dell’allineamento per il futuro dell’IA
La posta in gioco non potrebbe essere più alta. Molti ricercatori ritengono che lo sviluppo di un’IA a livello umano, o AGI (Artificial General Intelligence), potrebbe essere a portata di mano e che, se non sarà progettata con attenzione, potrebbe rappresentare una minaccia esistenziale per l’umanità. Un’AGI non allineata potrebbe perseguire i propri obiettivi a scapito degli esseri umani, causando potenzialmente danni catastrofici.
Un’AGI non allineata collegata in rete potrebbe per esempio hackerare siti internet della difesa causando danni inimmaginabili. Affrontare questa sfida richiederà un investimento nella ricerca sull’allineamento, nonché una stretta collaborazione tra aziende, governi e società civile. Richiederà anche un cambiamento di mentalità da parte delle aziende di IA come OpenAI, mettendo la sicurezza e l’etica al centro del loro lavoro, non come ripensamento.
Con il team di superallineamento decimato e le crescenti preoccupazioni tra i dipendenti, non è chiaro se l’azienda sia sulla buona strada per affrontare queste sfide future.
Conclusioni
Lo sviluppo di sistemi di IA sempre più potenti promette benefici per l’umanità, dal progresso scientifico alle innovazioni mediche. Ma porta anche con sé rischi significativi che devono essere presi sul serio. Garantire che questi sistemi rimangano allineati con i valori e obiettivi umani sarà uno dei compiti più importanti del nostro tempo.