Ilya Sutskever, uno dei co-fondatori di OpenAI, ha annunciato il lancio di una nuova azienda chiamata Safe Superintelligence Inc. (SSI), ad un mese dalla sua uscita ufficiale da OpenAI. Sutskever, che ricopriva il ruolo di Chief Scientist presso OpenAI, si è unito all’ex partner di Y Combinator Daniel Gross e all’ex ingegnere di OpenAI Daniel Levy per fondare SSI.
Durante il suo periodo in OpenAI, Sutskever ha svolto un ruolo cruciale negli sforzi dell’azienda per migliorare la sicurezza dell’IA. Ha lavorato a stretto contatto con Jan Leike, che co-guidava il team Superalignment di OpenAI.
Il motivo del licenziamento di Sutskever era nato in seguito ad un dibattito sul concetto di “allineamento dell’IA”. I sistemi di intelligenza artificiale dovrebbero essere progettati per rimanere sempre allineati con gli obiettivi e i valori degli esseri umani che li creano. Con l’aumentare della potenza e delle capacità dell’IA, Sutskever riteneva che garantire questo allineamento era fondamentale per evitare scenari catastrofici in cui un’IA superintelligente (AGI) potrebbe causare danni non intenzionali o addirittura deliberati all’umanità.
Le dimissioni di Sutskever e Leike hanno suggerito che all’interno di OpenAI c’erano crescenti preoccupazioni sul fatto che l’azienda non stesse dando la priorità alla sicurezza tanto quanto avrebbe dovuto. Leike da allora si è unito ad Anthropic, la popolare azienda IA che ha creato il modello Claude.
L’impegno di Sutskever per la sicurezza dell’IA
Sutskever è da tempo un sostenitore dell’affrontare gli aspetti più impegnativi della sicurezza dell’IA. In un post del blog del 2023 scritto insieme a Leike, ha previsto che l’IA con intelligenza superiore agli umani potrebbe emergere entro il prossimo decennio. Ha sottolineato che tale IA potrebbe non essere necessariamente amichevole e ha evidenziato la necessità di ricerche sui metodi per controllarla e limitarla.
Il suo impegno per la sicurezza dell’IA rimane forte. Mercoledì, Sutskever ha annunciato la formazione della sua nuova azienda, SSI, tramite un post su X. Sutskever ha dichiarato che SSI è una missione ed è la base su cui lavorerà la sua nuova organizzazione. Ha inoltre aggiunto che il team di SSI, i suoi investitori e il suo modello di business sono tutti allineati per raggiungere una superintelligenza sicura.
L’approccio di SSI alla sicurezza e alle capacità dell’IA
Sutskever ha spiegato che SSI affronterà la sicurezza e le capacità in tandem, considerandoli problemi tecnici da risolvere attraverso innovazioni rivoluzionarie nell’ingegneria e nella scienza. Ha dichiarato: “Intendiamo far progredire le capacità il più rapidamente possibile, assicurandoci che la nostra sicurezza rimanga sempre un passo avanti. In questo modo, possiamo scalare in pace“.
Il loro modello di business darà priorità alla sicurezza, alla protezione e al progresso rispetto alle pressioni commerciali a breve termine. Questo approccio consentirà di isolare la sicurezza dalle esigenze di mercato immediate.
In un’intervista con Bloomberg, Sutskever ha presentato la nuova azienda in maggior dettaglio, ma non ha rivelato il suo stato di finanziamento o la sua valutazione. A differenza di OpenAI, che inizialmente è stata lanciata come organizzazione no-profit nel 2015 e successivamente si è ristrutturata per accogliere l’immenso finanziamento richiesto per la sua potenza di calcolo, SSI è stata progettata come entità a scopo di lucro fin dall’inizio.
Conclusioni
Il lancio di Safe Superintelligence Inc. da parte di Ilya Sutskever, mira a spingere i confini delle capacità dell’IA dando priorità alle misure di sicurezza. L’approccio di SSI di affrontare la sicurezza e le capacità in tandem, insieme al suo modello di business che isola la sicurezza dalle pressioni commerciali a breve termine, potrebbe fornire un modello per altre aziende che lavorano su tecnologie di IA avanzate.
SSI ha stabilito uffici a Palo Alto e Tel Aviv e sta attivamente reclutando talenti tecnici. Dato l’attuale interesse per l’AI e le impressionanti credenziali del team, SSI potrebbe presto attrarre capitali significativi anche se Daniel Gross ha detto a Bloomberg: “Di tutti i problemi che affrontiamo, raccogliere capitale non sarà uno di questi“.
Mentre SSI inizia il suo viaggio, sarà cruciale per l’azienda essere trasparente sui suoi progressi e collaborare con altri nella comunità dell’IA per sviluppare best practice e standard per lo sviluppo responsabile dell’IA. Vedremo come SSI progredirà nei suoi sforzi e quale impatto avrà sul più ampio panorama dell’IA.