Nei documenti recentemente desecretati della causa “Musk v. Altman”, da una deposizione di dieci ore e un memo di 52 pagine è uscita un’inquietante realtà interna ad OpenAI: conflitti di potere, pettegolezzi e una tentata fusione con il concorrente diretto Anthropic.


Sutskever durante la deposizione ha presentato un memo di 52 pagine che descriveva Sam Altman come colpevole di un “modello persistente di menzogne” e manipolazione sistematica dei dirigenti. La situazione è precipitata rapidamente quando, dopo la rimozione di Altman, circa il 95% dei dipendenti ha minacciato di lasciare l’azienda. Sutskever ha ammesso di aver atteso “almeno un anno” il momento giusto per agire, in attesa che la dinamica del board fosse favorevole.
La narrazione che ne emerge non riguarda ideologie sull’AI o filosofie divergenti sull’allineamento, ma un collasso di governance, un crollo fondamentale di fiducia tra i leader. Ilya Sutskever, cofondatore e allora Chief Scientist di OpenAI, ha confermato sotto giuramento di aver orchestrato la rimozione di Sam Altman sulla base di informazioni non verificate, suggerite dalla CTO Mira Murati. Un’iniziativa culminata in un weekend di caos, fughe di notizie, email a scomparsa e un piano abortito per passare le chiavi di OpenAI ad Anthropic.
Nel 2023 si pensava che le dimissioni di Sutskever da OpenAI fossero legate alle crescenti preoccupazioni sul fatto che l’azienda non stesse dando priorità alla sicurezza tanto quanto avrebbe dovuto, in merito all’allineamento dell’IA. Dalle deposizioni non è andata esattamente così.
Il contenuto esplosivo del memo di 52 pagine
Il cuore della vicenda è un documento riservato redatto da Ilya Sutskever su richiesta dei membri indipendenti del board; Adam D’Angelo, Helen Toner e Tasha McCauley. Il memo apre con un’accusa netta; “Sam mostra un pattern costante di bugie, sabotaggi nei confronti dei suoi dirigenti e strategie divisive all’interno del team“.
Sutskever ha ammesso che “la maggior parte o tutte” le prove, inclusi screenshot critici, provenivano direttamente dalla CTO Mira Murati; Sutskever ha ammesso di non averle mai verificate in modo indipendente. Ad esempio, l’accusa che Altman fosse stato “cacciato da Y Combinator per comportamenti simili” si basava su una conversazione tra Murati e il COO Brad Lightcap; ma Sutskever non ha mai parlato direttamente con Lightcap per confermare la storia. Y Combinator è una delle più importanti società di startup al mondo; da YC sono nate Airbnb, Dropbox, Stripe, Reddit ed altre.


Per evitare che Altman venisse a conoscenza delle accuse e neutralizzarle, il memo fu inviato tramite email con autodistruzione ai soli membri indipendenti del board. Il contenuto del memo era esplosivo fin dalla prima riga: “Sam mostra un modello coerente di menzogne, di indebolimento dei suoi dirigenti e di messa in competizione dei suoi dirigenti l’uno contro l’altro“. Quando gli è stato chiesto quale azione fosse appropriata, Sutskever ha risposto con una sola parola: “Licenziamento“.
Sutskever ha ammesso che il processo è stato “affrettato perché il consiglio era inesperto nelle questioni di governance“; ha ammesso una grave mancanza di diligenza da parte di coloro che erano responsabili della supervisione di una delle aziende più importanti nel campo dell’intelligenza artificiale.
Il fallimento di un colpo di mano e la proposta di fusione tra OpenAI e Anthropic
Dopo la tentata cacciata di Altman, nel fine settimana del 17-19 novembre 2023, la leadership di OpenAI ha perso completamente il controllo della situazione. Quasi il 95% dei dipendenti minacciò le dimissioni di massa; Microsoft esercitò pressione per ripristinare Altman, e il board si ritrovò nel panico. Nella deposizione è emerso che durante questo vuoto di potere, Helen Toner propose una mossa estrema; fondere OpenAI con Anthropic e lasciare il controllo a Dario Amodei (attuale CEO di Anthropic). Sutskever, pur avendo voluto l’espulsione di Altman, ha dichiarato di essere stato molto contrariato da questa iniziativa; anche se ha ammesso che gli altri membri erano molto più favorevoli.
La proposta è stata discussa in una telefonata con i leader di Anthropic, inclusi Dario e Daniela Amodei. Anthropic era stata fondata da ex ricercatori di OpenAI che avevano lasciato proprio per disaccordi filosofici e di governance; le due aziende erano diventate rivali dirette nella corsa all’IA avanzata. L’unica cosa che ha fermato questa fusione d’emergenza sono state, secondo Sutskever, “alcune difficoltà pratiche sollevate da Anthropic“.
Resta il fatto che il consiglio di amministrazione stava valutando la cessione della società al suo principale rivale; in un contesto di panico e totale sfiducia interna. La governance era inesistente; il danno reputazionale, potenzialmente irreversibile.
OpenAI: un quadro di fiducia distrutta
Ciò che emerge con chiarezza è il crollo totale di fiducia tra CEO e consiglio. Ilya parla di una situazione in cui Altman ostacolava deliberatamente il funzionamento del board. Altman“generava confusione, trattenendo informazioni critiche e mettendo i dirigenti l’uno contro l’altro”.
La rimozione di Altman, per quanto possa apparire drastica, è stata interpretata da Sutskever come un atto necessario: “non era più possibile esercitare la supervisione fiduciaria”. Tuttavia, il modo in cui questa decisione è stata costruita e comunicata è stato fallimentare su tutta la linea. I documenti rivelano un processo impulsivo, alimentato da emozioni, privo di un piano di continuità credibile.
Il tentativo fallito e l’abbandono di Sutskever
Le lotte di potere, la scarsa trasparenza e le alleanze possono minare anche le strutture più brillanti. La temporanea rimozione di Altman e la proposta di fusione con Anthropic sono la prova che anche nelle più visionarie aziende AI, le regole della politica interna contano quanto (se non più) delle performance tecniche. OpenAI ha evitato per un soffio l’autodistruzione; solo l’intervento esterno di Microsoft ha svolto un ruolo chiave nel ripristino di un equilibrio.
Nonostante abbia quasi distrutto l’azienda che ha contribuito a fondare, Sutskever mantiene ancora un interesse finanziario significativo in OpenAI; un valore che è anche “aumentato” dopo la sua partenza. Quando gli è stato chiesto il valore di questa quota, i suoi avvocati gli hanno ripetutamente ordinato di non rispondere. OpenAI sta probabilmente pagando le sue spese legali per questa deposizione, creando un potenziale conflitto di interesse nella sua testimonianza.
Nel frattempo a Giugno 2024, Sutskever ha fondato una nuova azienda chiamata Safe Superintelligence Inc., spiegando di aver lasciato OpenAI perché aveva “una grande nuova visione, e sembrava più adatta a una nuova azienda“. La sua testimonianza, insieme ai documenti emersi dalla causa di Musk, rappresenta ora la fonte più autorevole e dettagliata per comprendere uno dei momenti più critici nella storia dell’intelligenza artificiale.










