Era nell’aria da mesi, OpenAI, la stessa realtà che ha portato ChatGPT sulle scrivanie di mezzo mondo, aveva cominciato a esplorare una trasformazione societaria importante. L’intento era quello di passare da una LLC tradizionale a una Public Benefit Corporation (PBC), una struttura vincolata a una missione dichiarata di interesse pubblico. Questo tipo di assetto consente di raccogliere capitali e allo stesso tempo, impone obblighi etici e di trasparenza.

Lettere di ex membri di OpenAI, accademici, avvocati e organizzazioni civiche hanno più volte alzato la voce. Il rischio percepito? Che il profitto potesse prendere il sopravvento sulla promessa originaria: sviluppare un’IA per il bene collettivo. Le autorità della California e del Delaware sono entrate in gioco e il messaggio era chiaro: attenzione a non svendere l’etica per l’efficienza.
La decisione finale di OpenAI: più missione, meno mercato
Alla fine, OpenAI ha fatto marcia indietro; ma non senza lasciare il segno. La struttura giuridica si modifica in profondità; invece la direzione strategica, resta saldamente nelle mani della nonprofit fondatrice. La LLC (for-profit Corporation) sarà convertita in una Public Benefit Corporation (PBC), un’entità che unisce la logica imprenditoriale a un vincolo legale verso finalità di interesse generale.
Sebbene questa trasformazione consenta maggiore agilità nella raccolta di capitali, non implica una perdita di controllo. Sarà la fondazione madre (no profit) a nominare i direttori, sarà lei a detenere la partecipazione più ampia e influente. Non ci saranno stravolgimenti finanziari o quotazioni in borsa; si tratta, piuttosto, di un’operazione delicata mirata a mantenere la coerenza con i valori originari.
In un ecosistema dove le big tech spesso operano secondo logiche unilaterali e spietate, OpenAI tenta una terza via: ibrida, articolata, ma potenzialmente più coerente con la sua missione iniziale. La nonprofit non si limita a supervisionare: controlla la nuova struttura; ne è anche il principale azionista, nomina i membri del consiglio e ne stabilisce i confini operativi e strategici.
L’obiettivo è quello di rafforzare la trasparenza della governance, senza cedere alle pressioni speculative. Si vuole evitare che il motore della crescita oscuri la bussola etica. Per questo, ogni scelta strutturale viene calibrata con attenzione; ogni modifica viene pesata in relazione alla missione centrale, assicurare che l’IA continui a servire il bene collettivo.
Altman e il senso della missione
“Non siamo una compagnia normale e non lo saremo mai” ha scritto Sam Altman nel canale notizie di OpenAI. Fin dall’inizio, OpenAI ha giocato fuori dagli schemi, mettendo l’etica dell’IA al centro del tavolo. La sua idea è che l’intelligenza artificiale deve essere una leva per emancipare, non per dominare. E questo significa rendere i modelli accessibili, open source, flessibili; lasciare spazio alle persone per decidere come usarli, entro limiti ragionevoli.

Ma c’è anche la realtà: addestrare modelli sempre più potenti richiede infrastrutture colossali; servono server, chip, energia, competenze. Tutto questo ha un costo enorme. Si parla di centinaia di miliardi di dollari oggi; domani, potrebbero servirne molti di più. Nessun laboratorio etico è immune dai numeri.
Da qui nasce l’apertura verso un assetto più capitalistico; un passo strategico, non ideologico. Non si tratta di accettare qualsiasi tipo di capitale, si tratta di selezionare partner capaci di comprendere e sostenere la visione originaria. OpenAI non cerca solo investitori, cerca alleati che condividano un’idea di intelligenza artificiale orientata al bene comune.
La parola chiave resta “democrazia“; non solo come concetto politico, ma come pratica tecnologica. Chi arriva con il solo obiettivo di un ritorno rapido, troverà poca accoglienza.
IA, una partita a più tavoli
Non si tratta solo di soldi, la posta in gioco è più alta. OpenAI si muove su più fronti contemporaneamente; dalla trasparenza algoritmica alla sicurezza dei modelli, passando per la collaborazione con enti governativi e regolatori. A questo si aggiunge un contenzioso aperto con Elon Musk, cofondatore diventato oggi antagonista con il progetto Grok e xAI.
Tutto ruota attorno a un quesito, chi controlla l’IA del futuro, e con quale finalità? Altman ha risposto più volte, “non vogliamo costruire una torre d’avorio; vogliamo una piattaforma che tutti possano scalare“. L’obiettivo è rendere l’accesso all’intelligenza artificiale il più ampio possibile. Strumenti inclusivi, distribuiti, potenti ma regolabili. Il problema, tuttavia, resta: mantenere coerenza tra questa visione e le esigenze di una struttura che deve anche attrarre capitali per crescere.
Tra le voci più critiche nei confronti della ristrutturazione di OpenAI, spicca quella di Elon Musk. Cofondatore dell’organizzazione, oggi è uno dei suoi oppositori più vocali. Musk ha avviato un’azione legale contro OpenAI; sostiene che la sua trasformazione in un’entità commerciale tradisca la missione originaria. Secondo lui, l’organizzazione doveva restare pienamente nonprofit; per garantire che l’IA fosse sviluppata come bene pubblico.
OpenAI : conclusione
OpenAI ha evitato una svolta drastica; ma non ha ancora chiuso il cerchio. Le decisioni prese, seppur importanti, non segnano la fine del dibattito. La tensione tra etica e business resta. Per il momento, il controllo resta saldo nelle mani della nonprofit; tuttavia, il cammino verso un’IA davvero inclusiva è appena cominciato. Il nodo centrale non è stato sciolto: come bilanciare la necessità di fondi con l’impegno a un’intelligenza artificiale orientata al bene comune.
Alcuni aspetti del nuovo assetto non sono del tutto chiari: quale sarà la reale autonomia del consiglio della PBC? Quali saranno le garanzie di lungo termine per mantenere l’aderenza alla missione? Chi possiederà, alla fine, la tecnologia più potente mai creata ?