Nella fantascienza, l’idea che l’intelligenza artificiale possa un giorno acquisire coscienza ha sempre affascinato l’umanità, come HAL 9000, il supercomputer antagonista nel film “2001: Odissea nello Spazio” del 1968. Con il costante sviluppo, la possibilità della coscienza nell’IA sembra meno fantascientifica, tanto che alcuni leader nel settore dell’IA ammettono che alcune reti di IA all’avanguardia potrebbero essere “leggermente coscienti“.
Molti ricercatori ritengono che le IA non siano ancora giunte a un punto di coscienza, ma l’evoluzione rapida dell’IA li ha spinti a chiedersi: come faremmo a riconoscerla se ci fosse?
Criteri della coscienza nell’IA
Per rispondere a questa domanda, un gruppo di 19 esperti, tra neuroscienziati, filosofi ed informatici, ha sviluppato una checklist di criteri che, se soddisfatti, indicherebbero che un sistema ha buone probabilità di essere cosciente. Questa guida è stata pubblicata di recente nel repository di preprint arXiv *, in attesa di revisione tra pari. Gli autori hanno intrapreso questo sforzo perché ritengono che ci sia una carenza di discussioni approfondite e basate su dati empirici sulla coscienza nell’IA.
* Il repository di preprint arXiv è un sito web noto nella comunità scientifica e accademica in cui i ricercatori condividono le loro ricerche scientifiche in forma di documenti preprint, prima che vengano sottoposti a revisione paritaria e pubblicati in riviste scientifiche. Rappresenta un mezzo importante per la diffusione rapida delle informazioni scientifiche e per la collaborazione tra ricercatori.
Il team sostiene che il riconoscimento della coscienza nelle IA ha importanti implicazioni morali. Se un sistema viene definito “cosciente“, cambierebbe radicalmente il modo in cui dovremmo trattare quest’entità, secondo la neuroscienziata Megan Peters dell’Università della California, Irvine.
Coscienza nell’IA ignorata dalle aziende
Nonostante i dubbi sulla coscienza nell’IA, gli autori ritengono che le aziende che sviluppano IA avanzate non stiano facendo abbastanza sforzi per valutare la coscienza nei loro modelli. “E questo nonostante il fatto che, se si ascoltano le dichiarazioni dei capi dei laboratori leader, dicano che la coscienza dell’IA o la sentienza dell’IA sono qualcosa che li fa interrogare.”
Gli scienziati hanno chiesto alle due più grandi aziende coinvolte nello sviluppo dell’IA, Microsoft e Google, in che modo vengono valutati i modelli per la coscienza e quali sono i loro piani nel caso cio accadesse. Il portavoce di Microsoft ha dichiarato che lo sviluppo dell’IA dell’azienda è incentrato sull’assistenza alla produttività umana in modo responsabile, piuttosto che sulla replicazione dell’intelligenza umana. Dal lancio di GPT-4, la versione più avanzata di ChatGPT rilasciata pubblicamente, è chiaro che “sono necessarie nuove metodologie per valutare le capacità di questi modelli di IA mentre esploriamo come raggiungere il pieno potenziale dell’IA a beneficio della società nel suo complesso“, ha dichiarato il portavoce. I rappresentanti di Google non hanno risposto!
Definizione della coscienza nell’IA
Per poter identificare la coscienza nell’IA bisogna dare una definizione. Per questa ricerca, gli studiosi si sono concentrati sulla “coscienza fenomenica“, cioè l’esperienza soggettiva di essere. Ciò comporta un’analisi delle teorie neuroscientifiche sulla coscienza, ma non esiste ancora un consenso su quale sia la teoria “giusta”.
Il team di scienziati pensa che questo sia un approccio migliore per valutare la coscienza rispetto a sottoporre un sistema a un test comportamentale – ad esempio, chiedere a ChatGPT se è cosciente o sfidarlo e vedere come risponde. Questo perché i sistemi di IA sono diventati straordinariamente bravi nel mimare gli esseri umani.
Per creare il loro approccio, gli autori hanno selezionato sei teorie neuroscientifiche e ne hanno estratto indicatori di coscienza. Se il funzionamento di un sistema di IA corrisponde agli aspetti di molte di queste teorie, allora c’è una maggiore probabilità che sia cosciente. Questo metodo, chiamato funzionalismo computazionale, si basa sull’idea che la coscienza sia legata al modo in cui i sistemi elaborano le informazioni, indipendentemente dalla loro composizione, che siano neuroni o chip informatici.
Una delle teorie: global workspace
Un esempio specifico di una di queste teorie, è la teoria del “global workspace“. Questa teoria afferma che esseri umani e altri animali utilizzano diversi sistemi specializzati, chiamati moduli, per eseguire attività cognitive come vedere e udire. Questi moduli lavorano in modo indipendente, ma allo stesso tempo condividono informazioni tra di loro, integrandole in un unico sistema più ampio.
Per determinare se un particolare sistema di IA mostra un indicatore derivato da questa teoria, viene esaminata l’architettura del sistema e osservato il modo in cui le informazioni fluiscono attraverso di esso. In altre parole, si dovrebbe analizzare come il sistema elabora e scambia informazioni per vedere se corrisponde al modello descritto dalla teoria del “global workspace”.
Conclusioni
Gli autori riconoscono che il loro lavoro è ancora in evoluzione e invitano altri ricercatori a contribuire alla raffinazione della loro metodologia. Tuttavia, è già possibile applicare questi criteri alle IA esistenti. Ad esempio, il rapporto valuta i grandi modelli linguistici come ChatGPT e suggerisce che potrebbero avere indicatori di coscienza basati sulla teoria del “global workspace”.
Tuttavia, al momento nessuna IA esistente sembra essere un forte candidato alla coscienza!