L’allucinazione dell’IA, nota anche come “fare cose inventate“, è un ostacolo significativo per i chatbot basati su modelli di linguaggio di grandi dimensioni (LLM), come Anthropic, OpenAI ChatGPT, Google Bard e Microsoft Bing AI. Mentre questi chatbot sono ammirati per la loro capacità di generare rapidamente grandi volumi di testo convincenti, l’allucinazione dell’IA è una minaccia alla loro affidabilità e precisione nelle comunicazioni.
Per “allucinazione dell’IA” si intende quando un sistema di intelligenza artificiale genera o percepisce qualcosa che non esiste realmente. Alcuni esempi includono:
- L’IA “vede” o “sente” pattern o oggetti che non sono presenti nei dati di input. Ad esempio, un sistema di riconoscimento vocale potrebbe erroneamente trascrivere un rumore di fondo come parole.
- L’IA genera testo, immagini o altro output che sembra realistico ma è completamente inventato e non basato su nessun input reale. Ad esempio, un sistema di generazione di immagini potrebbe creare il ritratto di una persona che non esiste.
- L’IA si convince di concetti, relazioni o regole che non hanno alcun fondamento nei dati. Ad esempio, potrebbe sviluppare teorie infondate su correlazioni spurie nei dati.
- L’IA altera la propria funzione obiettivo, ignorando gli obiettivi stabiliti dai programmatori umani.
Questo tipo di comportamento può verificarsi quando l’IA è progettata o addestrata in modo imperfetto, oppure quando incontra situazioni nuove e ambigue al di fuori del suo set di addestramento. Gestire le allucinazioni dell’IA in modo sicuro ed etico è una sfida importante per la ricerca sull’IA.
L’allucinazione dell’IA: la “malattia” dei chatbot
In un recente articolo dell’Associated Press è stato evidenziato che il problema dell’allucinazione dei LLM potrebbe essere più difficile da risolvere di quanto molti fondatori di aziende tecnologiche e sostenitori dell’IA abbiano ipotizzato.
Secondo Daniela Amodei, co-fondatrice e presidente di Anthropic, produttrice del chatbot Claude 2, nessun modello attuale sembra esente da allucinazioni.
I modelli di linguaggio di grandi dimensioni, come ChatGPT di OpenAI, stanno cercando di migliorare la veridicità dei loro output, ma esperti come Emily Bender, professoressa di linguistica e direttrice del Computational Linguistics Laboratory dell’Università di Washington, ritengono che il problema sia insito nella tecnologia e gli scenari d’uso previsti.
“Questo non è risolvibile“, ha dichiarato la professoressa Bender, sottolineando che “i LLM sono progettati per predire il prossimo termine di una sequenza basandosi sul prompt fornito“. Tuttavia, ciò che manca a queste parole associate sono il significato e il contesto necessario per garantire un output accurato. Pertanto, i modelli di linguaggio di grandi diemnsioni, pur essendo capaci di imitare in modo magnifico, non hanno una reale comprensione di ciò che stanno dicendo, rendendo le loro produzioni un caso di “chance“.
I limiti d’uso dei LLM (e della tecnologia) imposti dall’allucinazione dell’IA
Google, ad esempio, sta proponendo un AI per la scrittura di notizie a organizzazioni giornalistiche. Anche l’Associated Press sta esplorando l’uso della tecnologia in partnership con OpenAI per migliorare i propri sistemi AI utilizzando parte del suo archivio testi.
Tuttavia, quando si tratta di generazione di testo, soprattutto per il giornalismo e la comunicazione di notizie, l’allucinazione dell’IA diventa un problema reale e i chatbot devono essere utilizzati con cautela. L’affidabilità e l’accuratezza delle informazioni diventano fondamentali in questi contesti, e l’allucinazione dell’IA rende difficile garantire che le notizie siano veritiere e attendibili.
Un esempio è il lavoro del computer scientist Ganesh Bagler, che cerca di far inventare ricette di cucina del Sud-Asia da parte di un AI. Un solo ingrediente sbagliato potrebbe trasformare un piatto delizioso in uno immangiabile.
In alcuni casi, l’allucinazione dell’IA può essere considerata un vantaggio, come ha sottolineato Shane Orlick, presidente di Jasper AI. Le allucinazioni possono aggiungere valore, poiché il chatbot può generare idee e angolazioni che gli utenti umani non avrebbero mai pensato di considerare.
L’ottimismo di alcune personalità, come Bill Gates, riguardo all’insegnamento dei modelli di IA a distinguere i fatti dalla finzione è incoraggiante, ma gli esperti come Bender ritengono che queste migliorie non siano sufficienti. Il problema delle allucinazioni rimane intrinseco al LLM stesso, e non sembra poter essere risolto definitivamente. Nonostante possa essere mitigato in future iterazioni, ci sarà sempre il rischio di fallimento quando si tratta di fornire informazioni accurate e affidabili.
Uso consapevole dell’IA
Sebbene ci sia un grande fascino nell’utilizzo di modelli di IA per generare testo e immagini sorprendenti, come dimostrato dai modelli Dall-E e Midjourney per la generazione di immagini, bisogna essere cauti quando si tratta di affidarsi a tali tecnologie per scopi critici come il giornalismo e la comunicazione di notizie.
I modelli di linguaggio di grandi dimensioni sono strumenti potenti, ma è essenziale comprenderne le limitazioni e utilizzarli con attenzione, soprattutto quando si tratta di comunicare informazioni critiche o affidarsi alla loro precisione. Mentre la tecnologia continua a migliorare, è importante essere consapevoli dei rischi e delle sfide che l’allucinazione dell’IA porta con sé. La tecnologia stessa deve essere utilizzata con consapevolezza e comprensione delle sue limitazioni, altrimenti i rischi di errori e inesattezze possono essere notevoli e dannosi.