Recentemente, la Wikimedia Foundation ha sospeso un esperimento che prevedeva l’inserimento di riassunti generati da intelligenza artificiale (IA) all’inizio di alcune voci di Wikipedia. Questa decisione è stata seguito da una reazione estremamente negativa da parte della comunità di editor volontari che costituiscono il cuore operativo dell’enciclopedia.

L’iniziativa è stata introdotta inizialmente in forma limitata; solo su dispositivi mobili e con partecipazione volontaria degli utenti. Tuttavia, ha sollevato forti critiche relative alla credibilità, alla neutralità e alla governance della piattaforma. I commenti degli editori hanno variato dal semplice “Yuck” fino ad accuse di potenziale danno irreversibile alla reputazione dell’enciclopedia.
Dettagli dell’esperimento e motivazioni della Wikimedia Foundation
L’esperimento, noto come “Simple Article Summaries“, si è svolto per un breve periodo su una porzione limitata degli utenti mobili. I riassunti apparivano espansi sopra il testo principale dell’articolo; inoltre, venivano contrassegnati con l’etichetta “non verificato”.
L’obiettivo dichiarato della Wikimedia Foundation era rendere i contenuti più accessibili; specialmente per lettori con un livello di lettura inferiore alla media. Secondo i dati interni, il livello medio di lettura per adulti madrelingua inglese corrisponde a quello di un quattordicenne. Per chi legge in inglese come seconda lingua, il livello può essere ancora più basso.
L’idea, dunque, era di semplificare la fruizione delle informazioni senza eliminare i contenuti completi sottostanti. L’intelligenza artificiale utilizzata era Aya, un modello open-weight sviluppato da Cohere. Il modello è pensato per generare sintesi leggibili, ma tecnicamente automatizzate.
Reazione della comunità di Wikipedia
Il malcontento espresso dagli editori volontari è stato immediato, esteso e inequivocabile. Ha attraversato trasversalmente molteplici discussioni aperte sul “village pump” tecnico di Wikipedia. La reazione è stata caratterizzata da una netta opposizione all’iniziativa dei riassunti IA; molti la ritengono una minaccia diretta all’integrità editoriale dell’enciclopedia. Diversi contributori sono convinti che l’introduzione di testi sintetizzati da un algoritmo e posizionati in evidenza, rischiasse di compromettere l’opera di decenni. Tale operazione potrebbe minare la fiducia che milioni di lettori nutrono verso Wikipedia.
Uno dei punti centrali del dissenso riguarda la perdita del carattere collaborativo. Secondo molti, l’affidamento a un modello di IA sarebbe equivalente a delegare a un’entità esterna la funzione di sintesi e apertura. Questo si distacca dalla logica di consenso e costruzione collettiva che ha reso il progetto unico nel suo genere. Un editor ha usato l’espressione “singolo autore non verificabile” per descrivere il rischio rappresentato da un riassunto automatizzato posto in cima agli articoli. In questo modo si infrange il principio di neutralità di punto di vista (NPOV), elemento cardine delle policy wikipediane.
Altre critiche riguardano la mancanza di un confronto reale con la comunità prima dell’avvio del test. Molti hanno denunciato che il processo decisionale non è stato trasparente. Un unico thread, con un solo partecipante e per di più affiliato alla stessa Wikimedia Foundation, non può essere considerato un dibattito aperto. La comunità ha ritenuto quindi l’iniziativa non solo pericolosa, ma anche mal gestita.
Posizione finale della Wikimedia Foundation

A seguito delle proteste, la Wikimedia Foundation ha sospeso l’esperimento; tuttavia, non esclude un ritorno dell’IA in futuro. La fondazione promette di non introdurre funzionalità simili senza una piena partecipazione della comunità di editori. Inoltre, ogni futura applicazione dell’IA dovrà includere flussi di moderazione umana; questo perché il progetto Wikimedia resterà centrato sulla collaborazione tra persone.
Tuttavia, l’incidente evidenzia l’importanza della governance partecipativa nel contesto di piattaforme basate su contenuti collaborativi. Sebbene l’AI sia uno strumento potenzialmente utile, non può sostituirsi al lavoro umano senza sacrificare affidabilità, trasparenza e responsabilità. Wikipedia resta un modello di sapere condiviso in cui la qualità dell’informazione non è solo una questione tecnica, ma una responsabilità collettiva.