L’Unione Europea ha raggiunto un accordo storico sulla regolamentazione dello sviluppo dell’Intelligenza Artificiale (IA). Questo accordo, noto come AI Act, è il risultato di un dibattito durato 72 ore e rappresenta la legislazione più ampia mai realizzata in questo ambito.
Ursula von der Leyen, presidente della Commissione Europea, ha dichiarato: L’intelligenza artificiale sta già cambiando la nostra vita quotidiana. E questo è solo l’inizio. Usata saggiamente e ampiamente, l’intelligenza artificiale promette enormi vantaggi per la nostra economia e società. Accolgo pertanto con grande favore l’accordo politico odierno del Parlamento europeo e del Consiglio sulla legge sull’intelligenza artificiale. L’AI Act dell’UE è il primo quadro giuridico completo sull’intelligenza artificiale a livello mondiale. Quindi, questo è un momento storico.
AI Act stabilisce nuovi standard
L’AI Act stabilisce nuovi standard globali per i paesi che cercano di sfruttare i potenziali benefici della tecnologia. Allo stesso tempo, il documento cerca di proteggere contro i molteplici rischi. Tra questi rischi ci sono: l’automazione dei lavori, la diffusione di disinformazione online e la minaccia alla sicurezza nazionale.
L’AI Act prevede che lo sviluppo dell’IA sia suddiviso in quattro categorie. Per ciascuna di esse sono previsti regolamenti specifici. Questi regolamenti detteranno le modalità con cui i futuri modelli di apprendimento automatico potranno essere sviluppati e distribuiti all’interno del blocco commerciale, influenzando il loro utilizzo in vari settori, dall’educazione all’occupazione alla sanità.
Categorie di rischio previste dall’AI Act
Nella categoria del rischio minimo rientrano la maggior parte dei sistemi di IA. Applicazioni come i sistemi di raccomandazione e i filtri antispam sono considerate a basso rischio. Inoltre, le aziende possono impegnarsi volontariamente in codici di condotta aggiuntivi.
Un’altra categoria è quella del rischio di trasparenza specifico. Gli utenti devono essere consapevoli quando interagiscono con sistemi come i chatbot. I fornitori devono progettare sistemi in modo che i contenuti sintetici siano rilevabili come generati artificialmente. Deep fake e altri contenuti generati dall’IA devono essere etichettati.
L’alto rischio include infrastrutture critiche, dispositivi medici, accesso a istituzioni educative e sistemi per le forze dell’ordine. I sistemi identificati ad alto rischio devono rispettare requisiti rigorosi.
Infine, la categoria del rischio inaccettabile include i sistemi che minacciano i diritti fondamentali delle persone, i sistemi che manipolano il comportamento umano, social scoring, e alcune applicazioni di polizia preventiva. Sono vietati alcuni usi di sistemi biometrici come ad esempio i sistemi di riconoscimento delle emozioni utilizzati sul posto di lavoro e alcuni sistemi per la categorizzazione delle persone o l’identificazione biometrica remota in tempo reale per scopi di contrasto in spazi accessibili al pubblico.
Questa legge, che deve ancora passare attraverso alcune fasi finali per l’approvazione, si concentra sui rischi più significativi dell’IA, come quelli legati all’applicazione della legge e al funzionamento di servizi cruciali come acqua ed energia.
Reazioni positive e negative
L’AI Act è stato accolto con favore da molti. La Presidente della CE ha sottolineato come esso contribuirà alla creazione di tecnologie che non compromettono la sicurezza e i diritti delle persone.
L’AI Act traspone i valori europei in una nuova era. Focalizzando la regolamentazione sui rischi identificabili, l’accordo odierno favorirà l’innovazione responsabile in Europa. Garantendo la sicurezza e i diritti fondamentali delle persone e delle imprese, sosterrà lo sviluppo, la diffusione e l’adozione di un’IA affidabile nell’UE. La nostra legge sull’intelligenza artificiale darà un contributo sostanziale allo sviluppo di regole e principi globali per un’intelligenza artificiale incentrata sull’uomo” ha affermato Ursula von der Leyen.
Tuttavia, ci sono state anche critiche. In particolare, il gruppo aziendale DigitalEurope ha definito le nuove regole un ulteriore onere per le aziende. L’AI Act potrebbe avere un impatto significativo sulle piccole e medie imprese (PMI), offrendo maggiori opportunità di crescita. Ma esiste anche la preoccupazione che possa ostacolare l’innovazione e sovraccaricare le PMI con adempimenti.
Le aziende che non rispetteranno le regole verranno infatti multate. Le sanzioni partirebbero da 35 milioni di euro o il 7% del fatturato annuo globale (a seconda di quale sia il più alto) per violazioni di applicazioni di IA vietate. Poi, ci sarebbero multe da 15 milioni di euro o 3% per violazioni di altri obblighi. Infine, 7,5 milioni di euro o 1,5% per aver fornito informazioni errate. Sono previsti massimali più proporzionati per le sanzioni amministrative per le start-up in caso di violazione della legge sull’AI.
Conclusione
Nonostante le critiche, l’AI Act rappresenta un passo importante verso una regolamentazione più ampia dell’IA. Essendo uno standard, un modello, per le giurisdizioni dei stati membri, l’UE ha il dovere di redigere questa legislazione con massima cura.