L’uso di immagini generate dall’Intelligenza Artificiale (IA) sta crescendo a ritmo serrato. Tuttavia, la sfida principale è come identificarle in modo accurato, specialmente quando appaiono incredibilmente realistiche. Recentemente, Google DeepMind in collaborazione con Google Cloud, ha presentato SynthID, uno strumento innovativo per l’inserimento di watermark e l’identificazione di immagini generate dall’IA.
SynthID identifica le immagini generate dall’IA
SynthID è un strumento potente che consente di inserire un watermark digitale direttamente nei pixel di un’immagine. Questo watermark è impercettibile all’occhio umano, ma rilevabile per scopi di identificazione. Questa tecnologia è stata sviluppata in collaborazione con Google Cloud e rappresenta un’importante traguardo nell’ambito della protezione delle immagini generate dall’IA.
Le tecnologie di IA generativa stanno avanzando rapidamente, e le immagini create da computer, comunemente chiamate “immagini sintetiche” stanno diventando sempre più difficili da distinguere da quelle generate da esseri umani. Questa evoluzione apre nuovi orizzonti creativi, ma porta anche con sé il rischio di diffondere informazioni false, sia volontariamente che per errore. Identificare in modo accurato il contenuto generato dall’IA è fondamentale per evitare la diffusione della disinformazione e garantire una fruizione responsabile dei media.
Come funziona il nuovo strumento
SynthID è stato progettato per essere altamente efficace. Utilizza due modelli di deep learning: uno per l’inserimento del watermark e uno per l’identificazione, addestrati insieme su un ampio set di immagini. Risulta così un modello combinato che è stato ottimizzato per identificare correttamente il contenuto con watermark e migliorare l’impercettibilità allineando visivamente il watermark all’immagine originale. “Il modello combinato è ottimizzato su una gamma di obiettivi, tra cui l’identificazione corretta dei contenuti con watermark e il miglioramento dell’impercettibilità allineando visivamente il watermark ai contenuti originali“, hanno scritto Gowal e Kohli
Google non entra troppo nei dettagli tecnici dell’implementazione di SynthID (probabilmente per prevenire soluzioni alternative), ma afferma che il watermark non può essere facilmente rimosso attraverso semplici tecniche di editing. “Trovare il giusto equilibrio tra impercettibilità e robustezza alle manipolazioni dell’immagine è difficile“, ha scritto l’azienda in un post sul blog di DeepMind. “Abbiamo progettato SynthID in modo che non comprometta la qualità dell’immagine e consenta al watermark di rimanere rilevabile, anche dopo modifiche come l’aggiunta di filtri, la modifica dei colori e il salvataggio con vari schemi di compressione con perdita – più comunemente utilizzati per i JPEG“, hanno scritto i responsabili del progetto SynthID di DeepMind, Sven Gowal e Pushmeet Kohli.
I livelli d’identificazione offerti da SynthID
SynthID permette ai clienti di Vertex AI su Google Cloud di creare e identificare immagini generate dall’IA in modo responsabile. Mentre non è perfetto contro tutte le manipolazioni delle immagini, i test interni dimostrano che è altamente accurato contro le manipolazioni più comuni. Questo strumento offre tre livelli di fiducia (rilevato, non rilevato e possibilmente rilevato) per l’identificazione del watermark, permettendo agli utenti di valutare con sicurezza l’origine delle immagini.
Poiché lo strumento è incorporato nei pixel dell’immagine, Google afferma che il suo sistema può funzionare insieme ad approcci basati sui metadati, come quello che Adobe utilizza con le sue funzionalità generative Photoshop, attualmente disponibili in beta aperta.
La protezione dei contenuti generati dall’IA
SynthID è solo l’inizio. Google ha riconosciuto che non è una soluzione perfetta, aggiungendo che “non è infallibile contro manipolazioni di immagini estreme“. Ma descrive il watermark come “un promettente approccio tecnico per consentire a persone e organizzazioni di lavorare responsabilmente con contenuti generati dall’IA“. L’azienda afferma che lo strumento potrebbe espandersi ad altri modelli AI, inclusi quelli incaricati di generare testo (come ChatGPT), video e audio. Questa tecnologia innovativa potrebbe essere estesa per essere utilizzata con altri modelli di IA e potrebbe essere integrata in altri prodotti Google, rendendola disponibile anche per terze parti.
SynthID, con la sua capacità di inserire watermark impercettibili e di identificare in modo accurato le immagini generatrici, offre una soluzione essenziale per affrontare i crescenti rischi legati ai contenuti generati dall’IA.