OpenAI ha annunciato che entro il 12 febbraio integrerà un watermark basato sullo standard C2PA nelle immagini generate da Dall-E 3.
C2PA è un approccio creato da diverse aziende che sviluppano l’intelligenza artificiale. Permette l’inserimento di metadati all’interno delle immagini generate dalle IA, in modo da poterne verificare l’origine e le informazioni associate. Lo usano già grandi aziende tecnologiche come Adobe, Microsoft, Meta e Google.
Secondo OpenAI, l’adozione di C2PA è essenziale per aumentare l’affidabilità delle informazioni in rete. Il watermark permetterà infatti alle grandi piattaforme di identificare i contenuti prodotti artificialmente.
Come sarà il watermark di Dall-E 3
Un watermark è un’etichetta digitale, che serve ad identificare e tracciare un’immagine per garantirne l’autenticità e tutelarne i diritti di proprietà. Rappresenta un’immagine trasparente inserita sopra un’altra immagine al fine di dimostrarne l’autenticità e prevenirne la contraffazione.
Il watermark di Dall-E 3 sarà visibile e invisibile. Nella parte in alto a sinistra di ogni immagine generata comparirà il simbolo “CR“, mentre saranno inseriti metadati non visibili. OpenAI assicura che la presenza del watermark non avrà alcun impatto sulle prestazioni o sulla qualità delle immagini.
Tuttavia, essendo facile da rimuovere con uno screenshot, rimangono ancora dei limiti a questa tecnologia. “Le persone possono utilizzare siti come Content Credentials Verify per verificare se un’immagine è stata generata dal modello DALL·E 3 tramite gli strumenti di OpenAI.”
Per sapere di più sui Content Credentials, leggi questo nostro articolo.
C2PA
Il C2PA ovvero la Coalition for Content Provenance and Authenticity è uno standard che è stato sviluppato dallo sforzo congiunto di diverse aziende, tra cui Adobe, BBC, Intel, Microsoft, Sony e Truepic, come un modo per fornire un modo affidabile per verificare qual è la fonte del contenuto e chi, se mai, l’ha modificato.
Questo sigillo non certifica che il contenuto sia veritiero, potrebbe contenere errori e potrebbe anche essere stato realizzato per essere fuorviante. Tuttavia, conoscendo la sua origine (e se è stato modificato/da chi) puoi decidere se puoi fidarti o meno.
Una sfida ancora aperta
La decisione presa da OpenAI non è la prima nel suo genere. Anche Google applica diversi filtri per evitare la generazione di immagini che potrebbero violare la privacy. Tutte le immagini generate con Imagen 2 sono contrassegnate da SynthID.
A settembre 2023 Adobe ha annunciato che per tutti i contenuti Firefly è possibile verificarne la provenienza e l’iter creativo.
Sebbene queste iniziative vadano nella direzione della legalità e del rispetto dei diritti d’autore, identificare in modo indistruttibile le opere generate da IA rimane molto complesso, specialmente per contenuti come video e audio.
Già oggi negli USA vengono utilizzati deepfake audio per influenzare le primarie. Queste azioni rendono ancora più urgente la necessità di collaborazione tra le aziende per affrontare queste sfide in modo coordinato.
È molto importante sviluppare soluzioni integrate in grado di identificare in maniera inconfutabile le opere digitali artificiali, specialmente per quelle con una maggiore incidenza come video e audio.