Anthropic ha annunciato un aggiornamento importante che riguarda il modo in cui il suo assistente AI, Claude, verrà addestrato. A partire dal 28 settembre 2025, l’azienda inizierà a usare le conversazioni del suo chatbot per migliorare i propri modelli linguistici; ma solo se si acconsente esplicitamente. La novità ha scatenato un acceso dibattito. Non si tratta solo di privacy, ma anche di trasparenza, fiducia e controllo sul proprio contributo ai modelli futuri.
Tuttavia, il cambiamento non coinvolge tutti. Solo gli account Free, Pro e Max del chatbot sono interessati. Per chi invece usa Claude for Work, l’API, Amazon Bedrock o Vertex AI, i dati restano fuori dall’addestramento. Inoltre, la nuova informativa prevede un periodo di retention dei dati di cinque anni; a meno che non si scelga di disattivare questa opzione. I dati raccolti serviranno a migliorare la qualità delle risposte e a potenziare i filtri di sicurezza per combattere spam, abusi e contenuti dannosi.

Anthropic e il meccanismo dell’opt-out
La novità principale è che Claude inizierà ad addestrarsi sulle conversazioni di chi non disattiva espressamente l’opzione. L’interfaccia presenterà una finestra pop-up con la richiesta di consenso. Se non si risponde, l’impostazione rimane attiva di default. Questo ha sollevato critiche, specialmente da chi considera questa dinamica poco trasparente. Alcuni fanno notare che il linguaggio e il posizionamento dell’opzione nelle impostazioni non sono del tutto chiari. L’opt-out è disponibile, ma nascosto tra le pieghe delle opzioni di privacy. Chi non presta attenzione rischia di contribuire inconsapevolmente all’addestramento dell’AI.

La situazione è simile a quanto accaduto con altri strumenti di IA generativa, sebbene finora Anthropic aveva scelto di non usare i dati conversazionali. Questo cambio di rotta arriva con l’ambizione di migliorare la coerenza tra versioni successive dei modelli, riducendo le discrepanze di comportamento tra release.
Retention dei dati estesa a cinque anni
Tuttavia, uno degli aspetti meno evidenziati riguarda la durata di conservazione delle conversazioni. Con il nuovo sistema, se si sceglie di contribuire all’addestramento, i dati saranno conservati per 5 anni. In caso contrario, si applicherà la vecchia regola dei 30 giorni.
Cinque anni possono sembrare tanti, ma c’è una logica dietro questa decisione; i cicli di sviluppo dei modelli AI durano in media tra i 18 e i 24 mesi. Quindi, mantenere i dati coerenti nel tempo consente ad Anthropic di costruire modelli più stabili. In teoria, questo dovrebbe migliorare l’affidabilità delle risposte e rendere più fluida l’evoluzione del prodotto.
Però sarà sempre possibile cancellare singole conversazioni o modificare in qualsiasi momento le impostazioni di condivisione dati. Eliminando una chat, quella specifica interazione sarà esclusa dall’addestramento. Questo garantisce una certa flessibilità, ma richiede una gestione attiva da parte di chi utilizza lo strumento.
Anthropic ha previsto anche un meccanismo per tornare sui propri passi. Se inizialmente si accetta di contribuire all’addestramento e poi si cambia idea, è possibile disattivare l’opzione in qualsiasi momento. Da quel momento in poi, le nuove conversazioni non sono più raccolte.
Ma i dati precedenti resteranno nei sistemi fino alla scadenza dei cinque anni, se non sono eliminati manualmente.
Conclusione
Il caso Anthropic evidenzia una tensione sempre più forte tra innovazione tecnologica e diritti digitali. Da una parte, i modelli hanno bisogno di dati reali per crescere. Dall’altra, chi usa questi strumenti ha tutto l’interesse a mantenere il controllo sulle proprie conversazioni; specialmente se trattano argomenti sensibili, personali o professionali.
La scelta offerta da Anthropic vuole bilanciare questi due poli. Tuttavia, il fatto che il consenso sia dato per impostazione predefinita mina, in parte, la fiducia che l’azienda aveva costruito su valori come la privacy e la sicurezza. Chi vuole contribuire allo sviluppo di Claude, oggi ha più strumenti per farlo. Ma chi vuole proteggere la propria riservatezza, dovrà essere più attento che mai.