Nel panorama digitale contemporaneo, ChatGPT si colloca tra gli strumenti più usati per dialogare, informarsi, esplorare concetti e ricevere supporto. La sua diffusione e uso tra adolescenti e preadolescenti ha sollevato interrogativi delicati e pressanti. A partire da settembre 2025, OpenAI ha annunciato un’importante serie di aggiornamenti per rendere l’esperienza ChatGPT più sicura e responsabile, in particolare per i minori.
L’introduzione del controllo genitoriale (Parental Control) è la risposta dell’azienda al crescente coinvolgimento dell’IA nei momenti di fragilità emotiva. Non si tratta solo di filtrare contenuti, ma comprendere, prevenire e, in alcuni casi, intervenire.

L’aggiornamento prevede la possibilità per i genitori di collegare il proprio account a quello dei figli (dai 13 anni in su). Nei casi in cui la piattaforma rilevi segnali di stress acuto, i genitori riceveranno notifiche. A queste misure si aggiungono strumenti per modulare il comportamento del modello. Sarà possibile disattivare funzionalità come la memoria o la cronologia delle chat; nonché adattare le risposte in base all’età. In questo modo si riducono i rischi senza privare i più giovani della possibilità di usare la tecnologia in modo formativo e creativo.
Quest’aggiornamento arriva dopo numerose segnalazioni, tra cui episodi controversi che hanno coinvolto adolescenti in difficoltà, culminati in conseguenze gravi. Come affermato da OpenAI nel comunicato ufficiale: “Queste misure sono solo l’inizio. Continueremo ad apprendere e a rafforzare il nostro approccio, guidati dagli esperti, con l’obiettivo di rendere ChatGPT il più utile possibile.”
Modelli di ragionamento e intervento di OpenAI
Il cuore dell’aggiornamento sta nell’introduzione dei cosiddetti modelli di ragionamento. Sono modelli progettati per analizzare in profondità il contesto emotivo di una conversazione. Si tratta di sistemi, come GPT-5 Thinking, in grado di elaborare risposte con maggiore cautela e riflessione. Grazie a un processo chiamato deliberative alignment, il sistema riconosce segnali critici e sceglie il comportamento più prudente; compreso ignorare richieste o deviare la conversazione verso risorse di supporto.
Nel documento ufficiale OpenAI dichiara: “I nostri modelli di ragionamento, come GPT-5-thinking, sono progettati per riflettere più a lungo prima di rispondere e per seguire con maggiore coerenza le linee guida sulla sicurezza.”
Tra le novità più importanti c’è l’instradamento automatico delle conversazioni ritenute sensibili. Se il sistema percepisce un rischio imminente, può decidere di passare la conversazione da un modello rapido a uno più riflessivo, ottimizzato per affrontare situazioni complesse. In alcuni casi, le chat potrebbero anche essere inoltrate a team specializzati o linee di emergenza; in conformità con politiche di sicurezza condivise con enti di salute pubblica.
Al progetto hanno contribuito oltre 90 medici provenienti da 30 Paesi, tra cui psichiatri, pediatri e esperti in dipendenze. Loro hanno affiancato l’Expert Council on Well-Being; rappresenta un gruppo di ricercatori specializzati nello sviluppo adolescenziale e nelle interazioni uomo-macchina. Il loro ruolo è quello di definire parametri, suggerire limiti, progettare test, per rendere l’esperienza ChatGPT meno vulnerabile a prompt dannosi o a dinamiche emotive pericolose.
Nuove dinamiche tra genitori, figli e AI
Il nuovo controllo parentale è pensato per sorvegliare e allo stesso tempo, per costruire fiducia. I genitori potranno ricevere notifiche mirate, ma anche decidere insieme ai figli quali funzionalità lasciare attive.
Come ha precisato un portavoce di OpenAI: “Le misure di sicurezza sono più efficaci durante conversazioni brevi; ma durante interazioni lunghe, alcune componenti del training possono degradarsi.” Questo riconoscimento di limiti strutturali invita a un uso equilibrato e consapevole dello strumento.
Quindi, un equilibrio non facile da trovare; molti adolescenti si sentono più liberi di aprirsi con un assistente virtuale che con un adulto. E proprio questa confidenza può trasformarsi in vulnerabilità. Il rischio è che il chatbot venga usato come surrogato affettivo o come unico spazio di ascolto. Quindi, l’intelligenza artificiale non deve sostituire il dialogo umano, ma affiancarlo. OpenAI afferma:“Vogliamo che le famiglie possano usare ChatGPT insieme e decidere cosa è meglio per la loro casa.” Questo implica una co-progettazione tra tecnologia e relazioni, con strumenti che non impongano ma suggeriscano.
Parental Controls di OpenAI: conclusioni
La nuova iniziativa di OpenAI è un tentativo concreto di rispondere a un problema che riguarda la tecnologia, ma anche l’etica, la psicologia e la genitorialità. L’introduzione dei Parental Controls in ChatGPT rappresenta un punto di partenza per osservare come queste funzionalità verranno utilizzate nella pratica quotidiana, quali saranno le reazioni delle famiglie e se davvero riusciranno a creare ambienti digitali più sicuri e umani.
Ciò che emerge, tuttavia, è la consapevolezza che l’IA non può agire in isolamento. Ha bisogno di un contesto, di limiti, di confronto con la realtà sociale e affettiva di chi la utilizza. Le collaborazioni con esperti di salute mentale, medici, psicologi e educatori nel processo di sviluppo dei modelli sono segnali incoraggianti. Ma non bastano a garantire che ogni rischio sia evitato.