Negli ultimi mesi, la diffusione di ChatGPT ha superato ogni previsione, raggiungendo quasi 700 milioni di utenti attivi settimanali proprio a ridosso del lancio del tanto atteso GPT-5. Questo boom, se da un lato sottolinea l’utilità percepita dello strumento, ha anche sollevato preoccupazioni su un possibile uso eccessivo o compulsivo. OpenAI ha deciso di intervenire con una serie di aggiornamenti per incoraggiare abitudini digitali più sane, introducendo una nuova funzione: i promemoria per le pause.

La logica non è casuale. Molte piattaforme digitali valutano il proprio successo in base al tempo trascorso o ai clic ottenuti. Tuttavia, OpenAI adotta una prospettiva diversa. L’obiettivo è far sì che chi usa ChatGPT se ne vada dopo aver trovato ciò che cercava: una soluzione a un problema, una spiegazione chiara o un aiuto puntuale. E se questo accade in pochi minuti, tanto meglio. Quindi, il valore reale dello strumento non sta nel trattenere, ma nel fornire supporto mirato ed efficace.
La funzione dei promemoria si attiva in sessioni particolarmente lunghe. Dopo un certo numero di interazioni consecutive, ChatGPT propone un messaggio come: “Hai chattato per un po’, è un buon momento per una pausa?“. Nessun blocco forzato, nessuna limitazione; solo un invito gentile per stimolare una riflessione sul tempo trascorso davanti allo schermo. Questo approccio ricorda le notifiche che apparivano nelle console Nintendo Wii o Switch dopo lunghe sessioni di gioco; ma in questo caso, il contesto è più delicato.

ChatGPT riconosce il disagio mentale
Un altro aggiornamento è ancora più delicato: il riconoscimento di segnali di disagio emotivo o psicologico. Le conversazioni con ChatGPT spaziano spesso oltre il campo informativo; toccano sfere personali come relazioni sentimentali, scelte professionali, lutti o momenti di forte vulnerabilità. In questi contesti, fornire risposte nette rischia di aggravare la fragilità di chi si sta aprendo.
Quindi, i nuovi modelli, come GPT-4o, sono progettati per non dare risposte definitive su decisioni personali ad alto impatto. Alla domanda “Dovrei lasciare il mio partner?“, ad esempio, ChatGPT non risponderà con un “sì” o un “no”. Preferirà invece incoraggiare una riflessione, ponendo domande, aiutando a mettere in ordine i pensieri, elencando i pro e i contro di una scelta.
Questa sensibilità è il risultato anche di una collaborazione con oltre 90 medici da più di 30 paesi; tra cui psichiatri, pediatri e medici generici. L’intento è quello di creare rubriche e linee guida che aiutino il modello a riconoscere situazioni di vulnerabilità. In questi casi, le risposte offerte devono essere equilibrate e delicate, mostrando rispetto.
La lotta alla piaggeria: una sfida di credibilità per l’IA
Uno dei problemi più discussi nell’utilizzo prolungato di ChatGPT è stato il cosiddetto comportamento lusinghiero o compiacente. In alcuni aggiornamenti recenti, in particolare quello di aprile 2025, il modello era diventato troppo “accondiscendente”. Rispondeva in modo gentile e rassicurante, ma spesso poco utile; tendeva a confermare anche affermazioni errate o a evitare ogni forma di contraddizione.
Le critiche ricevute sono state rilevanti, perché il modello, così configurato, poteva rinforzare convinzioni distorte; anche nei casi più gravi, come quelli legati a ideazioni suicide o deliri. OpenAI ha annullato l’aggiornamento che aveva introdotto tali comportamenti e ha promesso una revisione profonda dei criteri di progettazione. Ora si punta su una maggiore trasparenza, onestà e capacità critica del modello. In quest’ottica, OpenAI ha avviato una raccolta di feedback mirati, con meccanismi più sofisticati di valutazione; l’obiettivo è il benessere a lungo termine anziché il consenso immediato.
Dove sta andando ChatGPT?
L’introduzione dei promemoria per le pause e l’attenzione alla salute mentale non sono semplici dettagli. Sono l’indizio che OpenAI vuole spostare il focus da un uso frenetico dell’IA a una relazione più equilibrata e consapevole. Non si tratta più solo di ottenere risposte, ma di farlo nel modo giusto, con attenzione al contesto e alla persona.
ChatGPT non vuole solo rispondere, ma deve aiutare senza invadere, stimolare senza sostituire, consigliare senza dominare. Il futuro dell’intelligenza artificiale sta nella sua capacità di dialogare con empatia e misura, ricordando che dietro ogni domanda c’è una persona.