L’azienda inserisce notifiche per limitare l’uso e modifica il comportamento dell’assistente sulle domande a rischio.
Negli ultimi mesi, OpenAI ha avviato una revisione del modo in cui il suo chatbot ChatGPT interagisce con gli utenti. Il primo passo visibile riguarda un sistema di avvisi che invita a interrompere la conversazione dopo un uso prolungato. Un cambiamento che si lega a crescenti timori sull’impatto dell’intelligenza artificiale conversazionale sulla salute mentale. La seconda novità riguarda invece il comportamento del modello: non risponderà più in modo diretto a domande sensibili, soprattutto se ritenute ad “alto rischio decisionale”. La strategia punta a ridurre l’uso compulsivo e a promuovere interazioni più sane, meno impulsive e meno dipendenti.
Pausa obbligatoria? No, ma ci sarà un invito a riflettere
La modifica più immediata è quella che riguarda i cosiddetti “promemoria gentili”, piccoli avvisi che appariranno sotto forma di popup durante l’utilizzo. Se l’utente resta connesso troppo a lungo, riceverà un messaggio che chiede se sia il momento giusto per prendersi una pausa. Nessuna limitazione concreta sull’uso, almeno per ora: sarà l’utente a scegliere se continuare oppure staccare per qualche minuto. La decisione nasce da una riflessione interna a OpenAI, preoccupata da come i propri strumenti vengano utilizzati in modo emotivamente intenso, al limite della dipendenza.

L’azienda riconosce che il confine tra supporto digitale e uso eccessivo è sottile. Le nuove notifiche vogliono agire come deterrente lieve, ma persistente, senza interrompere bruscamente la conversazione. Si punta a un uso più consapevole, in particolare tra chi usa ChatGPT in modo continuativo o in contesti personali delicati.
Su temi delicati il chatbot cambierà tono e strategia
OpenAI ha confermato che ChatGPT non offrirà più risposte nette su decisioni personali ad alto rischio. In presenza di domande come “Devo lasciare il mio partner?” o “Mi conviene cambiare lavoro?”, il chatbot non darà più una risposta diretta. Al suo posto, cercherà di proporre domande riflessive, elementi di valutazione e spunti per comprendere meglio i pro e i contro della scelta.
Una linea guida nuova che nasce da una consapevolezza: sempre più persone cercano consigli emotivi o confortoattraverso l’intelligenza artificiale, anche nei momenti più vulnerabili. L’azienda ha ammesso che in alcuni casi il modello non ha riconosciuto segnali di disagio emotivo, lasciando spazio a risposte potenzialmente dannose. Per questo motivo, i modelli futuri saranno allenati anche per intercettare segnali di sofferenza psicologica e indirizzare, dove possibile, verso risorse specifiche o strutture competenti.
Lo scenario è in evoluzione e segna una discontinuità rispetto agli inizi, quando ChatGPT era pensato solo come assistente informativo. Oggi, invece, diventa sempre più uno spazio digitale frequentato da utenti fragili, e per questo motivo OpenAI sta cercando di ricalibrarne il tono, evitando di trasformare l’IA in un confidente digitalepericolosamente affidabile.
