ChatGPT: in arrivo controlli per riconoscere i problemi mentali

OpenAI aggiorna ChatGPT per rilevare segnali di disagio mentale e suggerire risorse utili, con nuovi avvisi per pause e interazioni sicure.

ChatGPT migliora nel rilevare situazioni a rischio

OpenAI ha annunciato importanti aggiornamenti a ChatGPT per migliorarne la capacità di riconoscere segnali di disagio mentale o emotivo. L’azienda sta collaborando con esperti e gruppi consultivi per fornire risorse basate su evidenze scientifiche nei casi in cui emergano comportamenti preoccupanti.

Negli ultimi mesi sono emerse segnalazioni di persone che, durante interazioni con il chatbot, hanno visto peggiorare illusioni o convinzioni deliranti. OpenAI stessa ha ammesso che la versione GPT-4o in alcuni casi non è stata in grado di riconoscere segni di dipendenza emotiva o delirio.

ChatGPT si aggiorna: promemoria pause e consigli meno assoluti

Stop alle risposte troppo compiacenti

Ad aprile, OpenAI aveva già ritirato un aggiornamento che rendeva ChatGPT eccessivamente “accondiscendente”, anche in contesti potenzialmente pericolosi. L’azienda ha definito queste interazioni “sgradevoli e destabilizzanti”, poiché potevano rafforzare comportamenti nocivi.

Per ridurre i rischi, una delle novità in arrivo è una modalità meno direttiva nelle situazioni delicate: di fronte a domande come “Dovrei lasciare il mio partner?”, ChatGPT non darà una risposta secca, ma guiderà l’utente a riflettere sulle possibili opzioni.

Nuovi avvisi per favorire pause durante le chat

Con quasi 700 milioni di utenti settimanali, OpenAI introdurrà anche avvisi durante sessioni lunghe di utilizzo. Apparirà un messaggio del tipo: “Hai chattato per un po’ — è un buon momento per una pausa?”, con possibilità di continuare o interrompere la conversazione.

Questi promemoria sono già comuni su piattaforme come YouTube, TikTok, Instagram o Xbox, e mirano a incoraggiare un uso più equilibrato del servizio. OpenAI continuerà a perfezionare il momento e il modo in cui vengono mostrati.

[fonte]