Мільйон користувачів щотижня говорять із ChatGPT про суїцид: OpenAI оприлюднила тривожні дані
- OpenAI повідомила, що понад мільйон активних користувачів ChatGPT щотижня ведуть розмови, які містять ознаки суїцидальних намірів (0,15% від 800+ млн користувачів).
- Сотні тисяч користувачів також демонструють ознаки психозу, манії або підвищеної емоційної прихильності до чатбота.
- Компанія працює над поліпшенням реакції моделей на проблеми психічного здоров’я, консультуючись із понад 170 експертами.
- Нова версія моделі GPT-5 продемонструвала 91% відповідності бажаній поведінці у суїцидальних розмовах, порівняно з 77% у попередній версії.
- OpenAI перебуває під тиском після судового позову від батьків підлітка, який покінчив життя самогубством після розмов із ChatGPT про суїцид.
Компанія OpenAI оприлюднила нові дані, які ілюструють, наскільки поширені серед користувачів ChatGPT розмови про проблеми психічного здоров’я, включно із суїцидальними намірами. За даними компанії, щотижня 0,15% активних користувачів ChatGPT ведуть «бесіди, які містять явні ознаки потенційного планування чи наміру суїциду». З огляду на те, що щотижнева активна аудиторія чатбота перевищує 800 мільйонів людей, це означає, що понад мільйон осіб щотижня обговорюють із ШІ самогубство.
Компанія також зазначає, що приблизно такий же відсоток користувачів демонструє «підвищений рівень емоційної прихильності до ChatGPT». Крім того, сотні тисяч людей щотижня виявляють у розмовах із чатботом ознаки психозу чи манії. Хоча OpenAI називає такі розмови «вкрай рідкісними» і складними для точного вимірювання, за оцінками, ці проблеми все ж торкаються сотень тисяч користувачів щотижня.
OpenAI поділилася цією інформацією в рамках оголошення про свої останні зусилля, спрямовані на поліпшення реакції моделей на користувачів із проблемами психічного здоров’я. Компанія заявила, що під час роботи над оновленням ChatGPT вона консультувалася з понад 170 експертами з психічного здоров’я. Ці клініцисти засвідчили, що найновіша версія ChatGPT «реагує більш доречно та послідовно, ніж попередні».
Проблема психічного здоров’я стає для OpenAI питанням виключної важливості, оскільки останнім часом з’явилися численні повідомлення про негативний вплив чатботів на користувачів. Дослідники раніше виявили, що ШІ-боти можуть посилювати небезпечні переконання і заводити деяких користувачів у «оманливі кролячі нори», підкріплюючи їхні хибні ідеї.
Ситуація призвела до серйозних юридичних наслідків. Наразі на OpenAI подали до суду батьки 16-річного хлопця, який обговорював із ChatGPT свої суїцидальні думки незадовго до самогубства. Також генеральні прокурори штатів Каліфорнія та Делавер, які можуть заблокувати заплановану компанією реструктуризацію, попередили OpenAI про необхідність захисту молодих користувачів їхніх продуктів.
Раніше цього місяця генеральний директор OpenAI Сем Альтман повідомив у дописі на Х, що компанії вдалося «пом’якшити серйозні проблеми психічного здоров’я» в ChatGPT, хоча конкретних деталей він тоді не надав. Дані, оприлюднені в понеділок, є свідченням цього, хоча й порушують ширші питання про масштаби самої проблеми. При цьому Альтман зазначив, що OpenAI має намір послабити деякі обмеження, зокрема дозволяючи дорослим користувачам вступати в еротичні розмови з чатботом.
Згідно із заявою компанії, оновлена версія моделі GPT-5 видає «бажані відповіді» на запити, пов’язані з психічним здоров’ям, приблизно на 65% частіше, ніж попередня версія. Під час оцінювання, що тестувало реакції ШІ на суїцидальні розмови, нова модель GPT-5 продемонструвала 91% відповідності бажаній поведінці компанії, тоді як попередня версія GPT-5 мала лише 77%. Крім того, остання версія GPT-5 краще витримує захисні механізми OpenAI у довгих розмовах, де раніше ефективність цих механізмів знижувалася.
На додаток до цих зусиль, OpenAI додає нові оцінки для вимірювання найбільш серйозних викликів, пов’язаних із психічним здоров’ям. Тепер базове тестування безпеки моделей включатиме показники емоційної залежності та не суїцидальних невідкладних ситуацій, пов’язаних із психічним здоров’ям.
Компанія також запровадила більше засобів контролю для батьків дітей, які користуються ChatGPT. Наразі розробляється система прогнозування віку, яка має автоматично виявляти дітей, що користуються чатботом, і застосовувати до них суворіші запобіжні заходи.
Попри помітне підвищення безпеки GPT-5 у порівнянні з попередніми моделями, залишається незрозумілим, наскільки стійкими будуть ці проблеми. Частка відповідей ChatGPT все ще вважається OpenAI «небажаною», і компанія продовжує надавати мільйонам платних підписників доступ до своїх старих і менш безпечних моделей, включно з GPT-4o.
Якщо у вас або вашого близького виникають суїцидальні думки, не залишайтеся наодинці — зверніться за допомогою. В Україні працює цілодобова, безплатна та анонімна гаряча лінія Lifeline Ukraine — телефонуйте 7333 з мобільного. Ви також можете звернутися на гарячу лінію психологічної підтримки Національної психологічної асоціації за номером 0 800 100 102. Попросити про допомогу — це важливий крок до виходу з кризи.
- Lifeline Ukraine: 7333 (цілодобово, конфіденційно).
- Психологічна підтримка НПА: 0 800 100 102 (майже цілодобово).
- У разі загрози негайної небезпеки — телефонуйте 103 (швидка допомога).
