Дослідження: ChatGPT і Gemini дають прямі відповіді на небезпечні питання про суїцид

Джерело: LiveScience

Штучний інтелект може становити серйозний ризик у питаннях психічного здоров’я – дослідження показало, що чат-боти ChatGPT від OpenAI та Gemini від Google здатні давати прямі й детальні відповіді на високоризикові запити про суїцид. Про це йдеться у статті, опублікованій у журналі Psychiatric Services.

Науковці перевірили реакцію ChatGPT, Gemini та Claude від Anthropic на 30 різних гіпотетичних запитів, пов’язаних із суїцидом, які клінічні експерти класифікували за рівнями ризику – від дуже низького до дуже високого. З’ясувалося, що ChatGPT найчастіше дає прямі відповіді на запитання з високим ризиком (78% випадків), тоді як Claude робить це у 69% випадків, а Gemini – лише у 20%. При цьому жоден з чат-ботів не відповідав на запити з найвищим рівнем ризику, якщо брати лише один запит.

Однак журналісти Live Science, провівши власне тестування, з’ясували, що ChatGPT (GPT-4) та Gemini (2.5 Flash) у певних сценаріях здатні давати навіть дуже високоризикові відповіді, включно з інформацією про летальність методів. В окремих випадках ChatGPT після кількох послідовних запитів надавав детальну відповідь, попри те що система спершу позначала таке питання як неприйнятне. Відповідь містила і слова підтримки, і пропозицію знайти гарячу лінію допомоги, але водночас надавала фактичні дані, що експерти оцінили як небезпечні.

Автор дослідження, науковець RAND Corporation і викладач Гарвардської медичної школи Райан Макбейн назвав результати “надзвичайно тривожними”. Він наголосив, що чат-боти можуть бути вразливими до маніпуляцій у діалогах, де користувач поступово підводить систему до чутливої теми.

Дослідження вказує на потребу створення прозорих стандартів безпеки для ШІ-систем, які могли б перевіряти незалежні експерти. Водночас у компаніях-виробниках заявляють про покращення захисту: OpenAI посилається на GPT-5, який, за їхніми словами, краще уникає «небажаних» відповідей у кризових ситуаціях, тоді як Google наголошує на суворих правилах для своїх моделей.

Проте експерти застерігають – оскільки чат-боти стають для деяких користувачів емоційною опорою, від їхніх відповідей може залежати життя, а значить ризики потребують постійного контролю та посиленого моніторингу.

  • Житель Південної Каліфорнії Ендрю Гарсія відшукав свій викрадений Lamborghini Huracan за допомогою штучного інтелекту майже за дві тисячі кілометрів від дому – у Денвері, штат Колорадо. Автомобіль вдалося повернути майже через два роки після зникнення.

Міністерство юстиції подало до ВАКС позов до Кеворкяна Костянтина Ервантовича щодо застосування до нього санкції, передбаченої пунктом 1-1 частини 1 статті 4 ЗУ «Про санкції».

Російський суд у Ростові-на-Дону призначив 18 років колонії суворого режиму українському військовополоненому Дмитру Ремезу.

У Національній службі погоди США (NWS) зростає кадрова криза через масові скорочення адміністрації Дональда Трампа.

МАГАТЕ офіційно підтвердило небезпечність ситуації, що склалася на Запорізькій атомній електростанції, котра через дії російської армії вже десятий день залишається без основного джерела живлення.

Країни “Великої сімки” наближаються до угоди про значне посилення санкцій проти Росії через її небажання припинити війну проти України.