Дослідження: ChatGPT і Gemini дають прямі відповіді на небезпечні питання про суїцид

Джерело: LiveScience

Штучний інтелект може становити серйозний ризик у питаннях психічного здоров’я – дослідження показало, що чат-боти ChatGPT від OpenAI та Gemini від Google здатні давати прямі й детальні відповіді на високоризикові запити про суїцид. Про це йдеться у статті, опублікованій у журналі Psychiatric Services.

Науковці перевірили реакцію ChatGPT, Gemini та Claude від Anthropic на 30 різних гіпотетичних запитів, пов’язаних із суїцидом, які клінічні експерти класифікували за рівнями ризику – від дуже низького до дуже високого. З’ясувалося, що ChatGPT найчастіше дає прямі відповіді на запитання з високим ризиком (78% випадків), тоді як Claude робить це у 69% випадків, а Gemini – лише у 20%. При цьому жоден з чат-ботів не відповідав на запити з найвищим рівнем ризику, якщо брати лише один запит.

Однак журналісти Live Science, провівши власне тестування, з’ясували, що ChatGPT (GPT-4) та Gemini (2.5 Flash) у певних сценаріях здатні давати навіть дуже високоризикові відповіді, включно з інформацією про летальність методів. В окремих випадках ChatGPT після кількох послідовних запитів надавав детальну відповідь, попри те що система спершу позначала таке питання як неприйнятне. Відповідь містила і слова підтримки, і пропозицію знайти гарячу лінію допомоги, але водночас надавала фактичні дані, що експерти оцінили як небезпечні.

Автор дослідження, науковець RAND Corporation і викладач Гарвардської медичної школи Райан Макбейн назвав результати “надзвичайно тривожними”. Він наголосив, що чат-боти можуть бути вразливими до маніпуляцій у діалогах, де користувач поступово підводить систему до чутливої теми.

Дослідження вказує на потребу створення прозорих стандартів безпеки для ШІ-систем, які могли б перевіряти незалежні експерти. Водночас у компаніях-виробниках заявляють про покращення захисту: OpenAI посилається на GPT-5, який, за їхніми словами, краще уникає «небажаних» відповідей у кризових ситуаціях, тоді як Google наголошує на суворих правилах для своїх моделей.

Проте експерти застерігають – оскільки чат-боти стають для деяких користувачів емоційною опорою, від їхніх відповідей може залежати життя, а значить ризики потребують постійного контролю та посиленого моніторингу.

  • Житель Південної Каліфорнії Ендрю Гарсія відшукав свій викрадений Lamborghini Huracan за допомогою штучного інтелекту майже за дві тисячі кілометрів від дому – у Денвері, штат Колорадо. Автомобіль вдалося повернути майже через два роки після зникнення.

У 2038 році на зміну легендарному авіаносцю “Шарль де Голль” прийде новий атомний гігант. Еммануель Макрон підтвердив, що остаточне рішення щодо проєкту PANG прийнято, а роботи над ключовими компонентами вже тривають.

Вісім криголамів-гігантів прокладають шлях для “тіньового флоту” танкерів, намагаючись забезпечити наповнення російського бюджету ціною виснаження ресурсів та потенційних екологічних ризиків у регіоні Крайньої Півночі.

Через неможливість використовувати авіацію чи броньовану техніку для евакуації, українські сили покладаються на флот наземних безпілотників, які вже врятували сотні життів, ставши непомітними та ефективними “ангелами-охоронцями” на передовій.

Чоловік, чий дім знищив ворожий дрон, дві доби провів у машині, ділячись залишками сухарів із рудою куркою, яку він вважає своєю найкращою подругою.

Звіт ФБР майже тридцятирічної давнини свідчить про те, що правоохоронці мали всі підстави заарештувати фінансиста ще в середині 90-х. Бездіяльність агентів дозволила Епштейну продовжувати сексуальну експлуатацію неповнолітніх протягом наступних тридцяти років.