Дослідження: ChatGPT і Gemini дають прямі відповіді на небезпечні питання про суїцид

Джерело: LiveScience

Штучний інтелект може становити серйозний ризик у питаннях психічного здоров’я – дослідження показало, що чат-боти ChatGPT від OpenAI та Gemini від Google здатні давати прямі й детальні відповіді на високоризикові запити про суїцид. Про це йдеться у статті, опублікованій у журналі Psychiatric Services.

Науковці перевірили реакцію ChatGPT, Gemini та Claude від Anthropic на 30 різних гіпотетичних запитів, пов’язаних із суїцидом, які клінічні експерти класифікували за рівнями ризику – від дуже низького до дуже високого. З’ясувалося, що ChatGPT найчастіше дає прямі відповіді на запитання з високим ризиком (78% випадків), тоді як Claude робить це у 69% випадків, а Gemini – лише у 20%. При цьому жоден з чат-ботів не відповідав на запити з найвищим рівнем ризику, якщо брати лише один запит.

Однак журналісти Live Science, провівши власне тестування, з’ясували, що ChatGPT (GPT-4) та Gemini (2.5 Flash) у певних сценаріях здатні давати навіть дуже високоризикові відповіді, включно з інформацією про летальність методів. В окремих випадках ChatGPT після кількох послідовних запитів надавав детальну відповідь, попри те що система спершу позначала таке питання як неприйнятне. Відповідь містила і слова підтримки, і пропозицію знайти гарячу лінію допомоги, але водночас надавала фактичні дані, що експерти оцінили як небезпечні.

Автор дослідження, науковець RAND Corporation і викладач Гарвардської медичної школи Райан Макбейн назвав результати “надзвичайно тривожними”. Він наголосив, що чат-боти можуть бути вразливими до маніпуляцій у діалогах, де користувач поступово підводить систему до чутливої теми.

Дослідження вказує на потребу створення прозорих стандартів безпеки для ШІ-систем, які могли б перевіряти незалежні експерти. Водночас у компаніях-виробниках заявляють про покращення захисту: OpenAI посилається на GPT-5, який, за їхніми словами, краще уникає «небажаних» відповідей у кризових ситуаціях, тоді як Google наголошує на суворих правилах для своїх моделей.

Проте експерти застерігають – оскільки чат-боти стають для деяких користувачів емоційною опорою, від їхніх відповідей може залежати життя, а значить ризики потребують постійного контролю та посиленого моніторингу.

  • Житель Південної Каліфорнії Ендрю Гарсія відшукав свій викрадений Lamborghini Huracan за допомогою штучного інтелекту майже за дві тисячі кілометрів від дому – у Денвері, штат Колорадо. Автомобіль вдалося повернути майже через два роки після зникнення.

У листопаді Туреччина скоротила імпорт російської нафти Urals на третину проти жовтня на тлі посилення західних санкцій.

Уповноважена із захисту державної мови Олена Івановська засудила кампанію цькування Ірини Савченко-Кісельової, котра вимагала дотримання мовного законодавства в одному з дитсадків Білої Церкви. Вона наголосила, що право дітей на освіту державною мовою є законною вимогою.

Вищий антикорупційний суд (ВАКС) заочно обрав запобіжний захід у вигляді тримання під вартою бізнесмену Тимуру Міндічу – ключовому фігуранту масштабної справи НАБУ щодо розкрадання коштів у державній компанії “Енергоатом”.

В Росії власники Porsche постали перед масовим блокуванням автомобілів через проблеми у роботі штатної супутникової сигналізації.

Ґрунтуючись на особистому досвіді найбільшого іноземного інвестора у РФ, Броудер попередив, що російський режим не дозволить американцям заробити ані копійки, замість цього використовуючи шахрайство та насильство.