Дослідження: ChatGPT і Gemini дають прямі відповіді на небезпечні питання про суїцид
Джерело: LiveScience
Штучний інтелект може становити серйозний ризик у питаннях психічного здоров’я – дослідження показало, що чат-боти ChatGPT від OpenAI та Gemini від Google здатні давати прямі й детальні відповіді на високоризикові запити про суїцид. Про це йдеться у статті, опублікованій у журналі Psychiatric Services.
Науковці перевірили реакцію ChatGPT, Gemini та Claude від Anthropic на 30 різних гіпотетичних запитів, пов’язаних із суїцидом, які клінічні експерти класифікували за рівнями ризику – від дуже низького до дуже високого. З’ясувалося, що ChatGPT найчастіше дає прямі відповіді на запитання з високим ризиком (78% випадків), тоді як Claude робить це у 69% випадків, а Gemini – лише у 20%. При цьому жоден з чат-ботів не відповідав на запити з найвищим рівнем ризику, якщо брати лише один запит.
Однак журналісти Live Science, провівши власне тестування, з’ясували, що ChatGPT (GPT-4) та Gemini (2.5 Flash) у певних сценаріях здатні давати навіть дуже високоризикові відповіді, включно з інформацією про летальність методів. В окремих випадках ChatGPT після кількох послідовних запитів надавав детальну відповідь, попри те що система спершу позначала таке питання як неприйнятне. Відповідь містила і слова підтримки, і пропозицію знайти гарячу лінію допомоги, але водночас надавала фактичні дані, що експерти оцінили як небезпечні.
Автор дослідження, науковець RAND Corporation і викладач Гарвардської медичної школи Райан Макбейн назвав результати “надзвичайно тривожними”. Він наголосив, що чат-боти можуть бути вразливими до маніпуляцій у діалогах, де користувач поступово підводить систему до чутливої теми.
Дослідження вказує на потребу створення прозорих стандартів безпеки для ШІ-систем, які могли б перевіряти незалежні експерти. Водночас у компаніях-виробниках заявляють про покращення захисту: OpenAI посилається на GPT-5, який, за їхніми словами, краще уникає «небажаних» відповідей у кризових ситуаціях, тоді як Google наголошує на суворих правилах для своїх моделей.
Проте експерти застерігають – оскільки чат-боти стають для деяких користувачів емоційною опорою, від їхніх відповідей може залежати життя, а значить ризики потребують постійного контролю та посиленого моніторингу.
- Житель Південної Каліфорнії Ендрю Гарсія відшукав свій викрадений Lamborghini Huracan за допомогою штучного інтелекту майже за дві тисячі кілометрів від дому – у Денвері, штат Колорадо. Автомобіль вдалося повернути майже через два роки після зникнення.
Пресслужба Міжнародного олімпійського комітету повідомила, якими будуть офіційні талісмани зимових Олімпійських і Паралімпійських ігор в Мілані-Кортіні.
Робітники КП “Центру поводження з тваринами” разом із волонтерками-швачками пошили 100 теплих светрів для короткошерстих собак, які перебувають в Харківському міському притулку.
В одній із церков у центрі Рима після реставрації з’явився образ ангела, який має риси, схожі на прем’єр-міністерку Італії Джорджу Мелоні. Публікація викликала резонанс, після чого Міністерство культури Італії оголосило про перевірку, а сама Мелоні відреагувала на ситуацію з гумором.
У ніч із неділі на понеділок, 2 лютого, настане друга повня цього року – так званий Сніжний Місяць. Лютнева повня традиційно пов’язана із зимовою порою та сильними снігопадами, характерними для цього періоду в Північній Америці.
Демократи в Палаті представників США повідомили керівництво Республіканської партії, що не підтримуватимуть ухвалення пакета фінансування за прискореною процедурою. Такий крок ускладнює план спікера Палати представників Майка Джонсона швидко ухвалити документ і відновити роботу федерального уряду.