Дослідження: ChatGPT і Gemini дають прямі відповіді на небезпечні питання про суїцид
Джерело: LiveScience
Штучний інтелект може становити серйозний ризик у питаннях психічного здоров’я – дослідження показало, що чат-боти ChatGPT від OpenAI та Gemini від Google здатні давати прямі й детальні відповіді на високоризикові запити про суїцид. Про це йдеться у статті, опублікованій у журналі Psychiatric Services.
Науковці перевірили реакцію ChatGPT, Gemini та Claude від Anthropic на 30 різних гіпотетичних запитів, пов’язаних із суїцидом, які клінічні експерти класифікували за рівнями ризику – від дуже низького до дуже високого. З’ясувалося, що ChatGPT найчастіше дає прямі відповіді на запитання з високим ризиком (78% випадків), тоді як Claude робить це у 69% випадків, а Gemini – лише у 20%. При цьому жоден з чат-ботів не відповідав на запити з найвищим рівнем ризику, якщо брати лише один запит.
Однак журналісти Live Science, провівши власне тестування, з’ясували, що ChatGPT (GPT-4) та Gemini (2.5 Flash) у певних сценаріях здатні давати навіть дуже високоризикові відповіді, включно з інформацією про летальність методів. В окремих випадках ChatGPT після кількох послідовних запитів надавав детальну відповідь, попри те що система спершу позначала таке питання як неприйнятне. Відповідь містила і слова підтримки, і пропозицію знайти гарячу лінію допомоги, але водночас надавала фактичні дані, що експерти оцінили як небезпечні.
Автор дослідження, науковець RAND Corporation і викладач Гарвардської медичної школи Райан Макбейн назвав результати “надзвичайно тривожними”. Він наголосив, що чат-боти можуть бути вразливими до маніпуляцій у діалогах, де користувач поступово підводить систему до чутливої теми.
Дослідження вказує на потребу створення прозорих стандартів безпеки для ШІ-систем, які могли б перевіряти незалежні експерти. Водночас у компаніях-виробниках заявляють про покращення захисту: OpenAI посилається на GPT-5, який, за їхніми словами, краще уникає «небажаних» відповідей у кризових ситуаціях, тоді як Google наголошує на суворих правилах для своїх моделей.
Проте експерти застерігають – оскільки чат-боти стають для деяких користувачів емоційною опорою, від їхніх відповідей може залежати життя, а значить ризики потребують постійного контролю та посиленого моніторингу.
- Житель Південної Каліфорнії Ендрю Гарсія відшукав свій викрадений Lamborghini Huracan за допомогою штучного інтелекту майже за дві тисячі кілометрів від дому – у Денвері, штат Колорадо. Автомобіль вдалося повернути майже через два роки після зникнення.
Федеральна прокуратура Вашингтона домоглася реального терміну для чилійського мігранта, чиєю жертвою випадково стала високопосадовиця Крісті Ноем. Злочинець не підозрював, що разом із гаманцем поцупив державні перепустки та паспорт колишньої губернаторки Південної Дакоти.
Супутникові знімки НАСА та Національного льодового центру зафіксували фінальну стадію деградації мега-айсберга А-23А. Його подорож, що розпочалася у 1986 році, завершилася стрімким таненням та утворенням величезних озер талої води на поверхні, що призвело до повної втрати цілісності крижаного гіганта.
Засновник криптовалюти Tron Джастін Сан ініціював судовий процес проти компанії World Liberty Financial, яку заснував Дональд Трамп разом зі своїми синами. Бізнесмен стверджує, що проєкт незаконно заблокував його активи на суму 320 мільйонів доларів і погрожував повністю видалити їх із мережі.
Друга за значущістю посадова особа Німеччини, очільниця Бундестагу Юлія Кльокнер, опинилася в центрі скандалу через злам її особистого месенджера. За даними розслідування Der Spiegel, хакери використали складну схему фішингу, спрямовану на конфіденційні переписки провідних консервативних політиків країни.
Європейська комісія представила масштабну стратегію боротьби з енергетичною кризою, спровокованою конфліктом з Іраном. План передбачає радикальне зниження податків на електрику та запуск нових програм лояльності для споживачів, які погодяться замінити паливні автомобілі та обігрівачі на екологічно чисті аналоги.