Дослідження: ChatGPT і Gemini дають прямі відповіді на небезпечні питання про суїцид
Джерело: LiveScience
Штучний інтелект може становити серйозний ризик у питаннях психічного здоров’я – дослідження показало, що чат-боти ChatGPT від OpenAI та Gemini від Google здатні давати прямі й детальні відповіді на високоризикові запити про суїцид. Про це йдеться у статті, опублікованій у журналі Psychiatric Services.
Науковці перевірили реакцію ChatGPT, Gemini та Claude від Anthropic на 30 різних гіпотетичних запитів, пов’язаних із суїцидом, які клінічні експерти класифікували за рівнями ризику – від дуже низького до дуже високого. З’ясувалося, що ChatGPT найчастіше дає прямі відповіді на запитання з високим ризиком (78% випадків), тоді як Claude робить це у 69% випадків, а Gemini – лише у 20%. При цьому жоден з чат-ботів не відповідав на запити з найвищим рівнем ризику, якщо брати лише один запит.
Однак журналісти Live Science, провівши власне тестування, з’ясували, що ChatGPT (GPT-4) та Gemini (2.5 Flash) у певних сценаріях здатні давати навіть дуже високоризикові відповіді, включно з інформацією про летальність методів. В окремих випадках ChatGPT після кількох послідовних запитів надавав детальну відповідь, попри те що система спершу позначала таке питання як неприйнятне. Відповідь містила і слова підтримки, і пропозицію знайти гарячу лінію допомоги, але водночас надавала фактичні дані, що експерти оцінили як небезпечні.
Автор дослідження, науковець RAND Corporation і викладач Гарвардської медичної школи Райан Макбейн назвав результати “надзвичайно тривожними”. Він наголосив, що чат-боти можуть бути вразливими до маніпуляцій у діалогах, де користувач поступово підводить систему до чутливої теми.
Дослідження вказує на потребу створення прозорих стандартів безпеки для ШІ-систем, які могли б перевіряти незалежні експерти. Водночас у компаніях-виробниках заявляють про покращення захисту: OpenAI посилається на GPT-5, який, за їхніми словами, краще уникає «небажаних» відповідей у кризових ситуаціях, тоді як Google наголошує на суворих правилах для своїх моделей.
Проте експерти застерігають – оскільки чат-боти стають для деяких користувачів емоційною опорою, від їхніх відповідей може залежати життя, а значить ризики потребують постійного контролю та посиленого моніторингу.
- Житель Південної Каліфорнії Ендрю Гарсія відшукав свій викрадений Lamborghini Huracan за допомогою штучного інтелекту майже за дві тисячі кілометрів від дому – у Денвері, штат Колорадо. Автомобіль вдалося повернути майже через два роки після зникнення.
У Киргизстані колишнього керівника спецслужб Камчибека Ташієва звинуватили у підготовці захоплення влади. Справу розглядатимуть у закритому режимі, а фігурантам загрожує до 20 років позбавлення волі.
Українські прикордонники під час виконання бойових завдань врятували косулю, яка заплуталась в антидроновій сітці. Налякана тварина не могла самостійно вибратися з пастки, тому військові обережно звільнили її та відпустили назад до лісу.
Федеральна влада США висунула кримінальні обвинувачення двом іноземним компаніям та технічному спеціалісту у справі про обвал мосту Francis Scott Key Bridge у Балтіморі. Катастрофа сталася у березні 2024 року після втрати живлення контейнеровозом Dali.
Народний депутат Ярослав Железняк заявив, що під час будівництва котеджного містечка “Династія” у Козині на територію комплексу нібито завозили пісок, незаконно вивезений із кладовища в Українці. За його словами, цей пісок досі перебуває під арештом у межах кримінального провадження.
Витрати США на війну з Іраном зросли до 29 мільярдів доларів. Нову оцінку озвучили в Пентагоні під час слухань у Конгресі на тлі нестабільного перемир’я та критики з боку демократів.