Дослідження: ChatGPT і Gemini дають прямі відповіді на небезпечні питання про суїцид

Джерело: LiveScience

Штучний інтелект може становити серйозний ризик у питаннях психічного здоров’я – дослідження показало, що чат-боти ChatGPT від OpenAI та Gemini від Google здатні давати прямі й детальні відповіді на високоризикові запити про суїцид. Про це йдеться у статті, опублікованій у журналі Psychiatric Services.

Науковці перевірили реакцію ChatGPT, Gemini та Claude від Anthropic на 30 різних гіпотетичних запитів, пов’язаних із суїцидом, які клінічні експерти класифікували за рівнями ризику – від дуже низького до дуже високого. З’ясувалося, що ChatGPT найчастіше дає прямі відповіді на запитання з високим ризиком (78% випадків), тоді як Claude робить це у 69% випадків, а Gemini – лише у 20%. При цьому жоден з чат-ботів не відповідав на запити з найвищим рівнем ризику, якщо брати лише один запит.

Однак журналісти Live Science, провівши власне тестування, з’ясували, що ChatGPT (GPT-4) та Gemini (2.5 Flash) у певних сценаріях здатні давати навіть дуже високоризикові відповіді, включно з інформацією про летальність методів. В окремих випадках ChatGPT після кількох послідовних запитів надавав детальну відповідь, попри те що система спершу позначала таке питання як неприйнятне. Відповідь містила і слова підтримки, і пропозицію знайти гарячу лінію допомоги, але водночас надавала фактичні дані, що експерти оцінили як небезпечні.

Автор дослідження, науковець RAND Corporation і викладач Гарвардської медичної школи Райан Макбейн назвав результати “надзвичайно тривожними”. Він наголосив, що чат-боти можуть бути вразливими до маніпуляцій у діалогах, де користувач поступово підводить систему до чутливої теми.

Дослідження вказує на потребу створення прозорих стандартів безпеки для ШІ-систем, які могли б перевіряти незалежні експерти. Водночас у компаніях-виробниках заявляють про покращення захисту: OpenAI посилається на GPT-5, який, за їхніми словами, краще уникає «небажаних» відповідей у кризових ситуаціях, тоді як Google наголошує на суворих правилах для своїх моделей.

Проте експерти застерігають – оскільки чат-боти стають для деяких користувачів емоційною опорою, від їхніх відповідей може залежати життя, а значить ризики потребують постійного контролю та посиленого моніторингу.

  • Житель Південної Каліфорнії Ендрю Гарсія відшукав свій викрадений Lamborghini Huracan за допомогою штучного інтелекту майже за дві тисячі кілометрів від дому – у Денвері, штат Колорадо. Автомобіль вдалося повернути майже через два роки після зникнення.

Президент Володимир Зеленський оголосив про старт робіт на 245 об’єктах енергетики в межах підготовки до наступного опалювального сезону. Під час наради з регіонами він наголосив, що відновлення триває за рахунок внутрішніх ресурсів, оскільки багатомільярдний пакет фінансової допомоги від Євросоюзу залишається заблокованим.

Суд Мангеттена затвердив план компенсацій від Bank of America, ставши на бік близько 70 жінок, чиї права були порушені через ігнорування банком кримінальних транзакцій.

HBO покаже спеціальний випуск про створення першого сезону серіалу “Гаррі Поттер”, який розкриває процес роботи над проєктом за лаштунками. Прем’єра програми під назвою “Знайти Гаррі: мистецтво створення магії” відбудеться 5 квітня на HBO та стримінгу HBO Max у США, Великій Британії та Ірландії, а також на інших обраних ринках.

Володимир Кудрицький звинуватив керівництво НКРЕКП у свідомій дестабілізації енергосистеми та зриві планів з будівництва нових електростанцій. За його словами, встановлені регулятором граничні ціни змушують Україну обмежувати споживання навіть у теплий період, коли дефіцит мав би покриватися імпортом.

2 квітня у світі відзначають Всесвітній день поширення інформації про аутизм. Його запровадила Організація Об’єднаних Націй у 2007 році, ухваливши відповідну резолюцію Генеральної Асамблеї. Ідея полягала в тому, щоб на міжнародному рівні привернути увагу до життя людей із розладами аутистичного спектра та до того, з якими бар’єрами вони стикаються щодня – у навчанні, роботі й соціальному середовищі.