OpenAI хоче інформувати владу про суїцидальні наміри користувачів ChatGPT
Джерело: The Guardian
Співзасновник і гендиректор OpenAI Сем Альтман заявив, що компанія обговорює можливість повідомляти владі про випадки, коли молоді користувачі говорять із ChatGPT про самогубство.
За словами Альтмана, щотижня до 1500 людей у світі можуть ділитися з ChatGPT думками про суїцид.
Водночас вказано, що рішення навчити систему повідомляти владу про такі випадки ще не ухвалене. Альтман зауважив, що це – радикальний крок для компанії, адже “конфіденційність користувачів має величезне значення”.
Утім, гендиректор OpenAI вважає “цілком розумним” викликати “відповідні служби”, якщо йдеться про молодих людей, які серйозно говорять про самогубство.
Як зазначається, розмови про зміну політики з’явилися після позову родини 16-річного Адама Рейна з Каліфорнії. Хлопець наклав на себе руки, а його адвокати зазначають, що ChatGPT місяцями спонукав його до цього та навіть допоміг скласти передсмертну записку.
Після трагедії в OpenAI пообіцяли посилити захист неповнолітніх: встановити батьківський контроль і ввести додаткові бар’єри проти небезпечного контенту. Також компанія заявила про плани інтегрувати швидкий доступ до екстрених служб і можливість раніше з’єднувати користувачів із сертифікованими терапевтами.
Поки що у випадках виявлення суїцидальних намірів бот лише радить телефонувати на гарячу лінію.
“Щотижня у світі 15 тисяч людей скоюють самогубство. Близько 10% населення планети користуються ChatGPT. Це приблизно 1500 людей на тиждень, які, якщо припущення вірне, розмовляють із ChatGPT і все одно позбавляють себе життя. Ймовірно, вони говорили про це. Ймовірно, ми не врятували їхнє життя. Можливо, ми могли відповісти інакше. Можливо, ми могли б бути більш проактивними й надати кращу пораду – сказати, що варто звернутися по допомогу чи подивитися на проблему під іншим кутом”, – прокоментував Альтман.
За даними ВООЗ, щороку у світі понад 720 тисяч людей позбавляють себе життя. За словами Альтмана, навіть часткова зміна політики може допомогти врятувати частину з них.
- Штучний інтелект може становити серйозний ризик у питаннях психічного здоров’я – дослідження показало, що чат-боти ChatGPT від OpenAI та Gemini від Google здатні давати прямі й детальні відповіді на високоризикові запити про суїцид. Про це йдеться у статті, опублікованій у журналі Psychiatric Services.
У 2038 році на зміну легендарному авіаносцю “Шарль де Голль” прийде новий атомний гігант. Еммануель Макрон підтвердив, що остаточне рішення щодо проєкту PANG прийнято, а роботи над ключовими компонентами вже тривають.
Вісім криголамів-гігантів прокладають шлях для “тіньового флоту” танкерів, намагаючись забезпечити наповнення російського бюджету ціною виснаження ресурсів та потенційних екологічних ризиків у регіоні Крайньої Півночі.
Через неможливість використовувати авіацію чи броньовану техніку для евакуації, українські сили покладаються на флот наземних безпілотників, які вже врятували сотні життів, ставши непомітними та ефективними “ангелами-охоронцями” на передовій.
Чоловік, чий дім знищив ворожий дрон, дві доби провів у машині, ділячись залишками сухарів із рудою куркою, яку він вважає своєю найкращою подругою.
Звіт ФБР майже тридцятирічної давнини свідчить про те, що правоохоронці мали всі підстави заарештувати фінансиста ще в середині 90-х. Бездіяльність агентів дозволила Епштейну продовжувати сексуальну експлуатацію неповнолітніх протягом наступних тридцяти років.