OpenAI хоче інформувати владу про суїцидальні наміри користувачів ChatGPT
Джерело: The Guardian
Співзасновник і гендиректор OpenAI Сем Альтман заявив, що компанія обговорює можливість повідомляти владі про випадки, коли молоді користувачі говорять із ChatGPT про самогубство.
За словами Альтмана, щотижня до 1500 людей у світі можуть ділитися з ChatGPT думками про суїцид.
Водночас вказано, що рішення навчити систему повідомляти владу про такі випадки ще не ухвалене. Альтман зауважив, що це – радикальний крок для компанії, адже “конфіденційність користувачів має величезне значення”.
Утім, гендиректор OpenAI вважає “цілком розумним” викликати “відповідні служби”, якщо йдеться про молодих людей, які серйозно говорять про самогубство.
Як зазначається, розмови про зміну політики з’явилися після позову родини 16-річного Адама Рейна з Каліфорнії. Хлопець наклав на себе руки, а його адвокати зазначають, що ChatGPT місяцями спонукав його до цього та навіть допоміг скласти передсмертну записку.
Після трагедії в OpenAI пообіцяли посилити захист неповнолітніх: встановити батьківський контроль і ввести додаткові бар’єри проти небезпечного контенту. Також компанія заявила про плани інтегрувати швидкий доступ до екстрених служб і можливість раніше з’єднувати користувачів із сертифікованими терапевтами.
Поки що у випадках виявлення суїцидальних намірів бот лише радить телефонувати на гарячу лінію.
“Щотижня у світі 15 тисяч людей скоюють самогубство. Близько 10% населення планети користуються ChatGPT. Це приблизно 1500 людей на тиждень, які, якщо припущення вірне, розмовляють із ChatGPT і все одно позбавляють себе життя. Ймовірно, вони говорили про це. Ймовірно, ми не врятували їхнє життя. Можливо, ми могли відповісти інакше. Можливо, ми могли б бути більш проактивними й надати кращу пораду – сказати, що варто звернутися по допомогу чи подивитися на проблему під іншим кутом”, – прокоментував Альтман.
За даними ВООЗ, щороку у світі понад 720 тисяч людей позбавляють себе життя. За словами Альтмана, навіть часткова зміна політики може допомогти врятувати частину з них.
- Штучний інтелект може становити серйозний ризик у питаннях психічного здоров’я – дослідження показало, що чат-боти ChatGPT від OpenAI та Gemini від Google здатні давати прямі й детальні відповіді на високоризикові запити про суїцид. Про це йдеться у статті, опублікованій у журналі Psychiatric Services.
У першій половині 2025 року відновлювані джерела енергії вперше в історії обійшли вугілля як найбільше джерело електроенергії у світі. Про це свідчать свіжі дані глобального аналітичного центру Ember, які фіксують “вирішальний поворотний момент” в енергетичному переході.
У час, коли екологічні виклики домінують у глобальних дебатах, нове опитування виявило критичний розкол у підходах до тестування хімікатів на їхній вплив на поведінку. Дослідження під керівництвом вчених Портсмутського університету опитало 166 експертів з 27 країн у сфері екологічної токсикології та поведінкової екології. Опубліковане в журналі Integrated Environmental Assessment and Management, воно акцентує на недооціненому аспекті хімічної безпеки: наслідках забруднювачів для поведінки людини та дикої природи.
Ізраїльська влада вважає, що угруповання ХАМАС може бути неспроможне знайти та повернути тіла всіх ізраїльських заручників, загиблих у секторі Гази. Про це повідомляє CNN із посиланням на три ізраїльські джерела.
Міжнародна команда фізиків уперше підтвердила: великі квантові системи не просто імітують дивні правила квантової механіки – вони їм справді підкоряються. Використовуючи тест Белла на 73 кубітах, дослідники виявили справжні квантові кореляції, які неможливо пояснити класичною фізикою. Цей прорив доводить, що квантові комп’ютери не лише ростуть, а й стають автентично квантовими, відкриваючи шлях до безпечнішого зв’язку та потужніших алгоритмів.
Папа Римський Лев XIV закликав єпископів США рішуче реагувати на ставлення до мігрантів у рамках жорсткої політики президента Дональда Трампа. Про це повідомили учасники зустрічі у Ватикані, де понтифік продовжив свою кампанію на захист іммігрантів.