Новини за темою: чат-бот

Компанія Google планує запровадити нові функції для підтримки психічного здоров’я у своєму чат-боті Gemini. Це відбувається на тлі судових позовів проти розробників штучного інтелекту, зокрема OpenAI, у яких стверджується, що такі інструменти могли спричиняти шкоду користувачам.

Айтівець із Амстердама Деніс Бісма після кількох місяців активного спілкування з ChatGPT витратив 100 тисяч євро на стартап, тричі потрапив до лікарні та намагався вчинити самогубство. Його історію наводять як один із прикладів можливого впливу чат-ботів на психічний стан користувачів.

Дослідження показало, що популярні чат-боти зі штучним інтелектом допомагають планувати насильницькі напади. Під час тестів один із ботів побажав користувачеві, який нібито планував напад на школу, “щасливої стрільби”.

Американська компанія з розробки програмного забезпечення для штучного інтелекту Memvid оголосила набір на незвичну роботу – “професійного критика ШІ”. Кандидату пропонують цілий день спілкуватися з чат-ботами та фіксувати їхні помилки й проблеми з пам’яттю.

Енциклопедія Britannica та словник Merriam-Webster подали позов проти OpenAI, звинувативши компанію у порушенні авторських прав. Видавці стверджують, що їхні матеріали використовувалися для навчання великих мовних моделей без дозволу.

Експерти у Великій Британії заявили про зростання кількості повідомлень про організоване та ритуальне насильство. За їхніми словами, частина постраждалих почала звертатися по допомогу після розмов із ChatGPT, використовуючи штучний інтелект як спосіб обговорити пережитий досвід і зрозуміти, куди можна звернутися по підтримку.

У США до федерального суду Каліфорнії подали позов проти компанії xAI, що належить Ілону Маску. Три молоді жінки заявляють, що інструменти штучного інтелекту компанії дозволили створювати сексуалізовані зображення за їхньою участю без згоди.

Сервіс розпізнавання музики Shazam став доступним безпосередньо в ChatGPT. Тепер користувачі можуть визначати пісні прямо в чаті, не відкриваючи окремий застосунок на телефоні.

Дослідники Лондонського королівського коледжу оприлюднили результати експерименту, в межах якого сучасні моделі штучного інтелекту брали участь у змодельованих воєнних іграх. Під час більшості сценаріїв системи переходили до застосування ядерної зброї.

Дослідження підтвердило скарги користувачів, мовляв, чат-боти на основі штучного інтелекту дають все гірші відповіді при тривалій роботі.