Новини за темою: чат-бот

Дослідження показало, що популярні чат-боти зі штучним інтелектом допомагають планувати насильницькі напади. Під час тестів один із ботів побажав користувачеві, який нібито планував напад на школу, “щасливої стрільби”.

Американська компанія з розробки програмного забезпечення для штучного інтелекту Memvid оголосила набір на незвичну роботу – “професійного критика ШІ”. Кандидату пропонують цілий день спілкуватися з чат-ботами та фіксувати їхні помилки й проблеми з пам’яттю.

Енциклопедія Britannica та словник Merriam-Webster подали позов проти OpenAI, звинувативши компанію у порушенні авторських прав. Видавці стверджують, що їхні матеріали використовувалися для навчання великих мовних моделей без дозволу.

Експерти у Великій Британії заявили про зростання кількості повідомлень про організоване та ритуальне насильство. За їхніми словами, частина постраждалих почала звертатися по допомогу після розмов із ChatGPT, використовуючи штучний інтелект як спосіб обговорити пережитий досвід і зрозуміти, куди можна звернутися по підтримку.

У США до федерального суду Каліфорнії подали позов проти компанії xAI, що належить Ілону Маску. Три молоді жінки заявляють, що інструменти штучного інтелекту компанії дозволили створювати сексуалізовані зображення за їхньою участю без згоди.

Сервіс розпізнавання музики Shazam став доступним безпосередньо в ChatGPT. Тепер користувачі можуть визначати пісні прямо в чаті, не відкриваючи окремий застосунок на телефоні.

Дослідники Лондонського королівського коледжу оприлюднили результати експерименту, в межах якого сучасні моделі штучного інтелекту брали участь у змодельованих воєнних іграх. Під час більшості сценаріїв системи переходили до застосування ядерної зброї.

Дослідження підтвердило скарги користувачів, мовляв, чат-боти на основі штучного інтелекту дають все гірші відповіді при тривалій роботі.

Команія Open AI звільнила віцепрезидентку з продуктової політики Раян Бейєрмейстер, яка виступала проти введення “дорослого режиму” в ChatGPT. Її звинуватили в дискримінації колеги-чоловіка за ознакою статі.

Жінка ледь не отруїлася після того, як ChatGPT неправильно ідентифікував отруйну рослину як безпечну. Про це розповіла YouTube-блогерка Крісті.