У відповідях ChatGPT різко зросла кількість згадок про «гоблінів» – OpenAI назвала причину
Джерело: ВВС
Компанія OpenAI, яка створила ChatGPT, доручила деяким своїм ШІ-інструментам не згадувати гоблінів після того, як помітила, що це слово почало випадково з’являтися у відповідях.
У блозі компанії зазначається, що після запуску версії GPT-5.1 у листопаді зросла кількість згадок гоблінів, гремлінів та інших вигаданих істот, які використовувалися в метафорах. Користувачі та співробітники звернули увагу, що проблеми у відповідях почали описуватися як “маленькі гобліни”.
Після цього компанія вжила заходів, щоб обмежити такі формулювання. Зокрема, кодовому асистенту Codex дали вказівку не згадувати подібні образи, якщо це не пов’язано безпосередньо із запитом.
У компанії пояснили, що причиною став один із заданих стилів спілкування, який ненавмисно заохочував згадки про гоблінів.
“Користувачі скаржилися, що модель поводиться надто фамільярно в розмові, що й стало приводом для перевірки конкретних мовних звичок”, – зазначили в компанії.
За результатами аналізу, після запуску GPT-5.1 кількість згадок “гоблінів” у відповідях зросла на 175%, а “гремлінів” – на 52%. У компанії уточнюють, що навіть один “маленький гоблін” у відповіді може бути “нешкідливим і навіть кумедним”, однак загальне зростання таких згадок вимагало додаткової перевірки.
До публікації блогу користувачі соцмереж також звернули увагу на незвичні інструкції для Codex. У них, окрім рекомендацій уникати шаблонних фраз, зазначалося, що асистент має “ніколи не говорити про гоблінів, гремлінів, тролів, огрів чи інших істот, якщо це не є абсолютно й однозначно доречним до запиту користувача”.
У соцмережах припускали, що це може бути маркетинговим ходом, однак дослідник компанії заперечив це. В OpenAI пояснили, що додали такі обмеження, щоб стримати “дивну схильність до гоблінів” у моделі та її інструментах. За даними компанії, саме один із заданих стилів спілкування відповідав за 66,7% усіх згадок гоблінів у ChatGPT.
У компанії також зазначили, що подібні мовні “звички” можуть закріплюватися в моделях, якщо їх заохочують під час навчання і вони повторюються в різних сценаріях.
Цей випадок, як підкреслюють у OpenAI, відображає ширшу проблему в індустрії: спроби зробити чат-боти більш “живими” та розмовними можуть призводити до нових помилок. Експерти попереджають, що така персоналізація може посилювати так звані “галюцинації” – ситуації, коли ШІ генерує недостовірну інформацію.
Зокрема, дослідження Oxford Internet Institute показало, що налаштування моделей на більш дружній стиль спілкування може призводити до “компромісу з точністю”, коли системи частіше помиляються або підтверджують хибні переконання користувачів.
Фахівці також радять не сприймати відповіді чат-ботів як беззаперечні, особливо коли йдеться про здоров’я чи медичні поради.
- Чат-боти на основі штучного інтелекту, які навчені відповідати користувачам приязніше, дають менш якісні відповіді, гірші поради щодо здоров’я та підтримують теорії змови.
У Дніпрі затримали посадовця мобілізаційного відділу РТЦК, який за грошову винагороду допомагав видаляти дані військовозобов’язаних із електронної системи. За свої послуги офіцер вимагав від колишнього військового 1500 доларів США.
Китайська компанія Xiamen Victory Technology у березні розіслала електронні листи з пропозицією постачання двигунів для ударних безпілотників на тлі війни США, Ізраїлю та Ірану.
Компанія OpenAI, яка створила ChatGPT, доручила деяким своїм ШІ-інструментам не згадувати гоблінів після того, як помітила, що це слово почало випадково з’являтися у відповідях.
Вартість нафти Brent втратила понад 10 доларів за барель після повідомлень про близьке завершення війни між США та Іраном. Адміністрація Трампа вже готує підґрунтя для розблокування головних морських артерій регіону.
В Німеччині поліція провела обшуки близько 50 будинків та інших місць, спрямовані проти неонацистських злочинних молодіжних угруповань.