Чат-боти стають дурнішими, чим довше з ними розмовляти – дослідження
Джерело: NeuroNad
Дослідження підтвердило скарги користувачів, мовляв, чат-боти на основі штучного інтелекту дають все гірші відповіді при тривалій роботі.
Microsoft Research та Salesforce разом проаналізували понад 200 000 розмов ШІ з найсучасніших великих мовних моделей (LLM), включаючи GPT-4.1, Gemini 2.5 Pro, Claude 3.7 Sonnet, o3, DeepSeek R1 та Llama 4. Виявилось, що вони часто “губляться в розмові”, коли завдання розбиваються на природну для людей багатосторонню розмову.
Наприклад, GPT-4.1 та Gemini 2.5 Pro, досягають 90% успіху з одиничними запитами. Однак під час триваліших розмов їхня продуктивність падає до 65%.
Важливо, що дослідники виявили, що моделі не втрачають своєї фундаментальної здатності розв’язувати проблему – вона зменшується лише приблизно на 15%. Натомість їхня ненадійність різко росте на 112%. Тобто, моделі все ще “знають”, як виконувати роботу, але вони стають надзвичайно непослідовними, ставлячи під сумнів те, чи зможуть вони успішно відстежити контекст розмови.
Чому так?
Дослідження виявило кілька “винуватців”, які призводять до цієї деградації:
По-перше, LLM страждають від передчасної генерації: вони часто намагаються надати остаточне рішення, перш ніж користувач закінчить пояснювати вимоги. Як тільки модель робить неправильне припущення на ранньому етапі, вона “чіпляється” за цю помилку. А потім, замість того щоб виправляти себе, коли надходить нова інформація, ШІ спирається на свою початкову помилку, і робить через це ще більше помилок.
По-друге, спостерігалося явище “роздуття відповідей”, коли відповіді ставали на 20–300 % довшими. Ці довші відповіді вводять більше “галюцинаційних” припущень, які потім вбудовуються в постійний контекст розмови. Навіть найновіші моделі ШІ, які використовують додаткові “токени мислення” для обробки логіки, не показали значного покращення в цьому випадку.
Що робити?
Наразі є єдиний ефективний варіант: перестати ставитися до ШІ як до партнера в розмові. Щоб отримати найкращі результати, користувачі повинні надавати всі необхідні дані, обмеження та інструкції в одному, вичерпному “мега-запиті”, а не пояснювати усе вже в ході в діалогу.
- У компанії OpenAI (розробник ChatGPT) заявили, що минулого року розглядали можливість попередження канадської поліції про підозрілу діяльність користувачки. Через кілька місяців вона вчинила стрілянину в школі.
- Компанія Meta наприкінці грудня отримала патент на технологію штучного інтелекту, здатну відтворювати поведінку людини в соціальних мережах навіть після її смерті.
- У ботанічному саді Кембридзького університету почали використовувати штучний інтелект, щоб відвідувачі могли “спілкуватися” з рослинами. У межах нової виставки Talking Plants відвідувачам пропонують вести двосторонні розмови з 20 рослинами та отримувати від них відповіді на запитання.
Російські окупанти вдарили керованими авіабомбами по Глухівській громаді Сумської області. Пошкоджені приватні будинки, автівки. Поранень зазнали троє осіб.
14 березня в усіх регіонах України з 17:00 до 22:00 застосовуватимуть графіки погодинних відключень, тоді як з 17:00 до 23:00 – графіки обмеження потужностей для промислових споживачів.
На Хмельниччині викрили керівника одного з благодійних фондів, який використав донати на ЗСУ для власного збагачення. Загальна сума збитків перевищує 1,1 млн грн.
У Харкові чоловік врятував чотирьох дітей, які провалилися під кригу на водоймі. Після цього він сам знепритомнів через сильне переохолодження.
Київський міжнародний інститут соціології (КМІС) опублікував результати соціологічного дослідження, проведеного в жовтні 2025 року щодо ставлення українців до біженців, внутрішньо переміщених осіб, українців в окупації, російськомовних громадян та етнічних росіян.