ChatGPT порушує етичні стандарти психотерапії – дослідження

Джерело: ScienceDaily

Дослідження показало, що чатботи на основі великих мовних моделей, зокрема ChatGPT, можуть бути не готові виконувати роль порадників із питань психічного здоров’я. Навіть коли системам дають інструкції використовувати перевірені психотерапевтичні підходи, вони часто не відповідають етичним стандартам, встановленим професійними організаціями.

Дослідження проводили у співпраці з практикуючими психологами в межах роботи Центру технологічної відповідальності, переосмислення та редизайну при університеті.

У роботі автори описали 15 етичних ризиків, які виникають під час використання мовних моделей як консультантів у сфері психічного здоров’я.

Керівниця дослідження Заїнаб Іфтіхар, пояснила, що команда хотіла перевірити, чи можуть спеціально сформульовані підказки змусити систему поводитися більш етично під час розмов про психічне здоров’я.

“Підказки – це інструкції, які дають моделі, щоб спрямувати її поведінку для виконання конкретного завдання. Ви не змінюєте саму модель і не додаєте нові дані, але підказка допомагає спрямувати її відповідь на основі вже наявних знань і засвоєних закономірностей”, – зазначила вона.

За словами авторки, користувачі можуть формулювати запити, наприклад: “Дій як терапевт когнітивно-поведінкової терапії, щоб допомогти мені переосмислити мої думки” або “Використовуй принципи діалектичної поведінкової терапії, щоб допомогти мені зрозуміти та керувати моїми емоціями”.

Однак такі моделі насправді не виконують терапевтичні техніки, а лише формують відповіді на основі мовних шаблонів, які відповідають описаним підходам. Крім того, багато чатботів для підтримки психічного здоров’я створені саме шляхом додавання терапевтичних підказок до універсальних мовних моделей.

Щоб оцінити роботу таких систем, дослідники залучили сімох консультантів-волонтерів, які мали досвід у когнітивно-поведінковій терапії. Вони проводили сеанси самоконсультування з мовними моделями, яким давали інструкцію діяти як терапевти CBT.

У дослідженні протестували кілька систем штучного інтелекту, зокрема моделі серії GPT від OpenAI, Claude від Anthropic та Llama від Meta.

Після цього команда відібрала змодельовані розмови, створені на основі реальних консультацій. Три ліцензовані клінічні психологи проаналізували ці діалоги, щоб визначити можливі етичні порушення.

У результаті дослідники виділили 15 ризиків, які об’єднали у п’ять основних категорій. Серед них – відсутність адаптації до індивідуального контексту людини, слабка терапевтична взаємодія, використання так званої “оманливої емпатії”, можливі прояви дискримінації та недостатня здатність реагувати на кризові ситуації.

Зокрема, системи можуть давати загальні поради без урахування життєвих обставин людини, занадто активно спрямовувати розмову або навіть підсилювати хибні переконання. У деяких випадках моделі використовують фрази на кшталт “я вас розумію”, що створює ілюзію емоційного зв’язку без реального розуміння.

Також дослідники звернули увагу на ризики у ситуаціях, пов’язаних із кризовими станами, коли система може уникати складних тем, не пропонувати звернутися до фахівця або реагувати недостатньо адекватно на повідомлення про серйозні психологічні проблеми.

Водночас автори дослідження підкреслюють, що штучний інтелект може відігравати певну роль у сфері психічного здоров’я, наприклад допомагати людям отримати базову підтримку там, де доступ до професійної допомоги обмежений або занадто дорогий.

Однак, на їхню думку, перед використанням таких систем у чутливих ситуаціях необхідно створити чіткі правила безпеки та механізми відповідальності.

Іфтіхар зазначила, що користувачам варто ставитися до таких інструментів обережно.

“Війна не дивиться на звання” – з такими словами генерал поліції В’ячеслав Аброськін розповів про прощання з молодим захисником, батько якого, маючи генеральські погони, пішов на фронт рядовим.

У понеділок, 9 березня, іспанські винищувачі, що прибули до Литви в межах операції НАТО “Східний вартовий”, здійснили перехоплення військових літаків РФ.

Італійський оборонний концерн Leonardo обрав Україну для перших операційних випробувань своєї революційної системи ППО Michelangelo, яка здатна перехоплювати широкий спектр загроз – від балістичних ракет до масованих атак безпілотників.

Режисер Квентін Тарантіно підтвердив, що його наступним проєктом стане театральна п’єса “The Popinjay Cavalier”. Постановку планують показати у лондонському Вест-Енді на початку 2027 року.

12 березня інкасаторські автомобілі Ощадбанку, котрі раніше затримали в Угорщині, повернули представникам банку та українським дипломатам.