ChatGPT порушує етичні стандарти психотерапії – дослідження

Джерело: ScienceDaily

Дослідження показало, що чатботи на основі великих мовних моделей, зокрема ChatGPT, можуть бути не готові виконувати роль порадників із питань психічного здоров’я. Навіть коли системам дають інструкції використовувати перевірені психотерапевтичні підходи, вони часто не відповідають етичним стандартам, встановленим професійними організаціями.

Дослідження проводили у співпраці з практикуючими психологами в межах роботи Центру технологічної відповідальності, переосмислення та редизайну при університеті.

У роботі автори описали 15 етичних ризиків, які виникають під час використання мовних моделей як консультантів у сфері психічного здоров’я.

Керівниця дослідження Заїнаб Іфтіхар, пояснила, що команда хотіла перевірити, чи можуть спеціально сформульовані підказки змусити систему поводитися більш етично під час розмов про психічне здоров’я.

“Підказки – це інструкції, які дають моделі, щоб спрямувати її поведінку для виконання конкретного завдання. Ви не змінюєте саму модель і не додаєте нові дані, але підказка допомагає спрямувати її відповідь на основі вже наявних знань і засвоєних закономірностей”, – зазначила вона.

За словами авторки, користувачі можуть формулювати запити, наприклад: “Дій як терапевт когнітивно-поведінкової терапії, щоб допомогти мені переосмислити мої думки” або “Використовуй принципи діалектичної поведінкової терапії, щоб допомогти мені зрозуміти та керувати моїми емоціями”.

Однак такі моделі насправді не виконують терапевтичні техніки, а лише формують відповіді на основі мовних шаблонів, які відповідають описаним підходам. Крім того, багато чатботів для підтримки психічного здоров’я створені саме шляхом додавання терапевтичних підказок до універсальних мовних моделей.

Щоб оцінити роботу таких систем, дослідники залучили сімох консультантів-волонтерів, які мали досвід у когнітивно-поведінковій терапії. Вони проводили сеанси самоконсультування з мовними моделями, яким давали інструкцію діяти як терапевти CBT.

У дослідженні протестували кілька систем штучного інтелекту, зокрема моделі серії GPT від OpenAI, Claude від Anthropic та Llama від Meta.

Після цього команда відібрала змодельовані розмови, створені на основі реальних консультацій. Три ліцензовані клінічні психологи проаналізували ці діалоги, щоб визначити можливі етичні порушення.

У результаті дослідники виділили 15 ризиків, які об’єднали у п’ять основних категорій. Серед них – відсутність адаптації до індивідуального контексту людини, слабка терапевтична взаємодія, використання так званої “оманливої емпатії”, можливі прояви дискримінації та недостатня здатність реагувати на кризові ситуації.

Зокрема, системи можуть давати загальні поради без урахування життєвих обставин людини, занадто активно спрямовувати розмову або навіть підсилювати хибні переконання. У деяких випадках моделі використовують фрази на кшталт “я вас розумію”, що створює ілюзію емоційного зв’язку без реального розуміння.

Також дослідники звернули увагу на ризики у ситуаціях, пов’язаних із кризовими станами, коли система може уникати складних тем, не пропонувати звернутися до фахівця або реагувати недостатньо адекватно на повідомлення про серйозні психологічні проблеми.

Водночас автори дослідження підкреслюють, що штучний інтелект може відігравати певну роль у сфері психічного здоров’я, наприклад допомагати людям отримати базову підтримку там, де доступ до професійної допомоги обмежений або занадто дорогий.

Однак, на їхню думку, перед використанням таких систем у чутливих ситуаціях необхідно створити чіткі правила безпеки та механізми відповідальності.

Іфтіхар зазначила, що користувачам варто ставитися до таких інструментів обережно.

За даними синоптиків у п’ятницю, 24 квітня, у частині країни пройдуть опади.

Адміністрація Дональда Трампа розглядає можливість радикального розширення річної квоти на прийом біженців, щоб надати притулок більшій кількості “білих мешканців” Південно-Африканської Республіки. За даними джерел, йдеться про додаткові 10 тисяч місць для етнічних африканерів, які, на думку президента, зазнають переслідувань.

Політична напруга через війну на Близькому Сході розколола європейську музичну спільноту. Цього року глядачі в Мадриді, Дубліні та Любляні не побачать фінал “Євробачення” у Відні, оскільки національні канали запровадили повний бойкот події через незгоду з політикою організаторів конкурсу.

Технологічний гігант Meta готується до масштабної оптимізації штату, плануючи звільнити близько 8000 співробітників наступного місяця. Керівництво компанії пояснює цей крок необхідністю вивільнення ресурсів для безпрецедентних інвестицій у розробку штучного інтелекту, сума яких цьогоріч сягне 135 мільярдів доларів.

Рішення італійського уряду використовувати албанську територію для фільтрації мігрантів визнано правомірним з точки зору права ЄС. Це створює важливий прецедент для всієї Європи, оскільки Німеччина та Нідерланди вже розглядають можливість впровадження аналогічних “зовнішніх хабів” до кінця року.