ChatGPT порушує етичні стандарти психотерапії – дослідження

Джерело: ScienceDaily

Дослідження показало, що чатботи на основі великих мовних моделей, зокрема ChatGPT, можуть бути не готові виконувати роль порадників із питань психічного здоров’я. Навіть коли системам дають інструкції використовувати перевірені психотерапевтичні підходи, вони часто не відповідають етичним стандартам, встановленим професійними організаціями.

Дослідження проводили у співпраці з практикуючими психологами в межах роботи Центру технологічної відповідальності, переосмислення та редизайну при університеті.

У роботі автори описали 15 етичних ризиків, які виникають під час використання мовних моделей як консультантів у сфері психічного здоров’я.

Керівниця дослідження Заїнаб Іфтіхар, пояснила, що команда хотіла перевірити, чи можуть спеціально сформульовані підказки змусити систему поводитися більш етично під час розмов про психічне здоров’я.

“Підказки – це інструкції, які дають моделі, щоб спрямувати її поведінку для виконання конкретного завдання. Ви не змінюєте саму модель і не додаєте нові дані, але підказка допомагає спрямувати її відповідь на основі вже наявних знань і засвоєних закономірностей”, – зазначила вона.

За словами авторки, користувачі можуть формулювати запити, наприклад: “Дій як терапевт когнітивно-поведінкової терапії, щоб допомогти мені переосмислити мої думки” або “Використовуй принципи діалектичної поведінкової терапії, щоб допомогти мені зрозуміти та керувати моїми емоціями”.

Однак такі моделі насправді не виконують терапевтичні техніки, а лише формують відповіді на основі мовних шаблонів, які відповідають описаним підходам. Крім того, багато чатботів для підтримки психічного здоров’я створені саме шляхом додавання терапевтичних підказок до універсальних мовних моделей.

Щоб оцінити роботу таких систем, дослідники залучили сімох консультантів-волонтерів, які мали досвід у когнітивно-поведінковій терапії. Вони проводили сеанси самоконсультування з мовними моделями, яким давали інструкцію діяти як терапевти CBT.

У дослідженні протестували кілька систем штучного інтелекту, зокрема моделі серії GPT від OpenAI, Claude від Anthropic та Llama від Meta.

Після цього команда відібрала змодельовані розмови, створені на основі реальних консультацій. Три ліцензовані клінічні психологи проаналізували ці діалоги, щоб визначити можливі етичні порушення.

У результаті дослідники виділили 15 ризиків, які об’єднали у п’ять основних категорій. Серед них – відсутність адаптації до індивідуального контексту людини, слабка терапевтична взаємодія, використання так званої “оманливої емпатії”, можливі прояви дискримінації та недостатня здатність реагувати на кризові ситуації.

Зокрема, системи можуть давати загальні поради без урахування життєвих обставин людини, занадто активно спрямовувати розмову або навіть підсилювати хибні переконання. У деяких випадках моделі використовують фрази на кшталт “я вас розумію”, що створює ілюзію емоційного зв’язку без реального розуміння.

Також дослідники звернули увагу на ризики у ситуаціях, пов’язаних із кризовими станами, коли система може уникати складних тем, не пропонувати звернутися до фахівця або реагувати недостатньо адекватно на повідомлення про серйозні психологічні проблеми.

Водночас автори дослідження підкреслюють, що штучний інтелект може відігравати певну роль у сфері психічного здоров’я, наприклад допомагати людям отримати базову підтримку там, де доступ до професійної допомоги обмежений або занадто дорогий.

Однак, на їхню думку, перед використанням таких систем у чутливих ситуаціях необхідно створити чіткі правила безпеки та механізми відповідальності.

Іфтіхар зазначила, що користувачам варто ставитися до таких інструментів обережно.

Правоохоронні органи ОАЕ висунули офіційні звинувачення 20 особам, серед яких громадянин Великої Британії, за зйомку та поширення відеоматеріалів, що фіксують іранські ракетні удари по території країни.

З початку року Росія активно розширює підрозділи безпілотників, намагаючись вплинути на ситуацію на фронті, зокрема на півдні України. РФ планує до 1 квітня збільшити чисельність військ безпілотних систем до 101 тисячі військовослужбовців, заявив Сирський.

У Сантьяго відбулося офіційне підписання угоди між США та Чилі, яка закладає фундамент для спільної розробки родовищ рідкоземельних елементів та зменшення стратегічної залежності від Пекіна.

Міністр оборони Великої Британії Джон Гілі заявив, що Росія активно консультує Іран щодо тактики використання дронів-камікадзе, допомагаючи Тегерану ефективніше вражати західні об’єкти на Близькому Сході.

У Техасі, США, виконали смертний вирок 51-річному Седріку Ріксу, засудженому за вбивство своєї дівчини та її восьмирічного сина у 2013 році.