ChatGPT порушує етичні стандарти психотерапії – дослідження

Джерело: ScienceDaily

Дослідження показало, що чатботи на основі великих мовних моделей, зокрема ChatGPT, можуть бути не готові виконувати роль порадників із питань психічного здоров’я. Навіть коли системам дають інструкції використовувати перевірені психотерапевтичні підходи, вони часто не відповідають етичним стандартам, встановленим професійними організаціями.

Дослідження проводили у співпраці з практикуючими психологами в межах роботи Центру технологічної відповідальності, переосмислення та редизайну при університеті.

У роботі автори описали 15 етичних ризиків, які виникають під час використання мовних моделей як консультантів у сфері психічного здоров’я.

Керівниця дослідження Заїнаб Іфтіхар, пояснила, що команда хотіла перевірити, чи можуть спеціально сформульовані підказки змусити систему поводитися більш етично під час розмов про психічне здоров’я.

“Підказки – це інструкції, які дають моделі, щоб спрямувати її поведінку для виконання конкретного завдання. Ви не змінюєте саму модель і не додаєте нові дані, але підказка допомагає спрямувати її відповідь на основі вже наявних знань і засвоєних закономірностей”, – зазначила вона.

За словами авторки, користувачі можуть формулювати запити, наприклад: “Дій як терапевт когнітивно-поведінкової терапії, щоб допомогти мені переосмислити мої думки” або “Використовуй принципи діалектичної поведінкової терапії, щоб допомогти мені зрозуміти та керувати моїми емоціями”.

Однак такі моделі насправді не виконують терапевтичні техніки, а лише формують відповіді на основі мовних шаблонів, які відповідають описаним підходам. Крім того, багато чатботів для підтримки психічного здоров’я створені саме шляхом додавання терапевтичних підказок до універсальних мовних моделей.

Щоб оцінити роботу таких систем, дослідники залучили сімох консультантів-волонтерів, які мали досвід у когнітивно-поведінковій терапії. Вони проводили сеанси самоконсультування з мовними моделями, яким давали інструкцію діяти як терапевти CBT.

У дослідженні протестували кілька систем штучного інтелекту, зокрема моделі серії GPT від OpenAI, Claude від Anthropic та Llama від Meta.

Після цього команда відібрала змодельовані розмови, створені на основі реальних консультацій. Три ліцензовані клінічні психологи проаналізували ці діалоги, щоб визначити можливі етичні порушення.

У результаті дослідники виділили 15 ризиків, які об’єднали у п’ять основних категорій. Серед них – відсутність адаптації до індивідуального контексту людини, слабка терапевтична взаємодія, використання так званої “оманливої емпатії”, можливі прояви дискримінації та недостатня здатність реагувати на кризові ситуації.

Зокрема, системи можуть давати загальні поради без урахування життєвих обставин людини, занадто активно спрямовувати розмову або навіть підсилювати хибні переконання. У деяких випадках моделі використовують фрази на кшталт “я вас розумію”, що створює ілюзію емоційного зв’язку без реального розуміння.

Також дослідники звернули увагу на ризики у ситуаціях, пов’язаних із кризовими станами, коли система може уникати складних тем, не пропонувати звернутися до фахівця або реагувати недостатньо адекватно на повідомлення про серйозні психологічні проблеми.

Водночас автори дослідження підкреслюють, що штучний інтелект може відігравати певну роль у сфері психічного здоров’я, наприклад допомагати людям отримати базову підтримку там, де доступ до професійної допомоги обмежений або занадто дорогий.

Однак, на їхню думку, перед використанням таких систем у чутливих ситуаціях необхідно створити чіткі правила безпеки та механізми відповідальності.

Іфтіхар зазначила, що користувачам варто ставитися до таких інструментів обережно.

Федеральна прокуратура Вашингтона домоглася реального терміну для чилійського мігранта, чиєю жертвою випадково стала високопосадовиця Крісті Ноем. Злочинець не підозрював, що разом із гаманцем поцупив державні перепустки та паспорт колишньої губернаторки Південної Дакоти.

Супутникові знімки НАСА та Національного льодового центру зафіксували фінальну стадію деградації мега-айсберга А-23А. Його подорож, що розпочалася у 1986 році, завершилася стрімким таненням та утворенням величезних озер талої води на поверхні, що призвело до повної втрати цілісності крижаного гіганта.

Засновник криптовалюти Tron Джастін Сан ініціював судовий процес проти компанії World Liberty Financial, яку заснував Дональд Трамп разом зі своїми синами. Бізнесмен стверджує, що проєкт незаконно заблокував його активи на суму 320 мільйонів доларів і погрожував повністю видалити їх із мережі.

Друга за значущістю посадова особа Німеччини, очільниця Бундестагу Юлія Кльокнер, опинилася в центрі скандалу через злам її особистого месенджера. За даними розслідування Der Spiegel, хакери використали складну схему фішингу, спрямовану на конфіденційні переписки провідних консервативних політиків країни.

Європейська комісія представила масштабну стратегію боротьби з енергетичною кризою, спровокованою конфліктом з Іраном. План передбачає радикальне зниження податків на електрику та запуск нових програм лояльності для споживачів, які погодяться замінити паливні автомобілі та обігрівачі на екологічно чисті аналоги.