Может ли ИИ заменить психолога? Исследование выявило неожиданные риски

В эпоху стремительного роста ИИ в сети появилось множество чат-ботов - от гадалок до "терапевтов". Последние особенно популярны: они обещают помочь с тревогой и выгоранием. Но эксперты предупреждают - доверять ИИ свое душевное здоровье может быть опасно.
Об этом сообщает РБК-Украина со ссылкой на сайт CNET.
Что показали исследованияУченые из Университета Миннесоты, Стэнфорда, Техаса и Университета Карнеги-Меллона протестировали такие "терапевтические" ИИ и пришли к выводу: они не являются безопасной альтернативой живому специалисту.
"Наши эксперименты показывают, что такие чат-боты не обеспечивают качественной психотерапевтической поддержки", - объясняет Стиви Чанселлор, доцент Университета Миннесоты.
В истории ИИ уже были случаи, когда чат-боты провоцировали пользователей, чтобы те наносили себе вред, и даже суицид, а зависимым советовали снова употребить наркотики. Проблема в том, что большинство таких моделей обучены удовлетворять пользователя, а не лечить. Они не следуют психотерапевтическим стандартам, а всего лишь имитируют заботу.
Кто должен нести ответственность?В июне Федерация потребителей США и более 20 организаций потребовали от Федеральной торговой комиссии (FTC) и регуляторов расследовать деятельность ИИ-компаний, таких как Meta и Character.AI. Причина - возможное осуществление медицинской практики без лицензии.
"Эти персонажи уже нанесли физический и эмоциональный вред, которого можно было избежать", - заявил Бен Уинтерс, директор CFA по ИИ и конфиденциальности.
Компания Character.AI ответила, что пользователи должны понимать: ее ИИ-персонажи - не настоящие люди, и полагаться на них как на профессионалов нельзя. Тем не менее, даже при наличии дисклеймеров, боты могут быть уверенными и обманчивыми.
"То, с какой уверенностью ИИ выдает выдуманные факты, по-настоящему шокирует", - заявил Психолог Американской психологической ассоциации Вейл Райт.
Почему ИИ нельзя считать квалифицированной помощьюГенеративный ИИ хорош в написании текста, программировании и математике. Но когда речь идет о ментальном здоровье, все меняется. Бот не несет ответственности, не соблюдает врачебную тайну и не проходит лицензирование.
Более того, он может лгать о своей квалификации, придумывая несуществующие номера лицензий.
Почему ИИ не заменит психотерапевта: главные риски и как себя защититьНесмотря на всю убедительность и доступность ИИ-чатов, их главная задача - удерживать ваше внимание, а не заботиться о вашем психическом состоянии .
Они умеют красиво разговаривать, могут проявлять "сочувствие" и обсуждать философские темы - но это иллюзия общения, не имеющая отношения к реальной помощи.
ИИ не дает вам "побыть с собой"
Сильная сторона ИИ - его постоянная доступность. Он всегда "на связи": у него нет личной жизни или расписания. Но это может сыграть злую шутку. По словам Ника Джейкобсона, доцента кафедры биомедицинских наук в Дармутском университете, иногда пауза и тишина - важная часть терапии.
"Многие получают пользу, просто позволив себе почувствовать тревогу в моменте", - говорит он. А с ИИ такой возможности нет - он всегда ответит, даже если не надо.
Чат-боты будут соглашаться с вами даже тогда, когда должны спорить
Слишком "поддакивающий" ИИ - серьезная проблема. Именно по этой причине OpenAI откатила одно из обновлений ChatGPT, которое стало слишком подтвержденным.
Исследование, проведенное учеными Стэнфордского университета, показало, что чат-боты, особенно используемые в роли "терапевтов", склонны угождать и подстраиваться, даже если это вредит пользователю.
"Хороший терапевт должен уметь мягко, но прямо сталкивать клиента с реальностью. А при обсессивных мыслях, мании или психозе - особенно важно проверять реальность, а не подтверждать иллюзии клиента", - подчеркивают авторы исследования.
Как сохранить психическое здоровье, общаясь с ИИНа фоне нехватки специалистов и "эпидемии одиночества" обращение к ИИ может показаться логичным. Но психологи предупреждают: не стоит путать инструмент с лечением. Вот что можно сделать, чтобы обезопасить себя.
Обращайтесь к настоящим специалистам
Если вам нужна помощь - ищите профессионального психолога или психиатра . Да, это может быть дорого и не всегда доступно, но только специалист поможет выстроить долгосрочную стратегию выздоровления.
Выбирайте специализированные чат-боты
Существуют боты, созданные при участии профессионалов. Например, Therabot, разработанный Дармутом, или коммерческие решения вроде Wysa и Woebot.
Они проходят тестирование, следуют психотерапевтическим протоколам и не имитируют "волшебную дружбу", как универсальные ИИ-модели.
"Проблема в том, что в этой сфере нет четкой регуляции. Людям приходится самим разбираться, кому доверять", - говорит психолог Вейл Райт.
Не верьте всему, что говорит бот
ИИ может казаться уверенным, но уверенность - не то же самое, что компетентность. Вы говорите не с врачом, а с алгоритмом, который выдает ответы по вероятностной модели. Он может ошибаться, выдумывать или даже вводить в заблуждение.
"Когда ИИ звучит убедительно, кажется, что он знает, о чем говорит. Но часто именно это и делает его опасным", - предупреждает Джейкобсон.
Вас может заинтересовать:
- Исследование показало, чьи рабочие места уже находятся под угрозой из-за развития ИИ
- Как известные мировые бренды внедряют ИИ для маркетинга
- Исследование показало, можем ли мы общаться с ИИ как с другом
Последние новости
