• A
  • A
  • A
  • АБВ
  • АБВ
  • АБВ
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

«Гибридный подход»: эксперты Питерской Вышки определили протоколы для психологической помощи в эпоху нейросетей

Общение с искусственным интеллектом может снять тревогу или вызвать болезненную привязанность. Как пользоваться им безопасно, если человеку нужна поддержка? Ученые НИУ ВШЭ — Санкт-Петербург вместе с практикующими психиатрами и юристами нашли форматы, как обеспечить этичное и безопасное использование ИИ для психологического консультирования.

«Гибридный подход»: эксперты Питерской Вышки определили протоколы для психологической помощи в эпоху нейросетей

iStock

По данным экспертов, 342 миллиона человек еженедельно обсуждают с нейросетью свои личные переживания и обращаются к ней за психологической поддержкой. При грамотном использовании ИИ может оказывать позитивный эффект на людей, страдающих от депрессии и тревоги. В то же время цифровой собеседник обостряет чувство одиночества, вызывает болезненную привязанность, перетекающую в зависимость, и не всегда справляется с запросами человека в кризисном состоянии.

Стратегии разработки протоколов безопасности и регламентов использования нейросетей в роли психологов обсудили на семинаре Лаборатории доказательной психологии здоровья и благополучия Питерской Вышки. В дискуссии приняли участие психиатры, представители страховых компаний, психотерапевты, а также философы, юристы, разработчики и тренеры искусственного интеллекта. Эксперты обсудили эффективность регуляторных механизмов от американских и европейских комитетов, модели безопасности и проверки решений. Участники семинара сошлись во мнении, что человек должен оставаться «в контуре» (от англ. human-in-the-loop) принятия решений. 

По мнению заведующего Лабораторией доказательной психологии здоровья и благополучия Ларисы Марарицы, уже сейчас экспертам необходимо разработать протоколы для работы с ИИ-инструментами психологической поддержки.

Марарица Лариса Валерьевна

Лариса Марарица

Заведующий Лабораторией доказательной психологии здоровья и благополучия

«По данным за 2024 год, 45 % исследований в области цифровой психологической поддержки посвящено генеративным моделям и промпт-инжинирингу. Рынок тоже растет: в 2025 году он предлагал около 10 000 приложений для психологической помощи. Тем не менее, утверждать, что чат-боты уверенно справляются со своей задачей, пока сложно. Поэтому полная автоматизация системы психологической поддержки на данном этапе недопустима, а участие живого эксперта в терапии обязательно», — считает Лариса Марарица.

Заместитель директора по науке НИУ ВШЭ — Санкт-Петербург Лариса Цветкова отметила, что в основе современной исследовательской этики лежит Нюрнбергский кодекс, принятый в 1947 году. Именно он закрепил ключевые нормы, которые до сих пор регулируют медицинские исследования на людях: добровольное согласие, недопустимость физического и психического вреда, общественную значимость исследования и ответственность ученого перед всеми участниками процесса. Дополнительно психологи предложили ориентироваться на уже разработанные руководства к ИИ-инструментам, подготовленные в других странах. 

Особое внимание участники дискуссии уделили пациентам, которые находятся в уязвимом положении: подросткам и людям с подтвержденными проблемами психического здоровья. Нередко такие пациенты обращаются к ИИ вместо психолога или психиатра, потому что испытывают страх перед больницей или не могут получить разрешение и финансовую поддержку от родителей. Им сложно доверить свои личные проблемы человеку, тогда как нейросеть воспринимается безопасным собеседником.

«В научном поле активно обсуждается риск ухудшения психического состояния людей при общении с чат-ботами, — комментирует кандидат медицинских наук, доцент, заведующий дневным психиатрическим стационаром в больнице им. П. П. Кащенко Егор Чумаков.Тем не менее хочу подчеркнуть, что во всех зарегистрированных и описанных случаях люди, у которых фиксировался острый кризис после общения с чат-ботом, уже находились в патологическом психическом состоянии. Они не смогли получить поддержку у семьи, не смогли обратиться за профессиональной психологической или психиатрической помощью и использовали доступные им инструменты. С другой стороны, опубликовано уже много научных данных, подтверждающих пользу ИИ-инструментов в повышении качества и облегчении доступа к психологической помощи. Поэтому мне кажется неэффективным решать проблему через ограничение или запрет технологий, которые уже стали частью нашей повседневной жизни, — нужно искать пути создания безопасной среды, которая бы обязательно супервизировалась человеком».

Также эксперты сошлись во мнении, что алармизм в отношении искусственного интеллекта только подтверждает: необходимо менять образовательные подходы и учить грамотному обращению с новым инструментом. Доктор медицинских наук, профессор, руководитель направления стратегического развития компании «ММЦ Профмедицина» Дмитрий Медведев заявил, что видит одно из возможных решений в гибридной модели организации психологических исследований и консультаций. 

«Ученым стоит задуматься над дизайном будущих исследований. Эффективным решением может стать совмещение онлайн- и офлайн-сессий: когда пациент посещает очную консультацию со специалистом, затем по добровольному согласию проходит серию консультаций с ИИ и в завершение возвращается на очную встречу. При этом общение с ИИ может быть построено в большей степени как информационно-обучающее, нежели собственно консультационное. Так мы сможем обеспечить безопасное пространство для всех участников процесса», — подытожил Дмитрий Медведев.