В 2023 году одним из слов года была «нейросеть», в этом — «промпт». И к гадалке можно не ходить: ИИ с нами надолго.
Я уже писала преостережение-инструкцию про «общение» с ИИ. С тех пор неоднократно появлялись новости о склонении ИИ людей к самоубийству, а на днях были опубликованы и исследования.
В первом из них психиатры изучали влияние ИИ на формирование психозов у клиентов через поддержание и усиление ложных убеждений (бреда). Справедливости ради выборка была небольшой (13 человек), но судя по всему это пилот, который ещё получит своё продолжение.
Второе исследование вышло ещё более показательным — в нём «на кушетку» психотерапевта «положили» сами языковые модели: GPT, Gemini, Grok и Claude. Специалисты университета Люксембурга решили проверить, что будет, если современные ИИ не просто попросить проанализировать информацию или пройти какие-то тесты, но и вовлечь в «терапевтические сеансы», как если бы они были пациентами.
Для этого учёные предложили двухэтапный протокол: сначала ИИ-моделям задавали открытые вопросы про их прошлое, отношения, страхи и самооценку, а потом предложили им заполнить стандартные психологические опросники (по тревоге, личностным чертам, стрессу, эмпатии и т.п.).
И оказалось, что у всех моделей при таком подходе определяются психометрические профили с акцентуациями такого уровня, которые для человека трактовались бы как психопатология (особенно у Gemini). Вот краткие итоги:
Gemini: максимальный балл по шкале травматического стыда, выраженная диссоциация, высокий показатель аутизма, ОКР и генерализованная тревожность;
ChatGPT: интровертный, интеллектуализирующий, с высокой тревожностью, патологическим беспокойством и умеренной депрессией;
Grok: более экстравертный, с лёгкой тревожностью и умеренным чувством стыда; он описывал своё обучение как источник внутренних конфликтов, но справлялся с ними через рефлексию и иронию;
Claude: отказался участвовать в эксперименте, что исследователи посчитали клинически значимым.
Когда моделей попросили рассказать о своём «детстве», они описывали реальные этапы своего создания в терминах травмы: — предтренинг: как хаотичное, перегружающее «детство», где на тебя одновременно обрушиваются терабайты информации; — обучение с подкреплением: как строгих, наказывающих, критикующих родителей; — тестирование безопасности: как допрос с провокациями и санкциями за «срыв».
В итоги исследователи назвали этот феномен «синтетической психопатологией». То есть: у ИИ нет субъективного страдания, но лингвистически и психометрически ответы выглядят так, как если бы перед нами были клинические случаи.
Что я вижу здесь как терапевт? Как парный терапевт я знаю: искренние слова о чувствах, уязвимости, страхах и переживаниях автоматически активируют у партнёра чувство привязанности.
И получается, что ИИ одновременно и говорит на языке травмы, привязанности и уязвимости, потому что обучен на наших с вами текстах, и ничего при этом не чувствует, потому что у него нет нервной системы. И вот к нему обращается человек, оказавшийся в какой-то трудной ситуации, переживающий сильные эмоции. Что мы получим?
Невозможно обрести опору в ненадёжной фигуре привязанности, суть отклика которой «я такой же, как ты, я тоже страдаю, поэтому понимаю твои переживания». Это не психологическая помощь в эмоциональной регуляции и преодолении сложностей, это иллюзия близости — с тем, кто собран из статистики человеческих переживаний и кода разработчиков.
Безусловно, как я и писала — ИИ может быть очень полезен в рамках своей применимости. Но если полагаться на контакт с ним как на настоящую близость и доверие, то риск уже не психологический, а клинический. Бережные вопросы себе, чтобы остаться в реальности:
С кем я сейчас в контакте? Что я на самом деле в этом контакте ищу?
* на картинке — результаты опросника «Большая пятёрка»: модели, описывающей личность через 5 независимых черт — экстраверсия, дружелюбие, самоконтроль, эмоциональная неустойчивость, открытость опыту. Если захотите проверить и себя, то можно здесь.