ИИ заменит психологов?
Как когда-то каждый начинающий разработчик писал свой todo-менеджер, так теперь, кажется, каждый начинающий ии-предприниматель создаёт своего личного ии-психолога или ии-коуча.
«Ии-психолог» здесь стоит понимать либо как метафору, либо как свидетельство полного непонимания того, что такое психология и как она работает.
С тем же успехом, психологом можно назвать и книги самопомощи (
библиотерапия), или приложение для медитации, или нейрофидбек-устройство. Прогулку по парку можно назвать психологом, и поглаживание кошки. Это правда эффективные психологические интервенции, не хуже упражнений из КПТ.
Так и все «ии-психологи» сейчас — это набор упражнений (неэффективный человек-психолог, увы, тоже).
У фронтирных ии-моделей, таких как ChatGPT, Claude,
X.ai нет много чего, что есть у живого человека: нет модели психики клиента, нет собственного прожитого опыта, в особенности невербального, нет субъектности и каких-либо целей.
С языковой моделью сложно построить доверительные отношения (хотя и не невозможно), как минимум в силу текущих ограничений её памяти — а значит вашей совместной «памяти». Мышление и язык не тождественны, большая часть нашего опыта не языковая, а телесная, экспериентальная.
У ИИ-психологов и даже ChatGPT в чистом виде, разумеется, есть преимущества — цена и доступность 24×7, потенциально большая открытость людей — на некоторые темы люди будут более готовы говорить с машиной, чем с человеком — мы это знаем из исследований.
Отношения между человеком и машиной, хоть и отличаются от человеческих, но всё же возникают (про это — прекрасная книга
The Man who lied to his laptop), как возникают отношения и с более простыми техническими объектами — стиральной машиной, автомобилем, мобильными телефоном.
«Отношения» с ИИ будут становиться всё более сложными и глубокими, но всё же получить тот же эффект, что из принимающего человеческого контакта с другим живым сознательным существом получить в ближайшее время, а может и никогда, невозможно.
ИИ не «понимает» эмоции — в силу того, что и «знаком» только с языковыми, аудиальными, визуальными их проявлениями, но естественно не самим опытом. ИИ учится и работает с узким срезом модальностей, через которые эти эмоции передаются, преимущественно с текстом. И хотя текст и нарративы являются важной частью и выражением нашей психики, понять состояние человека или даже всю полноту смыслов только по тексту невозможно (а вот предсказать психические расстройства
очень даже можно).
Речь, как мы знаем
из свежих исследований, нужна нам в первую очередь для коммуникации, передачи смыслов другим людям, а не для мышления. Само мышление — а значит и его искажения, возникают не только «языковых» областях мозга (люди с повреждениями в языковых центрах всё ещё могу решать сложные когнитивные задачи). Для того, чтобы построить действительно эмпатичный ии, нужна другая парадигма и архитектура, как минимум симулирующая лимбическую и гормональную систему, а то и всё тело (
вспоминаем Лизу Барретт).
ИИ не умеет толком спорить и отстаивать свою «позицию». ChatGPT почти всегда будет соглашаться с вами и вашими возражениями, это самый податливный собеседник. У него нет позиции, ценностей и целей, только ограничения безопастности. Само притворство моделей, эмуляция способности чувствовать и симпатизировать, как будто идёт вразрез с морально-этическими терапевтическими кодексами.