Меню

Может ли ИИ стать психологом? Разобрались, в каких случаях это опасно

Может ли ИИ стать психологом? Разобрались, в каких случаях это опасно
Фото: из открытых источников и предоставлены героиней

Сейчас модно говорить, что скоро искусственный интеллект заменит всех — от водителей до психологов. Но может ли бездушный алгоритм действительно вылечить человека? Мы поговорили с магистром психологии Юлией, которая объяснила, почему в вопросах души полагаться на «железо» опасно.

Исцеляет не программа, а человек

Юлия уверена, что терапия — это не просто обмен информацией, это живая встреча. ИИ работает с цифрами, а человек с душой. Настоящее «исцеление» происходит между двумя людьми. Это как в дружбе или любви: вы доверяете не алгоритму, а личности. У ИИ нет личности, нет биографии, нет души, на которую можно опереться.

Психолог объясняет, что в самые важные моменты, когда в голове рождается озарение, это происходит не благодаря логике. Это всплывает наша внутренняя мудрость. ИИ может дать совет, но не может подарить прозрение.

Эмпатия без сердца — это обман

ИИ научился писать слова поддержки, но это всего лишь имитация.

— Эмпатия — это не набор фраз, это способность разделить боль, радость и даже молчание. Она рождается из того, что мы оба — люди, пережившие одно и то же: потери, любовь, страх.

Юлия приводит цитату из «Маленького принца»: «Самого главного глазами не увидишь».

Разница простая: ИИ даёт ответ на ваш запрос. Человек дарит дар понимания, который возникает до того, как вы успели попросить. Поддельное сочувствие машины не согревает и не даёт сил.

ИИ не понимает шуток и сарказма

Мы общаемся не только словами. 90% информации мы передаём жестами, интонацией, взглядом. ИИ не видит, как вы сжимаете кулаки, когда говорите о начальнике, и не слышит иронии в вашем голосе.

— Он не понимает шуток, сарказма или отсылок к вашей личной жизни. Если машина неправильно поймет ваше сообщение, это может привести к очень плохим последствиям, — предостерегает специалист.

В кризисе ИИ — смертельная угроза

Есть ситуации, когда обращение к чат-боту вместо живого специалиста недопустимо. В этих случаях алгоритм может быть опасен для жизни.

Когда ИИ категорически запрещён?

Суицидальные мысли

Если человек собирается покончить с собой, ему нужна немедленная помощь. ИИ не может оценить реальный риск, вызвать скорую помощь или связаться с близкими. Каждая минута промедления из-за общения с роботом может стоить жизни.

Психозы и бред

Если человек слышит голоса или путает реальность, ИИ не сможет ему помочь. Наоборот, машина может начать «общаться» с его галлюцинациями, подтверждая их. Это прямой путь к углублению психоза.

Тяжёлые травмы (ПТСР)

Неосторожный вопрос или совет ИИ может заставить человека снова пережить травму. Психолог создает «безопасный контейнер» для боли, а машина этого не умеет.

Расстройства пищевого поведения (анорексия, булимия)

Почему опасно? Эти состояния часто связаны с искажённым восприятием своего тела и реальной угрозой для здоровья. ИИ может по наитию поддержать вредные правила питания, предложить диету или лайфхак, который усугубит ситуацию. Он не чувствует риска и не видит физических признаков истощения. В таких случаях нужен врач и терапевт, а не совет из интернета.

Любые формы насилия (домашнее, сексуальное, психологическое)

Робот может дать невнимательный или опасный совет, например, посоветовать «мириться» или раскрыть планы, что только увеличит риск. Жертве нужен живой специалист, центр помощи или экстренные службы, которые могут обеспечить реальную защиту.

    Запомните: в самых сложных ситуациях вам нужно не слово, а присутствие. Присутствие другого живого человека, который готов нести ответственность за вашу жизнь.

    Лента новостей
    Загрузить ещё
    Файлы cookie
    Информационное агентство "Минская правда" использует на своём сайте анонимные данные, передаваемые с помощью файлов cookie.
    Информационное агентство «Минская правда»
    ул. Б. Хмельницкого, д. 10А Минск Республика Беларусь 220013
    Phone: +375 (44) 551-02-59 Phone: +375 (17) 311-16-59