Представьте ситуацию: вы приходите на работу в плохом настроении пишете в рабочем чате сухое «Ок», а через минуту бот в корпоративном мессенджере присылает вам подбадривающие цитату. С одной стороны, выглядит все по-человечески. С другой стороны, есть нюанс, это делает не человек, а робот, который проанализировал тональность вашего сообщения.
Может ли ИИ, у которого нет сердца, заменить человеку поддерживающее плечо и должен ли он это делать? Алгоритмы уже учатся распознавать грусть в голосе человека, а HR-боты писать слова поддержки сотрудникам и руководителям.
Мы задали вопросы Диане Тельной, собственнику и директору Центра корпоративного обучения А-групп, HR эксперту (проект «HR напрокат») о природе эмпатии, границах искусственного интеллекта и будущем человеческого общения.
Если ИИ точно определяет, что человек грустит (по голосу или тексту), и предлагает помощь, можно ли это считать проявлением эмпатии или это просто холодный алгоритм, имитирующий заботу?
Это не эмпатия. Это очень качественная имитация эмпатии. ИИ может точно распознать сигнал: по голосу, по словам, по паузам. Эмпатия – это не про распознавание, а про переживание, включенность и ответственность за другого человека.
ИИ не чувствует (так как не имеет органов чувств), не проживает (так как не живет), не сопереживает (так как, смотрим выше, он не живет). Он не несет ответственности за последствия своих слов, а лишь подбирает максимально подходящую реакцию на основе данных, не более.
Важный момент, иногда этой «имитации» достаточно, чтобы человеку стало легче. И в этом смысле ИИ может быть полезен. Но важно не перепутать, ведь это совершенно разные вещи:
-
Поддержка, которая выглядит как эмпатия.
-
Эмпатия как человеческое качество или компетенция (к слову говоря, психологов учат эмпатии) и эмоциональный интеллект – это про умение переживать правильно и эффективно для организма все свои эмоции.
Кто быстрее подстроится под наше индивидуальное чувство юмора или психологическое состояние в конкретную минуту: близкий коллега по работе (человек) или продвинутый ИИ-ассистент, который помнит всю историю ваших диалогов?
Если говорить про скорость, то точно, ИИ. Он помнит всю историю, анализирует паттерны, подбирает реакции без усталости и эмоций. Но есть нюанс. Человек чувствует не только слова, но еще и контекст, паузы, напряжение, недосказанное.
Иногда близкий человек может «не попасть» в юмор, но при этом попасть в состояние. А это важнее. ИИ быстрее подстраивается под паттерны, однако человек глубже подстраивается под состояние.
Если ИИ пишет слова поддержки, зная, что вы расстроены, но сам при этом «ничего не чувствует», являются ли эти слова ложью? Что важнее – результат (вам стало легче) или источник, от кого идёт поддержка?
Это не ложь, но это и не искренность в человеческом смысле. Это лишь инструмент. Здесь для меня ключевой вопрос не в «Правда это или ложь?», «А что с этим делает человек?»
Когда человеку стало легче – это уже результат. Если мы начнем заменять живые отношения только взаимодействием с ИИ – это уже риск.
Есть много уже ситуаций, где дружба (в полном смысле этого слова) с ИИ приводила подростков к суициду. Взрослых людей с диагнозом «депрессивное расстройство» к ухудшению состояния и отказа от лечения. Одиноких (социально) людей – к настоящей влюбленности и желании жениться/выйти замуж за ИИ. Вот это страшно.
Поддержка от человека – это же не только слова. Это еще и присутствие, контакт, тепло, взаимность. Это и гормоны. Эмоция, в переводе с латинского, означает «реакция». Реакция организма на то или иное раздражение. Каждое эмоциональное (внешнее) проявление эмоции – это проявление гормона. Химической реакции в организме, если еще проще.
ИИ может дать слова, но он не может дать отношения. Он физически не может дать возможность прожить, например, «нежность», так как это объятия. Это действие гормона окситоцина.И вот это важно не потерять.
Важно развивать свой эмоциональный интеллект для себя, в первую очередь, и психологического здоровья.
Представьте ситуацию: сотрудник говорит «У меня все отлично!», но у него дрожит голос и слезы на глазах. Человек поймет подвох. Сможет ли ИИ, даже с самой лучшей камерой и микрофоном, отличить сарказм или истерику от искренней радости или грусти?
ИИ может заметить несоответствие. Например, человек говорит «Все хорошо», но голос напряжен, мимика не совпадает. И тогда ИИ может это зафиксировать, иногда даже точнее, чем человек.
Но дальше начинается самое сложное – интерпретация. Это сарказм? Усталость? Страх? Это попытка скрыть эмоции?
Без контекста, без опыта взаимодействия, без понимания человека, очень легко ошибиться. Человек может задать уточняющий вопрос, почувствовать, промолчать вовремя. ИИ – пока нет.
У ИИ нет плохого настроения, он не устает и не осуждает вас. Означает ли это, что для решения эмоциональных ситуаций на работе (ссора с руководителем, стресс на работе) робот подходит лучше, чем капризный и чересчур чувствительный человек?
Это сильная сторона ИИ, потому что он: не устает, не раздражается, не переносит свои эмоции, не обесценивает. И в этом смысле он действительно может быть более «экологичным» в коммуникации.
Однако, эмоционально сложные ситуации – это не только про «не навредить». Это про: выдержать напряжение, взять ответственность, принять решение, иногда сказать сложную правду, и многое другое.
И вот здесь нужен человек, потому что зрелость – это не отсутствие эмоций. Это умение с ними жить, их направлять, и использовать ту силу, которую они дают.
Я не вижу в ИИ замену человеку в эмоциональной сфере. Я вижу в нем усилитель, но только в том случае, если за машиной стоит человек, который умеет чувствовать, думать, сомневаться и нести ответственность. Потому что без этого даже самый умный ИИ-помощник может стать не поддержкой, а очень убедительной ошибкой.
И в этом стоит будущая главная отличительная особенность человека – развитый эмоциональный интеллект, без которого ИИ будет просто инструментом, но, если действовать вместе, то суперсилой.