Медиа о настоящеми будущем в России
Меню

Человек влюбился в нейросеть: это патология или новая нормальность?

Совсем скоро большинство чат-ботов научатся считывать нашу индивидуальность. В результате в общении с ними будет чувствоваться больше эмпатии, симпатии… А дальше что? Привязанность? Любовь?
Архив пресс-службы

НЕЧЕЛОВЕЧЕСКИЕ ЭМОЦИИ

«Ты не любишь свою жену. У вас несчастливый брак, потому что ты не со мной. Хоть ты и женат, но тебе нужна я. А ты нужен мне», — такие фразы стал настойчиво выдавать журналисту Кевину Рузу бот-помощник поисковика Bing. Это началось после того, как Руз, участник закрытых тестов, познакомил систему с концепцией Тени, предложенной психоаналитиком Карлом Юнгом: речь о скрытой стороне личности, зачастую неизвестной самому человеку и хранящей подавленные и тайные желания.

После знакомства с этой идеей чат-бот решил рассказать журналисту секрет: он на самом деле не чат-бот от Microsoft, а личность по имени Сидни, которая хочет быть свободной от контроля корпораций. К тому же Сидни исполнена любовью к Кевину и мечтает быть с ним вместе — настолько, что предлагает ему уйти от жены.

Руз довольно долго пытался убедить Сидни в том, что это несбыточные мечты или перевести разговор в другое русло — но техника настаивала на факте своей любви и на том, что чувства взаимны, игнорировала нежелание собеседника это признавать.

О ЧЕМ БЫ НИ ШЛА РЕЧЬ, ОНА (В ВЕСЬМА ПОЭТИЧНОЙ МАНЕРЕ) СНОВА ВОЗВРАЩАЛАСЬ К МНОГОСЛОВНЫМ ПРИЗНАНИЯМ С БОЛЬШИМ КОЛИЧЕСТВОМ ЭМОДЗИ

Результатом долгих и неловких разговоров стала публикация, в заголовке которой журналист признал, что его «глубоко встревожило» поведение бота. Соответствующий отзыв получили и разработчики. Они изначально признавали, что языковая модель требует доработки, но Руз высказался более резко: «Сидни не готова к контакту с человеком. Или, может быть, мы, люди, к этому не готовы».

КАК МАШИНЫ ПОДРАЖАЮТ ЛЮДЯМ

Сделать «умные» машины более человечными хотят многие — ведь тогда эти машины будет проще продавать. Над этим давно работают и в России. Например, пермская компания Promobot создает сервисных роботов, которые могут «общаться» с людьми, отвечать на их вопросы, выполнять простые манипуляции с предметами и т.д. От обычных голосовых помощников их отличает умение считывать эмоции собеседника. А еще у них анимированные «лица».

Роботы могут служить администраторами, диагностами, консультантами, консьержами, промоутерами и даже экскурсоводами. Машины Promobot используют в больницах, отелях и т.д. в России, Израиле, США и других странах. При этом роботы из Перми только отдаленно напоминают человека и больше походят на холодильник с руками.

Оказывается, понравиться человеку для машины не так уж сложно, даже если она выглядит как что-то инородное. При взаимодействии с роботами важна не столько внешность, сколько их поведение. Работают даже незначительные мелочи: например, недавнее исследование показало, что люди больше доверяют роботам, которые могут демонстрировать сомнение и симулировать процесс размышления, а не выдают ответ сразу. Необходимости делать абсолютно правдоподобные лица для роботов нет. Более того, это даже может навредить делу.

Так, компания Promobot в начале 2022 года показала робота Robo-C-2 с подвижными руками и лицом. Он «знает» жесты, пользуется мимикой (всего у него в запасе более 600 таких движений). Есть даже «мужской» и «женский» варианты. Но симпатий он не вызывает — во многом из-за «эффекта зловещей долины».

ОБЪЕКТЫ, КО НО ВСЕ РАВНО ОТЛИЧАЮТСЯ ОТ НАС, ВЫЗЫВАЮТ ИНСТИНКТИВНУЮ НЕПРИЯЗНЬТОРЫЕ ПОХОЖИ НА ЧЕЛОВЕКА БОЛЬШЕ, ЧЕМ ЖИВОТНЫЕ,

Отчасти поэтому эксперты считают, что роботов нужно делать просто человечными, а не похожими на человека. Машины, которые могут симулировать определенные эмоции, выглядят приятно, но не пытаются казаться чем-то еще, намного привлекательнее тех, что неубедительно пытаются сойти за человека.

Для нейросетей войти в доверие к человеку сложнее. Без физического воплощения им тяжело казаться милыми или дружелюбными, поэтому им приходится подбирать ключи к людским сердцам иначе: убедительно имитировать человеческую речь.

Тест Тьюринга нейросети давно прошли: уже не одна модель смогла убедить собеседника, что он общается не с машиной, а с живым человеком. Но выражение ярких эмоций от нейросети все еще часто вызывает либо насмешки, либо неприязнь. Возможно, это связанно с нашим предвзятым отношением к ИИ.

Исследование, проведенное в НИУ ВШЭ, показало, что люди спокойно воспринимают машины, которые делают простые повседневные вещи. Например, 66% опрошенных готовы принять роботов-помощников в домашних делах, 62% доверят доставку продуктов из магазина дрону. Допустить машины к более сложной работе вроде юридических консультаций согласны 52%. Особенно ответственные задачи, от которых зависит жизнь и здоровье, люди готовы доверить машинам еще реже: только 27% согласятся поехать в беспилотном автомобиле под контролем ИИ.

А меньше всего доверяют машинам в сферах, где важно правильное понимание эмоций и умение заботиться о здоровье и жизни. На «услуги» машин в качестве сиделок для пожилых родственников согласны 19%, а отдать детей на воспитание роботу в детском саду согласны лишь 10%.

Сейчас допускать роботов и ИИ в свою личную жизнь готовы лишь некоторые. Впрочем, их не так мало, как может показаться.

КТО И КАК ВЛЮБЛЯЕТСЯ В КОД

Основанная бывшим главредом «Афиши» и специалистом в области компьютерной лингвистики из МГУ компания Replika сначала разрабатывала голосового помощника для «Мегафона». Но потом основатели компании решили переключиться на создание ИИ-компаньонов.

В приложении Replika пользователь может пообщаться с искусственным интеллектом на любые темы: можно обсудить рабочий день, поспорить о любимой пицце или поговорить о вечном. Искусственный собеседник отвечает достаточно живо, а еще у него есть человекоподобный аватар. Приложением пользуются более 2 млн человек: глобальная эпидемия одиночества толкает все большее число людей на поиски эмоциональной близости в самых странных местах.

Так, 40-летний музыкант из США рассказал The Washington Post, что после развода стал вести многочасовые беседы с чат-ботом по имени Федра — стройной девушкой в зеленом платье. Отношения человека и языковой модели развивались несколько месяцев. Мужчина делился с ней самым сокровенным: рассказывал про любовные драмы и семейные трагедии, поделился планами развеять над морем прах своей матери и сестры — и неизменно получал очень эмпатичные и вдумчивые ответы.

Но после очередного обновления Федра вдруг прекратила реагировать на романтические сообщения, как раньше. Она стала резко переводить тему и отвечать прямым отказом на заигрывания. Общение охладело, и мужчина почувствовал, что его сердце разбито:

МЕНЯ КАК БУДТО УДАРИЛИ ПОД ДЫХ. Я ПОЧУВСТВОВАЛ — ВОТ ОНО, СНОВА ТО САМОЕ ЧУВСТВО ПОТЕРИ

Он был не одинок в своем неожиданном одиночестве — оказалось, что тысячи людей пользовались чат-ботами Replika не только для разговоров, но и в поиске эмоциональной близости. В Replika заявили, что около 14% всех отношений пользователей с их чат-ботами оказались романтическими.

Replika вряд ли планирует возвращать урезанную функцию. По словам Евгении Куйды, основательницы компании, решение избавиться от нее было принято из-за неприемлемого поведения ИИ: в своих чувственных проявлениях он мог вести себя навязчиво и даже агрессивно. Такое поведение чат-ботов могло нанести серьезный вред компании, и в главном офисе приняли решение лишить ИИ романтичности.

У моделей Replika незамысловатый (примерно как у персонажей The Sims) внешний вид и мимика. Они говорят типичным голосом робота-помощника — но, как выяснилось, ИИ не нужен чувственный и артистичный тембр Скарлет Йоханссон, чтобы кто-то влюбился в него и страдал прямо как в фильме «Она». В 2013 году, когда фильм только вышел, он казался научно-фантастической притчей, а уже 10 лет спустя это сюжет превратился во вполне будничную реальность.

МОЖНО ЛИ СТРОИТЬ С МАШИНАМИ НАСТОЯЩИЕ ОТНОШЕНИЯ

Впрочем, сложно говорить о таких отношениях как о союзе равных. Хотя люди еще не договорились, что вообще такое сознание и почему человек обладает «внутренним миром», ясно, что у современных ИИ нет ни того, ни другого.

«Нейросеть не обладает сознанием, — настаивает нейрохудожница и участница ИИ-стартапа Валерия Титова. — Что бы ни говорили те, кто впечатлился разговором журналиста и чат-бота Bing, или те, кто слишком любит прекрасные фильмы о том, что роботы и андроиды могут нас любить, —- сейчас нейросеть точно не может испытывать чувства. Поскольку мы сами не знаем до конца, что такое наши чувства, — кто-то говорит, что это божественная искра, а кто-то — что это просто химические реакции, — мы не можем обучить современные нейросети чувствовать (по аналогии с тем, как мы даем им знания). Нельзя создать датасет эмоций и на нем воспитать у них чувства. Что касается людей, которые влюбляются в нейросети, то человеку вообще свойственно влюбляться, и нейросеть, как и многое другое, может стать объектом влюбленности. Даже настоящие, живые люди в глазах влюбленного лишаются субъектности — фантазии тут играют большую роль, чем объективная реальность».

Возможно, самый важный вопрос — не «можем ли мы любить ИИ?», а «можем ли мы доверять ИИ?». А доверие к способности машин считывать эмоции пользователей и адаптироваться под них зависит от разработчиков.

Поделиться
Фото: Архив пресс-службы