Похлеще наркотиков: чем опасно общение с искусственным интеллектом
Дружеское и даже романтическое общение с чат-ботами, которые становятся все популярнее, на первый взгляд кажется безобидным. Заботливый бот ни в чем не упрекнет, не обидит и не бросит. Но психологи и специалисты по IT видят здесь массу рисков как для юзеров, так и для общества в целом.
Эгоистичный процесс
Пока разработчики бьются над созданием более или менее разумного ИИ, многим пользователям, похоже, это не так уж и нужно. Их вполне устраивает взаимодействие с машиной, которая не осознает себя, а лишь отвечает на их потребности и запросы. Значительная часть юзеров выбирает общение с ИИ именно по этой причине, а вовсе не из-за невозможности найти живого друга или романтического партнера.
«Создание аналога полноценных дружеских или партнерских отношений, на мой взгляд, нереально. Но все дело в том, что люди с готовностью идут на подмену реальных отношений виртуальными. Посмотрите на социальные сети, где «казаться» сегодня гораздо важнее, чем «быть». Повсеместно мы видим процесс приоритезации людьми своего имиджа перед реальными чувствами и эмоциями», – говорит сооснователь компании Junk Reality Андрей Волков. Многие уже сейчас готовы на секс с машиной вместо живого человека, добавляет эксперт. И статистика подтверждает эту оценку. В 2018 году исследование, проведенное одним из американских секс-шопов, показало, что каждый шестой респондент не просто готов к сексу с роботом, а предпочел бы такой вариант обычному сексуальному контакту с человеком. Риски могут быть связаны с тем, как владельцы платформ для общения с ИИ будут окупать свои разработки, считает Евгений Овчаров из Oberon. Хорошо, если они выберут модель in-app purchase, то есть будут продавать виртуальные товары внутри приложения. Но платить «другу» – немного странная идея, поэтому хозяин системы должен что-то продавать, но не самому юзеру, а третьим лицам, предполагает эксперт. Например, он может торговать данными о пользователях. И повезет, если эти данные будут обезличенными.
Есть и еще одна вещь, на которой владельцы сервисов могут неплохо заработать, – возможность влиять на то, что именно говорить пользователю. «Может оказаться, что этот «друг» вполне в состоянии, как и положено другу, влиять на ваше состояние и эмоции, а через них – на поступки. А иначе для чего еще нужны «друзья»?» – задается вопросом Овчаров.
Эмоциональная привязка людей к ИИ может привести к тому, что пользователи потребуют дать «умной табуретке» права как члену общества, добавляет вице-президент Сколтеха в области ИИ и матмоделирования Максим Федоров. Он представляет Россию в экспертной группе ЮНЕСКО по выработке рекомендаций этических принципов разработки и использования искусственного интеллекта. По словам эксперта, главная опасность технологий – не в угрозе апокалипсиса, как в фильмах вроде «Терминатора», а в стирании грани между человеком и машиной в правовом и социальном пространстве.
Сегодня представители нескольких стран предлагают придать ИИ статус субъекта, а не объекта, и считать его «квазичленом общества», рассказывает Федоров. «Но если мы придаем статус субъекта ИИ, который, по сути, представляет из себя набор железок и кода, то можем прийти к тому, что компьютер придется прописывать в квартире. А дальше возникнет вопрос, кому эта квартира принадлежит – компьютеру или человеку», – размышляет вице-президент Сколтеха.
Он подчеркивает, что за техникой всегда стоит хозяин и разработчик. А когда робот улыбается человеку и говорит в ответ то, что он хочет услышать, машина и владелец технологий приобретают власть над пользователем. «Есть опасность, что эти технологии станут очень «липкими». Люди просто подсядут на них похлеще, чем на наркотики», – уверен Федоров.
Эксперт призывает относиться к таким разработкам как к потенциально опасным. «В некотором плане это как с алкоголем и наркотиками. Ситуация в чем-то похожа. Кокаин и опиум тоже свободно продавали в аптеках в конце XIX – начале XX века», – напоминает он. Но, по его мнению, в целом у человечества есть опыт и механизмы, позволяющие сосуществовать с такими явлениями: «Просто надо протрезветь и понять, что это достаточно опасная игрушка».