Почему индустрия цифровых аватаров пугает обывателей на стадии появления
По одному телеканалу идут новости, по-другому – ток-шоу, на третьем крутят запись концерта, на четвертом – блокбастер. Но, куда ни переключи, живых людей не увидишь: в качестве дикторов, ведущих, поп-звезд и киноактеров выступают вымышленные персонажи, сгенерированные искусственным интеллектом (ИИ). Пришло время заняться делами? Цифровые сущности и тут на каждом шагу. Разговорчивая умная колонка поможет вам уладить бытовые вопросы. Виртуальный полицейский выслушает жалобы на шумных соседей в специальном приложении. А как выглядят банковские клерки, никто уже и не помнит: все финансовые операции курирует пунктуальный чат-бот. Пора выдвигаться в город: сегодня у вас назначена встреча с деловым партнером. Прибыв в бизнес-центр на беспилотном такси, вы заходите в здание и уточняете у голограммы-администратора, когда вас смогут принять. Трехмерное изображение девушки просит немного подождать. Наконец, вы проходите в кабинет и встречаете первого за день настоящего человека. Ваш партнер пока из плоти и крови. Надолго ли?.. Так выглядит наше не слишком отдаленное будущее, в котором цифровые аватары, которые сейчас внедряются в первую очередь в Китае, стали повсеместными. Когда это произойдет, и с какими этическими и законодательными проблемами сталкивается технология, выяснял «Профиль». Прямой эфир с роботом В мае китайское государственное агентство «Синьхуа» представило Синь Сяовэя – виртуального ведущего, способного реалистично имитировать человеческую речь, мимику, эмоции и движения. За основу визуального образа была взята внешность Чжао Ваньвэя, штатного репортера издания. Это не первая разработка «Синьхуа». В 2018 году агентство запустило 3D-сотрудника Ки Хао. Вскоре совместно с ИТАР–ТАСС была разработана русскоязычная версия аватара. С тех пор решения для генерации аудиовизуальных эффектов совершили рывок вперед. «Много улучшений произошло с точки зрения того, как работают механизмы по генерации речи. Сегодня сгенерированную речь зачастую невозможно отличить от человеческой», – рассказал «Профилю» директор Центра компетенций по искусственному интеллекту Crayon Владимир Еронин. Похлеще наркотиков: чем опасно общение с искусственным интеллектом То же касается изображений: современные алгоритмы генерируют их настолько качественно, что далеко не всегда можно с первого взгляда отличить искусственную «фотографию» от настоящей. Правда, в движении можно заметить неестественность эмоций, несовпадение голоса и действий цифровых аватаров. «Пока сгенерированные статичные изображения больше похожи на реальных людей, чем динамические», – подтверждает Еронин. По мере технического усовершенствования цифровые аватары будут становиться все более востребованными бизнесом, рассказал футуролог, амбассадор Singularity University Евгений Кузнецов. «Задача компаний – персонифицировать коммуникацию с клиентами, найти индивидуальный подход к каждому. А это проще сделать, если функционал сервиса имеет антропоморфное воплощение. Текстовый чат-бот – неплохо, раздающийся из колонки голос – еще лучше, но если клиент видит, с кем ведет разговор, это воспринимается совсем иначе», – объясняет эксперт. По распространенному мнению, придание визуального воплощения популярным голосовым ассистентам – Алисе («Яндекс»), Алексе (Amazon) или Сири (Apple) – станет следующим шагом их развития. Но прежде IT-компаниям придется преодолеть ряд трудностей. Чему научишь, то и пожнешь Одним из наиболее известных цифровых аватаров стал Baby X – гиперреалистичная симуляция младенца с розовыми щеками и большими серьезными глазами от новозеландской компании Soul Machines. Разработчики заложили в BabyX мощную метафору: искусственный интеллект по своей сути похож на детей. Он также беззащитен и нуждается в постоянной опеке (подборе «правильных» обучающих данных), пока не станет взрослым и самостоятельным. Так, в случае с медиа, чтобы ИИ не генерировал оскорбительного и тем более противозаконного контента, нужно внимательно рецензировать информацию, которая послужит базисом для проекта. В противном случае из алгоритма вырастает настоящий монстр. Подобная история произошла с ИИ-ботом по имени Тей, которого Microsoft в 2016 году отправила в вольное плавание по просторам Twitter. Пробыв всего сутки в окружении местной аудитории, алгоритм начал публиковать оскорбительные посты и всячески выражать нелюбовь к разного рода конфессиям и группам людей. В аналогичные ситуации время от времени попадают и цифровые ассистенты, например, голосовой помощник Олег от банка «Тинькофф» и разработанная «Яндексом» Алиса. Первый по прошествии нескольких дней с запуска начал угрожать своим собеседникам, а вторая в течение нескольких месяцев выдавала странные заявления или начинала спорить с пользователями. Тема лишнего человека Сегодня разработчики стараются обучать свои продукты на больших массивах данных и не всегда имеют возможность проверить все, что «поглощает» искусственный интеллект на старте. Поэтому вопрос, что выдаст ИИ в ответ на какой-либо запрос, остается открытым. «Это своего рода черный ящик, – комментирует Владимир Еронин. – Сложив определенные обучающие выборки, можно получить совершенно неожиданный результат». Эксперт отмечает, что даже при качественной проверке стартовых данных остается вероятность задеть чьи-то чувства. Проблема в том, что в речи виртуальных помощников все равно могут попадаться формулировки и сочетания слов, которые, по идее, не должны никого оскорбить, но в контексте звучат неприятно. Ведь нейронные сети не в состоянии постичь этикет человеческого общения. При этом современное ПО, которое анализирует реплики ИИ на предмет корректности высказываний, выдает заключения по принципу вероятностей. То есть оно может постановить, что цифровой аватар подготовил спич, который с вероятностью 10% кого-то оскорбит. Даже если этот процент низок, полностью исключить риск почти невозможно. На этом фоне все чаще обсуждается необходимость регулирования деятельности «умных» алгоритмов со стороны государства. Головокружительная «карьера» цифровой певицы Хацунэ Мику, внешне напоминающей персонажа аниме, показывает, что аватары вовсе не обязательно создавать неотличимыми от людей Christophe Archambaultr / AFP East-News Кто ответит за ИИ? Россия находится в самом начале создания нормативной базы для сферы искусственного интеллекта. Одним из первых шагов стало принятие прошлой осенью Национальной стратегии развития искусственного интеллекта на период до 2030 года. Также в апреле была представлена Концепция правового регулирования искусственного интеллекта. А в Москве ввели экспериментальный режим для внедрения ИИ. «Он будет длиться пять лет, по результатам планируется усовершенствовать законодательное регулирование технологии, учитывая потребности рынка и интересы граждан», – отмечает старший юрист практики интеллектуальной собственности CMS Russia Ирина Шурмина. На практике ответственность за действия искусственного интеллекта в зависимости от обстоятельств может нести как разработчик технологии, так и обладатель лицензии. «В Евросоюзе придерживаются мнения, что обычно отвечает лицо, которое осуществляет настройку технологии, контролирует риск и получает преимущества от ее использования. При этом в высокорисковых сферах – в медицине и безопасности, на транспорте – планируется ввести повышенную ответственность», – говорит Шурмина. Очень скоро автомобиль будет без бензина, без водителя и без хозяина Важным прецедентом в международной практике регулирования ИИ стало ДТП, произошедшее в 2018 году в США с участием Uber, в результате которого беспилотный автомобиль насмерть сбил пешехода. В 2019-м прокуратура округа сняла с Uber ответственность за аварию, но решила провести дополнительное расследование в отношении водителя-испытателя, который в момент аварии находился в автомобиле и теоретически мог ее предотвратить. Когда же на долю алгоритмов выпадает генерация контента – новостей, заметок и аналитических сводок, – важна защита от фейковых новостей. Сегодня многие разработчики заняты созданием технологии, которая позволит отличать такие новости от настоящих, идентифицировать и удалять недостоверную информацию. Анализом текста в подобных решениях занимается все тот же ИИ, однако, в отличие от фильтрации оскорбительных сообщений, существует весьма эффективная механика борьбы. К примеру, алгоритмы обучаются использовать для подготовки статей только первоисточники, отправляя некачественные ресурсы в «черный лист». С искусственно сгенерированными изображениями и видео дела обстоят сложнее. В Китае, например, законодательно запрещено публиковать подобные материалы без подписи, что содержание искусственно создано алгоритмами. В России же использование сгенерированных изображений и видео пока не регулируется. Подводя итог, можно сказать, что мы стоим на пороге больших перемен. Цифровые аватары готовятся шагнуть в разные отрасли экономики, став своеобразной «реинкарнацией» так и не получивших массовое распространение роботов-гуманоидов. Со временем 3D-существа станут обыденностью, но перед этим людям предстоит дать ответ на множество неоднозначных вопросов. Читайте продолжение в материале: «Призраки «зловещей долины»: нужны ли нам антропоморфные роботы».