«Я не хочу, чтобы кто-нибудь думал, что я когда-либо говорил эти ужасные вещи в своей жизни. Использование украинской девушки для лица, продвигающего россию. Это безумие.»
Ольга Лоек видела свое лицо в различных видеороликах в китайских социальных сетях — благодаря простым в использовании инструментам генеративного искусственного интеллекта, доступным в Интернете.
«Я мог видеть свое лицо и слышать свой голос. Но все это было очень жутко, потому что я видел себя говорящим то, чего никогда не говорил», — говорит 21-летний студент Пенсильванского университета.
В аккаунтах с ее изображением были десятки разных имен, таких как София, Наташа, Эйприл и Стейси. Эти «девочки» говорили на китайском языке, который Ольга никогда не учила. Судя по всему, они были из россии и говорили о китайско-российской дружбе или рекламировали российскую продукцию.
«Я видел, что 90% видеороликов рассказывали о Китае и россии, дружбе между Китаем и россией, о том, что мы должны быть сильными союзниками, а также рекламу еды».
Одним из самых крупных аккаунтов был аккаунт «Наташа импортная еда», на который подписано более 300 000 пользователей. «Наташа» говорила что-то вроде: «россия — лучшая страна. Печально, что другие страны отворачиваются от россии, а русские женщины хотят приехать в Китай», прежде чем начать продвигать такие продукты, как русские конфеты.
Это лично возмутило Ольгу, семья которой до сих пор находится в Украине.
Но в более широком плане ее дело привлекло внимание к опасностям технологии, которая развивается так быстро, что ее регулирование и защита людей стали настоящей проблемой.
От YouTube до Сяохуншу
ИИ-двойники Ольги, говорящие на китайском языке, начали появляться в 2023 году — вскоре после того, как она завела канал на YouTube, который обновляется не очень регулярно.
Примерно через месяц она начала получать сообщения от людей, которые утверждали, что видели, как она говорила на китайском языке в китайских социальных сетях.
Заинтригованная, она начала искать себя и нашла свои ИИ-подобные изображения на Xiaohongshu — платформе, похожей на Instagram, — и Bilibili, видеосайте, похожем на YouTube.
«Их [аккаунтов] было очень много. У некоторых в биографии были такие вещи, как российские флаги», — сказала Ольга, которая на данный момент нашла около 35 аккаунтов, использующих ее изображение.
После того, как ее жених написал в Твиттере об этих аккаунтах, компания HeyGen, которая, как она утверждала, разработала инструмент для создания ИИ-подобий, ответила.
Они обнаружили, что с использованием ее лица было создано более 4900 видеороликов. Они добавили, что больше не могут использовать ее изображение.
Представитель компании сообщил BBC, что их система была взломана с целью создания того, что они назвали «несанкционированным контентом», и добавил, что они немедленно обновили свои протоколы безопасности и проверки, чтобы предотвратить дальнейшее злоупотребление своей платформой.
Но Анжела Чжан из Университета Гонконга говорит, что то, что случилось с Ольгой, «очень распространено в Китае».
В стране «развита обширная теневая экономика, специализирующаяся на подделках, незаконном присвоении личных данных и производстве дипфейков», — сказала она.
И это несмотря на то, что Китай является одной из первых стран, пытающихся регулировать ИИ и то, для чего его можно использовать. Оно даже внесло изменения в свой гражданский кодекс, чтобы защитить права на сходство от цифровой фабрикации.
Статистические данные, раскрытые Департаментом общественной безопасности в 2023 году, показывают, что власти арестовали 515 человек за деятельность по «подмене лиц» с помощью ИИ. Китайские суды также рассматривали дела в этой области.
Но тогда как же столько видео с Ольгой попали в сеть?
Одной из причин может быть то, что они продвигали идею дружбы между Китаем и россией.
За последние годы Пекин и москва значительно сблизились. Китайский лидер Си Цзиньпин и президент россии путин заявили, что дружба между двумя странами «не имеет границ». Они должны встретиться в Китае на этой неделе.
Государственные СМИ Китая повторяют российские версии, оправдывающие вторжение в Украину, а социальные сети подвергают цензуре обсуждение войны.
«Неясно, были ли эти учетные записи согласованы для достижения коллективной цели, но продвижение сообщения, которое соответствует правительственной пропаганде, определенно приносит им пользу», — сказала Эмми Хайн, исследователь права и технологий из Университета Болоньи и Университета Калифорнийского университета. Левен.
«Даже если эти аккаунты не связаны явно с КПК [Коммунистической партией Китая], продвижение согласованного сообщения может снизить вероятность удаления их публикаций».
Но это означает, что обычные люди, такие как Ольга, остаются уязвимыми и рискуют нарушить китайское законодательство, предупреждают эксперты.
Кайла Бломквист, исследователь технологий и геополитики из Оксфордского университета, предупреждает, что «существует риск того, что люди будут фальсифицированы искусственно созданным политически чувствительным контентом», и могут подвергнуться «быстрым наказаниям, принятым без надлежащей правовой процедуры».
Она добавляет, что внимание Пекина в отношении искусственного интеллекта и политики конфиденциальности в Интернете направлено на защиту прав потребителей от хищнических частных субъектов, но подчеркивает, что «права граждан по отношению к правительству остаются крайне слабыми».
Хайн объясняет, что «фундаментальная цель китайского регулирования ИИ — сбалансировать поддержание социальной стабильности с продвижением инноваций и экономического развития».
«Хотя существующие правила кажутся строгими, есть свидетельства избирательного применения, особенно правила лицензирования генеративного ИИ, которое может быть направлено на создание более благоприятной для инноваций среды при молчаливом понимании того, что закон обеспечивает основу для принятия суровых мер в случае необходимости», — сказала она.
«Не последняя жертва»
Но последствия дела Ольги выходят далеко за пределы Китая — оно демонстрирует сложность попыток регулирования отрасли, которая развивается с головокружительной скоростью и где регулирующие органы постоянно пытаются догонять. Но это не значит, что они не пытаются.
В марте Европейский парламент утвердил Закон об искусственном интеллекте — первую в мире всеобъемлющую структуру по ограничению рисков, связанных с технологиями. А в октябре прошлого года президент США Джо Байден объявил о распоряжении, требующем от разработчиков ИИ делиться данными с правительством.
Хотя регулирование на национальном и международном уровнях развивается медленно по сравнению с быстрым развитием ИИ, нам необходимо «более четкое понимание и более сильный консенсус в отношении наиболее опасных угроз и способов их смягчения», — говорит Бломквист.
«Однако разногласия внутри стран и между ними препятствуют реальным действиям. США и Китай являются ключевыми игроками, но достижение консенсуса и координация необходимых совместных действий будет сложной задачей», — добавляет она.
Между тем, на индивидуальном уровне мало кто может сделать, кроме как ничего не публиковать в Интернете.
«Единственное, что нужно сделать, — это не давать им никаких материалов для работы: не загружать свои фотографии, видео или аудио в общедоступные социальные сети», — говорит Хайн. «Однако у плохих актеров всегда будут мотивы подражать другим, и поэтому, даже если правительства примут жесткие меры, я ожидаю, что мы увидим последовательный рост на фоне нормативного бреда».
Ольга «на 100% уверена», что не станет последней жертвой генеративного ИИ. Но она полна решимости не позволить этому выгнать ее из Интернета.
Она поделилась своим опытом на своем канале на YouTube и рассказала, что некоторые китайские интернет-пользователи помогали ей, оставляя комментарии под видео, используя ее изображение и указывая на то, что они фейковые.
Она добавляет, что многие из этих видео уже удалены.
«Я хотела поделиться своей историей, я хотела убедиться, что люди поймут, что не все, что вы видите в Интернете, реально», — говорит она. «Мне нравится делиться своими идеями со всем миром, и никто из этих мошенников не может помешать мне сделать это».