Большинство крупнейших технологических компаний мира, включая Amazon, Google и Microsoft, согласились бороться с тем, что они называют обманчивым искусственным интеллектом (ИИ) на выборах.
Двадцать компаний подписали соглашение, обязывающее их бороться с контентом, вводящим в заблуждение избирателей.
Они говорят, что будут использовать технологии для обнаружения и противодействия этому материалу.
Однако один отраслевой эксперт считает, что добровольный пакт «мало что сделает для предотвращения размещения вредоносного контента».
О техническом соглашении по борьбе с мошенническим использованием ИИ на выборах 2024 года было объявлено на Мюнхенской конференции по безопасности в пятницу.
Этот вопрос оказался в центре внимания, поскольку, по оценкам, в этом году в таких странах, как США, Великобритания и Индия, будут голосовать до четырех миллиардов человек.
Среди обязательств соглашения — обязательства по разработке технологий для «смягчения рисков», связанных с вводящим в заблуждение контентом выборов, создаваемым ИИ, а также по обеспечению прозрачности для общественности о предпринятых действиях.
Другие шаги включают в себя обмен передовым опытом и обучение общественности тому, как определить, когда они могут видеть манипулируемый контент.
В число подписантов входят платформа социальных сетей X (ранее Twitter) Snap, Adobe и Meta, владелец Facebook, Instagram и WhatsApp.
Проактивный
Однако у соглашения есть некоторые недостатки, по мнению ученого-компьютерщика доктора Дипака Падманабхана из Королевского университета Белфаста, который является соавтором статьи о выборах и искусственном интеллекте.
Он сказал BBC, что многообещающе увидеть, как компании признают широкий спектр проблем, связанных с ИИ.
Но он сказал, что им необходимо предпринимать более «активные действия», а не ждать публикации контента, прежде чем пытаться удалить его.
Это может означать, что «более реалистичный контент ИИ, который может быть более вредным, может оставаться на платформе дольше» по сравнению с очевидными подделками, которые легче обнаружить и удалить, предположил он.
Доктор Падманабхан также заявил, что полезность соглашения подорвана отсутствием нюансов в определении вредного контента.
Он привел пример заключенного в тюрьму пакистанского политика Имрана Хана, который использовал искусственный интеллект для произнесения речей, пока находился в тюрьме.
«Это тоже нужно убрать?» он спросил.
С оружием
Стороны, подписавшие соглашение, заявляют, что будут нацелены на контент, который «обманчиво имитирует или изменяет внешний вид, голос или действия» ключевых фигур на выборах.
Он также будет стремиться бороться с аудио, изображениями и видео, которые предоставляют избирателям ложную информацию о том, когда, где и как они могут голосовать.
«Мы несем ответственность за то, чтобы эти инструменты не стали оружием на выборах», — заявил Брэд Смит, президент Microsoft.
В среду заместитель генерального прокурора США Лиза Монако заявила Би-би-си, что ИИ угрожает «усилить» дезинформацию на выборах.
Google и Meta ранее установили свою политику в отношении изображений и видео, созданных ИИ, в политической рекламе, согласно которой рекламодатели должны сообщать, когда они подают в суд на дипфейки или контент, которым манипулировал ИИ.