Facebook опроверг утверждения о том, что его алгоритмы удаляют лишь небольшое количество сообщений, содержащих язык вражды.
Компания использует автоматизированные системы наряду с другими методами для выявления и удаления таких сообщений.
The Wall Street Journal (WSJ) сообщил, что утечка документов свидетельствует о том, что только небольшой процент оскорбительного контента фактически удаляется с помощью технологии.
Facebook, однако, настаивает на недавнем успехе в сокращении разжигания ненависти на своей платформе.
Утечка внутренних документов Facebook, которую видел WSJ, включает информацию о группе сотрудников, которые якобы обнаружили, что технология успешно удаляла только 1% сообщений, нарушающих собственные правила компании в социальных сетях.
В марте 2021 года внутренняя оценка якобы обнаружила, что автоматические усилия по удалению Facebook удаляли сообщения, генерирующие лишь от 3 до 5% от общего числа просмотров разжигания ненависти.
Также утверждается, что Facebook сократил количество времени, которое рецензенты тратят на проверку жалоб на разжигание ненависти, поданных пользователями.
- Информатор из Facebook направился в парламент Великобритании
- Информатор Facebook раскрывает личность
Это изменение, которое, как сообщается, произошло два года назад, «сделало компанию более зависимой от соблюдения правил искусственным интеллектом и увеличило очевидный успех технологии в ее публичной статистике», — утверждает WSJ.
Facebook категорически отрицает, что не справляется с разжиганием ненависти.
Гай Розен, вице-президент Facebook по вопросам честности, написал в своем блоге, что для оценки прогресса Facebook в этой области следует использовать другую метрику.
Г-н Розен отметил, что распространенность языка вражды на Facebook — количество таких материалов, просматриваемых на сайте — снизилась в процентном отношении ко всему контенту, просматриваемому пользователями.
По его словам, в настоящее время на язык вражды приходится 0,05%, или пять просмотров на каждые 10 000, а за последние девять месяцев этот показатель снизился на 50%.
«Распространенность — это то, как мы измеряем нашу работу внутри компании, и поэтому мы используем одну и ту же метрику для внешних», — добавил он.
Г-н Розен также отметил, что более 97% удаленного контента проактивно обнаруживается алгоритмами Facebook — до того, как о нем сообщат пользователи, которые его видели.
Последняя история о языке вражды — лишь одна из серии подобных статей о Facebook, опубликованных WSJ за последние недели.
Истории в значительной степени основаны на просочившихся внутренних документах, предоставленных газете бывшим сотрудником Facebook Фрэнсис Хауген. Они относятся к ряду трудностей с модерацией контента, от дезинформации о вакцинах до графических видеороликов, а также к опыту молодых пользователей в Instagram, принадлежащем Facebook.
В понедельник вице-президент Facebook по глобальным вопросам Ник Клегг — бывший заместитель премьер-министра Великобритании — добавил свой голос к протесту Facebook.
В своем блоге он утверждал, что «эти истории содержали намеренно неверную характеристику того, что мы пытаемся сделать, и приписывали вопиюще ложные мотивы руководству и сотрудникам Facebook».
Представитель WSJ сказал BBC: «Ни одна из защитников Facebook не привела ни одной фактической ошибки в наших сообщениях.
«Вместо того, чтобы пытаться агрессивно раскручивать, компания должна напрямую заняться тревожными проблемами и публично публиковать все внутренние исследования, на основе которых мы основывали наши отчеты, которые, как они утверждают, мы исказили».