Пользователей Facebook, которые смотрели газетное видео с участием чернокожих, спросили, хотят ли они «продолжать смотреть видео о приматах» с помощью системы рекомендаций искусственного интеллекта.
Facebook сообщил BBC News, что это «явно недопустимая ошибка», отключил систему и начал расследование.
«Мы приносим свои извинения всем, кто, возможно, видел эти оскорбительные рекомендации».
Это последняя из длительной серии ошибок, которые вызвали опасения по поводу расовых предубеждений в ИИ.
«Искренне сожалею»
В 2015 году приложение Google Photos пометило фотографии чернокожих людей как «гориллы».
Компания заявила, что была «потрясена и искренне сожалею», хотя ее исправление, как сообщало Wired в 2018 году, заключалось в простой цензуре поиска фотографий и тегов для слова «горилла».
В мае Twitter признал расовые предубеждения в том, как его «алгоритм заметности» кадрировал превью изображений.
Исследования также показали предвзятость в алгоритмах некоторых систем распознавания лиц.
Алгоритмическая ошибка
В 2020 году Facebook объявил о создании нового «инклюзивного совета по продуктам» и новой команды по управлению акциями в Instagram, которые, среди прочего, будут изучать, демонстрируют ли его алгоритмы расовую предвзятость.
- Google и крупные технологии являются институционально расистскими
- IBM отказывается от « необъективной » технологии распознавания лиц
«Рекомендация приматов» «была алгоритмической ошибкой на Facebook» и не отражала содержание видео, сообщил BBC News представитель.
«Мы отключили всю функцию рекомендаций по темам, как только поняли, что это происходит, чтобы мы могли выяснить причину и предотвратить повторение этого снова».
«Как мы уже говорили, улучшая наш ИИ, мы знаем, что он несовершенен, и нам еще предстоит продвинуться вперед».