Брошенный багаж и неожиданные толпы — камеры в режиме реального времени будут использовать искусственный интеллект (ИИ) для обнаружения подозрительной активности на улицах Парижа во время Олимпийских игр следующего лета. Но группы по защите гражданских прав говорят, что эта технология представляет угрозу гражданским свободам, как сообщает корреспондент BBC Хью Шофилд.
«Мы не Китай, мы не хотим быть Большим Братом», — говорит Франсуа Маттенс, чья парижская компания, занимающаяся искусственным интеллектом, участвует в тендере на участие в контракте на видеонаблюдение на Олимпийских играх.
Согласно недавнему закону, полиция сможет использовать алгоритм видеонаблюдения для выявления аномалий, таких как толпа, драки или оставленные без присмотра сумки.
Закон прямо исключает использование технологии распознавания лиц, принятой, например, в Китае, для отслеживания «подозрительных» лиц.
Но противники говорят, что это тонкий конец клина. Несмотря на то, что экспериментальный период, разрешенный законом, заканчивается в марте 2025 года, они опасаются, что настоящая цель французского правительства состоит в том, чтобы сделать новые положения о безопасности постоянными.
«Мы видели это раньше на предыдущих Олимпийских играх, например, в Японии, Бразилии и Греции. То, что должно было быть специальными мерами безопасности для особых обстоятельств игр, в конечном итоге было нормализовано», — говорит Ноэми Левен из группы кампании за цифровые права La Quadrature du Net (Squaring the Web).
Версия новой системы безопасности с искусственным интеллектом уже установлена в некоторых полицейских участках Франции. Одним из пионеров является южный пригород Парижа Масси.
«По всему городу у нас установлено 250 камер слежения — слишком много для нашей команды из четырех человек, — говорит мэр Масси Николас Самсоен.
«Таким образом, устройство с искусственным интеллектом контролирует все камеры. И когда оно видит что-то, на что ему было приказано обратить внимание — например, внезапную группу людей, — оно поднимает тревогу.
«Тогда люди — полицейские — должны изучить ситуацию и посмотреть, какие должны быть соответствующие действия. Может быть, это что-то серьезное, а может и нет.
«Важно то, что окончательное решение о том, как реагировать, принимают люди, а не компьютер. Алгоритм расширяет возможности людей.
В качестве пробы мы бросили багаж на улице недалеко от полицейского участка. Тридцать секунд спустя была поднята тревога, и на экране диспетчерской появилась запись с камеры видеонаблюдения.
Прежде, конечно, алгоритм должен был быть обучен тому, как выглядит брошенный предмет багажа, и здесь в дело вступает ИИ. Разработчики скормили программе огромный банк различных изображений одиноких сумок на улице — банк, расти по мере накопления большего количества изображений.
Важно отметить, что этот процесс «обучения» происходит не в клиентском интерфейсе, а только в «бэк-офисе» у разработчиков. Полицейский участок Massy купил самостоятельный продукт, который следит за камерами, но сам не может получать новые знания.
Обнаружение оставленного без присмотра багажа — относительно простая задача. Гораздо труднее заметить человека на земле в толпе; или увидеть шишку в одежде человека, которая является скрытым оружием; или различить начало драки и невинное временное увеличение плотности толпы.
Французский стартап, специализирующийся на программном обеспечении для компьютерного зрения, группа XXII ожидает дальнейших спецификаций от французского правительства, прежде чем уточнить свою заявку на участие в контракте на видеонаблюдение для Олимпийских игр.
«Мы ожидаем, что правительство захочет, чтобы ИИ мог обнаруживать огонь, боевые действия, людей на земле и брошенный багаж», — говорит Франсуа Маттенс из XXII. «Но им нужно собраться вместе.
«Теоретически новая система должна быть установлена к чемпионату мира по регби [во Франции] в сентябре. Но об этом совершенно не может быть и речи. Все это займет много времени».
Франсуа Маттенс и другие разработчики готовы к критике за то, что они допускают неприемлемый уровень государственного надзора. Но они настаивают на гарантиях.
«Мы не будем — и не можем по закону — обеспечивать распознавание лиц, так что это совершенно другая операция, чем то, что вы видите в Китае», — говорит он.
«Что делает нас привлекательными, так это то, что мы обеспечиваем безопасность, но в рамках закона и этики».
Но, по словам активистки цифровых прав Ноэми Левен, это всего лишь «нарратив», который разработчики используют для продажи своего продукта, прекрасно зная, что правительство почти наверняка отдаст предпочтение французским компаниям, а не иностранным, когда дело доходит до присуждения олимпийских контрактов.
«Они говорят, что вся разница в том, что здесь не будет распознавания лиц. Мы говорим, что по сути то же самое», — говорит она.
«Видеомониторинг ИИ — это инструмент наблюдения, который позволяет государству анализировать наши тела, наше поведение и решать, нормально это или подозрительно. Даже без распознавания лиц он позволяет осуществлять массовый контроль.
«Мы видим это столь же пугающим, как и то, что происходит в Китае. Это тот же принцип потери права быть анонимным, права действовать так, как мы хотим действовать публично, права не быть замеченным».
На этой неделе BBC News рассказывает об искусственном интеллекте, о том, как эта технология влияет на нашу жизнь и какие последствия она может иметь в ближайшем будущем.