Искусственный интеллект (ИИ) все чаще используется полицией по всему миру, но всегда ли польза перевешивает риски?
Сара стала жертвой домашнего насилия и разговаривает по телефону с оператором службы экстренной помощи 999.
Она напугана и расстроена, потому что ее бывший муж пытается ворваться в ее дом.
Пока Сара разговаривает с человеком, разговор также расшифровывается системой искусственного интеллекта, которая напрямую связана с базами данных полиции Великобритании.
Когда она сообщает обработчику имя своего мужа и дату его рождения, ИИ быстро получает его данные. Высвечивается, что у мужчины есть лицензия на оружие, а это значит, что полицейским необходимо как можно скорее добраться до дома.
Хотя, к сожалению, звонки в службу экстренной помощи по поводу домашнего насилия слишком распространены, приведенный выше пример, к счастью, не был реальной ситуацией. Вместо этого это макетный тест, являющийся частью трехмесячного испытания программного обеспечения для экстренных вызовов с использованием искусственного интеллекта, проведенного в прошлом году полицией Хамберсайда.
Искусственный интеллект был предоставлен британским стартапом Untrite AI и предназначен для того, чтобы сделать обработку тысяч звонков, поступающих каждый день, более эффективной.
Система была обучена на исторических данных за два года (все они связаны с звонками о домашнем насилии), предоставленных Хамберсайдом.
«Мы решили создать помощника для операторов, который немного облегчит их работу, поскольку это среда с высоким уровнем стресса и ограниченным временем», — говорит Камила Ханкевич, исполнительный директор и соучредитель Untrite.
«Модель искусственного интеллекта анализирует большую часть информации, расшифровку и аудиозапись разговора и выдает оценку сортировки, которая может быть низкой, средней или высокой. Высокий балл означает, что должен присутствовать полицейский. на месте в течение пяти-десяти минут».
Untrite утверждает, что испытания показывают, что программное обеспечение может сэкономить операторам почти треть их времени как во время, так и после каждого звонка. Другие технологические компании, которые теперь также предлагают программное обеспечение для экстренных вызовов на базе искусственного интеллекта, включают американские компании Corti и Carbyne.
Следующим этапом Untrite станет использование искусственного интеллекта в реальной среде, и компания ведет переговоры с рядом полицейских сил и других служб экстренной помощи, чтобы это произошло.
ИИ может изменить методы расследования и раскрытия преступлений полицией. Он может выявлять закономерности и связи в доказательствах и анализировать огромные объемы данных гораздо быстрее, чем любой человек.
Но мы уже видели ошибки в использовании этой технологии правоохранительными органами. Например, в прошлом году в США поступило множество сообщений о том, что программное обеспечение для распознавания лиц на основе искусственного интеллекта не может точно идентифицировать черные лица.
Некоторые города США, такие как Сан-Франциско и Сиэтл, уже запретили использование этой технологии. Тем не менее, его все чаще используют полицейские силы по обе стороны Атлантики.
Альберт Кан, исполнительный директор американской группы по борьбе с слежкой Surveillance Technology Oversight Project (Stop), не доволен таким развитием событий.
«Мы наблюдаем огромные инвестиции в распознавание лиц и его использование, несмотря на доказательства того, что оно дискриминирует чернокожих, латиноамериканцев и азиатов, особенно чернокожих женщин», — говорит он.
Такую технологию можно использовать тремя основными способами. Во-первых, распознавание лиц в реальном времени, которое сравнивает изображения с камеры в реальном времени с заранее определенным списком наблюдения.
Во-вторых, ретроспективное распознавание лиц, при котором неподвижные изображения лиц сравниваются с базой данных изображений. И, в-третьих, распознавание лиц, инициируемое оператором, при котором офицер фотографирует подозреваемого и отправляет ее для поиска в базе данных изображений.
В октябре прошлого года министр полиции Великобритании Крис Филп заявил, что полиции Великобритании следует удвоить количество обысков, которые они проводят с использованием технологии ретроспективного распознавания лиц, в течение следующего года.
Тем временем Национальная физическая лаборатория Великобритании (NPL) в прошлом году провела независимое тестирование трех типов технологии распознавания лиц, все из которых используются полицией Метрополитена и Южного Уэльса.
NPL, официальный британский орган, устанавливающий стандарты измерений, пришел к выводу, что уровень точности значительно улучшился в последних версиях программного обеспечения.
Тем не менее, он также отметил, что в некоторых случаях вероятность ложноположительной идентификации чернокожих лиц выше, чем белых или азиатских, что НПЛ назвало «статистически значимым».
Конечно, это хорошая новость, что проводятся независимые тесты, и полиция Уэст-Мидлендса пошла еще дальше, создав собственный комитет по этике для оценки новых технологических инструментов.
В состав этого органа входят ученые, занимающиеся данными, и его возглавляет профессор Марион Освальд, профессор права Университета Нортумбрии.
Она рассказала Би-би-си, что комитет в настоящее время оценивает использование нового специального инструмента распознавания лиц, который позволит полицейскому фотографировать подозреваемого и сравнивать его со списком наблюдения.
«Мы будем рекомендовать провести более тщательный анализ его обоснованности», — говорит она.
Еще одна ключевая область полицейской деятельности, которую может изменить ИИ, — это профилактика. Или, точнее, его потенциальная способность предсказывать, где могут произойти преступления и кто их может совершить.
Хотя это может вызвать в воображении образы научно-фантастического триллера 2002 года «Особое мнение», эта идея уже не просто голливудская мечта.
Команда Чикагского университета разработала алгоритм, который позволяет предсказывать будущие преступления на неделю вперед с точностью 90%.
Однако старая поговорка о том, что системы искусственного интеллекта хороши настолько, насколько хороши данные, которые им поставляются, вызывает у некоторых серьезные опасения.
Кан из Stop говорит, что «первородным грехом» профилактической работы полиции являются «предвзятые исторические данные».
Он добавляет: «В США мы видим множество инструментов прогнозирования преступности, которые грубо используют алгоритмы, пытаясь предсказать, где преступления произойдут в будущем, часто с катастрофическими последствиями».
Это катастрофа, добавляет он, потому что «в США общеизвестно ужасные данные о преступности».
Профессор Освальд согласен, что использование искусственного интеллекта для прогнозирования преступности вызывает беспокойство. «Существует петля обратной связи, заключающаяся в том, что на самом деле вы не предсказываете преступление, а просто прогнозируете вероятность ареста», — говорит она.
«Проблема в том, что вы сравниваете человека с людьми, совершившими аналогичные преступления в прошлом, но только на основе очень ограниченного набора информации. То есть не обо всех других их факторах, а о других вещах из их жизни». что вам может понадобиться знать, чтобы принять решение о ком-то».