Полковник ВВС США «оговорился», описывая эксперимент, в котором беспилотник с искусственным интеллектом решил атаковать своего оператора, чтобы выполнить свою миссию, заявила служба.
Полковник Такер Гамильтон, начальник отдела испытаний и операций ИИ в ВВС США, выступил на конференции, организованной Королевским авиационным обществом.
Сообщение об этом стало вирусным.
В ВВС говорят, что такого эксперимента не было.
В своем выступлении он описал виртуальный сценарий, в котором беспилотник с искусственным интеллектом неоднократно останавливался от выполнения своей задачи по уничтожению зенитно-ракетных комплексов человеком-оператором.
Он сказал, что в конце концов, несмотря на то, что его обучили не убивать оператора, дрон разрушил вышку связи, так что оператор больше не мог с ней связаться.
«Мы никогда не проводили этот эксперимент, и нам не нужно было бы, чтобы понять, что это правдоподобный результат», — позже пояснил полковник Гамильтон в заявлении Королевскому авиационному обществу.
Предупреждения ИИ
Недавно люди, работающие в этом секторе, сделали ряд предупреждений об угрозе для человечества, которую представляет ИИ, хотя не все эксперты согласны с тем, насколько серьезен этот риск.
Выступая перед Би-би-си ранее на этой неделе, профессор Йошуа Бенджио, один из трех ученых-компьютерщиков, которых назвали «крестными отцами» ИИ после получения престижной премии Тьюринга за свою работу, сказал, что, по его мнению, военным вообще нельзя позволять иметь возможности ИИ. .
Он описал это как «одно из худших мест, где мы могли бы разместить сверхинтеллектуальный ИИ».
Заранее спланированный сценарий?
Этим утром я провел несколько часов, разговаривая с экспертами как в области обороны, так и в области искусственного интеллекта, и все они очень скептически отнеслись к утверждениям полковника Гамильтона, о которых широко сообщалось.
Один эксперт по защите сказал мне, что в исходной истории полковника Гамильтона, по крайней мере, отсутствует «важный контекст».
В социальных сетях также были предположения о том, что такой эксперимент имел место. Скорее всего, это был заранее спланированный сценарий, а не беспилотник с поддержкой ИИ, работающий на основе машинного обучения во время выполнения задачи, что в основном означает, что он не имел бы места. выбирал свои собственные результаты по мере продвижения, основываясь на том, что произошло ранее.
Стив Райт, профессор аэрокосмической техники в Университете Западной Англии и эксперт по беспилотным летательным аппаратам, в шутку сказал мне, что он «всегда был поклонником фильмов о Терминаторе», когда я спросил его, что он думает об этой истории. .
«В компьютерах управления самолетом есть две вещи, о которых нужно беспокоиться: «делать правильные вещи» и «не делать неправильных вещей», так что это классический пример второго», — сказал он.
«На самом деле мы решаем эту проблему, всегда подключая второй компьютер, который был запрограммирован с использованием методов старого стиля, и он может отключиться, как только первый сделает что-то странное».
Подпишитесь на Зои Клейнман в Твиттере