Вы почти наверняка слышали о тесте Тьюринга, но теперь предполагается, что нам нужно нечто большее, красный флаг Тьюринга, чтобы защитить нас от ИИ, которые стремятся пройти исходный тест.
По мере того, как ИИ становится все более популярным, нам часто трудно отличить человека от нечеловеческого. Возможно, вы настолько привыкли задавать вопросы Siri или Cortana, что забываете, что это всего лишь программы. Хуже того, некоторые невинные пользователи, возможно, никогда не осознали, что они ИИ. Если вы спросите Siri, компьютер ли она или она, она ответит милым:
Я не могу ни подтвердить, ни опровергнуть свой нынешний экзистенциальный статус
Если вы продолжите заниматься этим вопросом, ответы станут все более уклончивыми.
Как я уже сказал, это мило, но также нечестно и, возможно, потенциально опасно. Что, если бы пользователь действительно считал Сири человеческим разумом. Возможно, они могут поверить в ее мнение больше, чем заслуживают.
Точно так же есть случаи, когда знание того, что вы противостоите ИИ, заставит вас дважды подумать, прежде чем пытаться победить его. Если вы играете в покер с ботом, возможно, вам стоит знать все свои сбережения, прежде чем делать ставки. А как насчет беспилотных автомобилей — вы действительно хотите, чтобы они скрывали от вас факт отсутствия водителя?
В том-то и дело, что ИИ не настолько развит, чтобы сравняться с человеческим интеллектом. Во многих ситуациях это хуже и ненадежно, а в других намного лучше, чем в среднем.
Чтобы помочь нам избежать ошибок, основанных на незнании, взаимодействуем ли мы с человеком или агентом ИИ, компьютерный ученый Тоби Уолш из Университета Нового Южного Уэльса предлагает закон о красном флаге Тьюринга:
«Закон о красном флаге Тьюринга: автономная система должна быть спроектирована так, чтобы ее нельзя было спутать ни с чем, кроме автономной системы, и она должна идентифицировать себя в начале любого взаимодействия с другим агентом».
Название происходит от закона Великобритании: Закон о локомотивах 1865 года, призванный защитить пешеходов от опасных автомобилей, которые были недавно добавлены к дорожному движению. Закон требовал, чтобы человек шел перед транспортным средством с красным флагом, чтобы убедиться, что все знают о приближающейся опасности.
Первоначальный закон о красных флагах мог быть большим препятствием для технологии, чем требовались проблемы безопасности, но версия Тьюринга — более серьезное предложение. Нам, людям, действительно необходимо изменить свое поведение, чтобы учесть тип агента, с которым мы взаимодействуем.
Уже есть признаки того, что беспилотные автомобили нуждаются в том, чтобы люди относились к ним по-другому. На перекрестке нетерпеливый велосипедист может заставить беспилотный автомобиль дрожать, если он продвинется вперед прямо у машины, которая вот-вот тронется с места. Автомобили с автоматическим управлением созданы для того, чтобы управлять автомобилем в большей степени, чем водитель-человек.
Google даже запатентовал различные способы, с помощью которых автомобиль может сообщать не только о том, что это беспилотный автомобиль, но и о том, что он собирается делать дальше — по сути, видеомонитор передает сообщения людям.
Google, возможно, поступает «правильно», но другие из нас, людей, занимающихся искусственным интеллектом, не совсем готовы ставить красный флаг перед нашими программами.
Цель многих или даже большинства проектов ИИ — мечта о сильном ИИ — ИИ, который настолько хорош, что его невозможно отличить от настоящего. Этот тип ИИ будет проходить тест Тьюринга, если, конечно, перед ним не будет торчать красный флаг.
Посмотрим правде в глаза, ответ Siri — это не просто немного забавы, это небольшое выражение желания, которое таится в каждом исследователе ИИ, на самом деле обмануть пользователя и, наконец, пройти тест Тьюринга.
В исходной статье есть много интересных примеров, которые стоит прочитать, и я уверен, что вы можете добавить свои собственные примеры того, где вы хотели бы, чтобы ваше поведение было другим, когда вы понимаете, что взаимодействуете с ИИ.
Однако все немного сложнее, чем вы думаете.
В настоящий момент мы думаем в основном о флаге, указывающем, когда вы собираетесь взаимодействовать с ИИ, который не совсем подходит для этого. Таким образом, вы знаете, насколько ему можно доверять, поэтому вы знаете, что нужно говорить медленно и четко, чтобы вы знали, что нельзя дурачиться из-за нетерпеливости или агрессивности на транспортной развязке и т. Д.
Но как быть, когда они станут настолько хорошими, что станут лучше нас?
Неужто пора отменить закон о красном флаге?
Не так быстро.
Вы помните пример, когда не ставили все свои деньги против покерного бота? В будущем вы, вероятно, захотите узнать, что за мышлением стоит искусственный интеллект, чтобы не идти против него.
Флаг может просто уберечь вас от того, чтобы вы не последовали данному совету, потому что вы думали, что это человеческий совет.
Кажется, что переулок Красного флага Тоби Уолша Тьюринга должен стать постоянной чертой ИИ и должен быть добавлен к законам Робототехники Азимова.