Некоторые очень мощные системы искусственного интеллекта в конечном итоге должны быть запрещены, заявил член правительственного совета по искусственному интеллекту.
Марк Уорнер, также руководитель факультета искусственного интеллекта, сказал, что AGI уже нужны строгие требования к прозрачности и аудиту, а также больше встроенных технологий безопасности.
А следующие полгода-год потребуют «здравых решений» по ОИИ.
Его комментарии последовали за совместными заявлениями ЕС и США о том, что в ближайшее время потребуется добровольный кодекс практики для ИИ.
Политические связиСовет ИИ — это независимый экспертный комитет, который консультирует правительство и лидеров в области искусственного интеллекта.
Факультет искусственного интеллекта заявляет, что является единственным техническим партнером OpenAI, помогающим своим клиентам безопасно внедрять ChatGPT и другие его продукты в свои системы.
Инструменты компании помогли спрогнозировать спрос на услуги NHS во время пандемии, но ее политические связи привлекли внимание.
Уорнер добавил свое имя в Центр безопасности ИИ, предупредив, что технология может привести к вымиранию человечества. Факультет искусственного интеллекта был среди технологических компаний, представители которых обсудили риски, возможности и правила, необходимые для обеспечения безопасного и ответственного искусственного интеллекта, с министром технологий Хлоей Смит на Даунинг-стрит в четверг.
ИИ описывает способность компьютеров выполнять задачи, обычно требующие человеческого интеллекта.
«Разные правила»
По словам Уорнера, «узкий ИИ», используемый для конкретных задач, таких как перевод текста или поиск рака на медицинских изображениях, может регулироваться, как и существующие технологии.
Но системы ОИИ, принципиально новая технология, вызывали гораздо больше беспокойства и требовали других правил.
«Эти алгоритмы нацелены на то, чтобы быть умнее или умнее человека в очень широком диапазоне задач — по сути, во всех задачах», — сказал Уорнер BBC News.
По его словам, человечество занимало главенствующее положение на этой планете в первую очередь благодаря своему интеллекту.
«Сильные ограничения»
«Если мы создадим объекты, которые будут такими же умными или умнее нас, никто в мире не сможет дать хорошее научное обоснование того, почему это должно быть безопасно», — сказал Уорнер.
«Это не означает наверняка, что это ужасно, но это означает, что есть риск, это означает, что мы должны подходить к этому с осторожностью.
«По крайней мере, должны быть строгие ограничения на количество вычислений [вычислительную мощность], которые можно произвольно использовать для этих целей.
«Существует веский аргумент, что в какой-то момент мы можем решить, что этого достаточно, и мы просто запретим алгоритмы выше определенной сложности или определенного объема вычислений.
«Но очевидно, что это решение должно быть принято правительствами, а не технологическими компаниями».
‘Конкурентное преимущество’
Некоторые говорят, что опасения по поводу ОИИ отвлекают от проблем с существующими технологиями — например, предвзятость при наборе сотрудников ИИ или инструментах распознавания лиц.
Но Уорнер сказал, что это все равно, что сказать: «Вы хотите, чтобы автомобили или самолеты были в безопасности?» Я хочу оба.»
Другие говорят, что чрезмерное регулирование может сделать Великобританию менее привлекательной для инвесторов и задушить инновации.
Но Уорнер сказал, что Великобритания может найти конкурентное преимущество в поощрении безопасности.
«Моя долгосрочная ставка заключается в том, что на самом деле, чтобы извлечь выгоду из технологии, вам нужна безопасность — точно так же, чтобы извлечь выгоду из самолета, вам нужны работающие двигатели», — сказал он.
‘Слишком поздно’
Недавняя Белая книга Великобритании по регулированию ИИ подверглась критике за то, что не смогла создать специальный наблюдательный орган.
Но премьер-министр Риши Сунак обозначил необходимость «ограничителей» и сказал, что Великобритания может играть «ведущую роль».
В среду госсекретарь США Энтони Блинкен и комиссар Европейского союза Маргрет Вестагер заявили, что добровольные правила необходимы быстро.
Закон ЕС об искусственном интеллекте, который будет одним из первых, регулирующих ИИ, все еще находится на стадии законодательного процесса.
И Вестагер сказал, что для вступления в силу различных законодательных актов потребуется от двух до трех лет, «и мы говорим о технологическом ускорении, которое невероятно».
Но промышленности и другим будет предложено внести свой вклад в проект добровольного кодекса поведения в течение нескольких недель.
После заседания четвертого Совета по торговле и технологиям США-ЕС Блинкен заявил, что важно установить добровольные кодексы поведения, «открытые» для «широкого круга стран… всех стран-единомышленников».