Ключевые фигуры в области искусственного интеллекта хотят приостановить обучение мощных систем искусственного интеллекта из-за опасений по поводу угрозы для человечества.
Они подписали открытое письмо с предупреждением о потенциальных рисках и заявили, что гонка за разработкой систем искусственного интеллекта вышла из-под контроля.
Глава Twitter Илон Маск — один из тех, кто хочет, чтобы обучение ИИ выше определенного уровня было остановлено как минимум на шесть месяцев.
Соучредитель Apple Стив Возняк и некоторые исследователи из DeepMind также подписали соглашение.
OpenAI, компания, стоящая за ChatGPT, недавно выпустила GPT-4 — современную технологию, которая впечатлила наблюдателей своей способностью выполнять такие задачи, как ответы на вопросы об объектах на изображениях.
Письмо от Института Будущего Жизни, подписанное светилами, требует, чтобы развитие было временно остановлено на этом уровне, предупреждая в своем письме о будущих рисках, которые могут возникнуть в более продвинутой системе.
«Система искусственного интеллекта с интеллектом, конкурирующим с человеком, может представлять серьезную опасность для общества и человечества», — говорится в сообщении.
Институт будущего жизни — это некоммерческая организация, которая заявляет, что ее миссия состоит в том, чтобы «направить преобразующие технологии от экстремальных крупномасштабных рисков к улучшению жизни».
Маск, владелец Twitter и исполнительный директор автомобильной компании Tesla, указан в качестве внешнего советника организации.
В письме говорится, что передовые ИИ необходимо разрабатывать с осторожностью, но вместо этого «в последние месяцы лаборатории ИИ оказались втянутыми в неконтролируемую гонку по разработке и развертыванию все более мощных цифровых умов, которые никто — даже их создатели — может понять, предсказать или надежно контролировать».
В письме предупреждается, что искусственный интеллект может наводнить информационные каналы дезинформацией и заменить рабочие места автоматизацией.
Письмо следует за недавним отчетом инвестиционного банка Goldman Sachs, в котором говорится, что, хотя ИИ, вероятно, повысит производительность, миллионы рабочих мест могут быть автоматизированы.
Однако другие эксперты рассказали Би-би-си, что влияние ИИ на рынок труда предсказать очень сложно.
Перехитрить и устареть
Более умозрительно в письме спрашивается: «Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, устаревать [так в оригинале] и заменить нас?»
В недавнем сообщении в блоге, цитируемом в письме, OpenAI предупредил о рисках, если искусственный общий интеллект (AGI) будет разрабатываться безрассудно: «Смещенный сверхразумный AGI может причинить серьезный вред миру; автократический режим с решительным лидерством сверхразума может нанести это тоже.
«Координация усилий AGI по замедлению в критические моменты, вероятно, будет иметь важное значение», — пишет фирма.
OpenAI публично не прокомментировала это письмо. BBC спросила фирму, поддерживает ли она этот призыв.
Маск был соучредителем OpenAI, хотя несколько лет назад он ушел из правления организации и критически высказался в Твиттере о ее нынешнем направлении.
Функции автономного вождения, созданные его автомобильной компанией Tesla, как и большинство подобных систем, используют технологию искусственного интеллекта.
В письме лабораториям искусственного интеллекта предлагается «немедленно приостановить как минимум на шесть месяцев обучение системе искусственного интеллекта более мощной, чем GPT-4».
Если такая отсрочка не может быть принята быстро, правительства должны вмешаться и ввести мораторий, говорится в нем.
Также потребуются «новые и дееспособные регулирующие органы, занимающиеся ИИ».
Недавно в США, Великобритании и ЕС был выдвинут ряд предложений по регулированию технологий. Однако Великобритания исключила специальный регулятор для ИИ.