Илон Маск ушел из совета директоров OpenAI, некоммерческой организации, соучредителем которой он был в 2015 году. Он будет продолжать делать пожертвования и консультировать организацию, которая является соавтором крупного отчета об угрозах, создаваемых искусственным интеллектом. на что Маск имеет решительные взгляды.
Новость об уходе Маска из правления OpenAI появилась в сообщении в блоге OpenAI, в котором объяснялось:
Поскольку Tesla продолжает уделять больше внимания ИИ, это устранит потенциальный конфликт для Илона в будущем.
Казалось бы, конфликт для Маска неизбежен по двум направлениям.
Один из них — это, как уже говорилось, собственные достижения Tesla в области искусственного интеллекта в рамках проекта беспилотного автопилота. Последнее программное обеспечение автопилота, выпуск которого задерживается, поскольку, по словам Муша, он был «значительно сложнее, чем ожидалось», имеет новую архитектуру, основанную на собственной нейронной сети и технологии компьютерного зрения. Этим руководит директор Tesla по искусственному интеллекту Андрей Карпати, который был одним из первых семи исследователей OpenAI, но был нанят Tesla в июне 2017 года.
Во-вторых, Маск продолжает рассматривать ИИ как
«Самая большая угроза существованию»
человечеству и позы
«гораздо больший риск, чем в Северной Корее»
хотя с момента своего создания OpenAI быстро открыла исходный код OpenAI Gym для обучения с подкреплением, добилась значительного прогресса в робототехнике, разработала искусственный интеллект, который победил лучших игроков мира в популярной видеоигре Dota.
Одновременно с аплодисментами того факта, что бот OpenAI первым обошел лучших игроков мира в конкурентном киберспорте, Маск также предупредил, что такой все более мощный искусственный интеллект в конечном итоге нужно будет обуздать для нашей собственной безопасности в твиттере:
«Никто не любит, когда его регулируют, но все (автомобили, самолеты, еда, наркотики и т. Д.), Представляющие опасность для общества, регулируется. ИИ тоже должен быть».
Отмечая, что Маск продолжит финансировать свои усилия, в сообщении в блоге OpenAI также было объявлено о ряде новых спонсоров, в том числе о разработчике видеоигр Гейбе Ньюэлле, основателе Skype Яана Таллинне и бывших олимпийцах из США и Канады Эштоне Итоне и Брианне Тайзен-Итон, которые ушли из спорта, переехали в Сан-Франциско и основали технологическую компанию. OpenAI заявила, что расширяет базу спонсоров, чтобы увеличить инвестиции в:
«Люди и вычислительные ресурсы, необходимые для значительного прорыва в области искусственного интеллекта».
В сообщении также говорилось:
«В ближайшие месяцы вы также можете ожидать, что мы сформулируем принципы, с которыми мы будем приближаться к следующему этапу OpenAI, и области политики, в которых мы хотим видеть изменения, чтобы ИИ приносил пользу всему человечеству».
Известие об уходе Маска из совета директоров OpenAI появилось через несколько дней после публикации книги «Злонамеренное использование искусственного интеллекта: прогнозирование, предотвращение и смягчение последствий», в соавторстве которой приняли участие 26 экспертов по вопросам безопасности новых технологий, включая трех членов OpenAI.
Это время, вероятно, не имеет значения, поскольку 100-страничный отчет является результатом двухдневного мероприятия, проведенного в феврале 2017 года под эгидой Института будущего человечества, Оксфордского университета и Центра изучения рисков для существования. Другие участники отчета были от Electronic Frontier Foundation, Центра новой американской безопасности, Стэнфордского университета — во всех 14 учреждениях, охватывающих академические круги, гражданское общество и промышленность.
Краткое содержание отчета открывается следующими словами:
Возможности искусственного интеллекта и машинного обучения растут беспрецедентными темпами. Эти технологии имеют множество полезных приложений, от машинного перевода до анализа медицинских изображений. Несчетное количество таких приложений разрабатывается, и их можно ожидать в долгосрочной перспективе. Исторически меньше внимания уделялось способам злонамеренного использования искусственного интеллекта. В этом отчете исследуется ландшафт потенциальных угроз безопасности от злонамеренного использования технологий искусственного интеллекта и предлагаются способы более точного прогнозирования, предотвращения и смягчения этих угроз.
В сообщении блога OpenAI «Подготовка к злонамеренному использованию ИИ» соавторы Джек Кларк, Майкл Пейдж и Дарио Амодеи извлекают из отчета следующие рекомендации как те, которые компании, исследовательские организации, отдельные практики и правительства могут принять для обеспечения более безопасный мир:
Признайте двойную природу ИИ: ИИ — это технология, которая может иметь как очень положительные, так и крайне отрицательные применения. Мы должны предпринять шаги как сообщество, чтобы лучше оценивать исследовательские проекты на предмет извращений со стороны злоумышленников, и взаимодействовать с политиками, чтобы понять области особой чувствительности. Как мы пишем в газете: «Инструменты слежки могут быть использованы для поимки террористов или притеснения простых граждан. Фильтры информационного содержания могут использоваться для того, чтобы скрыть фейковые новости или манипулировать общественным мнением. Правительства и влиятельные частные субъекты будут иметь доступ ко многим из этих инструментов искусственного интеллекта и смогут использовать их для общественного блага или во вред ». Некоторые потенциальные решения этих проблем включают в себя оценку рисков перед публикацией для определенных фрагментов исследования, выборочное совместное использование некоторых типов исследований со значительным компонентом безопасности или защиты среди небольшого набора доверенных организаций и изучение того, как внедрить нормы в научное сообщество, которые реагируют на проблемы двойного использования.
Учитесь у кибербезопасности: сообщество компьютерной безопасности разработало различные методы, актуальные для исследователей ИИ, которые мы должны рассмотреть в наших собственных исследованиях. Они варьируются от «красной команды» с намеренными попытками взломать или подорвать системы, до инвестирования в технологическое прогнозирование для выявления угроз до их появления, до соглашений о конфиденциальном сообщении об уязвимостях, обнаруженных в системах ИИ, и так далее.
Расширьте дискуссию: ИИ изменит глобальный ландшафт угроз, поэтому мы должны вовлекать в обсуждения более широкий круг общества. Стороны могут включать представителей гражданского общества, экспертов по национальной безопасности, представителей бизнеса, специалистов по этике, широкую общественность и других исследователей.
Сообщение в блоге обязуется начать взаимодействие с более широкой аудиторией по этим вопросам, что кажется полностью совместимым с целью обеспечения того, чтобы ИИ приносил пользу всему человечеству. Так что никакого конфликта интересов нет.