Мы очарованы машинами, которые могут управлять машинами, сочинять симфонии или побеждать людей в шахматах, го или опасностях! В то время как в области искусственного интеллекта (ИИ) постоянно наблюдается прогресс, некоторые ученые и философы предупреждают об опасностях неконтролируемого сверхразумного ИИ. Используя теоретические расчеты, международная группа исследователей, включая ученых из Центра людей и машин Института развития человека Макса Планка, показывает, что управлять сверхразумным ИИ невозможно. Исследование было опубликовано в Журнале исследований искусственного интеллекта .
Предположим, кто-то должен запрограммировать систему искусственного интеллекта с интеллектом выше человеческого, чтобы она могла учиться независимо. Подключенный к Интернету, ИИ может иметь доступ ко всем данным человечества. Он может заменить все существующие программы и взять под контроль все машины по всему миру в режиме онлайн. Произведет ли это утопию или антиутопию? Сможет ли ИИ вылечить рак, установить мир во всем мире и предотвратить климатическую катастрофу? Или это уничтожит человечество и захватит Землю?
Ученые-информатики и философы задаются вопросом, сможем ли мы вообще контролировать сверхразумный ИИ, чтобы гарантировать, что он не представляет угрозы для человечества. Международная группа ученых-информатиков использовала теоретические расчеты, чтобы показать, что управлять сверхразумным ИИ принципиально невозможно.
«Сверхразумная машина, которая управляет миром, звучит как научная фантастика. Но уже есть машины, которые выполняют определенные важные задачи независимо, при этом программисты полностью не понимают, как они этому научились. Поэтому возникает вопрос, может ли это в какой-то момент стать неконтролируемым и опасны для человечества «, — говорит соавтор исследования Мануэль Себриан, руководитель группы цифровой мобилизации в Центре людей и машин Института развития человека Макса Планка.
Ученые исследовали две разные идеи о том, как можно управлять сверхразумным ИИ. С одной стороны, возможности сверхразумного ИИ можно было бы конкретно ограничить, например, отгородив его от Интернета и всех других технических устройств, чтобы он не мог контактировать с внешним миром, но это сделало бы сверхразумный ИИ значительно меньше. мощный, менее способный отвечать на квесты по гуманитарным наукам. Не имея такой возможности, ИИ с самого начала мог бы быть мотивирован преследовать только цели, отвечающие интересам человечества, например, запрограммировав в него этические принципы. Однако исследователи также показывают, что эти и другие современные и исторические идеи управления сверхразумным ИИ имеют свои пределы.
В своем исследовании команда разработала теоретический алгоритм сдерживания, который гарантирует, что сверхразумный ИИ не может причинить вред людям ни при каких обстоятельствах, путем моделирования поведения ИИ в первую очередь и его остановки, если он считается вредным. Но тщательный анализ показывает, что в нашей нынешней парадигме вычислений такой алгоритм не может быть построен.
«Если разложить проблему на основные правила теоретической информатики, окажется, что алгоритм, который приказал бы ИИ не разрушать мир, может непреднамеренно остановить свои собственные операции. Если это произойдет, вы не узнаете, алгоритм сдерживания все еще анализирует угрозу или остановился ли он для сдерживания вредоносного ИИ. По сути, это делает алгоритм сдерживания непригодным для использования », — говорит Ияд Рахван, директор Центра людей и машин.
Основываясь на этих расчетах, проблема сдерживания является невыполнимой, т.е. ни один алгоритм не может найти решение для определения того, причинит ли ИИ вред миру. Более того, исследователи демонстрируют, что мы можем даже не знать, когда появились сверхразумные машины, потому что решение о том, демонстрирует ли машина интеллект, превосходящий человеческий, находится в той же сфере, что и проблема сдерживания.