Многие люди беспокоятся об искусственном интеллекте и его влиянии на экономику и более широкие проблемы общества. Блез Агера-и-Аркас из Google AI снял короткометражный фильм, в котором объясняется, как ИИ может вызвать переход от мира, основанного на фактах, к чему-то гораздо менее определенному. Вы больше не можете верить своим глазам.
Мы можем строить предположения о том, какие эффекты ИИ будет иметь в ближайшем будущем, и некоторые люди могут захотеть поговорить о том, что ИИ чрезмерно раздувается и перепродается, но успехи были огромными. У нас все еще нет ответов на все вопросы, и да, можно преувеличить, но есть некоторые области, в которых мы развиваемся достаточно быстро, чтобы результаты стали заметны.
В своем видео Блез Агера-и-Аркас начинает рассмотрение идеи генерирующей состязательной сети GAN — обобщения старого подхода «актер-критик». Одна нейронная сеть генерирует примеры, а другая сеть пытается отличить подделку от реальной. Вот вкратце проблема — если GAN успешно обучен, фальшивка и настоящая сливаются.
Ни одна из этих вещей или мест не существует (DeepMind).
Посмотрите первую часть видео, чтобы увидеть, как это работает, и увидеть несколько примеров. Однако не сдавайтесь, пока не увидите это до конца, потому что именно здесь перспектива того, что подделки ИИ станут настолько хорошими и такими дешевыми, что вы действительно не сможете поверить в то, что видите:
Обратите внимание на тонкость в конце видео. Дело не только в том, что вы можете просматривать фотографии, видео и вживую взаимодействовать с глубокими подделками, которые кажутся реальными; Дело в том, что доступность дешевых быстрых подделок позволит людям отрицать, что реальный опыт на самом деле реален.
Если вы хотите опровергнуть обвинения, просто разыграйте фальшивую карту.
Иногда, чтобы оценить, насколько все это умно, нужно увидеть ошибку, которую может произвести недостаточно обученная сеть.
Чтобы узнать больше о GAN, используемых в синтезе естественных изображений, прочтите недавнюю статью Google, указанную ниже.