Они выглядят обманчиво реальными, но созданы компьютерами: так называемые глубокие поддельные изображения генерируются алгоритмами машинного обучения, и люди практически не могут отличить их от реальных фотографий. Исследователи из Института безопасности информационных технологий имени Хорста Гёртца при Рурском университете в Бохуме и кластера передового опыта «Кибербезопасность в эпоху крупномасштабных противников» (Casa) разработали новый метод эффективной идентификации глубоко поддельных изображений. . С этой целью они анализируют объекты в частотной области, что является установленным методом обработки сигналов.
Команда представила свою работу на Международной конференции по машинному обучению (ICML) 15 июля 2020 года, одной из ведущих конференций в области машинного обучения. Кроме того, исследователи делают свой код бесплатно доступным в Интернете по адресу https://github.com/RUB-SysSec/GANDCTAnalysis , поэтому чтобы другие группы могли воспроизвести их результаты.
Взаимодействие двух алгоритмов приводит к новым изображениям
Глубокие фальшивые изображения — словосочетание «глубокое обучение» для машинного обучения и «фальшивка» — генерируются с помощью компьютерных моделей, так называемых генеративных состязательных сетей, сокращенно GAN. В этих сетях работают вместе два алгоритма: первый алгоритм создает случайные изображения на основе определенных входных данных. Второй алгоритм должен решить, поддельное изображение или нет. Если обнаруживается, что изображение является подделкой, второй алгоритм дает первому алгоритму команду изменить изображение до тех пор, пока он не перестанет распознавать его как подделку.
В последние годы с помощью этого метода фальшивые изображения становятся все более достоверными. На сайте www.whichfaceisreal.com пользователи могут проверить, могут ли они отличить подделки от оригинальных фотографий. «В эпоху фейковых новостей может возникнуть проблема, если пользователи не смогут отличить изображения, созданные компьютером, от оригиналов», — говорит профессор Торстен Хольц с кафедры системной безопасности.
Для своего анализа исследователи из Бохума использовали наборы данных, которые также легли в основу вышеупомянутой страницы «Какое лицо настоящее». В этом междисциплинарном проекте Джоэл Франк, Торстен Эйзенхофер и профессор Торстен Хольц с кафедры системной безопасности сотрудничали с профессором Асей Фишер с кафедры машинного обучения, а также Леа Шенхерр и профессором Доротеей Колосса с кафедры цифровой обработки сигналов.
Частотный анализ выявляет типичные артефакты
На сегодняшний день фальшивые изображения анализируются с помощью сложных статистических методов. Группа Бохума выбрала другой подход, преобразовав изображения в частотную область с помощью дискретного косинусного преобразования. Таким образом, сгенерированное изображение выражается как сумма множества различных функций косинуса. Естественные изображения состоят в основном из низкочастотных функций.
Анализ показал, что изображения, генерируемые сетями GAN, имеют артефакты в высокочастотном диапазоне. Например, типичная структура сетки возникает в частотном представлении поддельных изображений. «Наши эксперименты показали, что эти артефакты встречаются не только в изображениях, созданных GAN. Они представляют собой структурную проблему всех алгоритмов глубокого обучения», — объясняет Джоэл Франк из кафедры безопасности систем. «Мы предполагаем, что артефакты, описанные в нашем исследовании, всегда скажут нам, является ли изображение фальшивым изображением, созданным с помощью машинного обучения», — добавляет Франк. «Таким образом, частотный анализ является эффективным способом автоматического распознавания компьютерных изображений».