Чтобы отличить один вид от другого, могут потребоваться годы наблюдения за птицами. Но, используя технику искусственного интеллекта, называемую глубоким обучением, исследователи Университета Дьюка обучили компьютер распознавать до 200 видов птиц по одной фотографии.
Настоящее нововведение заключается в том, что A.I. инструмент также показывает свое мышление, и это может понять даже тот, кто не отличит пингвина от тупика.
Команда обучила свою глубокую нейронную сеть — алгоритмы, основанные на том, как работает мозг, — скармливая ей 11788 фотографий 200 видов птиц, на которых можно было учиться, от плавающих уток до парящих колибри.
Исследователи никогда не сообщали сети «это клюв» или «это перья на крыльях». Получив фотографию загадочной птицы, сеть может выделить важные закономерности на изображении и рискнуть сделать предположение, сравнивая эти закономерности с типичными признаками вида, которые она видела ранее.
По пути он выплевывает серию тепловых карт, на которых, по сути, говорится: «Это не просто камышевка. Это певчая птица с капюшоном, и вот такие особенности, как ее голова в маске и желтый живот, которые дают это прочь. «
Дюк, доктор компьютерных наук. Студент Чаофан Чен и студент Оскар Ли руководили исследованием вместе с другими членами команды Лаборатории прогнозного анализа под руководством профессора Герцога Синтии Рудин.
Они обнаружили, что их нейронная сеть способна определять правильные виды до 84% времени — наравне с некоторыми из наиболее эффективных аналогов, которые не раскрывают, как они могут определять, скажем, один воробей из следующего.
Рудин говорит, что их проект — это больше, чем просто называть птиц. Речь идет о визуализации того, что на самом деле видят глубокие нейронные сети, когда они смотрят на изображение.
Подобная технология используется для того, чтобы отмечать людей в социальных сетях, обнаруживать подозреваемых преступников с помощью камер наблюдения и обучать беспилотные автомобили обнаруживать такие вещи, как светофоры и пешеходов.
Проблема, по словам Рудина, в том, что большинство подходов к глубокому обучению компьютерного зрения заведомо непрозрачны. В отличие от традиционного программного обеспечения, программное обеспечение для глубокого обучения учится на данных без явного программирования. В результате не всегда ясно, как эти алгоритмы «думают» при классификации изображения.
Рудин и ее коллеги пытаются показать, что А.И. не должно быть так. Она и ее лаборатория разрабатывают модели глубокого обучения, которые объясняют причины их прогнозов, давая понять, почему и как они пришли к своим ответам. Когда такая модель допускает ошибку, ее встроенная прозрачность позволяет понять, почему.
В своем следующем проекте Рудин и ее команда используют свой алгоритм для классификации подозрительных участков на медицинских изображениях, таких как маммограммы. Если это сработает, их система не просто поможет врачам обнаруживать уплотнения, кальцификаты и другие симптомы, которые могут быть признаками рака груди. Он также покажет, на какие части маммограммы он нацелен, показывая, какие особенности больше всего напоминают раковые образования, которые он видел раньше у других пациентов.
Таким образом, по словам Рудина, их сеть создана таким образом, чтобы имитировать то, как врачи ставят диагноз. «Это рассуждение по делу», — сказал Рудин. «Мы надеемся, что сможем лучше объяснить врачам или пациентам, почему их изображение было классифицировано в сети как злокачественное или доброкачественное».
Команда представляет доклад о своих выводах на Тридцать третьей конференции по системам обработки нейронной информации (NeurIPS 2019) в Ванкувере 12 декабря.
Среди других авторов этого исследования Дэниел Тао и Алина Барнетт из Duke и Джонатан Су из лаборатории Линкольна Массачусетского технологического института.
ЦИТАТА: «Это похоже на то: глубокое обучение для распознавания интерпретируемых изображений», Чаофан Чен, Оскар Ли, Дэниел Тао, Алина Барнетт, Джонатан Су и Синтия Рудин. Электронные материалы конференции по системам обработки нейронной информации. 12 декабря 2019 г.