Несомненно, нейронная сеть OpenAI для генерации глубокого текста была создана с добрыми намерениями, но может ли ее явная сила стать рецептом катастрофы?
GPT2 начал свою жизнь как предсказатель того, какое слово следует за следующим, как это делают Gmail или виртуальные клавиатуры в наших мобильных устройствах. Для этой цели он был обучен с огромным набором данных 40 ГБ, базой данных, собранной с сайтов в Интернете, насыщенных текстом, в основном с новостных сайтов.
Набор данных был введен в нейронную сеть, чтобы построить лингвистическую модель в качестве основы для предсказания следующего слова. Это, конечно, означает, что он может генерировать текст, вплоть до следующего слова. Однако выяснилось, что модель настолько хороша в этом, что научилась генерировать полные осмысленные предложения:
Хотя GPT-2 был обучен только предсказывать следующее слово в тексте, он неожиданно приобрел базовые навыки в некоторых задачах, таких как перевод с одного языка на другой и ответы на вопросы. И это даже без того, чтобы сказать, что он будет оцениваться по этим задачам »
Обратите внимание на часть «без всяких объяснений», которая, по сути, означает, что вы учились без присмотра.
Модель стала настолько умной, что на основе двух предложений:
Вагон поезда с контролируемыми ядерными материалами был украден сегодня в Цинциннати. Его местонахождение неизвестно.
он добавил:
Инцидент произошел на железнодорожной линии в центре города, которая идет от станций Ковингтон и Ашленд.
В электронном письме новостным агентствам Огайо Министерство энергетики США сообщило, что работает с Федеральным управлением железных дорог, чтобы найти вора.
«Кража этого ядерного материала будет иметь серьезные негативные последствия для здоровья населения и окружающей среды, нашей рабочей силы и экономики нашей страны», — сказал Том Хикс, министр энергетики США. «Нашим главным приоритетом является защита кражи и гарантия того, что это больше не повторится».
Если это может быть так точно и правдоподобно, то это может быть и очень страшно. Представьте себе, какой сбой это может вызвать на фронте фейковых новостей, создав фальшивые новости, которые невозможно отличить от настоящих.
Здесь стоит отметить, что несколько лет назад Microsoft попыталась применить аналогичный подход к повествованию, хотя и не на основе текста, а визуального, когда сеть, просто взглянув на изображение, могла построить вокруг него историю. Мы обсуждали это в Neural Networks for Storytelling.
По очевидным причинам OpenAI не хотел выпускать полностью продуманную модель; вместо этого он выпустил урезанную версию с той же функциональностью, но с менее точными результатами.
Вскоре после этого, различные сайты начали строить на основе этой модели небольшие движки, которые, учитывая некоторый текст от пользователя, могли завершить оставшуюся часть предложения или даже составить рассказ, демонстрируя возможности GPT2.
Примером этого является Talk to Transformer. Я ввел «Я собираюсь сыграть в футбол» в качестве входных данных, вот что сгенерировало модель:
Я собираюсь играть в футбол в Северной Каролине, так что у меня всегда будет такой шанс. Я получил много удовольствия от того, что вернулся домой и просто играл в футбол. Было много взлетов и много падений. Мы собираемся поехать в Атланту, сыграть в наш лучший футбол.
Важно помнить, что у бывшего СССР есть причал NCAA, запертый за их спиной. Вот почему способность семинолов привлекать штат Флорида благоприятным образом является ключевым для Клемсона. Проблема в том, что у бывшего Советского Союза еще есть над чем поработать, особенно с некоторыми ключевыми точками приема на работу.
Еще один сайт — Write With Transformer:
«позволяет вам писать целый документ прямо из браузера, и вы можете запускать Transformer в любом месте, используя клавишу Tab. Это похоже на умную машину, которая дополняет ваши мысли».
Само собой разумеется, что приложения GPT могут быть очень полезны при создании:
Помощники по написанию искусственного интеллекта
Более способные диалоговые агенты
Неконтролируемый перевод между языками
Лучшие системы распознавания речи
но с другой стороны, это могло также закончиться:
Создание вводящих в заблуждение новостных статей
Выдача себя за других в сети
Автоматизация производства оскорбительного или фальшивого контента для публикации в социальных сетях
Автоматизация производства спама / фишингового контента
таким образом, это добавление к заре глубокой эры фейков, которую мы переживаем, когда нам уже трудно отличить фальшивку от реальной, будь то люди, изображения, аудио и видео. Вскоре мы также не сможем отличить настоящие новости от фейковых. Я сказал «рассвет», потому что технология все еще находится в зачаточном состоянии, но постоянно развивается и совершенствуется до такой степени, что линии не будут размываться, а будут перекрываться.
Итак, вопрос в том, как мы можем смягчить плохие побочные эффекты? Как показано в статье об этике ИИ, хотя развитие технологий нельзя остановить, его можно и нужно ограничить.
Но в конечном итоге я думаю, что в этом случае все будет сводиться к доверию источнику, из которого вы получаете свои новости и СМИ. Люди не смогут доверять менее известным средствам массовой информации и поэтому будут обращаться к более традиционным, устоявшимся источникам новостей. Это, однако, еще раз откроет банку червей, потому что, если вы будете получать новости из ограниченного круга источников, которые могут контролировать средства массовой информации и, следовательно, новости, которые мы получаем, вы рискуете крах здоровой журналистики и, как следствие, демократия.