Amazon, DeepMind / Google, Facebook, IBM и Microsoft объявили о создании некоммерческой организации, которая должна способствовать пониманию общественностью технологий искусственного интеллекта и формулировать передовые методы решения проблем и возможностей, которые открывает искусственный интеллект.
Это сотрудничество началось вскоре после первого отчета об исследовании AI100, которое мы рассмотрели ранее на этой неделе и нацелены на решение фундаментальных социально-экономических проблем, которые в нем изложены:
Кто несет ответственность за аварию самоуправляемого автомобиля или выход из строя интеллектуального медицинского устройства?
Как можно предотвратить пропаганду расовой дискриминации или финансового мошенничества в приложениях ИИ?
Кто должен пожинать плоды эффективности, обеспечиваемой технологиями искусственного интеллекта, и какие меры защиты следует предоставить людям, чьи навыки устарели?
Потому что в конечном итоге
По мере того, как люди все шире и глубже интегрируют ИИ в производственные процессы и потребительские товары, необходимо распространять передовой опыт и адаптировать режимы регулирования.
Действительно ли это совпадение, что Эрик Хорвиц, человек, стоящий за AI100 из Стэнфордского университета, спроектировал 100-летнюю работу по изучению влияния искусственного интеллекта на каждый аспект того, как люди работают, живут и играют, также является временным партнером. -Председатель Партнерства, которое хочет взять на себя ответственность за действия в соответствии с выводами Исследовательской группы AI100.
Не редко, но и не принято, чтобы игроки калибра Microsoft и IBM, Amazon и Google забывали о своих противоречиях, чтобы вместе работать над общим некоммерческим делом. Таким образом, масштабы этого сотрудничества отражают то, что действительно поставлено на карту, необходимость убедить общественность в целом положительно относиться к ИИ, который считается основным фактором и имеет первостепенное значение при определении успеха или неудачи ИИ.
Эти опасения поистине огромны и выходят за рамки этики, справедливости, прозрачности, конфиденциальности, взаимодействия, сотрудничества между людьми и системами ИИ, надежности, надежности и устойчивости технологии.
Необходимость обсуждения таких проблем неявно показывает степень достижений, достигнутых в области искусственного интеллекта, достаточно большую, чтобы сделать существующий закон, политику и правила устаревшими.
Но это не только осуждение, но и введение новых дилемм, особенно моральных и этических. Например, как должна вести себя машина в ситуации, которая потенциально может нанести вред людям? Даже краудсорсинг был использован в попытке дать окончательный ответ на эти дилеммы в качестве моральной машины, платформы для сбора человеческой точки зрения на это демонстрируют моральные решения, принимаемые машинным интеллектом, таким как беспилотные автомобили, или недавно опубликованное руководство Британского института стандартов по этическому проектированию и применению роботов и роботизированных систем. Эти подходы приветствуются, но все же должен быть общий и стандартизированный подход в глобальном масштабе; и это то, что собирается делать этот консорциум.
Заглядывая в прошлое, мы все хорошо знаем, чего можно достичь благодаря сотрудничеству таких крупных игроков, от информационных технологий до окружающей среды и управления отходами; например, сотрудничество Microsoft и Toyota по интеллектуальному энергопотреблению, Mercedes Benz и Facebook по социальному вождению, Coca-Cola и ECO Plastics ‘по производству переработанных пластиковых контейнеров.
Есть еще один важный аспект Партнерства, хотя и скрытый от радаров. Слово «интероперабельность» и предложение «сотрудничество между людьми и системами ИИ» имеют большое значение и намекают на разработку стандартизированного протокола для связи между машинами и людьми.
Работа над общими протоколами и открытыми стандартами часто является продуктом или побочным продуктом сотрудничества. Это очевидно в большом количестве установленных международных комитетов, таких как ANSI, ISO, HL7, IEEE или W3C, в то время как Microsoft и IBM делали это раньше, работая над стандартами SOAP и XML.
Но в этом случае они будут работать над общим языком для взаимодействия машины с машиной, а также взаимодействия машины с человеком, что очень важно для того, чтобы ИИ сливался с человеческими сообществами. Это также важный шаг для защиты потребности государственного сектора не ограничиваться одним поставщиком, а вместо этого иметь возможность работать с машинами или продуктами ИИ, которые могут взаимодействовать либо с коллегами другого бренда, либо с людьми.
Таким образом, отказ Apple вступить в партнерство вызывает много вопросов. Не хочет ли он, чтобы его оставили вне конкуренции, чтобы спонсировать свою уникальную линейку продуктов и стандартов, как это делается с зарядными устройствами, наушниками и плагинами для iPhone, придерживаясь своего имиджа инновационного, роскошного, даже снобистского, одинокого человека, который хочет? делать все по-своему?
Илон Маск также бросается в глаза своим отсутствием, отсутствие которого может быть оправдано большой суммой денег, которую он уже вложил в «конкурирующий» проект OpenAI, который разделяет те же интересы с Партнерством.
Конечно, сила, возникающая в результате сотрудничества с такой крупной корпорацией, будет отпугивать людей, и не без оснований. Действительно ли они воспользуются этой силой для большего блага?
Партнерство быстро отвечает, что у него нет намерения лоббировать правительство или другие органы, определяющие политику, чтобы ослабить озабоченность, выраженную на заключительных этапах отчета AI100:
Как и другие технологии, ИИ может быть использован в добрых или гнусных целях. Следует оценивать политику на предмет того, способствуют ли она демократическим путем развитию и справедливому распределению преимуществ ИИ или концентрируют власть и преимущества в руках немногих счастливчиков.
Еще большей проблемой, о которой, как ни странно, не говорится ни в отчете «Партнерство», ни в отчете AI100, является дискуссия о влиянии ИИ на вооружение и о возможностях его обладателя, вопрос, который мы исследовали ранее в этом году в статье «Автономное вооружение роботов».