Пока я пишу, множество влиятельных людей по всему миру готовятся отправиться в Париж, и есть ощущение, что многие из них затаили дыхание.
В понедельник на фоне роскошного 125-летнего Гран-Пале представители 80 стран, включая мировых лидеров, технических руководителей, ученых и других экспертов, соберутся на двухдневный всемирный саммит, чтобы обсудить текущий прогресс и будущие цели для быстро развивающейся, чрезвычайно революционной технологии, которой является искусственный интеллект.
Возможно, это и есть официальная повестка дня Саммита действий по искусственному интеллекту, но есть еще кое-что, что подливает масла в огонь этой конкретной говорильни: DeepSeek.
Однажды один фанат скачек сказал мне, что накануне большой гонки каждый становится победителем.
А поскольку Китай резко разнес конкуренцию в области ИИ в новом направлении с DeepSeek, своим суперэффективным и супервирусным помощником в области ИИ, внезапно возникло ощущение перед саммитом, что поул-позиция, занимаемая сектором ИИ США, несмотря на его огромное богатство и инфраструктуру ИИ, может быть не такой уж и недостижимой.
Профессор Джина Нефф из Центра технологий и демократии Миндеру при Кембриджском университете говорит, что в настоящее время существует «вакуум для мирового лидерства в области ИИ».
Профессор Венди Холл из Саутгемптонского университета согласна с этим. «DeepSeek заставил всех осознать, что Китай — это сила, с которой нужно считаться», — говорит компьютерный ученый.
«Нам не нужно просто соглашаться с тем, что говорят крупные компании Западного побережья. Нам нужен глобальный диалог».
В этом плане время проведения саммита не могло быть лучше.
Европа также видит возможность сделать новую заявку на корону ИИ. Один из чиновников президента Франции Эммануэля Макрона описал саммит журналистам как «звонок будильника» для Франции и Европы, добавив, что блок не должен позволить революции ИИ «обойти ее стороной».
Другие страны также признают потенциальную смену власти ИИ в воздухе. Премьер-министр Индии Нарендра Моди подтвердил свое участие в этом саммите — он не приезжал на предыдущие встречи.
США посылают серьезную огневую мощь в качестве собственного оборонительного сигнала, включая вице-президента Дж. Д. Вэнса, генерального директора OpenAI Сэма Альтмана и Сундара Пичаи из Google.
Илон Маск заметно отсутствует в официальном списке гостей, но ему, несомненно, будет что сказать по этому поводу, независимо от того, будет он там лично или нет.
Сообщается, что премьер-министр Великобритании Кир Стармер также воздерживается от участия.
До этого было два саммита, первый в Великобритании, второй в Южной Корее. Многое произошло с тех пор, как мир ИИ впервые собрался на ступенях исторического особняка Блетчли-хаус в ноябре 2023 года и пообещал попытаться максимально использовать преимущества ИИ, минимизируя риски. Во-первых, с тех пор на избирательные участки пришла половина населения мира.
В Блетчли-парке присутствовал заместитель министра науки и технологий Китая У Чжаохуэй. Но ходили слухи, что его держали в стороне из соображений национальной безопасности.
В Париже, для сравнения, я ожидаю, что Китай будет почетным гостем. Сообщается, что страна отправляет одного из своих самых высокопоставленных лидеров Дин Сюэсяна, близкого союзника председателя Си Цзиньпина. Также ходят слухи о том, присоединится ли к нему создатель DeepSeek Лян Вэньфэн.
Я попросил ChatGPT перечислить некоторые из значимых вех ИИ с момента саммита в Южной Корее в мае 2024 года. DeepSeek не попал в список.
Конечно, ИИ — это гораздо больше, чем генеративный ИИ, такой как DeepSeek и ChatGPT, — инструменты, которые создают контент, такой как текст, изображения, видео. Он вполне может быть наиболее широко доступен для нас как потребителей. Но есть также инструменты ИИ, которые выявляют симптомы заболеваний, моделируют решения по изменению климата, разрабатывают новые формулы лекарств — и все это будет в центре внимания в Париже.
Кроме того, история Давида против Голиафа, вокруг которой вертится история DeepSeek, заслуживает дальнейшего изучения. Руководитель компании Anthropic, занимающейся ИИ, Дарио Амодеи написал убедительный блог о том, действительно ли DeepSeek был создан за малую часть стоимости его американских конкурентов.
Мы знаем, что он был построен на их плечах: с использованием ряда чипов Nvidia (вероятно, более старых из-за санкций США) и некоторой архитектуры ИИ с открытым исходным кодом, разработанной Meta. Кроме того, OpenAI жаловалась, что конкуренты используют ее работу, чтобы продвигать свою собственную (контакты в творческих отраслях были удивлены иронией этого, учитывая, что продукты OpenAI с радостью будут производить вывод «в стиле» отдельных людей-творцов).
Но тем не менее DeepSeek удалось встряхнуть сектор ИИ так, как даже сам ИИ не мог предсказать. И он уничтожил много денег из стоимости некоторых крупнейших игроков в этом процессе. Это почти наверняка станет огромной темой для разговоров в парижских конференц-залах.
Есть еще одна тема, которая будет муссироваться на саммите ИИ, за которой стоит следить.
В названии первого саммита было слово «безопасность». Некоторые посчитали, что мероприятие слишком сильно надавило на повествование и напугало людей мрачными разговорами об экзистенциальных угрозах.
Но это не исчезло из повестки дня полностью.
Как тема, безопасность ИИ — довольно широкая церковь. Она может относиться к любому количеству рисков: созданию и распространению дезинформации, проявлениям предвзятости и дискриминации в отношении отдельных лиц или рас, продолжающейся разработке несколькими странами оружия, контролируемого ИИ, возможности ИИ создавать неудержимые компьютерные вирусы.
Профессор Джеффри Хинтон, которого часто называют одним из крестных отцов ИИ, говорит, что это «краткосрочные риски». Они могут быть предметом обсуждения в Париже, но на прошлой неделе в программе Today на BBC Radio 4 он утверждал, что в долгосрочной перспективе они вряд ли приведут к прочному международному сотрудничеству.
Крупный сценарий, который, по его мнению, действительно объединит всех, — это перспектива того, что ИИ станет умнее людей и захочет захватить контроль.
«Никто не хочет, чтобы ИИ взял верх над людьми», — говорит он. «Китайцы предпочли бы, чтобы всем управляла Коммунистическая партия Китая, а не ИИ».
Профессор Хинтон сравнил эту возможность с разгаром холодной войны, когда США и россия «почти преуспели» в сотрудничестве, чтобы предотвратить глобальную ядерную войну.
«Нет никакой надежды остановить [разработку ИИ]», — сказал он. «Нам нужно попытаться разработать его безопасно».
Профессор Макс Тегмарк, основатель Института будущего жизни, также поделился суровым предупреждением. «Либо мы создадим потрясающий ИИ, который поможет людям, либо неуправляемый ИИ, который заменит людей», — говорит он.
«К сожалению, мы ближе к созданию ИИ, чем к выяснению того, как его контролировать».
Профессор Тегмарк надеется, что саммит будет продвигать обязательные стандарты безопасности, «как мы делаем в любой другой критической отрасли».