Представьте себе сцену: вы находитесь дома со своей семьей, и ваш телефон начинает звонить… люди, которых вы знаете, предупреждают вас о чем-то, что они видели о вас в социальных сетях.
Это не самое лучшее чувство.
В моем случае это был скриншот, по-видимому, сделанный чат-ботом Илона Маска Grok, хотя я не смог его проверить, что поместило меня в список худших распространителей дезинформации на X (Twitter), наряду с каким-то большим заговором США. теоретики.
У меня не было с ними ничего общего, и как журналист я не хотел входить в эту десятку.
У меня нет доступа к Grok в Великобритании, поэтому я попросил ChatGPT и Google Bard составить один и тот же список, используя одну и ту же подсказку. Оба чат-бота отказались, а Бард ответил, что это было бы «безответственно».
Я много писал об искусственном интеллекте и регулировании, и одно из самых больших беспокойств людей — то, насколько наши законы соответствуют этим быстро меняющимся и крайне разрушительным технологиям.
Эксперты в нескольких странах согласны с тем, что люди всегда должны иметь возможность бросать вызов действиям ИИ, и с течением времени инструменты ИИ все чаще генерируют контент о нас и принимают решения о нашей жизни.
В Великобритании пока нет официального регулирования ИИ, но правительство заявляет, что вопросы, касающиеся его деятельности, должны быть включены в работу существующих регуляторов.
Я решил попытаться исправить ситуацию.
Моим первым портом захода был X, который игнорировал меня, как и большинство медиа-запросов.
Затем я обратился к двум регулирующим органам Великобритании. Управление комиссара по информации является государственным органом по защите данных, но оно посоветовало мне обратиться в Ofcom, который следит за соблюдением Закона о безопасности в Интернете.
Представители Ofcom сообщили мне, что этот список не подпадает под действие закона, поскольку это не является преступной деятельностью.
«Незаконный контент… означает, что контент должен приравниваться к уголовному преступлению, поэтому он не распространяется на гражданские правонарушения, такие как клевета. Чтобы принять меры, человеку придется следовать гражданским процедурам», — говорится в сообщении.
По сути, мне понадобится адвокат.
В мире ведется несколько судебных дел, но прецедентов пока нет.
В США радиоведущий по имени Марк Уолтерс подал в суд на создателя ChatGPT OpenAI после того, как чат-бот ложно заявил, что он обманул благотворительную организацию.
А мэр Австралии пригрозил аналогичными действиями после того, как тот же чат-бот ошибочно заявил, что он был признан виновным во взяточничестве. На самом деле он был разоблачителем — инструмент искусственного интеллекта соединил неправильные точки в своих данных о нем. Он уладил дело.
Я обратился к двум юристам, специализирующимся на искусственном интеллекте. Первый мне отказал.
Второй сообщил мне, что я нахожусь на «неизведанной территории» в Англии и Уэльсе.
Она подтвердила, что случившееся со мной можно считать клеветой, поскольку меня можно было идентифицировать и список был опубликован.
Но она также сказала, что ответственность за доказывание вреда контента будет лежать на мне. Мне пришлось продемонстрировать, что быть журналистом, обвиненным в распространении дезинформации, было для меня плохой новостью.
Я не знал, как я оказался в этом списке и кто именно его видел. Меня очень расстраивало то, что я не мог сам получить доступ к Гроку. Я знаю, что у него есть «веселый режим» для более острых ответов — он меня раздражал?
Чат-боты с искусственным интеллектом, как известно, «галлюцинируют», что на языке высоких технологий означает выдумывание вещей. Даже их создатели не знают почему. Они содержат заявление об отказе от ответственности, в котором говорится, что их результаты могут быть ненадежными. И вы не обязательно получите один и тот же ответ дважды.
Последний поворот сюжета
Я разговаривал со своими коллегами из BBC Verify, команды журналистов, которая занимается криминалистической проверкой информации и источников.
Они немного покопались и считают, что скриншот, с которого меня обвинили в распространении дезинформации и положил начало всей этой саге, мог быть изначально подделанным.
От меня не ускользнула ирония.
Но мой опыт открыл мне глаза лишь на одну из проблем, которые ждут нас впереди, поскольку ИИ играет все более важную роль в нашей жизни.
Задача регуляторов ИИ — обеспечить, чтобы у людей всегда был простой способ бросить вызов компьютеру. Если ИИ лжет о вас – с чего начать? Я думал, что знаю, но это все равно был трудный путь.