Является ли ИИ ответом на улучшение государственных услуг?


Задолго до появления ChatGPT правительства стремились использовать чат-ботов для автоматизации своих услуг и консультаций.

Эти первые чат-боты «как правило, были более простыми и имели ограниченные возможности общения», — говорит Колин ван Нордт, исследователь использования искусственного интеллекта в правительстве, проживающий в Нидерландах.

Правительства изучают, может ли ИИ давать надежные советы
Правительства изучают, может ли ИИ давать надежные советы

Но появление генеративного искусственного интеллекта за последние два года возродило представление о более эффективной государственной службе, где человекоподобные советники могут работать круглосуточно, отвечая на вопросы о льготах, налогах и других областях, с которыми взаимодействует правительство. публика.

Генеративный ИИ достаточно сложен, чтобы давать ответы, подобные человеческим, и, если он обучен на достаточном количестве качественных данных, теоретически он может отвечать на любые вопросы о государственных услугах.

Но генеративный ИИ стал известен своими ошибками или даже бессмысленными ответами — так называемыми галлюцинациями.

В Великобритании Государственная цифровая служба (GDS) провела тестирование чат-бота GOV.UK Chat на базе ChatGPT, который будет отвечать на вопросы граждан по ряду вопросов, касающихся государственных услуг.

В сообщении в блоге о своих первых результатах агентство отметило, что почти 70 % участников исследования нашли ответы полезными.

Однако были проблемы с «несколько» случаев, когда система генерировала неверную информацию и представляла ее как факт.

В блоге также выражается обеспокоенность тем, что может возникнуть неоправданная уверенность в системе, которая иногда может ошибаться.

«В целом ответы не достигли высочайшего уровня точности, требуемого для такого сайта, как GOV.UK, где фактическая точность имеет решающее значение. Мы быстро повторяем этот эксперимент, чтобы решить проблемы точности и надежности».

Португалия тестирует чат-бота на базе искусственного интеллекта
Португалия тестирует чат-бота на базе искусственного интеллекта

Другие страны также экспериментируют с системами, основанными на генеративном искусственном интеллекте.

В 2023 году Португалия выпустила «Практическое руководство по правосудию» — чат-бот, призванный отвечать на основные вопросы по таким простым темам, как брак и развод. Чат-бот был разработан на средства Фонда восстановления и устойчивости Европейского Союза (RRF).

Проект стоимостью 1,3 млн евро (1,4 млн долларов США; 1,1 млн фунтов стерлингов) основан на языковой модели OpenAI GPT 4.0. Помимо информации о браке и разводе, он также предоставляет информацию о создании компании.

По данным Министерства юстиции Португалии, за первые 14 месяцев реализации проекта через руководство было задано 28 608 вопросов.

Когда я задал ему основной вопрос: «Как мне создать компанию», он сработал хорошо.

Но когда я спросил кое-что посложнее: «Могу ли я создать компанию, если мне меньше 18 лет, но я женат?», компания извинилась за отсутствие информации для ответа на этот вопрос.

Источник в министерстве признает, что им по-прежнему не хватает доверия, хотя неправильные ответы редки.

«Мы надеемся, что эти ограничения будут преодолены за счет решительного повышения уровня достоверности ответов», — говорит мне источник.

Чат-боты не должны заменять государственных служащих, говорит Колин ван Нордт
Чат-боты не должны заменять государственных служащих, говорит Колин ван Нордт

Подобные недостатки означают, что многие эксперты советуют соблюдать осторожность, в том числе Колин ван Нордт. «Не получается, когда чат-бот используется как способ заменить людей и сократить расходы».

Было бы более разумным подходом, добавляет он, если бы они рассматривались как «дополнительная услуга, быстрый способ найти информацию».

Свен Нихольм, профессор этики искусственного интеллекта в Мюнхенском университете Людвига-Максимилиана, подчеркивает проблему подотчетности.

«Чат-бот не взаимозаменяем с государственным служащим, — говорит он. — Человек может нести ответственность и моральную ответственность за свои действия.

«Чат-боты с искусственным интеллектом не могут нести ответственность за то, что они делают. Государственное управление требует подотчетности и, следовательно, требует участия людей».

Нихолм также подчеркивает проблему надежности.

«Новые типы чат-ботов создают иллюзию умности и творчества, чего раньше не делали старые типы чат-ботов.

«Время от времени эти новые и более впечатляющие чат-боты forof совершают глупые и глупые ошибки — иногда это может быть смешно, но потенциально может быть и опасно, если люди полагаются на их рекомендации».

Правительство Эстонии лидирует в использовании чат-ботов
Правительство Эстонии лидирует в использовании чат-ботов

Если ChatGPT и другие модели больших языков (LLM) не готовы давать важные советы, то, возможно, мы могли бы поискать альтернативу в Эстонии.

Когда дело доходит до оцифровки государственных услуг, Эстония является одним из лидеров. С начала 1990-х годов он занимается созданием цифровых услуг, а в 2002 году представил цифровую ID-карту, которая позволяет гражданам получать доступ к государственным услугам.

Поэтому неудивительно, что Эстония находится в авангарде внедрения чат-ботов.

В настоящее время страна разрабатывает набор чат-ботов для государственных служб под названием Bürokratt.

Однако чат-боты Эстонии не основаны на моделях больших языков (LLM), таких как ChatGPT или Gemini от Google.

Вместо этого они используют обработку естественного языка (NLP), технологию, которая предшествовала последней волне искусственного интеллекта.

Алгоритм НЛП Эстонии разбивает запрос на небольшие сегменты, определяет ключевые слова и на основе этого делает вывод, чего хочет пользователь.

В Bürokratt отделы используют свои данные для обучения чат-ботов и проверки их ответов.

«Если Bürokratt не знает ответа, чат будет передан агенту службы поддержки, который возьмет на себя чат и ответит вручную», — говорит Кай Каллас, руководитель отдела персональных услуг Управления информационных систем Эстонии. .

Это система с более ограниченным потенциалом, чем система, основанная на ChatGPT, поскольку модели НЛП ограничены в своей способности имитировать человеческую речь и обнаруживать намеки на нюансы языка.

Однако они вряд ли дадут неправильные или вводящие в заблуждение ответы.

«Некоторые ранние чат-боты заставляли граждан выбирать варианты вопросов. В то же время это позволяло обеспечить больший контроль и прозрачность того, как чат-бот работает и отвечает», — объясняет Колин ван Нордт.

«Чат-боты на основе LLM часто обладают гораздо более качественным диалогом и могут давать более подробные ответы.

«Однако это достигается за счет меньшего контроля над системой, а также может давать разные ответы на один и тот же вопрос», — добавляет он.


Добавить комментарий