Обновленный набор инструментов AI Fairness 360 поддерживает R и Scikit-learn


AI Fairness 360 — это развивающийся набор инструментов IBM, который решает большую проблему дискриминации и предвзятости, распространяющую модели машинного обучения. Теперь он совместим с Scikit-learn и R.

В IProgrammer мы много раз изучали предвзятость и дискриминацию, основанные на ИИ, как с технической, так и с социальной точки зрения.
С точки зрения общества, в «Руководстве по этике для надежного ИИ» мы рассмотрели попытку Европейской комиссии выпустить набор рекомендаций о том, как создавать ИИ, которым будет доверять общество. Вердикт заключался в том, что для создания «Надежного ИИ» необходимы следующие три компонента:

Он должен быть законным, соответствовать всем применимым законам и постановлениям.
Он должен быть этичным, обеспечивать соблюдение этических принципов и ценностей.
Он должен быть надежным как с технической, так и с социальной точки зрения, поскольку даже при наличии благих намерений системы искусственного интеллекта могут причинить непреднамеренный вред.

Поскольку чернила почти не высыхают на страницах руководств, на платформе openSAP появился бесплатный онлайн-курс, посвященный поднимаемым ими вопросам. Программа SAP «Создание заслуживающего доверия и этичного искусственного интеллекта» предназначена не только для заинтересованных сторон, которые проектируют, разрабатывают, развертывают, внедряют, используют и взаимодействуют с ИИ или на которых он влияет, но и для широкой общественности. В основе этого лежит то значение, что создание заслуживающего доверия и этичного искусственного интеллекта требует понимания не только самой технологии, но также существующих социальных и этических условий.
Позже в статье «Как ИИ распознает» мы рассказали об образовательной игре «Выживание наиболее подходящих», разработанной Нью-Йоркским университетом, которая на практике демонстрирует, как алгоритмы машинного обучения могут принимать решения на основе предвзятости. Игра дает вам роль генерального директора недавно финансируемой компании, которая получила финансирование и находится на этапе набора персонала с помощью проверки резюме, и в конце напоминает нам, что:
При построении автоматизированных систем принятия решений мы должны задаться вопросом: на каких показателях основаны эти решения и кого мы можем привлечь к ответственности?
На чисто техническом уровне в «TCAV объясняет, как ИИ принимает решение» мы выяснили, почему важно понимать внутреннюю работу нейронной сети и не рассматриваться как черный ящик:
Поскольку ИИ становится все более и более интегрированным во все аспекты человеческой деятельности и жизни, возникает острая необходимость найти способ заглянуть в его процесс принятия решений, что очень важно в таких секторах, как здравоохранение, которые имеют решающее значение для благополучия и справедливости людей. .
Именно здесь на помощь приходит ученый из Google Brain Бин Ким со своим инструментом машинного перевода TCAV (Testing with Concept Activation Vectors), плагином, который может быть встроен в любую NN и понять его доводы, чтобы решить, можем ли мы его безопасно использовать. или нет.
Чтобы добраться до текущих новостей, требуется много времени, но я хотел подчеркнуть важность проблемы и то, почему AIF360 очень полезен для сообщества в целом.
Официальное определение AI Fairness 360 гласит, что это набор инструментов, который:
может помочь вам изучить, составить отчет и уменьшить дискриминацию и предвзятость в моделях машинного обучения на протяжении всего жизненного цикла приложения ИИ. Содержащий более 70 показателей справедливости и 10 современных алгоритмов смягчения предвзятости, разработанных исследовательским сообществом, он предназначен для преобразования алгоритмических исследований, проведенных в лаборатории, в реальную практику таких обширных областей, как финансы, управление человеческим капиталом и др. здравоохранение и образование.
Как мы узнали в статье Как AI Discriminates и аналогично скринингу CV, AIF360 можно использовать в таких областях, как кредитный скоринг, для выявления и смягчения возрастной предвзятости при принятии решений о кредитовании или в сфере медицинских расходов, где он может обнаруживать и смягчать расовые предубеждения в управлении медицинским обслуживанием. Но это только верхушка айсберга; существует еще много областей, на которые этот инструментарий может пролить свет, обнаруживая и анализируя источник смещения с помощью его показателей и рекомендуя меры по смягчению его последствий с помощью алгоритмов защиты от смещения.

Такими используемыми алгоритмами являются:

Оптимизированная предварительная обработка Изменяет функции и метки обучающих данных.
Повторное взвешивание Изменяет веса различных примеров тренировок.
Adversarial Debiasing: используется для уменьшения систематической ошибки в классификаторах. Использует состязательные методы, чтобы максимизировать точность и уменьшить количество доказательств защищенных атрибутов в прогнозах.

И метрики измеряют:

Статистическая паритетная разница Разница в частоте благоприятных исходов, полученных непривилегированной группой, по сравнению с привилегированной группой.
Разница в равных возможностях Разница истинных положительных показателей между непривилегированными и привилегированными группами.
Несопоставимое воздействие Отношение вероятности благоприятного исхода для непривилегированной группы к таковой для привилегированной группы.

Очищая наборы данных и снижая предвзятость, если AIF360 может сделать алгоритмы, которые играют все более важную роль в принятии решений, влияющих на жизнь людей, более справедливыми, он будет служить не только научному сообществу, но и обществу в целом.
С момента своего создания до настоящего времени набор инструментов, который включает исчерпывающий набор показателей для наборов данных и моделей, пояснения к этим показателям и алгоритмы для уменьшения предвзятости, был доступен только для Python. Уже нет; R — это новичок в блоке, представленный в пакете AI Fairness 360 R, что означает, что те же функции, показатели и алгоритмы теперь доступны из R.
Но не только Р. получил поддержку. Новое обновление набора инструментов также добавляет совместимость с библиотекой науки о данных Python Scikit-learn. AIF360 уже использует классификаторы scikit-learn с рабочими процессами предварительной или постобработки, а новая функциональность упрощает взаимодействие, делая алгоритмы и метрики между пакетами взаимозаменяемыми.
В заключение следует отметить, что, выпуская этот универсальный инструментарий, IBM, похоже, очень серьезно относится к проблеме предвзятости в наборах данных и хочет наложить свой отпечаток лидерства на сектор.


Добавить комментарий