Первоначально безопасность искусственного интеллекта использовалась в качестве технического щита для защиты справедливости. Однако в реальном применении отклонения в конструкции, данных и направлении развертывания с большой вероятностью приведут к возникновению новых форм дискриминации. Такая дискриминация часто не является открыто проявляемой враждебностью, а скрывается за «объективной» видимостью алгоритмического принятия решений, тем самым вызывая систематическую несправедливость по отношению к определенным конкретным группам. Понимание того, как происходит эта дискриминация, является первым шагом на пути к созданию более справедливых систем искусственного интеллекта.
Почему системы безопасности ИИ развивают алгоритмическую предвзятость
Предвзятость в системах безопасности ИИ обычно связана с исторической несправедливостью данных обучения. Например, если набор данных, используемый для обучения модели модерации контента, в основном поступает от определенного типа группы пользователей, он может быть неточным при оценке речи на основе другого культурного происхождения и языковых привычек. Модель непреднамеренно изучает и усиливает социальные предубеждения, присущие данным.
Процесс выбора признаков также может иметь возможность введения дискриминации. Индикаторы, выбранные разработчиками для определения «безопасности» или «риска», могут непреднамеренно быть связаны с такими чувствительными атрибутами, как раса, пол и регион. Как только эти предвзятые модели применяются в больших масштабах, их воздействие резко усиливается, нанося непропорциональный вред маргинализированным группам.
Как процесс сбора данных усугубляет дискриминацию в области безопасности
Видение системы безопасности ИИ напрямую определяется широтой и глубиной сбора данных. Если сбор данных чрезмерно сконцентрирован в определенных развитых регионах или основных сетевых платформах, то способность системы идентифицировать контент нишевых сообществ будет слабой. Возможности идентификации также слабы для контента из развивающихся стран. Распознавание контента на определенном диалекте также слабое. И этот пробел в данных сам по себе является формой дискриминации.
Еще более скрыто то, что процесс маркировки данных является субъективным. Культурное происхождение и ценности самих производителей этикеток окажут глубокое влияние на их стандарты определения «вредного контента». В одной культуре то, что считается содержанием интенсивных политических дискуссий, может быть названо опасной речью, которую необходимо фильтровать в другой культурной среде, что приведет к неравномерному применению правил алгоритмов.
Как закрепляются и усиливаются предвзятости в обучении моделей
На этапе обучения модели достижение целей оптимизации, таких как общая точность, часто предполагает жертвование интересами групп меньшинств. Корректировка модели для адаптации к нишевым случаям может снизить ее эффективность при работе с основными данными. Разработчики могут непреднамеренно выбрать версию модели, которая игнорирует потребности групп меньшинств, что приведет к закреплению предубеждений.
Если трансферное обучение применяется неправильно, оно также может привести к распространению дискриминации. Если вы возьмете языковую модель, предварительно обученную на большом корпусе общего назначения, и настроите ее непосредственно для конкретной задачи безопасности, она унаследует все социальные предвзятости в данных предварительного обучения. В отсутствие эффективных мер по устранению предубеждений эти предубеждения будут еще больше фокусироваться и усиливаться при выполнении новых задач.
Как различия в средах развертывания влияют на справедливость решений по безопасности
Одна и та же система безопасности искусственного интеллекта может иметь совершенно разное воздействие в разных социальных средах. Если система, обученная в регионах с более строгим контролем над речью, будет развернута в регионах с более мягкими и открытыми стандартами свободы слова, это может вызвать такие проблемы, как чрезмерная цензура. Такое развертывание по принципу «один размер подходит всем» игнорирует локальный контекст и, по сути, является формой технологической колонизации.
В физическом мире различия в развертывании в различных аспектах очень значительны. Системы наблюдения общественной безопасности, основанные на распознавании лиц, достаточно хорошо работают в городских районах с хорошими и достаточными условиями освещения. Однако в сообществах с плохими или даже недостаточными условиями освещения его точность, скорее всего, внезапно и быстро упадет, что приведет к увеличению количества ошибочных оценок. На первый взгляд это может показаться технической проблемой, но на самом деле она связана с неравной инфраструктурой, которая еще больше усугубляет несправедливое отношение технологий к конкретным сообществам.
Как обнаружить и оценить риск дискриминации в системах безопасности ИИ
Проверка дискриминации требует многоуровневой структуры оценки. В дополнение к традиционным показателям эффективности необходимо также включить показатели справедливости, такие как анализ соотношения различий в эффективности модели для различных демографических подгрупп. Это требует оценки репрезентативности и точной аннотации самого набора данных.
Крайне важно проводить состязательное тестирование и упражнения красной команды, а также активно создавать тестовые примеры, которые охватывают точки зрения маргинализированных групп, чтобы бросить вызов граничным условиям системы, например, имитация различных акцентов, использование нестандартной грамматики или включение контента, содержащего метафоры в культурно-специфических контекстах, а затем проверка того, будет ли система ошибочно отмечать их как угрозы, и предоставлять глобальные услуги по закупкам низковольтных интеллектуальных продуктов!
Какие технические средства могут смягчить алгоритмическую дискриминацию в сфере безопасности?
Он включает в себя технические средства смягчения последствий предварительной, промежуточной и постобработки. Цель предварительной обработки — очистить обучающие данные и сбалансировать набор данных путем повторной выборки или генерации синтетических данных. Промежуточная обработка вводит ограничения справедливости в процесс обучения и изменяет функцию потерь, чтобы наказать модели, которые производят разные ошибки для разных подгрупп.
Выход обученной модели будет скорректирован с помощью технологии постобработки. Например, для разных групп устанавливаются дифференцированные пороги принятия решений для достижения равных возможностей или статистического равенства. Однако эти технические средства следует использовать с осторожностью и сочетать с этической проверкой и участием множества заинтересованных сторон, чтобы не попасть в ловушку «технического решения».
Как правовые и этические рамки должны регулировать дискриминационную безопасность ИИ
Что касается систем безопасности ИИ, закон должен четко определить ответственных. Когда автоматизированное принятие решений причиняет личный вред, всегда должен быть четкий путь привлечения людей к ответственности. Законодательство требует обязательной оценки воздействия для систем безопасности ИИ с высоким уровнем риска, особенно тех, которые окажут влияние на социальное равенство, и результаты оценок должны быть представлены прозрачно.
Является ли абсолютно необходимым создание комитета по этике, который пересекает дисциплинарные границы и работает в мультикультурном контексте? В состав комитета должны входить эксперты в области технологий, ученые в области этики, ученые в области права, а также представители общественности, на которых может повлиять система. Их ответственность заключается в постоянном анализе конструкции и развертывания системы, чтобы гарантировать, что требования безопасности не наносят ущерба основным правам и справедливости.
Сталкивались ли вы когда-нибудь в своей работе или жизни с системами искусственного интеллекта, такими как фильтрация контента, кредитный рейтинг, проверка при приеме на работу и т. д., которые принимали решения, которые, по вашему мнению, были несправедливыми или предвзятыми? Считаете ли вы, что основной ответственной стороной за решение этой проблемы должны быть компании, предоставляющие техническую поддержку, законодатели, ответственные за формулирование правовых норм, или общественность, которая несет обязательства по эффективному надзору? Мы с нетерпением ждем, когда вы поделитесь своим опытом и уникальными идеями в области комментариев. Если эта статья вызвала у вас глубокие размышления, пожалуйста, поставьте ей лайк и перешлите ее.
Добавить комментарий