Tazabek — Искусственный интеллект может способствовать дискриминации и нарушению законодательства. Об этом говорится в совместном заявлении 4 ведомств США: Бюро финансовой защиты прав потребителей, Отдела гражданских прав Министерства юстиции, Комиссии по равным возможностям трудоустройства и Федеральной торговой комиссии.
Как указано в заявлении, многие автоматизированные системы используют огромные объемы данных для поиска закономерностей или корреляций, а затем применяют эти закономерности к новым данным для выполнения задач или предоставления рекомендаций и прогнозов.
Отмечается, что несмотря на полезность таких инструментов, они также могут привести к результатам, которые приведут к незаконной дискриминации. Потенциальная дискриминация в автоматизированных системах может исходить из разных источников, включая проблемы с:
• Данными и наборами данных: результаты автоматизированной системы могут быть искажены из-за нерепрезентативных или несбалансированных наборов данных, наборов данных, включающих историческую погрешность, или наборов данных, содержащих другие типы ошибок;
• Непрозрачностью модели и доступом: многие автоматизированные системы представляют собой «черные ящики», внутренняя работа которых непонятна большинству людей, а в некоторых случаях даже разработчику инструмента. Из-за отсутствия прозрачности разработчикам, предприятиям и частным лицам становится еще труднее узнать, является ли автоматизированная система справедливой;
• Дизайном и использованием: разработчики не всегда понимают или учитывают контекст, в котором частные или государственные организации будут использовать свои автоматизированные системы. Разработчики могут проектировать систему на основе ошибочных предположений о ее пользователях, соответствующем контексте или лежащих в ее основе практиках или процедурах, которые она может заменить.
Tazabek обратился с запросом к ChatGPT-4, который прокомментировал озвученные риски.
«Вот мой комментарий по каждому из трех указанных рисков:
1. Данные и наборы данных: Автоматизированные системы зависят от данных для обучения и принятия решений. Если наборы данных нерепрезентативны, несбалансированы или содержат исторические ошибки, это может сказаться на результатах, которые выдает система. Важно, чтобы разработчики обращали внимание на качество и состав данных, чтобы минимизировать возможную дискриминацию и другие проблемы.
2. Непрозрачность модели и доступ: Многие автоматизированные системы, особенно те, которые используют глубокое обучение, могут быть сложными и непонятными для большинства людей. Это делает сложным определение, как система принимает решения и насколько она справедлива. Прозрачность и интерпретируемость являются важными аспектами разработки искусственного интеллекта, и стремление к ним поможет предотвратить непреднамеренные последствия.
3. Дизайн и использование: Разработчики искусственного интеллекта могут недооценивать контекст, в котором их системы будут использоваться. Это может привести к ошибкам, если автоматизированные системы проектируются на основе неверных предположений о пользователях или практиках, которые они заменяют. Чтобы уменьшить такие риски, важно тесное взаимодействие между разработчиками, пользователями и стейкхолдерами.
В целом, важно, чтобы государственные органы и разработчики искусственного интеллекта работали вместе для создания ответственных и справедливых систем. Это может включать в себя мониторинг и регулирование использования искусственного интеллекта, обеспечение прозрачности и разработку систем с учетом этических и правовых норм», — ответил ChatGPT-4.
За последними событиями следите через наш Твиттер @tazabek
По сообщению сайта Tazabek