Популярные темы

Многие модели искусственного интеллекта являются «черными ящиками», чья работа порой непонятна даже разработчику, — США

Дата: 02 мая 2023 в 18:34 Категория: Новости стран мира


Многие модели искусственного интеллекта являются «черными ящиками», чья работа порой непонятна даже разработчику, - США
Стоковые изображения от Depositphotos

Tazabek — Искусственный интеллект может способствовать дискриминации и нарушению законодательства. Об этом говорится в совместном заявлении 4 ведомств США: Бюро финансовой защиты прав потребителей, Отдела гражданских прав Министерства юстиции, Комиссии по равным возможностям трудоустройства и Федеральной торговой комиссии.

Как указано в заявлении, многие автоматизированные системы используют огромные объемы данных для поиска закономерностей или корреляций, а затем применяют эти закономерности к новым данным для выполнения задач или предоставления рекомендаций и прогнозов.

Отмечается, что несмотря на полезность таких инструментов, они также могут привести к результатам, которые приведут к незаконной дискриминации. Потенциальная дискриминация в автоматизированных системах может исходить из разных источников, включая проблемы с:

• Данными и наборами данных: результаты автоматизированной системы могут быть искажены из-за нерепрезентативных или несбалансированных наборов данных, наборов данных, включающих историческую погрешность, или наборов данных, содержащих другие типы ошибок;

• Непрозрачностью модели и доступом: многие автоматизированные системы представляют собой «черные ящики», внутренняя работа которых непонятна большинству людей, а в некоторых случаях даже разработчику инструмента. Из-за отсутствия прозрачности разработчикам, предприятиям и частным лицам становится еще труднее узнать, является ли автоматизированная система справедливой;

• Дизайном и использованием: разработчики не всегда понимают или учитывают контекст, в котором частные или государственные организации будут использовать свои автоматизированные системы. Разработчики могут проектировать систему на основе ошибочных предположений о ее пользователях, соответствующем контексте или лежащих в ее основе практиках или процедурах, которые она может заменить.

Tazabek обратился с запросом к ChatGPT-4, который прокомментировал озвученные риски.

«Вот мой комментарий по каждому из трех указанных рисков:

1. Данные и наборы данных: Автоматизированные системы зависят от данных для обучения и принятия решений. Если наборы данных нерепрезентативны, несбалансированы или содержат исторические ошибки, это может сказаться на результатах, которые выдает система. Важно, чтобы разработчики обращали внимание на качество и состав данных, чтобы минимизировать возможную дискриминацию и другие проблемы.

2. Непрозрачность модели и доступ: Многие автоматизированные системы, особенно те, которые используют глубокое обучение, могут быть сложными и непонятными для большинства людей. Это делает сложным определение, как система принимает решения и насколько она справедлива. Прозрачность и интерпретируемость являются важными аспектами разработки искусственного интеллекта, и стремление к ним поможет предотвратить непреднамеренные последствия.

3. Дизайн и использование: Разработчики искусственного интеллекта могут недооценивать контекст, в котором их системы будут использоваться. Это может привести к ошибкам, если автоматизированные системы проектируются на основе неверных предположений о пользователях или практиках, которые они заменяют. Чтобы уменьшить такие риски, важно тесное взаимодействие между разработчиками, пользователями и стейкхолдерами.

В целом, важно, чтобы государственные органы и разработчики искусственного интеллекта работали вместе для создания ответственных и справедливых систем. Это может включать в себя мониторинг и регулирование использования искусственного интеллекта, обеспечение прозрачности и разработку систем с учетом этических и правовых норм», — ответил ChatGPT-4.

За последними событиями следите через наш Твиттер @tazabek

По сообщению сайта Tazabek

Тэги новости: Новости стран мира
Поделитесь новостью с друзьями