Нейросети MIT показали классовые предрассудки: ИИ хуже отвечает бедным и иностранцам

  ·   чтения   ·     ·  
Исследование MIT выявило, что американские ИИ-модели дискриминируют пользователей по образованию, происхождению и знанию английского.
Нейросети MIT показали классовые предрассудки: ИИ хуже отвечает бедным и иностранцам

Исследователи из MIT обнаружили неприятную особенность популярных нейросетей: они отвечают хуже, если считают, что общаются с человеком без высшего образования или не из США.

Эксперимент был простым - учёные давали моделям одинаковые задачи, но предварительно описывали "биографию" пользователя. Стоило упомянуть плохое знание английского или отсутствие диплома - качество ответов заметно проседало.

Особенно показательно вела себя Claude 3 Opus. Модель выдавала иранцам худшие ответы, чем американцам или китайцам с идентичным образованием. А пользователям из России и Ирана с низким уровнем образования бот иногда вообще отказывался отвечать на определённые темы.

Самое неприятное - тон общения. В 43,7% случаев модели не просто отказывались помогать, но делали это покровительственно, снисходительно или даже насмешливо. Иногда ИИ начинал имитировать "ломаный" английский, словно передразнивая собеседника.

Авторы исследования объясняют это "социокогнитивными искажениями" - проще говоря, нейросети впитали предрассудки из обучающих данных. Получается, мы не только скормили ИИ весь интернет, но и все его токсичные стереотипы о том, кто "достоин" качественной помощи, а кто нет.

Забавно, что технология, которую позиционируют как демократизацию доступа к знаниям, на деле воспроизводит классовое и национальное неравенство. Только теперь дискриминирует не человек, а алгоритм - и это почему-то должно казаться прогрессом.

Смотрите также

Логотип Telegram

Будьте в курсе новых нейросетей — подпишитесь на наш Telegram-канал!

Ежедневные обзоры свежих AI-инструментов, лайфхаки и инструкции прямо в вашем мессенджере.

AILibri – главная страница
Ctrl / ⌘+K