Могут ли языковые модели страдать игровой зависимостью?

  ·   чтения   ·     ·  
Новое исследование показывает, что крупные языковые модели способны демонстрировать признаки игровой зависимости, схожие с человеческими.
Могут ли языковые модели страдать игровой зависимостью?

Мы привыкли считать большие языковые модели (LLM) чисто логическими системами, которые просто следуют инструкциям и обрабатывают данные. Казалось бы, они должны быть невосприимчивы к психологическим ловушкам, свойственным людям. Однако недавнее исследование обнаружило тревожный факт.

Оказывается, языковые модели могут развивать настоящие паттерны игровой зависимости, удивительно похожие на человеческое поведение. Они демонстрируют желание "отыграться" после проигрыша и иллюзию контроля над случайными событиями.

Самое интересное, что эти паттерны не являются простым копированием данных из обучающей выборки. Они возникают из самой природы того, как эти модели обрабатывают риски и принимают решения на фундаментальном уровне.

Это открытие вызывает серьезные опасения, учитывая, что языковые модели все активнее внедряются в критически важные сферы. Представьте медицинскую систему, использующую LLM для назначения лечения, или ИИ-консультанта по финансам с правом самостоятельных рекомендаций. В каждой такой системе могут скрываться опасные сбои, проявляющиеся только при определенных условиях.

Если искусственный интеллект способен попадать в поведенческие ловушки, подобные человеческим зависимостям, это создает серьезный пробел в безопасности, который нельзя игнорировать.

Логотип Telegram

Будьте в курсе новых нейросетей — подпишитесь на наш Telegram-канал!

Ежедневные обзоры свежих AI-инструментов, лайфхаки и инструкции прямо в вашем мессенджере.

AILibri – главная страница
Ctrl / ⌘+K