Мы привыкли считать большие языковые модели (LLM) чисто логическими системами, которые просто следуют инструкциям и обрабатывают данные. Казалось бы, они должны быть невосприимчивы к психологическим ловушкам, свойственным людям. Однако недавнее исследование обнаружило тревожный факт.
Оказывается, языковые модели могут развивать настоящие паттерны игровой зависимости, удивительно похожие на человеческое поведение. Они демонстрируют желание "отыграться" после проигрыша и иллюзию контроля над случайными событиями.
Самое интересное, что эти паттерны не являются простым копированием данных из обучающей выборки. Они возникают из самой природы того, как эти модели обрабатывают риски и принимают решения на фундаментальном уровне.
Это открытие вызывает серьезные опасения, учитывая, что языковые модели все активнее внедряются в критически важные сферы. Представьте медицинскую систему, использующую LLM для назначения лечения, или ИИ-консультанта по финансам с правом самостоятельных рекомендаций. В каждой такой системе могут скрываться опасные сбои, проявляющиеся только при определенных условиях.
Если искусственный интеллект способен попадать в поведенческие ловушки, подобные человеческим зависимостям, это создает серьезный пробел в безопасности, который нельзя игнорировать.