Почему у ИИ нет единого «я» и почему это нормально

  ·   чтения   ·     ·  
Исследователь из Anthropic объясняет, почему не стоит ожидать от языковых моделей внутренней согласованности, как у людей
Почему у ИИ нет единого «я» и почему это нормально

Мы часто ожидаем от искусственного интеллекта последовательности и логичности в ответах, как от человека. Однако исследователь компании Anthropic Джош Батсон предлагает взглянуть на это иначе.

Он приводит интересное сравнение: «Представьте, что вы читаете книгу. На странице 5 написано, что лучшая еда — это пицца, а на странице 17 — паста. И вы спрашиваете: что же книга на самом деле думает? Но ведь это просто книга!»

Исследования Anthropic показали любопытный факт: их ИИ-ассистент Claude использует разные внутренние механизмы для разных задач. Например, один механизм отвечает за знание о том, что бананы желтые, а совершенно другой — за подтверждение истинности утверждения «бананы желтые». И эти механизмы никак не связаны между собой.

Когда модель дает противоречивые ответы, она просто обращается к разным своим частям, и нет никакого «центрального координатора». Батсон образно описывает это так: «Будто вы разговариваете с Claude, а он вдруг уходит, и теперь вы общаетесь уже с чем-то другим».

Главный вывод: попытка приписать языковым моделям человеческую целостность мышления — это принципиальная ошибка. ИИ работает совсем иначе, и это нормально.

Смотрите также

Логотип Telegram

Будьте в курсе новых нейросетей — подпишитесь на наш Telegram-канал!

Ежедневные обзоры свежих AI-инструментов, лайфхаки и инструкции прямо в вашем мессенджере.

AILibri – главная страница
Ctrl / ⌘+K