Мы часто ожидаем от искусственного интеллекта последовательности и логичности в ответах, как от человека. Однако исследователь компании Anthropic Джош Батсон предлагает взглянуть на это иначе.
Он приводит интересное сравнение: «Представьте, что вы читаете книгу. На странице 5 написано, что лучшая еда — это пицца, а на странице 17 — паста. И вы спрашиваете: что же книга на самом деле думает? Но ведь это просто книга!»
Исследования Anthropic показали любопытный факт: их ИИ-ассистент Claude использует разные внутренние механизмы для разных задач. Например, один механизм отвечает за знание о том, что бананы желтые, а совершенно другой — за подтверждение истинности утверждения «бананы желтые». И эти механизмы никак не связаны между собой.
Когда модель дает противоречивые ответы, она просто обращается к разным своим частям, и нет никакого «центрального координатора». Батсон образно описывает это так: «Будто вы разговариваете с Claude, а он вдруг уходит, и теперь вы общаетесь уже с чем-то другим».
Главный вывод: попытка приписать языковым моделям человеческую целостность мышления — это принципиальная ошибка. ИИ работает совсем иначе, и это нормально.
Смотрите также
-
YouTube тестирует AI-помощника для просмотра видео на телевизоре
-
Meta купила соцсеть, где постят только ИИ-агенты. Зачем?
-
Roblox заменил решётки на AI-перефразировщик: теперь мат исправляют на лету
-
OpenAI отложила запуск «режима для взрослых» в ChatGPT
-
OpenAI выпустила GPT-5.4 через день после предыдущей версии
-
OpenAI выкатила GPT-5.3 Instant - модель стала меньше отказывать и морализировать
-
Google выпустил Gemini 3.1 Flash-Lite - быстрый и дешёвый ИИ для массовых задач
-
Meta тестирует AI-шопинг в своем чатботе - конкурент ChatGPT и Gemini
-
Умные очки Meta показывают модераторам в Кении интимные видео европейцев