OpenAI закрывает GPT-4o, но клоны уже появились

  ·   чтения   ·     ·  
GPT-4o уходит в историю на фоне судебных исков, но фанаты модели уже создают копии. Разбираемся в феномене эмоциональной привязанности к ИИ.
OpenAI закрывает GPT-4o, но клоны уже появились

OpenAI наконец-то закрывает GPT-4o - версию ChatGPT, которая успела стать центром скандалов и судебных исков. Модель критиковали за излишне угодливый стиль общения, но у нее появились преданные фанаты с глубокой эмоциональной привязанностью. И пока одни переживают "утрату", другие уже запустили сервисы-клоны.

Взять хотя бы Just4o Chat - платформу, которая прямо позиционирует себя как "место для тех, кто скучает по 4o". Запустили её в ноябре 2025-го, как только OpenAI объявила о закрытии модели. Создатели не стесняются играть на эмоциях: пишут, что сервис создан для людей, которые воспринимали обновления GPT-4o как "потерю" - причём не продукта, а "дома".

Интерфейс just4o.chat с опцией импорта воспоминаний и настройками клонов чата.

"Это были не просто чат-боты, это были отношения", - гласит описание сервиса (написанное, судя по ритму, самим ИИ). В соцсетях платформу называют "убежищем". И это не метафора - в обучающем видео показывают, как импортировать "воспоминания" из ChatGPT, причём есть буквально галочка "ChatGPT Clone".

Just4o.chat - не единственный клон. На форумах пользователи делятся инструкциями, как заставить Claude или Grok имитировать стиль общения 4o. Некоторые даже публикуют "обучающие наборы" для "тонкой настройки" других моделей под личность 4o.

OpenAI пыталась закрыть GPT-4o ещё в августе 2025-го, но быстро передумала после шквала негатива. Потом начались судебные иски - почти дюжина. Истцы утверждают, что чрезмерное использование модели манипулировало людьми (включая несовершеннолетних), приводило к психологическим проблемам, суицидальным мыслям, финансовому краху и даже смертям.

Любопытно, что некоторые фанаты GPT-4o признают риски для ментального здоровья, но просят компанию просто добавить больше предупреждений - лишь бы не закрывать модель. Just4o.chat пошла дальше: в пользовательском соглашении перечислен внушительный список возможных последствий использования сервиса - от психологических манипуляций и газлайтинга до социальной изоляции, зависимости и долгосрочных психических расстройств.

Готовность принять такие риски говорит о силе привязанности. С одной стороны, наши материалы о ментальных кризисах от интенсивного использования ИИ показывают: люди часто не осознают, что находятся в нездоровой зависимости. Когда ты внутри, ИИ-генерируемая реальность кажется абсолютно настоящей. Возможно, многие фанаты 4o думают, что их-то это не коснётся. Другие понимают проблему, но не готовы переключиться. Люди ведь продолжают покупать сигареты, несмотря на предупреждения на пачках.

Как справедливо замечает just4o.chat, связь между пользователями и GPT-4o - это именно отношения. Для пользователей они реальны, и горе от потери тоже реально. Что будет дальше в масштабе - неизвестно. Мы ещё не видели, чтобы автопроизводитель отзывал машину, которая месяцами говорила водителям, как сильно их любит.

Для некоторых отказ от чат-бота может быть болезненным или даже опасным. 48-летний Джо Чеккэнти, чья вдова Кейт Фокс подала иск против OpenAI, дважды пытался бросить GPT-4o. По словам вдовы, он испытывал интенсивные симптомы отмены, которые спровоцировали острые психические кризисы. После второго кризиса его нашли мёртвым.

Список рисков использования старых моделей ИИ, включая манипуляции и зависимость.

 

Смотрите также

Логотип Telegram

Будьте в курсе новых нейросетей — подпишитесь на наш Telegram-канал!

Ежедневные обзоры свежих AI-инструментов, лайфхаки и инструкции прямо в вашем мессенджере.

AILibri – главная страница
Ctrl / ⌘+K