MiniMax M2.7 помогал разрабатывать сам себя

  ·   чтения   ·     ·  
Китайская компания MiniMax выпустила модель M2.7, которая участвовала в собственном обучении - обновляла знания, улучшала reward-тренинг и закрывала 30-50% рабочего процесса.
MiniMax M2.7 помогал разрабатывать сам себя

Китайская компания MiniMax выпустила модель M2.7 с довольно необычной особенностью: по заявлению разработчиков, она активно участвовала в собственном создании. Не метафорически, а буквально - через автономные циклы оптимизации модель улучшала собственный процесс обучения.

В ходе разработки M2.7 самостоятельно обновляла базы знаний, выстраивала десятки новых возможностей внутри агентной инфраструктуры и дорабатывала reward-тренинг без участия людей. Полученные результаты тут же шли в дело - для уточнения собственного процесса обучения. MiniMax называет M2.7 «первой моделью, глубоко участвующей в собственной эволюции», и обещает, что в будущем ИИ будет координировать весь цикл - от сбора данных до оценки - без вмешательства человека.

Как это работает на практике

Внутри компании M2.7 уже встроена в рабочие процессы команды по обучению с подкреплением. Модель занимается поиском литературы, отслеживанием экспериментов, отладкой кода и анализом метрик - люди подключаются только при критических решениях. По данным MiniMax, модель закрывает от 30 до 50% всего рабочего процесса.

В одном из экспериментов M2.7 больше 100 раундов подряд самостоятельно оптимизировала производительность другой модели: анализировала ошибки, планировала изменения, тестировала их и решала - оставить или откатить. Итог - прирост в 30% на внутренних тестах.

MiniMax не одиноки в этом направлении. OpenAI тоже сообщала, что ранние версии Codex помогали находить баги во время обучения. Теоретическую базу для самосовершенствующегося ИИ ещё в 2003 году заложил Юрген Шмидхубер с концепцией «Машины Гёделя» - и вот идея начинает обретать практическое воплощение.

Бенчмарки и реальные задачи

По результатам тестов M2.7 держится рядом с ведущими западными моделями. На SWE-Pro - 56.22%, сопоставимо с GPT-5.3-Codex. На MLE Bench Lite средний показатель медалей составил 66.6% - уступает Claude Opus 4.6 (75.7%) и GPT-5.4 (71.2%), но примерно на уровне Gemini 3.1.

В качестве практического примера MiniMax описывает финансовый анализ TSMC: модель самостоятельно прочитала годовые отчёты, построила модель прогноза продаж и оформила результаты в презентацию. Финансовые аналитики оценили результат как готовый черновик.

Бенчмарки - это всегда лишь ориентир, и не стоит относиться к ним как к истине в последней инстанции. Но тенденция интересная: ИИ-модели постепенно начинают участвовать в собственном развитии, и это уже не просто теория.

Смотрите также

Логотип Telegram

Будьте в курсе новых нейросетей — подпишитесь на наш Telegram-канал!

Ежедневные обзоры свежих AI-инструментов, лайфхаки и инструкции прямо в вашем мессенджере.

AILibri – главная страница
Ctrl / ⌘+K