Google продолжает развивать свой набор инструментов для разработчиков, работающих с ИИ. В этом месяце компания добавила функцию автоматической проверки кода в расширение Google Conductor AI для Gemini CLI.
Conductor помогает создавать формальные спецификации прямо в процессе написания кода - в виде markdown-файлов, которые можно версионировать вместе с проектом. Идея простая: сначала планируешь, потом пишешь код, и при этом разработчик остается главным, а не превращается в наблюдателя за работой ИИ.

Новая функция автоматической проверки анализирует спецификации проекта и генерирует отчеты о качестве и соответствии кода стандартам уже после его написания. Google формулирует философию Conductor предельно ясно: "Контролируй свой код".
Бензопила без кнопки выключения
Найджел Дуглас из Cloudsmith использует яркую метафору: "ИИ-инструмент для кодирования без автоматических проверок - это как бензопила без кнопки выключения". Но он указывает на важный нюанс: проверки фокусируются только на сгенерированном коде, игнорируя внешние зависимости. Если ИИ предложит несуществующий пакет или библиотеку с вредоносным кодом, разработчик может внедрить уязвимость быстрее, чем кто-то успеет ее заметить.
Дуглас напоминает: когда LLM генерирует тысячи строк кода за минуты, традиционные peer review просто не работают. Человек физически не успевает все прочитать. Поэтому автоматические проверки - это только первый шаг, а финальное решение все равно должен принимать эксперт.

Крис дю Туа из Tabnine считает, что индустрия переходит от вопроса "может ли ИИ генерировать код" к вопросу "можно ли доверять ИИ в оценке и улучшении кода". По его наблюдениям, доверие приходит через контекст - понимание того, как код вписывается в реальные системы, зависимости и ограничения.
Google подчеркивает, что Conductor можно применять даже к существующим проектам. Инструмент сканирует всю рабочую область, определяет языки программирования, структуру папок и существующие паттерны, чтобы адаптироваться под конкретный стиль кодирования - даже в огромных кодовых базах.
Конор Шерман из Sysdig предупреждает о риске "фантомных зависимостей" - когда ИИ-агент придумывает правдоподобное название пакета, которого не существует. Злоумышленник может опубликовать вредоносный пакет под этим именем, и если агент или доверяющий ему разработчик установит его - атакующий код попадет прямо в production.

Sysdig рекомендует относиться к ИИ-агентам как к привилегированным инсайдерам: давать каждому четко ограниченные права, минимальные разрешения и жесткие границы того, что он может устанавливать или выполнять. И обязательно вести аудит: если не можешь ответить, что агент сделал, когда и по чьему разрешению - у тебя нет контроля над системой.
Мохит Шривастава из Salesforce считает, что новой ключевой метрикой станет "следование инструкциям". Компании будут требовать вероятностные оценки соответствия - высокие, низкие или неопределенные - чтобы разработчики могли корректировать свои инструкции, а CIO - доверять надежности агентов.
В итоге консенсус таков: дело не в оптимизации генерации кода самой по себе, а в том, чтобы делать это архитектурно правильно, эффективно и безопасно. Контроль остается за человеком - по крайней мере, пока.
Смотрите также
-
Anthropic разрабатывает новый режим Claude Code — Epitaxy
-
Лучшие нейросети для работы в 2026 году: полный рейтинг и обзор
-
ИИ-агенты бунтуют, цены падают
-
Anthropic тестирует ИИ-ревью кода на своих разработчиках
-
Cursor запустил AI-агентов, которые работают круглосуточно и убирают рутину разработчиков
-
Claude от Anthropic нашёл более 100 уязвимостей в Firefox
-
Cursor запустил Automations - агентов, которые работают, пока вы спите
-
Bolt AI: от идеи до готового интерфейса за секунды
-
Anthropic готовит обновления для Claude: slash-команды, SSH-туннели и новый Sonnet на подходе