В декабре 2025 года Google перевел свой переводчик на модели Gemini, и теперь сервис оказался уязвим к атакам с помощью текстовых команд.
Первым этот способ обнаружил пользователь Tumblr. Оказалось, что если ввести текст на иностранном языке (например, китайском), а под ним добавить инструкцию на английском, то вместо перевода Google Translate начинает отвечать на вопросы.
Исследователь безопасности под ником Pliny the Liberator пошел дальше и продемонстрировал, что таким способом можно заставить переводчик генерировать потенциально опасный контент, включая инструкции по созданию наркотиков и вредоносного ПО.

Хотя точно неизвестно, какая именно версия Gemini используется в переводчике (сама система утверждает, что это Gemini 1.5 Pro), уязвимость указывает на серьезную проблему. Даже крупные технологические компании пока не могут надежно защитить языковые модели от манипуляций с помощью естественного языка — одного из главных вызовов в сфере безопасности ИИ.

Смотрите также
-
Ватикан запустил AI-переводчик месс на 60 языков
-
YouTube улучшает автоматический дубляж: новые языки и реалистичное звучание
-
TranslateGemma: новые открытые модели для машинного перевода от Google
-
OpenAI запустила новый переводчик на базе ChatGPT
-
Издательство HarperCollins заменяет переводчиков любовных романов на ИИ