Apple приняла важное стратегическое решение — использовать технологию искусственного интеллекта Google Gemini для обновления своего голосового ассистента Siri и других AI-функций.
Компания заключила многолетнее соглашение с Google, которое обойдется более чем в миллиард долларов ежегодно. По словам представителей Apple, после тщательного анализа технология Google показала себя как наиболее подходящая основа для их приложений.
Такое решение во многом связано с текущими проблемами Siri. Внутренние отчеты показывают, что голосовой помощник Apple представляет собой фрагментированную систему, где старые правила-based компоненты смешаны с новыми генеративными моделями. Эта особенность сильно затрудняет обновления и часто приводит к ошибкам.
Первые слухи о переговорах между технологическими гигантами появились еще в марте прошлого года. Ожидается, что новые функции, построенные на базе Gemini, станут доступны пользователям уже в этом году.
При этом Apple не оставляет планов по разработке собственных технологий. Компания работает над новой архитектурой языковой модели с примерно триллионом параметров, стремясь в будущем отказаться от внешних поставщиков AI-решений.
Смотрите также
-
«Алиса» научилась работать прямо в строке ввода Telegram
-
Яндекс начал показывать рекламу в чате с Алисой AI - пока только 5% пользователей
-
OpenAI переманила создателя OpenClaw - ИИ-агента с 2 млн пользователей в неделю
-
Manus запустила AI-агентов в Telegram - и это странно, учитывая, что компанию купила Meta
-
ИИ-помощник удалил 15 лет семейных фото, пытаясь «навести порядок» на компьютере
-
Alibaba выпустила бесплатную Qwen3.5 - гонка китайских ИИ-моделей набирает обороты
-
Оркестрация ИИ: что это, как работает и почему меняет подход к автоматизации в 2026 году
-
Военные США используют Claude от Anthropic - коммерческий ИИ приходит в нацбезопасность
-
Anthropic готовит обновления для Claude: slash-команды, SSH-туннели и новый Sonnet на подходе