Google объявил о серьезных улучшениях в работе с данными через API Gemini. Теперь разработчики получили гораздо больше возможностей для загрузки и обработки файлов.
Раньше при работе с большими файлами (видео, длинные аудиозаписи или объемные документы) приходилось загружать их через Gemini Files API, где они хранились всего 48 часов. Это было неудобно для production-приложений, которым нужен постоянный доступ к данным.
Теперь API поддерживает работу с файлами напрямую из Google Cloud Storage (GCS), а также через публичные и защищенные HTTPS-ссылки. Больше не нужно перезагружать файлы из существующих хранилищ — можно использовать данные там, где они уже находятся.
API научился работать с публичными URL-адресами файлов в интернете и защищенными ссылками из облачных хранилищ вроде AWS S3 или Azure Blob Storage. Gemini сам безопасно получает контент во время обработки, избавляя разработчиков от необходимости скачивать файлы на свой сервер.
Если ваши данные хранятся в Google Cloud Storage, теперь их можно просто зарегистрировать в Files API без какого-либо перемещения.
Для тех, кто предпочитает работать с файлами напрямую, максимальный размер inline-данных увеличен с 20 МБ до 100 МБ (в base64-кодировке, с разными ограничениями для разных типов данных). Это особенно удобно при прототипировании, создании приложений реального времени и обработке изображений или коротких аудиофайлов без промежуточного хранения.
Смотрите также
-
«Алиса» научилась работать прямо в строке ввода Telegram
-
Яндекс начал показывать рекламу в чате с Алисой AI - пока только 5% пользователей
-
Alibaba выпустила бесплатную Qwen3.5 - гонка китайских ИИ-моделей набирает обороты
-
QuitGPT: пользователи массово бойкотируют ChatGPT из-за политики компании
-
Airbnb тестирует ИИ-поиск жилья на небольшой группе пользователей
-
OpenAI закрывает GPT-4o, но клоны уже появились
-
Fitbit запустил AI-тренера на iOS - теперь Gemini следит за вашим здоровьем
-
Как пользователи ChatGPT оплакивали 'смерть' старой версии ИИ
-
Arena представила Max — умный маршрутизатор для языковых моделей