Apple Intelligence уже работает на сотнях миллионов устройств - автоматически сокращает уведомления, сообщения и письма. Звучит удобно, правда? Только вот независимая организация AI Forensics решила проверить, насколько хорошо это работает на практике.
Исследователи проанализировали больше 10 тысяч таких AI-сгенерированных саммари. И обнаружили неприятную закономерность: система систематически встраивает в тексты предвзятые суждения и стереотипы.
Получается, что миллионы людей каждый день получают не просто сокращенные версии своих сообщений, а искаженные интерпретации с "вшитыми" предрассудками. Причем происходит это автоматически, без какого-либо запроса со стороны пользователя.

Очередное напоминание, что ИИ-помощники - это не нейтральные инструменты. Они отражают те паттерны, на которых обучались. И когда такая технология разворачивается на сотнях миллионов устройств одновременно, масштаб потенциального влияния становится довольно серьезным.
Интересно, как Apple отреагирует на эти выводы. Пока что функция продолжает работать в штатном режиме на всех совместимых устройствах.
Смотрите также
-
Microsoft запустила Copilot Health — ИИ-помощника для анализа медицинских данных
-
Perplexity запустила Personal Computer - ИИ-ассистента, который живёт на вашем Mac mini
-
Google добавил в карты поиск на естественном языке через Gemini AI
-
YouTube тестирует AI-помощника для просмотра видео на телевизоре
-
Google добавила Gemini во все приложения Workspace - теперь ИИ роется в ваших письмах
-
Meta купила соцсеть, где постят только ИИ-агенты. Зачем?
-
Microsoft Copilot Cowork: ИИ-помощник, который наконец-то что-то делает сам
-
Roblox заменил решётки на AI-перефразировщик: теперь мат исправляют на лету
-
OpenAI отложила запуск «режима для взрослых» в ChatGPT