Пользователи Blossom обсуждают свежие сообщения о том, что военные США задействовали Claude от Anthropic в какой-то операции, связанной с Венесуэлой.
Детали пока туманны, но даже если ИИ просто анализировал данные или помогал с разведкой, сам факт показателен. Коммерческие языковые модели, которые вчера помогали писать письма и код, сегодня уже работают на нацбезопасность.
Честно говоря, это было вопросом времени. Когда у тебя есть инструмент, способный обрабатывать огромные массивы информации и находить закономерности, странно было бы не использовать его в разведке. Вопрос только в том, насколько глубоко эта интеграция зайдет.

По мере роста возможностей генеративного ИИ его применение в военной и разведывательной сферах будет только расширяться. Что, впрочем, поднимает целый ворох этических вопросов - от прозрачности использования до контроля над такими системами.
Anthropic позиционирует себя как компанию, заботящуюся о безопасности ИИ. Интересно, как они комментируют военное применение своей модели. Или это уже заложено в бизнес-модель?
Смотрите также
-
Qualcomm и Arduino показали мощный конкурент Raspberry Pi с автономным ИИ
-
Microsoft запустила Copilot Health — ИИ-помощника для анализа медицинских данных
-
Perplexity запустила Personal Computer - ИИ-ассистента, который живёт на вашем Mac mini
-
YouTube тестирует AI-помощника для просмотра видео на телевизоре
-
Microsoft 365 получает премиум-подписку E7 с ИИ-агентами за $99 в месяц
-
Meta купила соцсеть, где постят только ИИ-агенты. Зачем?
-
Nvidia готовит NemoClaw - платформу для корпоративных AI-агентов
-
Cursor запустил AI-агентов, которые работают круглосуточно и убирают рутину разработчиков
-
Roblox заменил решётки на AI-перефразировщик: теперь мат исправляют на лету