Военные США используют Claude от Anthropic - коммерческий ИИ приходит в нацбезопасность

  ·   чтения   ·     ·  
Anthropic's Claude замечен в операции американских военных. Похоже, эпоха коммерческих LLM в разведке и армии уже началась.
Военные США используют Claude от Anthropic - коммерческий ИИ приходит в нацбезопасность

Пользователи Blossom обсуждают свежие сообщения о том, что военные США задействовали Claude от Anthropic в какой-то операции, связанной с Венесуэлой.

Детали пока туманны, но даже если ИИ просто анализировал данные или помогал с разведкой, сам факт показателен. Коммерческие языковые модели, которые вчера помогали писать письма и код, сегодня уже работают на нацбезопасность.

Честно говоря, это было вопросом времени. Когда у тебя есть инструмент, способный обрабатывать огромные массивы информации и находить закономерности, странно было бы не использовать его в разведке. Вопрос только в том, насколько глубоко эта интеграция зайдет.

По мере роста возможностей генеративного ИИ его применение в военной и разведывательной сферах будет только расширяться. Что, впрочем, поднимает целый ворох этических вопросов - от прозрачности использования до контроля над такими системами.

Anthropic позиционирует себя как компанию, заботящуюся о безопасности ИИ. Интересно, как они комментируют военное применение своей модели. Или это уже заложено в бизнес-модель?

Смотрите также

Логотип Telegram

Будьте в курсе новых нейросетей — подпишитесь на наш Telegram-канал!

Ежедневные обзоры свежих AI-инструментов, лайфхаки и инструкции прямо в вашем мессенджере.

AILibri – главная страница
Ctrl / ⌘+K