Нейросеть Claude помогла Пентагону украсть Мадуро

0

Американские военные впервые использовали алгоритмы Anthropic в ходе спецоперации по смене режима, несмотря на этический запрет компании на насилие.

Операция по захвату Николаса Мадуро в начале января 2026 года, которую мировые СМИ уже окрестили «самым дерзким рейдом десятилетия», имела скрытого, но ключевого участника. Пока элитные подразделения США отрабатывали тактическую часть в Каракасе, стратегическим мозгом операции, обрабатывающим терабайты разведывательных данных в реальном времени, выступала нейросеть Claude от компании Anthropic. Об этом в пятницу сообщила The Wall Street Journal со ссылкой на источники в Пентагоне, вскрыв неудобную правду для Кремниевой долины: технологии, создававшиеся под лозунгами «безопасности и этики», теперь напрямую участвуют в кинетических военных действиях.

До сих пор участие искусственного интеллекта в военных конфликтах ограничивалось анализом логистики или управлением роями дронов, однако кейс с Мадуро выводит ситуацию на принципиально иной уровень. Согласно полученным данным, Claude не просто структурировала информацию, а выступала аналитическим ядром операции через платформу компании Palantir Technologies. Интеграция происходила в сверхсекретном контуре IL6 (Impact Level 6) — защищенной среде Пентагона, предназначенной для работы с данными уровня National Security Systems. Именно способность Claude мгновенно находить неочевидные связи в массивах перехваченных сообщений, спутниковых снимках и финансовых транзакциях позволила американскому командованию с точностью до минут предсказать перемещения венесуэльского лидера.

Пикантность ситуации придает тот факт, что Anthropic позиционирует себя как главный оплот «этичного ИИ». В основе их продуктов лежит так называемая «Конституция ИИ» (Constitutional AI) — набор жестких правил, запрещающих модели помогать в осуществлении насилия, разработке оружия или проведении кибератак. Использование Claude для планирования рейда, который привел к смене власти в суверенном государстве и, вероятно, сопровождался боестолкновениями, прямо противоречит декларируемым ценностям компании. Однако, как отмечают аналитики отрасли, в условиях реальной геополитики корпоративные манифесты отходят на второй план, когда речь идет о контрактах с оборонным ведомством.

Партнерство Anthropic и Palantir, о котором стало известно еще в конце 2024 года, стало тем самым «черным ходом», через который гражданские технологии попали в военные штабы. Palantir, давний подрядчик ЦРУ и Минобороны США, предоставил инфраструктуру, а Anthropic — «интеллект». Для Пентагона это решение стало выходом из тупика: военным требовались самые мощные языковые модели (LLM) для анализа оперативной обстановки, но большинство публичных версий имели слишком много ограничений. По данным Reuters, военное ведомство последние месяцы оказывало беспрецедентное давление на техногигантов, требуя предоставить версии моделей без «гражданских фильтров» для использования в закрытых сетях.

Финансовая сторона вопроса объясняет сговорчивость разработчиков. Anthropic, чья оценка в ходе последнего раунда финансирования достигла астрономических 380 миллиардов долларов, ведет жесткую конкурентную борьбу с OpenAI. Последняя также активно осваивает оборонные бюджеты, недавно подписав соглашение об использовании ChatGPT в несекретных сетях Пентагона. В этой гонке за триллионным рынком оборонзаказа «пацифизм» становится непозволительной роскошью. Источники утверждают, что хотя руководство Anthropic и выражало обеспокоенность возможным использованием их софта для «летальных операций», юридическая конструкция контракта через посредника в лице Palantir позволила компании формально сохранить лицо, фактически предоставив свои алгоритмы для нужд спецназа.

Эксперты указывают, что венесуэльский прецедент окончательно стирает грань между технологиями двойного назначения. Если раньше речь шла о том, что GPS можно использовать и для такси, и для ракет, то теперь мы видим, как «рассуждающие» алгоритмы становятся частью цепочки принятия летальных решений (kill chain). Военные чиновники США, включая технического директора Пентагона Эмила Майкла, не скрывают своих намерений внедрить «передовые возможности ИИ» на всех уровнях классификации. Успех операции по захвату Мадуро станет мощнейшим аргументом для дальнейшего расширения этих программ, несмотря на протесты этических комитетов внутри самих IT-корпораций.

Сам факт утечки информации о роли Claude именно сейчас может быть не случайным. Это сигнал как союзникам, так и противникам США: Вашингтон обладает инструментом, способным превратить хаос разрозненных разведданных в четкий план действий за считанные секунды. Для индустрии же это момент истины — эпоха, когда разработчики ИИ могли дистанцироваться от того, как применяются их детища, официально закончилась в январе 2026 года в Каракасе. Теперь каждый стартап, обучающий большие модели, по умолчанию становится потенциальным активом военно-промышленного комплекса, а термин «AI Safety» приобретает совершенно новый, куда более зловещий смысл.

Оперативный и глубокий анализ того, как милитаризация технологий меняет глобальный баланс сил, читайте в нашем телеграм-канале Digital Report, где мы разбираем то, о чем молчат официальные пресс-релизы.

Digital Report

Share.

About Author

Digital-Report.ru — информационно-аналитический портал, который отслеживает изменения цифровой экономики. Мы описываем все технологические тренды, делаем обзоры устройств и технологических событий, которые влияют на жизнь людей.

Leave A Reply