WSJ: США застосували ШІ-модель Claude в операції проти Мадуро — реакція Anthropic

Модель штучного інтелекту Claude, розроблена компанією Anthropic, була застосована американськими військовими під час операції із захоплення колишнього президента Венесуели Ніколаса Мадуро. Місія включала бомбардування кількох об’єктів у Каракасі минулого місяця. Про це повідомили в The Wall Street Journal з посиланням на обізнані джерела. Ця новина викликала бурхливу дискусію про етику використання ШІ у військових цілях та майбутнє контракту Anthropic із Пентагоном.

Інформація WSJ: Claude у військовій операції


За інформацією WSJ, Claude допомогла військовим США захопити колишнього президента Венесуели. Операція була комплексною та включала не лише захоплення Мадуро, а й бомбардування стратегічних об’єктів у столиці Венесуели.

Розгортання Claude відбулося завдяки партнерству Anthropic з Palantir Technologies, чиї інструменти активно використовуються оборонними структурами США та федеральними правоохоронними органами, підкреслили у виданні.

Palantir — це компанія, яка спеціалізується на аналізі великих даних та розвідувальному програмному забезпеченні. Її платформи використовуються ЦРУ, ФБР, Пентагоном та іншими урядовими структурами для координації операцій, аналізу розвідувальних даних та прийняття стратегічних рішень.

Правила Anthropic: Claude заборонено для насильства


Згідно з правилами використання Anthropic, Claude заборонено застосовувати для сприяння насильству, розробки зброї або проведення стеження.

Нагадаємо, що нещодавно Anthropic оновила «конституцію» Claude, зокрема щодо питань етики, безпеки та корисності. Ця «конституція» — це набір принципів, які визначають, як Claude має реагувати на запити користувачів, які етичні межі не можна переступати.

Проте реальність виявилася складнішою за декларовані принципи.

Реакція Anthropic: обережні формулювання

Представник компанії заявив:

«Ми не можемо коментувати, чи використовувався Claude або будь-яка інша модель ШІ в конкретній операції, засекреченій чи ні. Будь-яке використання Claude — як у приватному секторі, так і в уряді — має відповідати нашим політикам використання, які регулюють способи її застосування. Ми тісно співпрацюємо з партнерами для забезпечення відповідності».

Ця відповідь — класичний приклад корпоративної дипломатії. Anthropic не підтверджує і не спростовує використання Claude в операції, але наголошує на дотриманні власних правил.

Міністерство оборони США від коментарів відмовилося, що є стандартною практикою для засекречених операцій.

Контракт на $200 мільйонів під загрозою


Раніше повідомлялося, що стурбованість Anthropic щодо способів використання Claude Пентагоном змусила чиновників розглядати можливість розірвання контракту на суму до $200 мільйонів. Цей контракт уклали влітку 2025 року.

Заяви CEO Anthropic про ризики автономної зброї загострили напруженість з адміністрацією США. Контракт Anthropic із Пентагоном опинився під питанням, що посилило дебати про регулювання ШІ.

Для порівняння, $200 мільйонів — це значна сума навіть для технологічного стартапу з мільярдними інвестиціями. Втрата цього контракту може вплинути на фінансове становище Anthropic та її стратегічні плани.

Даріо Амодей: етичні застереження CEO


Генеральний директор Anthropic Даріо Амодей публічно висловлював стурбованість щодо використання ШІ в автономних летальних операціях і внутрішньому стеженні — це стало однією з головних точок напруженості в переговорах із Пентагоном.

Він також виступає за посилення регулювання та запобіжників у сфері ШІ.

Амодей — один із провідних дослідників безпеки ШІ, який залишив OpenAI саме через розбіжності в підходах до безпеки та етики. Він заснував Anthropic з метою створити «більш безпечний та керований» штучний інтелект.

Проте зараз його компанія опинилася в епіцентрі суперечки: чи може «безпечний ШІ» використовуватися у військових операціях?

Заява Пентагону: «Ми не використовуватимемо ШІ, які не дозволяють вести війни»


На тлі співпраці Пентагону з компанією xAI міністр оборони США Піт Хегсет заявив, що відомство не буде «використовувати моделі ШІ, які не дозволяють вам вести війни».

Ця заява, за даними ЗМІ, стосувалася дискусій з Anthropic.

Це жорстке формулювання розкриває позицію Пентагону: військові очікують від ШІ-партнерів повної підтримки операційних потреб, без етичних обмежень, які могли б заважати виконанню місій.

Іншими словами, якщо Anthropic не готова надати Claude для військових цілей без обмежень, Пентагон знайде інших постачальників.

Конкуренти: OpenAI та Google вже в грі


Примітно, що співзасновники Anthropic раніше працювали в OpenAI, яка разом із Google Gemini приєдналася до створення ШІ-платформи для військових.

Кастомізована версія ChatGPT використовується для аналізу документів, генерації звітів і підтримки досліджень, йдеться в матеріалі.

Це створює конкурентний тиск на Anthropic: якщо компанія відмовиться від військових контрактів з етичних міркувань, її конкуренти охоче займуть цю нішу.

OpenAI, яка спочатку позиціонувала себе як компанія, що працює «на благо людства», тепер активно співпрацює з Пентагоном. Google, незважаючи на протести співробітників проти проєкту Maven (використання ШІ для аналізу дронових відео), також повернулася до військових контрактів.

Паралельний проєкт: Claude для британського уряду


Паралельно Anthropic стала партнером уряду Великої Британії у створенні ШІ-асистента для державного порталу GOV.UK. Проєкт реалізується спільно з Департаментом науки, інновацій і технологій.

Claude інтегрують у систему держпослуг для надання персоналізованих рекомендацій громадянам.

Цей проєкт демонструє, що Anthropic не відмовляється від урядових контрактів загалом — питання в тому, які саме контракти вона готова виконувати.

Надання громадянам допомоги в навігації державними послугами — це одне. Використання ШІ для координації військових операцій і бомбардувань — зовсім інше.

Етична дилема: чи може «безпечний ШІ» вбивати?


Ця історія ставить фундаментальне питання: чи може штучний інтелект, створений з метою бути «безпечним» та «етичним», використовуватися у військових операціях, які призводять до людських жертв?

Аргументи «за» військове використання ШІ:

  • ШІ може зменшити цивільні втрати — точніший аналіз цілей, кращі прогнози наслідків
  • Національна безпека — якщо ми не використовуємо ШІ, наші противники використають
  • Підтримка, а не прийняття рішень — Claude аналізує дані, але рішення приймають люди

Аргументи «проти»:

  • Нормалізація автономної зброї — сьогодні аналіз даних, завтра самостійне прийняття рішень
  • Відповідальність — хто відповідає за помилки ШІ у бойових операціях?
  • Ескалація гонки ШІ-озброєнь — якщо всі використовують ШІ у війнах, конфлікти стають небезпечнішими
  • Порушення власних принципів — Anthropic декларує одне, робить інше

Технічні деталі: як Claude могла використовуватися?


Хоча точні деталі засекречені, можна припустити кілька сценаріїв використання Claude:

1. Аналіз розвідувальних даних

  • Обробка величезних обсягів перехоплених комунікацій
  • Виявлення патернів у рухах Мадуро та його охорони
  • Аналіз супутникових знімків для визначення місцезнаходження

2. Планування операції

  • Моделювання різних сценаріїв захоплення
  • Оцінка ризиків для цивільного населення
  • Оптимізація маршрутів та часу атаки

3. Координація в реальному часі

  • Аналіз потоку інформації під час операції
  • Допомога в прийнятті тактичних рішень
  • Координація між різними підрозділами

4. Постоперційний аналіз

  • Оцінка ефективності місії
  • Аналіз помилок та успіхів
  • Підготовка звітів для командування

Роль Palantir: ключовий посередник

Palantir Technologies відіграла ключову роль у цій історії. Ця компанія, заснована Пітером Тілем та іншими, спеціалізується на створенні програмного забезпечення для аналізу даних у розвідувальних і військових цілях.

Платформи Palantir:

  • Gothamдля розвідувальних служб і правоохоронних органів
  • Foundryдля комерційних організацій
  • Apolloдля розгортання та управління ПЗ

Саме через Palantir Claude інтегрувалася в оборонні системи США, що дозволило обійти прямі обмеження на військове використання.

Що далі: майбутнє ШІ у військовій сфері


Ця історія — лише початок більш широкої тенденції. Штучний інтелект стає невід’ємною частиною сучасної військової інфраструктури.

Можливі сценарії розвитку:

Сценарій 1: Жорстке регулювання

  • Міжнародні договори про обмеження ШІ-зброї
  • Чіткі правила використання ШІ у військових операціях
  • Незалежні аудити військових ШІ-систем

Сценарій 2: Гонка ШІ-озброєнь

  • Країни конкурують у розробці автономних бойових систем
  • Етичні обмеження відкидаються заради переваги
  • Ризик неконтрольованої ескалації

Сценарій 3: Компроміс

  • ШІ використовується для підтримки, але не для прийняття летальних рішень
  • Жорсткі протоколи перевірки та контролю
  • Прозорість у межах національної безпеки

Позиція України: актуальність для нас


Для України ця тема має пряме значення. Наша країна активно використовує технології, включаючи елементи ШІ, у захисті від російської агресії.

Питання етики військового використання ШІ не є абстрактним — це питання про те, як ми будемо вести майбутні війни та які принципи нас визначатимуть.

Висновок: де межа між інновацією та зброєю?



Справа про використання Claude у військовій операції проти Мадуро — це не просто корпоративна суперечка.

Це фундаментальне питання про роль технологічних компаній у світі, де штучний інтелект стає інструментом війни.

Даріо Амодей та його команда створювали Anthropic як альтернативу «безвідповідальним» підходам до ШІ.

Тепер їм доведеться довести, що їхні принципи — це не просто маркетинг, а справжнє переконання.

Але незалежно від рішення Anthropic, одне зрозуміло: штучний інтелект вже став частиною військової машини. І питання не в тому, чи буде ШІ використовуватися у війнах, а в тому, хто встановлюватиме правила цього використання.

Джерело: Incrypted

Читати також:

Трамп заявив про захоплення Ніколаса Мадуро та його дружини у Венесуелі

Штучний інтелект «захопив» людство: нові дані Microsoft

Cвітлина з мережі Х

News Reporter
У медіа з 2017 року. Писала для https://inpoland.net.pl/. Слідкую за подіями у світі від технологій до економічних і соціальних процесів, суспільно-політичного життя та геополітичної ситуації. Закінчила ЛНУ ім. Івана Франка за спеціальністю історія. Зараз у Львові, 7 років жила у Варшаві. Люблю книги, кіно, активний відпочинок та свою роботу.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *