Американската војска наводно го користела моделот за вештачка интелигенција „Клод“, развиен од компанијата Anthropic, за прибирање разузнавачки информации и поддршка при избор на цели во нападот врз Иран, иако претседателот Доналд Трамп само неколку часа претходно наредил прекин на соработката со компанијата.
Според извештаи на странски медиуми, алатките биле користени за разузнавачки анализи, симулации на бојното поле и поддршка во процесот на таргетирање за време на заедничкото американско-израелско бомбардирање. Одлуката за прекин на користењето на „Клод“ во федералните агенции била донесена непосредно пред почетокот на операцијата.
Тензиите меѓу Белата куќа и „Антропик“ дополнително се зголемиле поради претходна употреба на моделот во операција насочена кон венецуелскиот претседател. Компанијата се спротивставила на воена примена на својот модел, повикувајќи се на условите за користење кои забрануваат насилни намени, развој на оружје и надзор.
Министерот за одбрана Пит Хегсет јавно ја обвини компанијата за „ароганција и предавство“, нагласувајќи дека американските вооружени сили нема да зависат од, како што рече, идеолошки позиции на технолошки компании. Тој побарал целосен пристап до моделите на „Антропик“ за секоја законска цел, но истовремено признал дека воените системи се длабоко интегрирани со алатките за вештачка интелигенција и дека раздвојувањето нема да биде моментално.
Како можен наследник во соработката со Пентагон се појавува OpenAI. Нејзиниот извршен директор Sam Altman изјавил дека е постигнат договор за користење на нивните алатки, вклучително и „ЧетГПТ“, во класифицираната мрежа на американското Министерство за одбрана.
Случајот отвора поширока дебата за улогата на вештачката интелигенција во современите воени операции и за границите меѓу технолошкиот сектор и државните безбедносни структури, особено во услови на вооружен конфликт и геополитичка ескалација.