Po poročanju WSJ ameriško vojaško poveljstvo orodje uporablja za obveščevalne namene, pa tudi za pomoč pri izbiri ciljev in izvajanju simulacij bojišča. Tako naj bi sistem uporabili tudi pri lociranju iranskega vrhovnega verskega voditelja Ali Hameneja.
Operacija v Iranu ni prvi primer uporabe modela. Wall Street Journal je poročal, da je Pentagon že prej uporabil Claude med operacijo ugrabitve venezuelskega predsednika Nicolasa Madura januarja. Michael C. Horowitz, nekdanji namestnik pomočnika obrambnega ministra, je namignil, da je bila vloga umetne inteligence verjetno osredotočena na obveščevalne podatke iz odprtih virov (OSINT). "Stavim, da je bila uporabljena za pregledovanje zemljevidov ali preverjanje venezuelskih medijskih virov, na primer za spremljanje venezuelskih družbenih medijev v realnem času, da bi ameriški vojski poskušali posredovati več informacij."

Trumpov spor z "radikalno levim podjetjem"
Čeprav je umetna inteligenca morda prispevala k taktičnim uspehom v Teheranu in drugod, je med Silicijevo dolino in obrambnim establišmentom nastal razkol, poroča The Jerusalem Post. Pentagon se je distanciral od podjetja Anthropic, potem ko je podjetje zavrnilo odstranitev varovalk, namenjenih preprečevanju pomoči umetne inteligence pri izvajanju 'smrtonosnih operacij'.
"Združene države Amerike ne bodo nikoli dovolile radikalno levičarskemu podjetju, da narekuje, kako se bo naša velika vojska borila in zmagovala v vojnah!" je na Truth Social zapisal ameriški predsednik Donald Trump po objavi, da je Bela hiša prekinila vezi z Anthropicem. "O usodi naše države bomo odločali mi – ne neko neobvladljivo, radikalno levičarsko podjetje za umetno inteligenco, ki ga vodijo ljudje, ki nimajo pojma, kaj je resnični svet," je zapisal.
Integracija velikih jezikovnih modelov (LLM) v 'verigo ubijanja' predstavlja paradigmatski premik v sodobnem vojskovanju. Steve Feldstein, višji sodelavec v programu za demokracijo, konflikte in upravljanje, je za Jerusalem Post povedal, da imajo ta komercialna orodja dvojno uporabo. "To je orodje, ki ima tako obveščevalne kot nadzorne namene in je potencialno uporabno tudi za smrtonosne operacije."
Emil Michael, podsekretar za obrambo za raziskave in inženiring, je v intervjuju za CBS dejal, da je prvotno zanimanje vojske za orodja, kot je Claude, izhajalo iz kompleksnosti sodobne logistike. "V vojaškem kontekstu je veliko logistike. Kako nekaj prenesem z enega kraja na drugega? Koliko stvari imam nekje? Kaj potrebujem za učinkovito napredovanje? Katere zaloge bi lahko potreboval za določeno misijo?"
Dario Amodei, izvršni direktor podjetja Anthropic, je za CBS povedal, da podjetje močno skrbijo zlorabe in neznani potenciali umetne inteligence. Horowitz medtem pravi, da oklevanje tehnoloških podjetji ni le moralne, ampak tudi praktične narave.
Medtem ko v ZDA še razpravljajo o etiki umetne inteligence v vojskovanju, je Izrael te sisteme že globoko integriral v svojo vojaško arhitekturo, poroča JP. Kot primer pa navaja vojno v Gazi. "Izrael je ena od držav, ki te sisteme zelo dobro uporablja za podporo pri odločanju," pravi Feldstein. Pojasnil je, da se ti sistemi uporabljajo "za množično identifikacijo osumljencev, da bi nato na njih izvedli napade. Torej, poskušajo ugotoviti, kje je Hamas, kje se nahajajo Hamasovi militanti? Geolokacija, sprejemanje klicev na mobilne telefone, sprejemanje besedilnih sporočil."

Prehod k ChatGPT
Ker Anthropic, kot kaže, zapušča obrambni sektor, se je Pentagon preusmeril h konkurentu z manj pomisleki glede vojaških aplikacij: OpenAI ChatGPT. V petek je izvršni direktor OpenAI, Sam Altman, napovedal, da bo podjetje začelo sodelovati z ministrstvom za obrambo pri zagotavljanju storitev umetne inteligence.
"Nocoj smo dosegli dogovor z ministrstvom za vojno o namestitvi naših modelov v njihovo tajno omrežje," je Altman dejal v izjavi. "Poskušamo ga uporabiti za vse zakonite primere uporabe," pa pravi Michael. "Dokler je zakonit, ga obravnavamo kot katero koli drugo tehnologijo."
Feldstein medtem opozarja na potencialne težave. "Če pri zagotavljanju informacij vnaša lastne pristranskosti, mislim, da to sproža vprašanja o tem, kako zanesljive so te informacije," je opozoril Feldstein. "Če se zanašate na sistem, ki zagotavlja obveščevalne informacije, ki bi jih potencialno uporabili za napade, ali bi želeli delati s sistemom, ki kaže pristranskosti in vam morda dejansko ne bo dal popolnoma točnih informacij?"



















































