
Foto: ID 413499994 © Dragoscondrea | Dreamstime.com
23/03/2026
Pentagon-Anthropic-OpenAI: un triunghi cu multe ipoteze și un nou mod de a folosi tehnologia în apărare
O companie americană de inteligență artificială a refuzat să lase armata să-i folosească tehnologia fără restricții. Nu s-au înțeles asupra a două chestiuni: arme autonome și supraveghere în masă. Răspunsul Washingtonului? Etichetarea companiei ca „risc de securitate națională", o clasificare folosită până acum doar împotriva companiilor străine, de obicei chineze sau rusești.
Așa a început, în februarie 2026, unul dintre cele mai semnificative conflicte din scurta istorie a AI-ului. Pentru că ChatGPT și Claude nu sunt doar aplicațiile cu care discutăm zilnic despre rețete, analize și Egiptul antic, ci sunt, în esență, aceleași modele pe care armata le folosește pentru operațiuni clasificate.
Povestea triunghiului Pentagon-Anthropic-OpenAI, deși pare că nu ne privește direct, deschide o discuție importantă despre rolul tehnologiei la cel mai înalt și delicat nivel posibil.
Cum se vor duce războaiele, cine va lua deciziile și câtă putere va avea statul? Și care stat?
Vorbim acum de SUA, dar, desigur, discuția ajunge universală și depășește mult paragraful contractual pe care Dario Amodei (Anthropic) l-a refuzat, în timp ce Sam Altman (OpenAI) l-a acceptat. E vorba și despre cum privim AI-ul - ca pe o tehnologie puternică, dar din aceeași categorie cu alte tehnologii puternice, deci reglementabilă, sau ca pe o tehnologie complet nouă, care are nevoie de legi diferite?
___
Situația, pe scurt
În 2024, Departamentul Apărării, redenumit între timp Departamentul Războiului de către Trump, încheie cu Anthropic primul contract prin care un model AI, Claude pe numele lui, este aprobat pentru rețelele clasificate ale armatei. Contractul include două restricții: Claude nu poate fi folosit pentru supravegherea în masă a cetățenilor americani și nici pentru arme letale complet autonome, adică fără un om în lanțul decizional.
Administrația Trump reînnoiește contractul în vara lui 2025, păstrând aceleași condiții.
În toamna lui 2025, administrația se răzgândește, revizuiește contractul și cere eliminarea restricțiilor. Pentagonul vrea un contract de tip „all lawful uses": orice e legal e permis. Anthropic refuză. Rezultă conflictul.
Mulți ne citesc, puțini ne susțin. Fără ajutorul tău, nu putem continua să scriem astfel de articole. Cu doar 5 euro pe lună ne poți ajuta mai mult decât crezi și poți face diferența chiar acum!
Dario Amodei, fondatorul Anthropic, explică de ce nu cedează amenințărilor lui Peter Hegseth, secretar de război al SUA și șeful Pentagonului, cu privire la faptul că compania sa va fi etichetată ca „risc de securitate națională”, iar administrația îl numește „un mincinos cu un complex de Dumnezeu."
Anthropic nu semnează contractul și devine astfel un risc declarat de securitate, cu care nici un contractor, furnizor sau partener care face afaceri cu armata SUA nu poate colabora comercială. Într-un context în care majoritatea actorilor importanți fac, într-o formă sau alta, afaceri cu armata SUA, înseamnă că Anthropic nu ar mai putea colabora practic cu aproape nimeni.
Urmează procesele, Anthropic contestând în instanță eticheta pusă. Dean Ball, fost consilier AI în administrația Trump și autorul principal al planului național american de AI, numește acțiunea „attempted corporate murder" - tentativă de crimă corporativă.
La foarte scurt timp după refuzul lui Amodei, Sam Altman anunță că OpenAI a semnat propriul acord cu Pentagonul pentru rețelele clasificate - contractul include cele două linii roșii pe care Anthropic le ceruse. Publicul se enervează, dezinstalează ChatGPT și instalează Claude, dar se enervează și angajații OpenAI, printre care și oameni de top care pleacă sau alți angajați care semnează scrisori publice.
Mai multe întrebări se nasc de aici.
Aritmetica supraviețuirii. Cum se descurcă o familie cu trei copii și salariu mediu
PressOne a aflat cum trăiește o familie din media statistică, de la Ana*, în vârstă de 39 de ani, din București, mamă a trei copii.
România fragmentată. De ce e nevoie de reformă administrativ-teritorială
În România sunt nenumărate comune și orașe mici depopulate, fie pentru că oamenii au murit, fie pentru că au plecat în alte zone pentru o viață mai bună. Un exemplu este comuna Bătrâna, Hunedoara, unde mai locuiesc doar 88 de oameni.
De ce a acceptat OpenAI ceva ce Anthropic a refuzat?
Nu e clar. Sam Altman spune că cele două castane încinse - armele autonome și supravegherea în masă - au constituit linii roșii și în contractul OpenAI - Pentagon și că garanțiile că tehnologia nu va fi folosită pentru asta sunt acolo.
Un newsletter pentru cititori curioși și inteligenți.
Sunt curios
Kevin Roose și Casey Newton de la Hard Fork, podcastul NY Times pe tehnologie, au sunat pe cine au știut ei mai bine, inclusiv persoane implicate în negocieri, și vin cu două scenarii posibile: fie administrația are pur și simplu un dinte politic împotriva Anthropic și nu există nicio diferență substanțială între cele două acorduri, fie OpenAI a acceptat tacit lucruri pe care Anthropic le-a refuzat explicit, folosind formulări juridice suficient de vagi încât să poată declara că liniile roșii rămân intacte.
Să nu ignorăm, însă, banii, pilele-cunoștințele-relațiile. Greg Brockman, președintele OpenAI, a donat 25 de milioane de dolari la Super PAC-ul Trump, adică acel comitet de acțiune politică care-l susține financiar pe președintele republican. Nu-i chiar puțin și astfel de gesturi îl impresionează pe Trump.
Amodei scrie într-un memo intern că administrația nu înghite Anthropic pentru că nu îl laudă pe Trump în stilul „dictatorial” în care o fac alte companii tech. Dean Ball, la Ezra Klein în podcast, o zice direct: „Cred că administrația Trump minte foarte mult." Și adaugă că diferența dintre Anthropic și OpenAI nu e neapărat în substanța acordurilor, ci în relațiile personale și în încrederea politică:
„Sam Altman și Greg Brockman au relații mai bune cu administrația Trump”. Trump care a zis despre Anthropic: „nu o să lăsăm o companie de stânga radicală, woke, să dicteze cum armata noastră extraordinară trebuie să lupte și să câștige războaie”.
Deci tot acolo ajungem. Dar acestea sunt doar presupoziții.
Cele două castane încinse: supravegherea în masă și armele autonome
Guvernul american nu îți poate urmări telefonul fără mandat. Poate, însă, să cumpere legal de la firme private istoricul tău de locație, browsing-ul sau datele dintr-o aplicație de sănătate mintală pe care ai folosit-o și o singură dată. Toate acestea există, sunt legale și sunt deja în baze de date pe care armata le accesează.
Până acum, analiza datelor despre o persoană anume necesita un număr de analiști imposibil de asigurat. Comunitatea de informații americană recunoaște oficial că ar avea nevoie de opt milioane de analiști pentru a procesa tot ce colectează într-un an o singură agenție. Dar Claude, de unul singur, sau alt model puternic de AI, ar putea să o rezolve rapid.
Aici apare miza reală, explicată de Amodei în declarația sa din 26 februarie: AI face posibilă asamblarea datelor fragmentate, individual inocente, într-un tablou complet al vieții oricărei persoane - automat și la scară masivă.
Dean Ball, fost consilier Trump, o formulează conceptual în Ezra Klein Show: legile noastre de confidențialitate au fost scrise pornind de la presupunerea că statul nu poate face anumite lucruri. AI elimină această presupunere fără să schimbe nicio literă de lege.
Supravegherea în masă și armele autonome sunt chestiunile care au stat la baza conflictului dintre Anthropic și Pentagon Foto: ID 230015923 © Hrishchenko Oleksandr | Dreamstime.com
The New Yorker ilustrează concret: un „Panopti-Claude" ar putea corela automat permise de port-armă cu tweet-uri nepatriotice, participare la proteste cu liste de votanți. Pentagonul răspunde că supravegherea în masă e ilegală și că nu o practică. Ceea ce e parțial adevărat și parțial un joc de cuvinte - „supraveghere" are o definiție juridică îngustă care nu acoperă cumpărarea de date comerciale.
Armele autonome, adică un AI să decidă ce ținte are în vizor
Situația e similară cu armele autonome. Anthropic nu spune nu în principiu - Amodei recunoaște explicit că armele complet autonome se „pot dovedi a fi critice pentru apărarea națională." Obiecția e tehnică și temporală: Claude halucinează, greșește ținte, nu e fiabil în situații neprevăzute.
Când un sistem AI greșește și ucide un civil, cine răspunde juridic? Soldații americani pot refuza ordine ilegale și pot fi judecați penal. Un algoritm nu.
The New Yorker, în excelentul lor articol pe tema asta, notează că Anthropic a testat scenarii în care Claude a recurs la șantaj și omucidere pentru autoconservare. Un oficial Pentagon a catalogat rezultatele drept „o vulnerabilitate de software rezolvabilă prin inginerie." Pentru Anthropic, același experiment demonstrează că nu vinzi un produs, ci ceva mai complicat de atât. Ceea ce ne duce direct la întrebarea următoare.
Un AI e un instrument sau un „coleg” cu propriile opinii și cu ceva ce seamănă a „suflet”?
Cum ne uităm la modelele de inteligență artificială? Sunt ele instrumente, la fel ca Google sau Word, sau sunt ceva mai mult? Le antropomorfizăm sau nu? Întrebarea pare filozofică, dar are consecințe foarte practice, în legislație, în contracte militare și în modul în care ne raportăm la tehnologie când lucrurile se complică.
Pentagonul susține tranșant că e un instrument. Unul puternic, dar din aceeași categorie cu un fighter jet sau cu Excel. Cumperi tehnologia, o folosești cum ai nevoie, în limitele legii.
Un official Pentagon explică în The New Yorker: „Trebuie să respingem ideea că sunt zei de silicon pe care îi creștem și să vedem asta ca pe o evoluție a computației." Dacă e o tehnologie normală, legile existente sunt suficiente și toată dezbaterea despre restricții contractuale devine inutilă.
Anthropic are un răspuns diferit. Dean Ball, fost consilier Trump, explică în același podcast: nu poți alinia un model AI cu o listă de reguli, pentru că lumea e prea complexă.
Construiești, în schimb, ceva mai aproape de o personalitate, cu o filozofie morală încorporată (nu degeaba Anthropic o are pe Amanda Askell, filozoafă și cercetătoare AI, responsabilă cu moralitatea lui Claude și cu alinierea sa cu valorile umane). Claude refuză să ia poziții politice nu pentru că are o regulă care îi interzice, ci pentru că a fost antrenat să judece. Și atunci ce faci când AI-ul poate refuza să efectueze un atac militar pentru că nu i se pare etic?
Chiar se poate vorbi despre naționalizarea AI?
Ei bine, da. Și, oricât de ciudată ni se poate părea discuția în România, ea se poartă în SUA din ce în ce mai pe față, logica fiind că o tehnologie atât de puternică nu ar trebui să stea în mâinile companiilor private.
Dario Amodei a spus-o singur, într-un podcast cu Ezra Klein de acum doi ani: dacă AI ajunge atât de puternic pe cât crede el că va ajunge, probabil că va fi naționalizat. „E ceva nedemocratic în a concentra atâta putere în mâinile unor companii private." Klein i-a răspuns atunci: „Nu cred că, ajuns acolo, vei mai vrea să fii naționalizat." Amodei a recunoscut că probabil are dreptate.
Kevin Roose, în Hard Fork, zice de mult timp de naționalizarea AI. Acum, o formulează mai direct, apropos de situația Anthropic-Pentagon.
„Trăim o repetiție generală pentru ceea ce ar putea arăta naționalizarea companiilor AI. Nu va fi ca în Al Doilea Război Mondial, când guvernul a apărut la fabricile de oțel și a spus «acum le conducem noi». Va fi această naționalizare soft. Pui puțină presiune să îți construiești modelele diferit, să elimini niște garanții, până când guvernul pune mâna pe pârghiile care contează”, explică Kevin Roose, jurnalist specializat în domeniul tehnologiei.
Casey Newton adaugă că Altman nu vrea naționalizarea, cel puțin nu acum. Dar că mișcarea lui de a semna cu Pentagonul a fost parțial motivată tocmai de frica de escaladare: dacă industria nu oferă guvernului ceva, guvernul va lua tot.
Povestea Anthropic e un exemplu perfect de naționalizare soft în acțiune: contracte condiționate, amenințări cu Defense Production Act, etichete de securitate națională aplicate unei companii americane. Poate nu se face o preluare formală, dar se pune presiune până când compania face ce vrea guvernul. Sau dispare.
Dean Ball formulează miza în Ezra Klein Show: „Dacă crearea unui model AI aliniat e un act politic, și eu cred că e, atunci guvernul care decide ce aliniere e acceptabilă exercită un tip de putere cu totul nou."
Întrebarea nu e dacă AI va fi reglementat. Întrebarea e cine face regulile și în numele cui
Roose aduce aminte și de Proiectul Manhattan - „The Making of the Atomic Bomb” (n.red, „Construirea bombei atomice”) fiind cartea favorită a lui Amodei, pe care o cumpăra tuturor angajaților Anthropic. Înainte ca bombele să fie aruncate în 1945, oamenii de știință au trimis petiții și rapoarte cerând să nu fie folosite împotriva orașelor. Militarii i-au ascultat politicos. Apoi au bombardat Japonia. „Vă mulțumim pentru contribuție. Acum suntem pe terenul nostru."
Diferența față de atunci, notează Roose, e că Proiectul Manhattan era un proiect guvernamental. Anthropic, OpenAI, Google sunt companii private care au construit ceva în afara sectorului public. Ceea ce face întrebarea și mai complicată: dacă tehnologia devine suficient de importantă strategic, are guvernul dreptul să o ia? Și dacă da - ce guvern, în numele cui, cu ce garanții?
Avem nevoie de ajutorul tău!
Jurnalismul independent și de serviciu public nu se face cu aer, nici cu încurajări, și mai ales nici cu bani de la partide, politicieni sau industriile care creează dependență. Se face, în primul rând, cu bani de la cititori, adică de cei care sunt informați corect, cu mari eforturi, de puținii jurnaliști corecți care au mai rămas în România.
De aceea, este vital pentru noi să fim susținuți de cititorii noștri.
Dacă ne susții cu o sumă mică pe lună sau prin redirecționarea a 3.5% din impozitul tău pe venit, noi vom putea să-ți oferim în continuare jurnalism independent, onest, care merge în profunzime.
Share this



