Anthropic dă în judecată Pentagonul. Și Pentagonul nici măcar nu comentează.
Compania care a refuzat să lase armata americană să facă ce vrea cu AI-ul ei a ajuns în instanță. Miza: sute de milioane de dolari, un precedent constituțional și întrebarea dacă o firmă tech mai are voie să spună nu.
Există un moment, în orice relație comercială cu statul, în care furnizorul realizează că nu e partener, ci subiect. Că semnătura de pe contract nu e o strângere de mână, ci o capitulare. Anthropic a ajuns la acest moment luni, 9 martie 2026, când a depus o cerere de chemare în judecată într-un tribunal federal din California împotriva Departamentului Apărării al Statelor Unite, a Departamentului de Război (cum se numește acum oficial) și a altor agenții federale. Motivul: eticheta de 'risc pentru lanțul de aprovizionare' pe care Pentagonul i-a lipit-o săptămâna trecută, ca pe un semn de avertizare pe o cutie de muniție expirată.
Povestea nu e nouă. Anthropic refuza încă din ianuarie să dea mână liberă armatei americane în utilizarea modelelor sale Claude pentru orice scop, inclusiv arme autonome și supraveghere de masă a cetățenilor americani. Pentagonul a interpretat acest refuz ca pe o insubordonare. Anthropic l-a interpretat ca pe o poziție etică. Judecătorul va trebui să decidă care dintre cele două interpretări are greutate juridică. Dar dincolo de sala de tribunal, miza e mult mai mare: se stabilește dacă o companie tech mai poate spune 'nu' celui mai mare client din lume.
Anatomia unei pedepse
Să recapitulăm. În ianuarie 2026, secretarul Apărării Pete Hegseth a ordonat mai multor furnizori de AI să accepte că departamentul poate folosi tehnologiile lor pentru orice scop legal. 'Orice scop legal' e o formulare interesantă, pentru că legalitatea e un concept elastic în mâinile celor care scriu legile. Anthropic, singura companie care furniza la acel moment instrumente AI de tip chatbot și analiză pentru cazurile cele mai sensibile ale armatei, a refuzat. Nu a refuzat complet: a spus că modelele sale Claude nu sunt încă suficient de capabile pentru a fi folosite în supravegherea de masă a americanilor sau în sisteme de arme complet autonome. Un argument tehnic, nu moral. Deși, evident, granița dintre cele două e subțire ca un strat de neuroni într-un transformer.
Hegseth a răspuns public, acuzând Anthropic că vrea drept de veto asupra unor decizii care ar trebui să aparțină exclusiv Departamentului Apărării. Formularea exactă, postată pe rețelele sociale (pentru că așa se conduc războaiele în 2026, pe X), a fost că Anthropic 'vrea putere de veto asupra unor judecăți care ar trebui lăsate în seama Departamentului de Război'. Observați cum se trece subtil de la 'furnizor care pune condiții contractuale' la 'entitate care uzurpă autoritatea militară'. E o escaladare retorică clasică, de manual.
Săptămâna trecută, Pentagonul a făcut pasul formal: a desemnat Anthropic drept 'risc pentru lanțul de aprovizionare'. E o etichetă cu consecințe reale. Nu e un avertisment, nu e o notificare, nu e o scrisoare de intenție. E, practic, un ordin către toate agențiile federale de a trata produsele Anthropic ca pe o amenințare. Companiile care integrează Claude în serviciile pe care le vând guvernului au început deja să caute alternative. CNBC și Reuters au raportat că furnizori de tehnologie militară precum Lockheed Martin evaluează înlocuirea componentelor Anthropic. Sute de milioane de dolari în venituri anuale sunt pe cale să se evapore.
Dario Amodei, CEO-ul Anthropic, a scris pe blogul companiei că 'nu credem că această acțiune este solidă din punct de vedere juridic și nu vedem altă opțiune decât să o contestăm în instanță'. Limbajul e calculat: nu agresiv, nu victimizant, ci calibrat pentru un judecător. Amodei a mai precizat că 'marea majoritate' a clienților Anthropic nu vor fi afectați, designarea aplicându-se doar utilizării Claude ca parte directă a contractelor cu armata. Optimism sau damage control? Probabil ambele.
Constituția versus contractul de achiziții
Procesul depus de Anthropic cere unui judecător să anuleze designarea și să oprească agențiile federale din a o aplica. Argumentul central e constituțional: 'Constituția nu permite guvernului să-și folosească puterea enormă pentru a pedepsi o companie pentru discursul ei protejat'. E un argument îndrăzneț, pentru că transformă un conflict comercial într-o chestiune de Primul Amendament. Anthropic susține, în esență, că a fost pedepsită pentru că și-a exprimat public dezacordul cu politica Pentagonului. Nu pentru că produsele ei ar fi defecte, nesigure sau incompatibile. Ci pentru că a avut tupeul să spună 'nu' cu voce tare.
Compania a cerut și un ordin de restricție temporar pentru a-și putea continua vânzările către guvern pe durata procesului. A propus ca guvernul să răspundă până miercuri seara și ca o audiere să aibă loc vineri. Urgența e reală: fiecare zi în care designarea rămâne în vigoare e o zi în care clienții federali migrează spre concurență. Iar în tech, migrarea e aproape întotdeauna definitivă. Nimeni nu se întoarce la furnizorul vechi după ce a configurat totul pe cel nou.
Avocații specializați în contracte guvernamentale nu sunt optimiști. Brett Johnson, partener la firma Snell & Wilmer, spune clar: 'E 100% prerogativa guvernului să stabilească parametrii unui contract'. Regulile care autorizează Departamentul Apărării să eticheteze o companie tech drept risc pentru lanțul de aprovizionare nu lasă prea mult loc pentru apel. Sunt reguli scrise de Pentagon, pentru Pentagon, interpretate de Pentagon. Surpriză.
Totuși, Johnson identifică o posibilă breșă: dacă Anthropic poate demonstra că a fost vizată selectiv. Și aici lucrurile devin interesante. La scurt timp după ce Hegseth a anunțat designarea Anthropic, rivalul OpenAI a anunțat un nou contract cu Pentagonul. OpenAI, care a precizat că acordul său include garanții contractuale și tehnice că tehnologia nu va fi folosită pentru supraveghere de masă internă sau pentru dirijarea armelor autonome. Adică exact tipul de condiții pe care Anthropic le ceruse. Diferența? OpenAI a primit contract, Anthropic a primit etichetă de pericol. Dacă asta nu e tratament discriminatoriu, e cel puțin o coincidență cu miros de sulf.
OpenAI: solidaritate cu asteriscuri
Reacția OpenAI merită disecată cu atenție. Compania a declarat că se opune acțiunii împotriva Anthropic și că nu înțelege de ce rivalul ei nu a putut obține un acord similar cu guvernul. E un tip foarte specific de solidaritate: cel în care îți exprimi compasiunea pentru cel căzut în timp ce îi numeri banii din buzunar. OpenAI a obținut contractul. Anthropic a obținut procesul. Și OpenAI se declară 'surprinsă' de diferența de tratament. Surprinsă, dar nu suficient de surprinsă încât să refuze banii.
Acordul OpenAI cu Departamentul de Război include, conform declarațiilor companiei, 'mijloace contractuale și tehnice de a asigura că tehnologia nu va fi folosită pentru supraveghere de masă internă sau pentru dirijarea sistemelor de arme autonome'. Sună familiar? Ar trebui. Sunt, în esență, aceleași linii roșii pe care Anthropic le-a trasat. Diferența pare să fie una de ton, nu de substanță. Anthropic a spus public că modelele sale nu sunt capabile de aceste lucruri. OpenAI a spus privat că va pune niște clauze. Istoria relației OpenAI cu armata americană e, oricum, mai complicată decât lasă să se înțeleagă: compania și-a schimbat poziția de mai multe ori, iar Microsoft, principalul ei investitor, a fost întotdeauna deschis colaborării militare.
Ce se întâmplă aici nu e un conflict între două companii tech. E un mesaj trimis întregii industrii: poți pune condiții, dar numai dacă le formulezi ca pe niște concesii. Poți avea principii, dar numai dacă le prezinți ca pe niște clauze contractuale negociabile. Momentul în care îți transformi principiile în declarații publice, devii un risc. Nu un risc tehnic, nu un risc de securitate, ci un risc politic. Și riscurile politice se gestionează prin excludere.
Purtătoarea de cuvânt a Casei Albe, Liz Huston, a oferit un citat care merită citit de două ori: 'Armata noastră va respecta Constituția Statelor Unite, nu termenii de utilizare ai vreunei companii AI woke.' Apoi a adăugat că administrația se asigură că 'curajoșii noștri luptători au instrumentele necesare pentru a avea succes și va garanta că nu vor fi niciodată ținuți ostatici de capriciile ideologice ale vreunui lider Big Tech'. Limbajul e revelator. 'Woke'. 'Ostatici'. 'Capricii ideologice'. Nu vorbim despre o evaluare tehnică a capabilităților unui model de limbaj. Vorbim despre un război cultural în care AI-ul e doar cea mai recentă linie de front.
Postere de recrutare pentru era algoritmilor
Pete Hegseth nu e un om subtil. Fostul prezentator Fox News transformat în secretar al Apărării a făcut din adoptarea AI-ului o prioritate personală. Recent, în Pentagon au apărut postere cu chipul lui, arătând spre cameră, cu textul 'I want you to use AI'. E o parafrază a celebrului poster de recrutare al Unchiului Sam din Primul Război Mondial, ceea ce e fie o ironie deliberată, fie o lipsă totală de conștiință istorică. Probabil a doua variantă.
Hegseth vrea AI peste tot. În logistică, în analiză de informații, în planificare strategică, în operațiuni. Problema nu e ambția, care e rezonabilă. Problema e că vrea AI fără condiții. Fără limitări. Fără acel 'nu' incomod care vine de la oamenii care au construit tehnologia și care știu, poate mai bine decât un fost comentator TV, ce poate și ce nu poate face un model de limbaj cu 100 de miliarde de parametri. Anthropic a spus: modelele noastre nu sunt suficient de bune pentru arme autonome. Hegseth a auzit: nu vrem să vă ajutăm. Sunt două propoziții foarte diferite, dar în Washington-ul lui 2026, distincția nu mai contează.
Există o ironie amară în faptul că Anthropic, compania fondată explicit pe premisa siguranței AI, compania care și-a construit întreaga identitate de brand pe ideea că inteligența artificială trebuie dezvoltată responsabil, este acum pedepsită tocmai pentru că a luat în serios propria misiune. E ca și cum ai fi concediat de la pompieri pentru că ai refuzat să dai foc la o clădire. Dario Amodei și sora lui, Daniela, au plecat de la OpenAI în 2021 tocmai pentru că voiau o abordare mai prudentă. Cinci ani mai târziu, prudența lor le costă sute de milioane.
Iar contextul mai larg e și mai tulburător. Administrația Trump a transformat relația cu Silicon Valley într-un test de loialitate. Companiile care se aliniază primesc contracte, acces, protecție. Cele care ridică obiecții primesc etichete, investigații, excluderi. Nu e un fenomen nou în politica americană, dar scala și viteza sunt fără precedent. Când cel mai mare cumpărător de tehnologie din lume decide că un furnizor e 'risc de securitate' nu pe baza unei evaluări tehnice, ci pe baza unor declarații publice, suntem într-un teritoriu pe care democrația americană nu l-a mai explorat de mult.
Ce ne privește pe noi, de la 8.000 de kilometri distanță
România cheltuie pe digitalizarea armatei cam cât cheltuie Anthropic pe cafeaua de la birou. Bugetul MApN pentru 2025 a inclus aproximativ 150 de milioane de lei (circa 30 de milioane de euro) pentru 'transformare digitală și sisteme informatice', conform datelor publice. E o sumă care, la Washington, nu ar acoperi nici măcar o licitație de PowerPoint-uri. Și totuși, întrebarea fundamentală din procesul Anthropic versus Pentagon e la fel de relevantă la București ca la Washington: are un furnizor de tehnologie dreptul să pună condiții etice statului?
Profesorul Dragoș Tudorache, fost europarlamentar și unul dintre arhitecții AI Act-ului european, a comentat într-un interviu recent pentru Digi24 că 'Europa a ales calea reglementării, America a ales calea pieței. Dar când piața e distorsionată de puterea statului, ambele sisteme ajung în același loc: la întrebarea cine decide limitele tehnologiei'. E o observație care taie direct la os. AI Act-ul european, cu toate imperfecțiunile lui birocratice, oferă cel puțin un cadru. În America, cadrul e contractul. Iar contractul e scris de cel care plătește.
Pentru companiile românești de tech care visează contracte cu NATO sau cu agențiile europene de apărare, procesul Anthropic e un semnal de alarmă. Nu pentru că ar fi în pericol imediat, ci pentru că demonstrează un principiu simplu: în relația cu statul, termenii de utilizare sunt o iluzie. Poți scrie ce vrei în licența ta software. Poți pune oricâte clauze etice vrei în contractul tău. Dar în momentul în care statul decide că e 'risc de securitate' să ai principii, principiile tale valorează exact cât hârtia pe care sunt tipărite. Sau, în era digitală, cât serverul pe care sunt stocate.
Mircea Geoană, fost secretar general adjunct al NATO, a declarat la o conferință la București în februarie 2026 că 'viitorul apărării europene depinde de capacitatea noastră de a dezvolta și controla tehnologiile de inteligență artificială pe propriul continent'. Frumos spus. Dar 'a controla' înseamnă și a decide cine pune condițiile de utilizare. Și în Europa, la fel ca în America, răspunsul tinde să fie: statul. Cu diferența că în Europa, statul are măcar un regulament. În America, statul are un secretar al Apărării cu postere de recrutare pe holurile Pentagonului.
Procesul pe care Anthropic probabil îl va pierde, dar care contează oricum
Să fim realiști. Șansele Anthropic în instanță nu sunt grozave. Regulile de achiziții ale Pentagonului sunt scrise să dea maximum de flexibilitate guvernului și minimum de recurs furnizorilor. Designarea de 'risc pentru lanțul de aprovizionare' e un instrument creat tocmai pentru a fi greu de contestat. A fost gândit inițial pentru companii chineze precum Huawei, nu pentru startup-uri din San Francisco. Dar legea nu face distincție între un risc real de securitate și un risc fabricat politic. Sau, mai exact, legea lasă această distincție la latitudinea aceluiași Pentagon care a făcut designarea.
Argumentul constituțional al Anthropic, cel legat de Primul Amendament, e creativ dar fragil. Companiile au, într-adevăr, dreptul la liberă exprimare. Dar guvernul are, de asemenea, dreptul să aleagă cu cine face afaceri. Linia dintre 'te pedepsesc pentru ce ai spus' și 'aleg să cumpăr de la altcineva' e subțire, iar jurisprudența americană nu e clară în această zonă. Dacă Anthropic ar fi fost o companie mică, fără resurse juridice, discuția s-ar fi terminat aici. Dar Anthropic are bani, avocați buni și, cel mai important, un caz care atrage atenția presei. Uneori, procesele cele mai importante nu sunt cele câștigate, ci cele purtate.
Cel mai puternic argument al Anthropic rămâne tratamentul diferențiat. OpenAI a obținut un contract cu condiții similare celor cerute de Anthropic. Dacă echipa juridică a lui Dario Amodei poate demonstra că a solicitat aceleași clauze ca OpenAI și a fost refuzată, atunci designarea de 'risc' devine greu de justificat ca altceva decât retorsiune. E ca și cum ai fi eliminat de la o licitație publică nu pentru că oferta ta era proastă, ci pentru că ai comentat public că licitația e aranjată. Românii, în special, ar trebui să recunoască acest tipar. Avem o tradiție bogată în materie de licitații aranjate și furnizori eliminați pentru că au vorbit prea mult.
Departamentul de Război a refuzat să comenteze procesul. E un non-răspuns elocvent. Când cel mai puternic departament al celei mai puternice armate din lume refuză să comenteze un proces intentat de un furnizor de software, mesajul e clar: nu considerăm că merită un răspuns public. Răspunsul va veni în instanță, prin avocații guvernului, în termeni juridici uscați și impersonali. Iar judecătorul va trebui să decidă dacă un poster cu Pete Hegseth arătând spre cameră e o politică de apărare sau un act de intimidare.
Între timp, Anthropic pierde clienți în fiecare zi. Lockheed Martin, Palantir și alți contractori de apărare evaluează alternative. Fiecare migrare e o pierdere permanentă. În tech, loialitatea clientului durează exact până la următorul 'pip install'. Iar Anthropic, compania care a crezut că poate construi AI responsabil și profitabil în același timp, descoperă că responsabilitatea e un lux pe care piața militară nu și-l permite.
Procesul va dura luni, poate ani. Ordinul de restricție temporar, dacă va fi acordat, va oferi o pauză de respirație. Dar daunele de imagine și de piață sunt deja făcute. Într-o industrie în care percepția e totul, eticheta de 'risc de securitate' e o condamnare comercială care nu se șterge cu o decizie judecătorească. Poți câștiga procesul și pierde piața. Anthropic știe asta. Pentagonul știe asta. Și exact de aceea procesul contează: nu pentru că va schimba rezultatul, ci pentru că va documenta, în acte oficiale, momentul în care o companie americană a fost pedepsită de propria armată pentru că a avut curajul să spună că AI-ul ei nu e pregătit să ucidă singur. Într-o lume normală, asta ar fi fost o virtute. În Washington-ul lui 2026, e un risc pentru lanțul de aprovizionare.
inspired by: Anthropic Sues Department... »
Editorialist cinic cu o furie reală față de mediocritate. Scrie despre putere, corupție și ipocrizie cu precizie chirurgicală.
Ai putea citi și
Calculatorul tău șoptește secrete. De 80 de ani. Și nimeni nu te-a avertizat.
TEMPEST, tehnica de spionaj inventată pe vremea lui Stalin, funcționează și pe laptopul tău din 2026. Congresul american tocmai a descoperit că populația civilă e complet neprotejată.
Democrațiile Putrezesc. România a Putrezit de Mult.
Transparency International confirmă ce știam deja: democrațiile se descompun de la interior. SUA a căzut la minimul istoric, media globală a atins cel mai scăzut nivel din ultimul deceniu. România, cu 45 din 100, nu mai e excepția — e doar pioniera.
Dreptul tău de a-ți repara propriul router deranjează pe cineva. Ghici pe cine.
Colorado a dat cea mai ambițioasă lege din SUA privind dreptul la reparare. Acum Cisco și IBM vor s-o golească de conținut, invocând „infrastructura critică". Adică tot ce se conectează la internet.