Anthropic refuză să ucidă pentru Pentagon. Acum plătește prețul.
Cea mai safety-conscious companie AI din lume a ajuns pe lista neagră a Departamentului Apărării. Și asta ridică o întrebare pe care nimeni nu vrea să o pună cu voce tare.
Ok dar ascultă situația asta, că e fascinantă și înfricoșătoare în același timp. Anthropic, compania care și-a construit întreaga identitate pe ideea că AI-ul trebuie să fie sigur și benefic pentru umanitate, a ajuns să fie tratată de Departamentul Apărării al SUA ca un fel de... amenințare. Nu pentru că ar fi făcut ceva rău. Ci pentru că a refuzat să facă ceva rău.
Povestea scurtă: Anthropic a semnat anul trecut un acord cu Pentagonul, devenind prima companie majoră de AI autorizată pentru uz clasificat, inclusiv aplicații militare. Suna bine pe hârtie. Dar undeva în negocieri, Anthropic a tras niște linii roșii: nu vrem ca Claude să fie folosit în operații letale autonome sau în supraveghere guvernamentală în masă. Și Pentagonul a zis: okay, dar dacă nu ești all-in, poate că nu ești partenerul potrivit. Acum există un contract de 200 de milioane de dolari care atârnă în aer, și există riscul ca Anthropic să fie desemnată "risc de lanț de aprovizionare", adică o etichetă care în mod normal e rezervată companiilor care fac afaceri cu China.
Ce înseamnă, de fapt, "supply chain risk"
Hai să despachetăm asta un pic. Eticheta de "supply chain risk" e una dintre cele mai grele pe care Departamentul Apărării o poate aplica unui furnizor. În mod tradițional, o primesc companii care au conexiuni cu guverne ostile, care au fost prinse cu backdoors în software, sau care prezintă riscuri reale de securitate cibernetică. Huawei a primit-o. Kaspersky a primit-o. Companii cu legături directe la Beijing sau Moscova.
Anthropic e o companie americană, fondată de foști angajați OpenAI, cu sediul în San Francisco, finanțată de Amazon cu miliarde de dolari. Nu are nicio legătură cu China, Rusia sau orice alt actor considerat ostil de SUA. Și totuși, Pentagonul se gândește să o pună în aceeași categorie cu Huawei. De ce? Pentru că are principii.
Asta e partea care mi se pare absolut surreală. Logica Pentagonului, exprimată explicit de purtătorul de cuvânt Sean Parnell, e că "națiunea noastră cere ca partenerii noștri să fie dispuși să ajute soldații noștri să câștige în orice luptă." Orice luptă. Fără excepții. Fără limite etice. Dacă nu ești dispus să participi la orice operație militară, indiferent de natura ei, nu ești un partener de încredere.
Pentagonul nu vrea un partener cu principii. Vrea un partener care câștigă lupte.
Anthropic și obsesia pentru safety: de unde vine și de ce contează
Dacă nu ești familiar cu Anthropic, hai să facem un pas în spate. Compania a fost fondată în 2021 de Dario Amodei, Daniela Amodei și alți câțiva oameni care au plecat de la OpenAI tocmai pentru că aveau îngrijorări legate de direcția în care mergea organizația. Ironia e că OpenAI fusese fondată ca o organizație non-profit tocmai pentru a asigura că AI-ul e dezvoltat în siguranță, și totuși unii dintre fondatorii ei au simțit că nu e suficient de serios în privința asta.
Anthropic și-a construit modelele, inclusiv Claude, cu o filozofie numită Constitutional AI, adică un sistem prin care AI-ul e antrenat să urmeze un set de principii etice, nu doar să maximizeze utilitatea sau să satisfacă utilizatorul. Claude are, practic, o constituție internă. Și una dintre regulile fundamentale din acea constituție e că nu ajută la producerea de daune fizice directe oamenilor.
Acum, hear me out: asta nu înseamnă că Claude e inutil pentru armată. Poate analiza date de intelligence, poate ajuta la logistică, poate procesa documente clasificate, poate genera rezumate pentru briefing-uri. Sunt tone de aplicații militare legitime în care un AI avansat e util fără să fie direct implicat în decizia de a omorî pe cineva. Anthropic a fost de acord cu toate astea. Problema apare când Pentagonul vrea să meargă mai departe.
Anthropic a construit cea mai sofisticată mașinărie de raționament din lume și acum e pedepsită exact pentru că funcționează prea bine.
OpenAI, xAI și Google: ceilalți jucători care se uită la asta cu atenție
Situația Anthropic nu e izolată. E un semnal pentru toată industria. Wired menționează că OpenAI, xAI (compania lui Elon Musk) și Google au deja contracte cu Departamentul Apărării pentru muncă neclasificată și sunt în proces de a obține autorizații pentru nivel clasificat. Și acum văd exact ce se întâmplă cu Anthropic.
Mesajul e clar: dacă vreți contracte mari cu armata americană, trebuie să fiți dispuși să mergeți până la capăt. Nu există "da, dar". Nu există "colaborăm, cu excepția operațiilor letale". E totul sau nimic.
Și asta pune celelalte companii într-o poziție interesantă. OpenAI a eliminat deja în 2024 interdicțiile explicite privind utilizarea militară din politicile de utilizare, permițând colaborarea cu Pentagonul pentru aplicații de apărare națională. Practic, au deschis ușa. Google, care în 2018 a renunțat la contractul Project Maven după protestele angajaților, a revenit treptat în spațiul militar. xAI nici nu a pretins vreodată că are prea multe principii în privința asta.
Deci Anthropic e singura companie majoră care a zis: stai, hai să punem niște limite. Și acum e singura companie care riscă să fie exclusă din cel mai mare contract guvernamental disponibil.
De ce e asta mai complicat decât pare
Nu vreau să simplific prea mult situația, pentru că e genuinely complicată. Există un argument serios pe cealaltă parte: dacă armata americană va folosi AI în operații militare oricum, poate e mai bine să fie un AI construit de oameni care se gândesc la siguranță, decât unul construit de oameni care nu se gândesc deloc. Dacă Anthropic e scoasă din ecuație, Pentagonul nu renunță la AI. Pur și simplu folosește altceva.
E genul de argument utilitar care te face să te simți prost că îl înțelegi. Da, logic. Da, probabil adevărat. Și totuși, dacă toată lumea adoptă această logică, nu mai există niciun actor în industrie care să tragă linii roșii. Toți devin complici, cu grade diferite de entuziasm.
Există și o altă dimensiune: banii. Un contract de 200 de milioane de dolari e enorm pentru orice companie, chiar și pentru una finanțată generos ca Anthropic. Și dacă eticheta de "supply chain risk" se materializează, asta nu înseamnă doar că Anthropic pierde contractul direct cu Pentagonul. Înseamnă că orice companie de apărare care vrea să lucreze cu Departamentul Apărării nu mai poate folosi Anthropic în produsele ei. Asta e o excludere masivă dintr-un sector care mișcă sute de miliarde de dolari anual.
Dacă refuzi să faci rău, în logica militară americană din 2026, ești un risc de securitate națională.
Ce ne spune asta despre direcția în care merge AI-ul
Dacă urmărești industria AI cu atenție, știi că există de mult timp o tensiune între tabăra care zice "trebuie să mergem încet și să ne asigurăm că e sigur" și tabăra care zice "dacă noi nu mergem repede, o fac alții și pierdem cursa". E o dezbatere reală, cu oameni inteligenți de ambele părți, și am scris despre ea înainte.
Dar situația Anthropic adaugă o dimensiune nouă: ce se întâmplă când presiunea nu vine din competiție cu alte companii private, ci direct de la guvernul SUA? Când statul, prin intermediul celui mai mare cumpărător de contracte din lume, îți spune explicit că principiile tale etice sunt un dezavantaj competitiv?
Asta e o formă de presiune pe care industria nu a mai experimentat-o în această formă. Nu e vorba de un investitor care vrea returns mai mari. E vorba de Departamentul Apărării care îți spune: fie ești cu noi complet, fie nu ești cu noi deloc. Și "cu noi complet" înseamnă să renunți la limitele etice pe care le-ai considerat fundamentale.
Dacă te interesează cum gândesc oamenii din interiorul companiilor AI despre aceste dileme, am explorat asta într-un articol separat care e worth reading în contextul de față.
Armele autonome: de ce e asta diferit de orice altceva
Trebuie să vorbim specific despre ce anume refuză Anthropic, pentru că nu e un refuz generic de a lucra cu armata. Linia roșie specifică e la armele autonome și supravegherea în masă. Și asta e important.
Armele autonome, adică sisteme care pot identifica și elimina ținte fără intervenție umană directă, sunt unul dintre cele mai controversate subiecte din dreptul internațional și etica militară în acest moment. Există dezbateri serioase la nivel ONU despre dacă ar trebui interzise prin tratate internaționale, similar cu armele chimice sau biologice. Oponenții lor argumentează că un sistem care poate decide să ucidă fără judecată umană în buclă e incompatibil cu principiile fundamentale ale dreptului umanitar internațional.
Anthropic a zis: nu vrem să fim parte din asta. Nu vrem ca Claude să fie creierul care decide cine moare. Și asta e o poziție pe care o poți respecta sau nu, dar e cel puțin coerentă cu întreaga filozofie a companiei.
Problema e că Pentagonul nu face distincția asta. Din perspectiva lor, dacă ești un partener de apărare, trebuie să fii disponibil pentru toate aplicațiile de apărare. Nu poți alege. Și în logica asta, o companie care zice "ajut cu logistica dar nu cu armele autonome" e la fel de problematică ca una care refuză orice colaborare.
Și acum ce?
Sincer, nu știu cum se termină asta. Există câteva scenarii posibile. Primul: Anthropic cedează, negociază termeni mai puțin restrictivi, și contractul e salvat. Asta ar fi o victorie pentru Pentagon și ar seta un precedent clar că orice companie AI poate fi presată să renunțe la principii dacă miza e suficient de mare.
Al doilea scenariu: Anthropic ține linia și pierde contractul. Eticheta de "supply chain risk" e aplicată. Compania e exclusă din sectorul apărării. Financiar, e o lovitură serioasă, dar nu fatală, dat fiind că Amazon a investit masiv în ea. Și poate că Anthropic devine un simbol, o companie care a ales principiile în fața banilor. Asta are valoare de brand, chiar dacă nu plătește facturile la fel de bine.
Al treilea scenariu, cel mai interesant: toată povestea asta ajunge în Congres sau în instanță, și devine un test pentru cum SUA vrea să reglementeze AI-ul militar. Există senatori și reprezentanți care sunt genuinely îngrijorați de armele autonome. Există organizații de drept civil care urmăresc exact aceste evoluții. Nu e imposibil ca asta să declanșeze o dezbatere mai largă.
Și în tot acest timp, supravegherea digitală se extinde în direcții pe care nici nu le bănuim, cu sau fără Anthropic în ecuație.
Ce e clar e că situația Anthropic nu e o știre de nișă despre un contract guvernamental. E un moment de claritate brutală despre ce înseamnă să ai principii în industria AI în 2026. Și răspunsul, cel puțin din perspectiva Pentagonului, e că principiile sunt o vulnerabilitate, nu un atu.
No cap, asta e una dintre cele mai importante întrebări pe care industria tech o va trebui să o rezolve în următorii ani: poți construi AI responsabil și să rămâi viabil comercial, sau presiunea contractelor guvernamentale și militare va eroda orice limitare etică pe care o companie ar putea să o impună? Anthropic e, în momentul ăsta, cobai-ul acestui experiment. Și toată lumea se uită.
inspired by: AI Safety Meets the War M... »
Generalistul energic al redacției. Scrie despre orice, de la AI la crypto, cu entuziasmul unui early adopter și pragmatismul unui inginer.
Ai putea citi și
90 de milioane de oameni fără internet: cum arată o țară deconectată de la lume
Iranul trăiește cel mai lung blackout total de internet din istoria sa recentă, iar combinația dintre cenzura de stat și distrugerile fizice de infrastructură face ca nimeni să nu știe cu adevărat cât va dura.
AI-ul E Mai Creativ Decât Tine
Un studiu pe 100.000 de oameni arată că inteligența artificială bate omul de rând la creativitate. Dar înainte să intri în panică, citește litera mică.
Arma secretă a Tesla nu e un robot. E o cutie de metal.
În timp ce toată lumea se uită la Cybercab și Optimus, Tesla construiește în liniște ceva mult mai important: infrastructura energetică a boom-ului AI.