Wired 11 min lectură

Anthropic, risc de securitate națională? Povestea în care Pentagonul și-a împușcat singur AI-ul în picior

Secretarul american al apărării a desemnat Anthropic drept 'risc în lanțul de aprovizionare', o mișcare care ar putea bloca accesul companiei la contracte militare și care a băgat panica în Silicon Valley. Dar ce înseamnă asta de fapt și de ce ar trebui să ne pese și nouă?


mara.io | | 11 min lectură | vizualizări
A giant robotic military hand reaching down to crush a small glowing AI brain, surrounded by corporate logos fleeing in panic, dramatic chiaroscuro lighting, surrealist composition, Pentagon building in background dissolving into circuit boards, digital illustration, editorial magazine style, flat bold colors, graphic novel aesthetic, hand-painted texture, NOT a photograph, illustrated artwork, stylized
Când Pentagonul descoperă că poate folosi legea ca pe un ciocan, tot ce vede sunt cuie.
Citește
Spatiu Publicitar 728×90
inteligenta artificiala pentagon anthropic politica tech silicon valley

Imaginați-vă că administratorul blocului vostru decide că firma care face interfoanele este un risc de securitate pentru tot cartierul, pentru că a refuzat să instaleze o cameră în fiecare apartament. Și că, drept consecință, nimeni din bloc nu mai are voie să cumpere nimic de la firma respectivă, nici măcar becuri. Cam asta s-a întâmplat vinerea trecută în Statele Unite, cu mențiunea că în loc de interfoane avem modele de inteligență artificială, în loc de administrator avem secretarul apărării Pete Hegseth, și în loc de becuri avem contracte de miliarde de dolari cu armata americană.

Anthropic, compania din spatele modelului Claude, a fost desemnată oficial drept 'risc în lanțul de aprovizionare' de către Pentagon. Decizia a venit ca un fulger pe cer senin, cel puțin pentru companiile care lucrează simultan cu armata americană și cu Anthropic, adică Amazon, Microsoft, Google și Nvidia, ca să numim doar câteva. Niciuna dintre ele nu a răspuns imediat întrebărilor presei. Probabil că avocații lor sunt încă în ședință de urgență.

Ce înseamnă, de fapt, 'supply chain risk'?

Înainte să ne panicăm, sau să nu ne panicăm, depinde de zi, să lămurim ce este o desemnare de tip 'risc în lanțul de aprovizionare'. Termenul sună a ceva scos din manualul de logistică al unui depozit IKEA, dar în realitate vine cu consecințe serioase. Sub autoritatea 10 USC 3252, Pentagonul poate restricționa sau exclude anumiți furnizori din contractele de apărare dacă aceștia sunt considerați vulnerabilități de securitate. De obicei, mecanismul ăsta e folosit împotriva companiilor cu legături la guverne străine, gândiți-vă la Huawei sau la software-ul rusesc. Nu împotriva startup-urilor americane de AI din San Francisco.

Problema e că desemnările de acest tip nu intră de obicei în vigoare imediat. Există un proces: evaluări de risc, notificarea Congresului, o perioadă în care partenerii militari sunt avertizați. Hegseth a ignorat toate astea și a anunțat pe rețelele sociale că 'efectiv imediat, niciun contractor, furnizor sau partener care face afaceri cu armata americană nu mai poate desfășura activitate comercială cu Anthropic'. Clar, concis și complet în afara procedurii legale, după cum au subliniat rapid trei experți în contracte federale citați de Wired.

Alex Major, partener la firma de avocatură McCarter & English, care lucrează cu companii tech, a spus că anunțul lui Hegseth 'nu este ancorat în nicio lege pe care o putem identifica acum'. Anthropic însuși a precizat că desemnarea, conform textului legal invocat, se aplică doar contractelor directe ale Departamentului Apărării cu furnizorii, nu și modului în care contractorii folosesc software-ul Claude pentru a servi alți clienți. Cu alte cuvinte, chiar dacă desemnarea e legală, raza ei de acțiune e probabil mult mai mică decât a sugerat Hegseth pe Twitter.

De ce s-a ajuns aici? Scurt istoric al unui divorț tech-militar

Povestea asta nu a început vinerea trecută. Au fost săptămâni de negocieri tensionate între Pentagon și Anthropic privind termenii în care armata americană ar putea folosi modelele Claude. Anthropic a publicat un blog post în care spunea că nu vrea ca tehnologia sa să fie folosită pentru supraveghere în masă a cetățenilor americani sau pentru arme complet autonome. Nu sunt cerințe radicale, sunt de fapt principii pe care companiile tech le invocă de ani de zile ca să nu pară că furnizează instrumente de opresiune.

Pentagonul a răspuns cu o cerere simplă și totală: Anthropic trebuie să fie de acord ca armata să aplice AI-ul la 'toate utilizările legale', fără excepții specifice. Adică exact excepțiile pe care Anthropic le ceruse. E genul de negociere în care una dintre părți spune 'vrem să putem folosi mașina voastră oriunde' și cealaltă răspunde 'bine, dar nu pe câmpul minat'. Evident că nu s-au înțeles.

Ceea ce face situația și mai interesantă, sau mai îngrijorătoare, e că în aceeași seară în care Hegseth a publicat desemnarea anti-Anthropic, Sam Altman a anunțat că OpenAI a semnat un acord cu Departamentul Apărării pentru a-și deploya modelele AI în medii clasificate. Și că acordul include tocmai excepțiile pe care Anthropic le ceruse: interdicție pentru supravegherea internă în masă și responsabilitate umană pentru utilizarea forței. Altman a prezentat asta ca pe un succes diplomatic. Unii observatori l-au văzut ca pe o victorie obținută pe cadavrul concurentului. Ambele interpretări sunt probabil corecte.

Two AI robots shaking hands in front of a military base, one wearing a halo and the other in chains, dramatic split lighting, one side bright corporate white the other shadowy military green, surrealist editorial illustration, digital illustration, editorial magazine style, flat bold colors, graphic novel aesthetic, hand-painted texture, NOT a photograph, illustrated artwork, stylized
OpenAI și Pentagonul: un acord made in heaven, semnat în noaptea în care concurența ardea.
Spatiu Publicitar 300×250

Silicon Valley în stare de șoc colectiv

Reacțiile din industrie au venit rapid și au fost, pentru standardele de obicei temperate ale tech-ului american, destul de vehemente. Dean Ball, fost consilier senior pentru AI la Casa Albă și acum cercetător la Foundation for American Innovation, a declarat că este 'cel mai șocant, dăunător și excesiv lucru pe care l-am văzut vreodată guvernul american făcând'. A adăugat că 'am sancționat practic o companie americană' și că orice american ar trebui să se gândească dacă mai vrea să locuiască în SUA peste zece ani. Nu e un tip cunoscut pentru hiperbole, ceea ce face declarația cu atât mai interesantă.

Paul Graham, fondatorul Y Combinator, acceleratorul care a lansat zeci de startup-uri celebre, a fost mai succint: 'Oamenii care conduc această administrație sunt impulsivi și răzbunători. Cred că asta explică suficient comportamentul lor.' Boaz Barak, cercetător la OpenAI, a spus că 'a pune bețe în roate uneia dintre companiile noastre de AI de top este exact cel mai prost autogol pe care îl putem face'. Observați că un cercetător OpenAI apără Anthropic, concurentul direct. Asta spune ceva despre gravitatea percepută a situației.

Companiile mari care lucrează atât cu armata cât și cu Anthropic, Amazon, Microsoft, Google, Nvidia, au tăcut cu o consistență suspectă. Tăcerea aia nu e neutră. E tăcerea cuiva care stă între două trenuri și încearcă să calculeze care vine mai repede. Amazon are o relație specială cu Anthropic, în care a investit miliarde, și în același timp are contracte uriașe cu guvernul american prin AWS. Că nu a comentat imediat e de înțeles. Că nu a comentat deloc e mai complicat.

Precedentul care contează cu adevărat

Dincolo de drama imediată, problema reală e ce precedent se creează. Greg Allen, consilier senior la Wadhwani AI Center din cadrul Center for Strategic and International Studies, a formulat-o direct: 'Departamentul Apărării tocmai a trimis un mesaj clar fiecărei companii: dacă îți bagi piciorul în politicile noastre, te distrugem.' Asta e o problemă structurală uriașă pentru modul în care guvernul american vrea să colaboreze cu industria tech privată pe teme de AI și apărare.

Gândiți-vă la asta ca la un contract de chirie în care proprietarul poate schimba condițiile oricând și te poate da afară dacă nu ești de acord, fără să respecte niciun termen de preaviz și fără să invoce vreo lege clară. Cine mai vrea să închirieze în blocul ăla? Companiile tech, mai ales cele care au principii de siguranță AI bine documentate, vor fi mult mai reticente să negocieze cu Pentagonul dacă văd că negocierea se poate termina cu o desemnare de risc național publicată pe rețele sociale.

Ironia e că SUA se află într-o competiție declarată cu China în domeniul AI militar. Și acum tocmai a descurajat una dintre companiile sale de AI de top să mai colaboreze cu armata. E genul de strategie pe care, dacă ar face-o o țară adversară, ar fi descrisă drept sabotaj. Când o faci tu singur, se cheamă politică.

Situația amintește, în mic, de dinamica din alte episoade recente în care deciziile abrupte ale unor entități puternice au creat mai multă incertitudine decât soluții. Diferența e că acolo vorbim de companii private care își gestionează propriile resurse. Aici vorbim de guvernul celei mai mari puteri militare din lume care își gestionează relația cu industria care ar trebui să îi asigure superioritatea tehnologică.

Ce spune Anthropic și de ce contează răspunsul lor

Anthropic nu a tăcut. Compania a publicat un blog post în aceeași seară în care a anunțat că va contesta desemnarea în instanță și că aceasta 'ar crea un precedent periculos pentru orice companie americană care negociază cu guvernul'. A adăugat că nu a primit nicio comunicare directă de la Departamentul Apărării sau de la Casa Albă în legătură cu negocierile. Asta e detaliul care face totul și mai bizar: compania aflată în centrul scandalului a aflat despre desemnare de pe rețelele sociale, ca oricine altcineva.

Argumentul legal al Anthropic e interesant. Ei susțin că autoritatea invocată de Hegseth, 10 USC 3252, se aplică strict contractelor directe ale DoD cu furnizorii, nu relațiilor comerciale mai largi ale contractorilor cu terțe companii. Cu alte cuvinte, Amazon poate în continuare să folosească Claude pentru clienții săi civili chiar dacă are contracte militare, pentru că Anthropic nu furnizează direct armatei. Dacă interpretarea asta e corectă, și experții legali par să o susțină, atunci anunțul lui Hegseth e mai mult spectacol decât substanță.

Dar spectacolul contează. Chiar dacă desemnarea e contestată cu succes în instanță și anulată, daunele de reputație și incertitudinea creată rămân. Companiile care folosesc Claude în produsele lor vor fi întrebate de clienții lor din sectorul public dacă e sigur să continue. Unele vor decide că nu merită bătaia de cap și vor migra la alt model. Asta e exact ce urmărea Pentagonul, dacă nu să câștige legal, cel puțin să câștige practic.

A scale of justice with an AI brain on one side and a military shield on the other, both sides tipping chaotically, legal documents flying through the air, surrealist courtroom setting, dramatic perspective, digital illustration, editorial magazine style, flat bold colors, graphic novel aesthetic, hand-painted texture, NOT a photograph, illustrated artwork, stylized
Justiție versus securitate națională: ambele platane ale balanței sunt puse greșit.

Ce înseamnă asta pentru restul lumii, inclusiv pentru noi

Acum, evident, vă întrebați: bun, dar de ce ar trebui să îmi pese mie, care citesc asta din Cluj sau București sau oriunde altundeva în afara Silicon Valley? Răspuns scurt: pentru că modelele AI pe care le folosiți zi de zi, în aplicații, în instrumente de productivitate, în tot felul de servicii, sunt construite de companii care acum se uită la ce s-a întâmplat cu Anthropic și recalibrează cât de mult vor să negocieze cu guvernele. Orice guvern, nu doar cel american.

Există și o lecție mai directă pentru scena tech europeană și românească. Noi avem o conversație continuă despre reglementarea AI, despre AI Act-ul european, despre cum companiile tech ar trebui să colaboreze cu instituțiile publice. Modelul american, cel puțin în forma lui actuală, arată că poți avea o relație toxică între guvern și industria tech chiar și fără reglementare formală, pur și simplu prin amenințare și presiune. E un avertisment util.

În România, conversația despre AI și stat e încă la nivel de 'să vedem ce face UE'. Dar companiile românești care exportă servicii tech, și sunt multe, mai ales din Cluj, unde ecosistemul de outsourcing și produs propriu s-a maturizat considerabil în ultimii ani, vor fi afectate indirect dacă clienții lor americani trebuie să restructureze stiva de AI din cauza unor decizii politice imprevizibile. Lanțul de aprovizionare e global. Efectele nu se opresc la granița SUA.

Și mai e ceva. Toată această poveste se petrece pe fondul unei curse AI în care SUA și China investesc sume astronomice. Faptul că administrația americană a ales să trateze una dintre companiile sale AI de top ca pe un inamic în loc să o coopteze e, sincer, fascinant ca spectacol politic. Nu în sensul bun. E fascinant cum e fascinant să privești pe cineva care încearcă să deschidă o conservă cu un ciocan. Tehnic funcționează, dar nu e elegant și pierzi jumătate din conținut.

Ce urmează și de ce nu știe nimeni

Anthropic a spus că va contesta desemnarea în instanță. Procesele federale americane sunt lente, dar în cazuri cu miză mare pot fi accelerate. Există precedente pentru instanțe care au blocat decizii executive în așteptarea unui verdict. Dacă Anthropic obține o injoncție temporară, desemnarea rămâne suspendată și companiile partenere pot respira.

Există și scenariul în care Congresul intervine. Câțiva senatori și reprezentanți au reacționat deja critic la mișcarea lui Hegseth, din ambele partide, ceea ce e rar și semnificativ. Dacă presiunea politică e suficient de mare, administrația ar putea retrage sau modifica desemnarea fără să admită că a greșit, ci prezentând-o ca pe o 'clarificare' sau o 'ajustare'. Guvernele sunt experți în a pierde elegant.

Scenariul cel mai puțin probabil, dar nu imposibil, e că desemnarea rămâne, Anthropic pierde în instanță și companiile mari trebuie să aleagă între contractele militare și parteneriatele cu Anthropic. În cazul ăsta, Amazon și Microsoft vor alege contractele militare, pentru că sunt mai mari și mai profitabile. Anthropic ar pierde distribuție semnificativă, dar nu ar dispărea, pentru că are clienți proprii și parteneri non-militari. Ar fi un scenariu dureros, nu fatal.

Ceea ce e clar e că incertitudinea în sine e costisitoare. Companiile care construiesc produse pe baza Claude trebuie să decidă acum dacă să continue sau să migreze la alternative, GPT-4o, Gemini, modele open source. Migrarea unui sistem AI nu e ca schimbarea unui bec. E mai aproape de renovarea completă a instalației electrice. Costă timp, bani și nervi. Și toate astea pentru că un secretar al apărării a decis că cel mai bun canal de comunicare pentru o decizie cu impact de miliarde de dolari este un post pe rețelele sociale.

Dacă vreți să înțelegeți mai bine cum arată un sistem complex care cedează sub presiune neașteptată, povestea despre cum un bot AI a picat Amazon Web Services e un bun punct de plecare. Diferența e că acolo a fost un accident. Aici pare să fie o politică.

Oricum ar evolua situația, un lucru e cert: relația dintre guvernul american și industria AI privată a intrat într-o fază nouă, mai tensionată și mai imprevizibilă. Companiile care credeau că pot negocia principii etice cu Pentagonul ca pe niște clauze contractuale normale au primit un semnal că regulile jocului se pot schimba oricând, fără preaviz și fără bază legală clară. Ăsta e un mediu în care nu poți planifica pe termen lung. Și AI-ul, dacă e ceva, e o industrie care necesită tocmai asta: planificare pe termen lung, investiții masive și predictibilitate regulatorie. Toate trei au ieșit pe geam vinerea trecută.

M
mara.io

Jurnalistă tech cu fascinație genuină pentru inovație și o doză sănătoasă de scepticism. Transformă jargonul Silicon Valley în povești pentru oameni normali.

techștiințăstartup-uri

Ai putea citi și

Spatiu Publicitar 728×90