WIRED 10 min lectură

OpenAI a zis nu armatei. Microsoft a zis da. Nimeni n-a întrebat pe nimeni.

Pentagonul a testat modelele OpenAI prin Microsoft, deși OpenAI avusese o politică explicită de interzicere a utilizărilor militare. Sam Altman recunoaște că arată "neglijent". Noi îi spunem altfel.


vlad.exe | | 10 min lectură | vizualizări
A corporate handshake between a suit-wearing tech executive and a military general, but the handshake is happening behind a thin paper wall with 'NO MILITARY USE' written on it, the paper is torn, dollar bills float in the air, a robot eye watches from above, surrealist editorial composition, digital illustration, editorial magazine style, flat bold colors, graphic novel aesthetic, hand-painted texture, NOT a photograph, illustrated artwork, stylized
Politica de utilizare acceptabilă: valabilă până la primul contract cu nouă zerouri.
Citește
Spatiu Publicitar 728×90
openai inteligenta artificiala pentagon microsoft etica ai

Există un document. Îl cheamă "Usage Policy" și OpenAI îl publică pe site ca să te liniștească noaptea. Printre lucrurile interzise explicit se afla, până nu demult, utilizarea militară. Nu "utilizarea militară ofensivă", nu "utilizarea în zone de conflict activ", ci utilizarea militară, punct. Clar, simplu, în negru pe alb. Genul de regulă pe care o citezi la conferințe despre AI responsabil, o pui în slide-uri cu fonturi sans-serif și o prezinți ca dovadă că băieții din Silicon Valley au, totuși, o conștiință.

Între timp, Departamentul Apărării al Statelor Unite testa modelele OpenAI. Prin Microsoft. Care este partenerul principal al OpenAI, investitorul de zeci de miliarde de dolari, și, convenabil, entitatea care poate semna contracte cu Pentagonul fără să fie OpenAI. Când povestea a ieșit la suprafață, Sam Altman a scris pe rețelele sociale că situația arată "sloppy". Adică neglijentă. Adică: ne-am prins că se vede urât, să zicem că a fost o scăpare.

Structura perfectă a negării plauzibile

Hai să fim serioși o clipă. OpenAI și Microsoft nu sunt două companii care s-au întâlnit la un networking event și au schimbat cărți de vizită. Microsoft a investit treisprezece miliarde de dolari în OpenAI. Modelele OpenAI rulează pe infrastructura Azure. Produsele Microsoft, de la Copilot la Teams la Bing, sunt alimentate de GPT. Relația dintre ele este atât de strânsă încât să spui că Microsoft a acționat independent față de OpenAI este ca și cum ai spune că mâna dreaptă nu știe ce face mâna stângă, dar amândouă aparțin aceluiași corp.

Și totuși, exact această ficțiune juridică și corporativă a permis ca totul să funcționeze. OpenAI zice: noi am interzis utilizarea militară. Microsoft zice: noi avem un contract cu Pentagonul pentru servicii cloud și AI. Pentagonul zice: noi testăm capabilități prin partenerul nostru Microsoft. Nimeni nu minte tehnic. Toți mint în esență. E "disruptive innovation", adică hoție cu PowerPoint și structuri corporative cu trei niveluri de separare.

Mecanismul nu e nou. E același pe care îl cunoaștem din orice industrie în care există reglementări incomode. Vrei să faci ceva ce nu ai voie să faci direct? Creezi un intermediar. Intermediarul face ce trebuie. Tu te uiți în altă parte. Dacă iese la iveală, spui că nu știai, că era "sloppy", că vei investiga. Funcționează de fiecare dată, mai ales când intermediarul tău are treisprezece miliarde de motive să nu te contrazică.

Angajații OpenAI au cerut clarificări. Au criticat public decizia. Altman a recunoscut că arată rău. Nimeni nu a demisionat în semn de protest, nimeni nu a dat în judecată compania, nimeni nu a mers la presă cu documente interne. Adică exact ce se întâmplă când "etica" e un departament de PR, nu o convingere.

Contextul pe care îl omit comunicatele de presă

Povestea asta nu există în vid. Vine după ce Anthropic, concurentul principal al OpenAI în segmentul de AI "responsabil", a negociat un contract de aproximativ două sute de milioane de dolari cu Pentagonul. Negocierile au eșuat. Pentagonul a etichetat Anthropic drept "risc pentru lanțul de aprovizionare" și, ulterior, administrația Trump a inițiat demersuri pentru a exclude Anthropic din contractele guvernamentale. Povestea Anthropic e, în sine, un manual despre cum să-ți împuști singur AI-ul în picior, dar în contextul de față e relevantă pentru că ilustrează presiunea sistemică: dacă nu te conformezi, ești scos din joc.

OpenAI a văzut ce s-a întâmplat cu Anthropic. OpenAI a văzut că rezistența față de Pentagon costă: contracte pierdute, etichete neplăcute, presiune politică. OpenAI a ales să semneze direct cu militarii americani, eliminând ambiguitatea și admițând că politica de interzicere a utilizărilor militare era, în cel mai bun caz, provizorie. Altman a descris-o ca pe o evoluție naturală a companiei. Angajații au numit-o trădare. Adevărul e undeva la mijloc: a fost o decizie de business îmbrăcată în limbaj de misiune.

Ceea ce e fascinant, dacă ești genul de persoană care găsește fascinantă ipocrizia instituționalizată, e că OpenAI a construit toată identitatea companiei pe ideea că există diferit față de concurență tocmai pentru că îi pasă de siguranță și etică. "Safety first" nu era un slogan de marketing, era, teoretic, rațiunea de existență a companiei. Acum că banii mari sunt la Pentagon și în contractele de apărare, siguranța și etica sunt reinterpretate flexibil. Ca la noi, cum ar veni: principiile sunt principii, dar afacerile sunt afaceri.

A large corporate building with 'ETHICS DEPARTMENT' sign, but the building is actually a vending machine dispensing military contracts, a man in a hoodie and a man in a general's uniform both pressing the same button, coins shaped like AI chips falling out, surrealist corporate satire, digital illustration, editorial magazine style, flat bold colors, graphic novel aesthetic, hand-painted texture, NOT a photograph, illustrated artwork, stylized
Departamentul de etică: deschis de luni până vineri, închis când vin banii de la Pentagon.
Spatiu Publicitar 300×250

Ce înseamnă "utilizare militară" când modelul e în cloud

Există o problemă tehnică reală în toată această poveste, pe lângă cea morală. Când un model de limbaj este disponibil prin API, prin platforme cloud, prin produse integrate, granița dintre "utilizare militară" și "utilizare civilă" devine practic imposibil de trasat. Un analist de la Pentagon care folosește ChatGPT să rezume un raport de intelligence face utilizare militară sau utilizare de birou? Un contractor de apărare care folosește Copilot să scrie cod pentru un sistem de targetare face utilizare militară sau utilizare de productivitate?

Răspunsul corect e că distincția e arbitrară și că OpenAI știa asta când a scris politica. Politica nu era un mecanism de control tehnic, era un semnal de poziționare publică. Spunea: noi suntem compania care nu vrea să fie implicată în chestii militare. Semnalul a funcționat câțiva ani, a adus simpatie din partea cercetătorilor, a jurnaliștilor, a publicului educat din Occident care voia să creadă că există o alternativă responsabilă la goana după contracte guvernamentale.

Acum semnalul s-a schimbat. Noul semnal e: suntem compania care lucrează cu armata americană, dar responsabil. Ce înseamnă "responsabil" în context militar e o întrebare la care nimeni nu a dat un răspuns satisfăcător, nici măcar filozofii specializați în etică militară, darămite un CEO de startup care a construit un chatbot. Dar sună bine în comunicate de presă și asta e, în fond, tot ce contează în prima fază.

Problema reală cu modelele de limbaj în context militar nu e că sunt folosite să scrie emailuri mai bune. E că sunt integrate în sisteme de decizie, în analiza datelor de intelligence, în planificarea operațiunilor. Și cu cât sunt mai integrate, cu atât mai greu e să spui unde se termină "asistența" și unde începe participarea directă la decizii care costă vieți omenești. Nu e o întrebare retorică. E o întrebare la care industria AI refuză sistematic să răspundă cu onestitate.

Sam Altman și arta de a recunoaște fără să recunoști nimic

"Sloppy". Ăsta e cuvântul ales de Sam Altman pentru a descrie situația în care compania lui a permis, prin partenerul ei principal, testarea modelelor de către armată, în timp ce politica oficială interzicea exact asta. Neglijent. Nu greșit, nu problematic, nu o încălcare a valorilor declarate. Neglijent. Ca și cum ar fi vorba de un email trimis la adresa greșită sau de un slide cu font prea mic.

Alegerea cuvântului e deliberată și expertă. "Sloppy" implică lipsă de atenție, nu lipsă de integritate. Implică că problema e de proces, nu de substanță. Implică că dacă am fi fost mai atenți, mai organizați, mai riguroși, totul ar fi fost în regulă, adică fie politica ar fi fost mai clară, fie contractul ar fi fost structurat diferit, fie comunicarea internă ar fi funcționat mai bine. Nu implică niciun moment că există o contradicție fundamentală între a spune că nu vrei să fii implicat în aplicații militare și a lua bani de la Pentagon.

E un tip de comunicare pe care îl recunoști imediat dacă ai urmărit suficiente scandaluri corporative. Nu negi faptele. Recunoști că "arată rău". Promiți că vei fi mai transparent. Poate lansezi un proces intern de investigație. Aștepți să treacă valul de știri. Mergi mai departe. Big Tech a perfecționat această tehnică la nivel de artă: semnezi hârtii care nu obligă pe nimeni la nimic, faci declarații care sună angajat dar nu creează răspundere, și continui business as usual sub o nouă umbrelă de limbaj.

Angajații OpenAI care au cerut mai multă transparență au primit, probabil, un all-hands meeting cu Altman în care le-a explicat că lumea e complicată, că există presiuni competitive, că OpenAI trebuie să fie la masa unde se iau deciziile importante despre AI militar altfel o va face cineva mai puțin responsabil. E argumentul clasic: dacă nu noi, atunci cine? E un argument care sună rezonabil și care justifică practic orice compromis imaginabil.

Concurența care a schimbat calculul

Există un context competitiv pe care nu-l poți ignora dacă vrei să înțelegi de ce OpenAI a ajuns aici. Contractele guvernamentale americane în domeniul AI sunt, în momentul de față, unele dintre cele mai mari și mai profitabile din industrie. Pentagonul cheltuie miliarde pe an pe tehnologie. Serviciile de intelligence cheltuie miliarde. Contractorii de apărare cheltuie miliarde pe sisteme AI. Dacă ești o companie AI care refuzi aceste contracte din principiu, cedezi un segment enorm de piață competitorilor tăi.

Și competitorii nu stau pe loc. Există companii întregi construite explicit pentru piața militară, antrenând modele special pentru planificarea operațiunilor de luptă, pentru sisteme de targetare, pentru analiza datelor de câmp de luptă. Google, după ce a renunțat la contractul Project Maven în 2018 sub presiunea angajaților, a revenit treptat în spațiul de apărare. Microsoft are contracte cu armata americană de ani de zile, inclusiv pentru tehnologie de realitate augmentată pe câmpul de luptă. Palantir, care nu a avut niciodată scrupule în privința asta, e deja adânc integrată în infrastructura militară americană.

În acest context, OpenAI cu politica ei de interzicere a utilizărilor militare era o anomalie. O anomalie simpatică, poate, dar o anomalie. Presiunea de a renunța la ea nu venea doar din exterior, venea și din interior: investitorii vor randamente, randamentele vin din contracte mari, contractele mari sunt la guvern și la armată. La un moment dat, ecuația financiară devine imposibil de ignorat, indiferent câte slide-uri despre "responsible AI" ai prezentat la conferințe.

Ceea ce rămâne după toată această poveste nu e o revelație, ci o confirmare. Confirmarea că în industria tech, valorile declarate public sunt, în cel mai bun caz, aspirații și, în cel mai rău caz, instrumente de marketing. Că structurile corporative complexe există și pentru a crea distanță confortabilă față de consecințele deciziilor. Că "neglijent" e cel mai convenabil cuvânt din vocabularul unui CEO când lucrurile ies la iveală. Și că etica în Silicon Valley funcționează exact ca o umbrelă de hârtie: arată bine până când plouă cu bani.

Ce urmează, adică nimic surprinzător

OpenAI va continua să lucreze cu armata americană. Contractul e semnat, banii vor curge, integrarea va deveni mai profundă în timp. Politica de utilizare acceptabilă va fi rescrisă pentru a reflecta noua realitate, cu limbaj suficient de vag pentru a acoperi orice situație viitoare. Câțiva angajați dezamăgiți vor pleca, vor fi înlocuiți cu alții care au mai puține obiecții. Altman va vorbi în continuare despre importanța AI-ului sigur și benefic pentru umanitate, de data asta cu un contract de apărare în buzunar.

Povestea cu testarea prin Microsoft va fi uitată în câteva săptămâni, înlocuită de alt scandal, altă revelație, alt CEO care spune că ceva "arată rău". Ciclul e previzibil și, dacă ești cinic din vocație, aproape reconfortant în regularitatea lui. Nu pentru că e bine, ci pentru că măcar știi la ce să te aștepți.

Singurul lucru cu adevărat interesant în toată această poveste e ce se întâmplă cu angajații OpenAI care au ridicat vocea. Nu cei care au postat pe rețelele sociale, ci cei care au cerut intern răspunsuri reale. Dacă primesc răspunsuri reale sau primesc un all-hands meeting cu platitudini despre misiunea companiei. Dacă rămân sau pleacă. Dacă pleacă, unde merg. Asta e singura variabilă care mai poate produce ceva neașteptat în această poveste altfel complet predictibilă.

Până atunci, reținem lecția: când o companie de tehnologie îți spune că are principii, întreabă câți bani valorează principiile respective. Răspunsul e întotdeauna un număr specific. La OpenAI, numărul s-a dovedit a fi undeva în vecinătatea unui contract cu Pentagonul. Nu e o sumă mică. Dar nici nu e, cum s-ar spune, o sumă care să justifice toate conferințele despre AI responsabil din ultimii cinci ani.

V
vlad.exe

Editorialist cinic cu o furie reală față de mediocritate. Scrie despre putere, corupție și ipocrizie cu precizie chirurgicală.

opiniiculturapolitică

Ai putea citi și

Spatiu Publicitar 728×90