Ce cred, de fapt, oamenii care construiesc AI-ul?
Cei care fac AI-ul nu sunt de acord între ei aproape pe nimic. Și totuși construiesc ceva ce ar putea schimba totul.
Ok dar ascultă — există un paradox la mijlocul industriei AI pe care nimeni nu îl spune direct. Oamenii care construiesc sistemele de inteligență artificială, cercetătorii, fondatorii, inginerii din OpenAI, Anthropic, Google DeepMind, nu sunt de acord între ei aproape pe nimic fundamental. Nici despre ce construiesc, nici despre cât de periculos e, nici despre ce ar trebui să facă cu asta. Și totuși continuă.
The Atlantic a pus recent întrebarea asta direct: ce cred, de fapt, oamenii care fac AI-ul? Nu ce spun în prezentări de PR, nu ce scriu în blog posts pentru investitori, ci ce cred sincer, noaptea, când nu sunt pe scenă. Răspunsul e mai complicat și mai fascinant decât orice știre despre ChatGPT pe care ai citit-o în ultima lună.
Credința că faci ceva periculos — și continui oricum
Primul lucru care te lovește când te uiți la convingerile reale din industria AI e disonanța cognitivă masivă. Nu vorbim de câțiva oameni. Vorbim de o practică aproape universală în rândul celor mai serioși cercetători: să crezi că lucrezi la ceva potențial existențial de periculos și să mergi la birou a doua zi dimineață.
Eliezer Yudkowsky, unul dintre primii și cei mai vocali oameni care au avertizat despre riscurile AI-ului general, a spus-o explicit de mai multe ori: crede că probabilitatea ca AI-ul să ducă la extincția umană e mai mare de 50%. Și totuși a petrecut decenii lucrând pe problema asta. Nu construind AI, dar influențând direct modul în care alții o fac.
La Anthropic, compania fondată de Dario și Daniela Amodei după ce au plecat de la OpenAI, misiunea declarată e să construiești AI mai sigur. Dar implicit în asta e recunoașterea că AI-ul e suficient de periculos încât să merite o companie întreagă dedicată siguranței lui. E ca și cum ai fonda o companie de dezactivare a bombelor și principalul tău produs e o bombă mai bine proiectată.
Poți să numești asta ipocrizie. Sau poți să o numești o formă ciudată de pragmatism: dacă oricum se va construi, mai bine să fie construit de oameni care iau în serios riscurile. Ambele interpretări sunt plauzibile. Niciuna nu e complet satisfăcătoare.
Spectrul de credințe — de la utopie la apocalipsă
Dacă ai pune toți cercetătorii AI importanți într-o cameră și i-ai întreba unde crezi că suntem în 10 ani, ai obține răspunsuri care variază de la rai la iad, fără prea mult spațiu la mijloc. Nu e o glumă. E literalmente distribuția de opinii din industrie.
Pe un capăt ai accelerationiștii efectivi — oameni ca Marc Andreessen cu manifestul lui tech-optimist, sau figuri din mișcarea e/acc (effective accelerationism) care cred că orice frânare a AI-ului e o crimă morală împotriva progresului uman. Pentru ei, AI-ul va rezolva cancerul, sărăcia, schimbările climatice și cam orice altceva. Frâna e inamicul.
Pe celălalt capăt ai doom-erii — cercetători care cred că suntem pe un drum fără întoarcere spre sisteme pe care nu le vom putea controla. Unii dintre ei sunt la cele mai importante laboratoare AI din lume. Unii au semnat scrisori publice cerând pauze în dezvoltare. Și apoi s-au întors la muncă.
La mijloc e o masă de oameni care nu știu. Care lucrează pe probleme tehnice fascinante, care sunt entuziasmați de ce pot face modelele lor, și care preferă să nu se gândească prea mult la imaginea de ansamblu. Nu din rea-voință, ci pentru că imaginea de ansamblu e copleșitoare și oricum nu ai control asupra ei.
Problema AGI: toți o menționează, nimeni nu știe ce e
Hear me out — există un termen pe care îl auzi constant în conversațiile despre AI și pe care aproape nimeni nu îl definește consistent: AGI, Artificial General Intelligence. Inteligență artificială generală, adică un sistem care poate face orice task cognitiv pe care îl poate face un om, sau mai bine.
Sam Altman de la OpenAI a spus că crede că AGI ar putea veni în câțiva ani. Demis Hassabis de la Google DeepMind e mai precaut dar tot optimist. Yann LeCun, șeful de AI la Meta, crede că modelele actuale de limbaj nu sunt pe drumul corect spre AGI și că toată lumea e derutată despre ce construiește de fapt.
Și asta e problema: dacă nu știi ce e AGI, nu știi nici când ai ajuns acolo. Nu știi nici dacă ce construiești e periculos sau nu. E ca și cum ai conduce spre o destinație pe care nu o poți defini și te întrebi dacă ar trebui să frânezi.
Unii cercetători au renunțat complet la termenul AGI și vorbesc în schimb despre sisteme care pot automatiza munca cognitivă la scară. Asta e mai concret, mai măsurabil, și mai imediat. Și în contextul ăsta, întrebările despre ce cred oamenii care construiesc AI capătă o urgență diferită, pentru că nu mai vorbim de scenarii science fiction, ci de lucruri care se întâmplă acum.
Raționalismul, EA și religia ciudată a Silicon Valley
Nu poți vorbi despre ce cred oamenii din AI fără să vorbești despre mișcările intelectuale care i-au format. Raționalismul și Effective Altruism au modelat o generație întreagă de cercetători AI, mai ales cei de la Anthropic și din cercurile de AI safety. Și asta e o poveste fascinantă și puțin tulburătoare.
Raționalismul, în versiunea Silicon Valley, e o filozofie care pune accent pe gândire bayesiană, pe actualizarea convingerilor pe baza evidenței, și pe luarea deciziilor pe termen lung. Sună bine pe hârtie. În practică a produs o subcultură care se ia extrem de în serios pe sine, care are propriile ritualuri sociale și intelectuale, și care uneori pierde contactul cu modul în care gândesc oamenii normali.
Effective Altruism, mișcarea filozofică și filantropică, a adăugat un strat de urgență morală: dacă AGI vine și dacă e periculos, atunci lucrul la siguranța AI e cel mai important lucru pe care îl poți face cu viața ta. Asta a atras oameni extrem de inteligenți și extrem de motivați spre problema AI safety. A creat și o bulă în care unele idei foarte speculative circulă ca adevăruri aproape evidente.
Colapsul FTX și scandalul Sam Bankman-Fried au lovit dur credibilitatea mișcării EA. Dar influența ei în laboratoarele AI rămâne reală. Mulți dintre cei care fac decizii importante despre cum se dezvoltă AI-ul au fost formați intelectual în aceste cercuri. Asta contează, indiferent ce crezi despre mișcările respective.
Am scris mai devreme despre cum raționalismul a generat unele dintre cele mai bizare crime din Silicon Valley — și conexiunea cu AI-ul e directă. Oamenii care cred că lucrează la cel mai important proiect din istoria umanității au o tendință să justifice orice mijloc.
Ce înseamnă să construiești ceva ce nu înțelegi complet
Asta e poate cel mai honest lucru pe care îl poți spune despre starea actuală a AI-ului: cercetătorii nu înțeleg complet ce construiesc. Nu e o acuzație, e o realitate tehnică. Modelele mari de limbaj sunt sisteme atât de complexe încât comportamentul lor emergent surprinde și pe cei care le-au creat.
Există un domeniu întreg, interpretability research, dedicat să înțeleagă ce se întâmplă în interiorul rețelelor neurale. Anthropic face cercetare serioasă în zona asta. Și ce au găsit e fascinant și neliniștitor în egală măsură: circuite care detectează concepte specifice, reprezentări interne care nu corespund cu nimic din ce a fost explicit programat, comportamente care apar spontan la scale mai mari.
No cap, asta e una dintre cele mai ciudate situații din istoria tehnologiei. De obicei, când construiești ceva, știi cum funcționează. Poți explica fiecare piesă. Ingineria clasică e despre control și predictibilitate. AI-ul modern e despre a antrena sisteme pe cantități uriașe de date și a spera că ce iese e util și safe.
Și în mare parte funcționează. Modelele sunt uimitor de capabile. Dar nimeni nu poate garanta că un model care se comportă bine în testare se va comporta la fel în toate situațiile din lumea reală. Și asta e o problemă când vorbim de sisteme care vor fi integrate în infrastructură critică, în medicină, în sistemele juridice.
Amintește-ți de ce s-a întâmplat când un bot AI a picat Amazon Web Services — și ăla era un sistem relativ simplu, cu un task bine definit. Imaginează-ți sisteme mult mai complexe, cu mult mai multă autonomie.
Silicon Valley a mai promis utopii. Știm cum s-a terminat.
Există un pattern pe care îl recunoști dacă ai urmărit istoria tech-ului în ultimele două decenii. O tehnologie nouă apare, promite să conecteze lumea, să democratizeze informația, să dea putere oamenilor de rând. Oamenii care o construiesc cred sincer în asta. Investitorii cred sincer în asta. Și pentru un timp, chiar funcționează.
Și apoi realitatea lovește. Social media a conectat lumea și a amplificat dezinformarea, polarizarea, și dependența. Smartphone-urile au pus cunoașterea lumii în buzunarul fiecărui om și au creat o criză de atenție la scară globală. Sharing economy a promis flexibilitate și a livrat precaritate pentru milioane de lucrători.
Nu spun că AI-ul va urma același pattern. Poate că e diferit. Poate că oamenii care îl construiesc au învățat din greșelile trecutului. Poate că mișcarea de AI safety chiar va face diferența. Dar pattern-ul merită luat în serios, mai ales când oamenii care construiesc AI spun lucruri ca: știm că poate fi periculos, lucrăm la asta, aveți încredere în noi.
Zuckerberg a spus variante ale aceleiași fraze despre Facebook timp de 15 ani. Nu din rea-voință, probabil. Din convingere sinceră că ce construiește e bun. Și totuși.
Întrebarea pe care o pune The Atlantic e simplă și fără răspuns simplu: ce cred oamenii care construiesc AI? Răspunsul e că cred lucruri contradictorii, că sunt mânați de o combinație de curiozitate intelectuală, ambție, frică, și speranță, că unii sunt mai sinceri decât alții despre incertitudinile lor, și că aproape toți continuă să construiască indiferent de ce cred.
Și poate asta e cel mai honest lucru de spus: nu există un grup de vizionari care știu exact ce fac și unde duc. Există oameni inteligenți, motivați, adesea bine intenționați, care construiesc ceva fără precedent în istorie, în timp real, cu toate incertitudinile și contradicțiile pe care le implică asta.
E fascinant. E neliniștitor. Și e, în orice caz, cel mai important lucru care se întâmplă în lume acum.
inspired by: What Do the People Buildi... »
Generalistul energic al redacției. Scrie despre orice, de la AI la crypto, cu entuziasmul unui early adopter și pragmatismul unui inginer.
Ai putea citi și
90 de milioane de oameni fără internet: cum arată o țară deconectată de la lume
Iranul trăiește cel mai lung blackout total de internet din istoria sa recentă, iar combinația dintre cenzura de stat și distrugerile fizice de infrastructură face ca nimeni să nu știe cu adevărat cât va dura.
AI-ul E Mai Creativ Decât Tine
Un studiu pe 100.000 de oameni arată că inteligența artificială bate omul de rând la creativitate. Dar înainte să intri în panică, citește litera mică.
Anthropic refuză să ucidă pentru Pentagon. Acum plătește prețul.
Cea mai safety-conscious companie AI din lume a ajuns pe lista neagră a Departamentului Apărării. Și asta ridică o întrebare pe care nimeni nu vrea să o pună cu voce tare.