Noul mediu tehnologic de risc

Date:


interviu cu Marietje Schaake,
director de politică internațională al
Centrului de Politici Cibernetice de la Universitatea Stanford

De când a activat, timp de un deceniu, ca membru al Parlamentului European din partea Olandei, Marietje Schaake a devenit o voce transatlantică de frunte în dezbaterile despre tehnologie și răspunsurile politice la inovațiile digitale. În prezent, director de politică internațională în cadrul Centrului de politici cibernetice al Universității Stanford și membru al Stanford HAI (Human-Centered Artificial Intelligence – Inteligență Artificială Centrată pe Oameni) pe probleme de politică internațională, ea cântărește în mod regulat riscurile IA guvernate de domeniul privat, dezinformarea augmentată pe rețelele sociale și prin intermediul IA și subiectele conexe, inclusiv în calitate de membru al Comitetului Executiv al Organismului Consultativ pentru Inteligență Artificială al Organizației Națiunilor Unite.

Project Syndicate: Organismul Consultativ pentru Inteligență Artificială al ONU și-a publicat recent raportul intermediar. Ce mesaj ați subliniat în cadrul acestor adunări?

Marietje Schaake: ONU are un rol vital de jucat în a da un nou sens Cartei ONU – baza drepturilor omului, a dreptului internațional și a legitimității globale – în această nouă eră de disfuncționalități. Este deosebit de important să avem o perspectivă cu adevărat globală și să luăm în considerare experiențele și interesele trăite ale oamenilor din țările Sudului Global. Acest lucru lipsește prea des din analiza și propunerile de politici tehnologice, așa că sunt încântată de diferența pe care ONU o poate face în gestionarea IA.

PS: Au existat dezacorduri între responsabilii politici la nivel mondial – sau între economiile avansate și cele în curs de dezvoltare – cu privire la aspectele legate de gestionarea IA, care ar trebui să aibă prioritate maximă?

MS: Am asistat cu toții la concurența acerbă dintre Statele Unite și China din ultimii ani. Diferențele dintre democrații și autocrații se manifestă inevitabil și în modul în care guvernele abordează IA. O altă diviziune are loc între țările care se pot concentra pe reglementare și investiții și numeroasele guverne ale economiilor în curs de dezvoltare, care sunt preocupate mai mult de acces și incluziune.

Aceste contexte economice și sociale unice trebuie apreciate atunci când analizăm impactul IA. Avem de-a face cu o tehnologie care poate fi utilizată atât pentru a avansa descoperirile științifice, cât și pentru a intensifica supravegherea statului. Ar fi util ca factorii de decizie politică să soluționeze mai multe dintre aceste probleme specifice.

PS: Ca întotdeauna, Europa pare să se afle înaintea SUA în ceea ce privește reglementarea IA. Ați putea să ne prezentați pe scurt principalele puncte forte și puncte slabe ale proiectului de lege privind IA și ce ar putea învăța autoritățile de reglementare din alte părți din dezbaterea legislativă recentă din Europa?

MS: Uniunea Europeană s-a aflat, într-adevăr, cu un pas în fața celorlalți. De fapt, când au început lucrările la Legea privind IA, mulți au avertizat că este prea devreme. Dar acum, odată cu evoluția galopantă a pieței, s-ar putea spune că recentul acord politic asupra legii a venit la timp.

Legea privind inteligența artificială este concepută în primul rând pentru a atenua riscurile asociate cu modul în care sunt utilizate aplicațiile IA. Doar într-o etapă ulterioară, legiuitorii au adăugat cerințe pentru modelele de fundație (seturile de date instruite care stau la baza tuturor chatboturilor și a altor instrumente IA lansate pe piață). Aceste dispoziții ulterioare reprezintă un efort de reglementare a tehnologiei în sine. Deși consider că UE este un lider important bazat pe valori în reglementarea IA, tensiunile dintre reglementarea utilizărilor și reglementarea tehnologiei nu au fost rezolvate. Acesta este un lucru cu care toate autoritățile de reglementare vor trebui să se confrunte mai devreme sau mai târziu.

Există, de asemenea, problema adesea trecută cu vederea a aplicării. Vor trebui eliberate noi resurse și funcții pentru a ajuta organismele de supraveghere să se asigure că legea este puternică și eficientă. Una dintre slăbiciunile evidente ale Legii privind IA – care este rezultatul modului în care este concepută UE însăși – este că aceasta nu poate aborda chestiuni militare și de securitate națională. Aceste aspecte cruciale vor rămâne de competența statelor membre individuale, chiar dacă acestea sunt deja factori-cheie în modul în care IA este gestionată în SUA și China. Sper că UE se va concentra mai mult în următorii ani asupra intersecției dintre tehnologie și geopolitică.

PS: Ce le spuneți celor din domeniul tehnologiei, al capitalului de risc și celor din cercuri libertariene adiacente care susțin că modul de abordare al Europei a transformat-o într-un codaș al inovării în comparație cu SUA și China?

MS: I-aș întreba dacă ei cred că inovarea este mai importantă decât nevoia de a proteja drepturile omului și democrația. Sunt convinsă că inovarea nu ar trebui să fie obiectivul primordial al unei societăți. Uitați-vă doar la SUA. Timp de decenii, a avut încredere că piețele vor oferi rezultate bune, cu toate acestea, societatea și viața politică americană se confruntă acum cu daunele tehnologiilor nereglementate. Dezinformarea este larg răspândită; atacatorii cibernetici exploatează în mod regulat software-ul slab protejat, cu costuri masive; „lucrătorii liber-profesioniști” rămân vulnerabili din punct de vedere economic. Este timpul să punem sub semnul întrebării idealul inovării neînfrânate.

În ceea ce privește China, inovația tehnologică rămâne puternic controlată și instrumentalizată de către stat. Nu cunosc pe nimeni în UE care să fie inspirat de acest model.

PS: O preocupare comună cu privire la IA este că va provoca o dislocare pe scară largă a locurilor de muncă. Considerați că aceste temeri sunt justificate? Care considerați că este cel mai puternic răspuns pe care factorii de decizie politică l-ar putea oferi pentru a atenua aceste preocupări?

MS: Da, preocupările legate de șomajul tehnologic sunt justificate, judecând după o serie de studii efectuate de Fondul Monetar Internațional, McKinsey & Company și Goldman Sachs, printre altele. Toate prevăd efecte majore asupra locurilor de muncă, iar sondajele sugerează că inteligența artificială cauzează deja pierderi de locuri de muncă. Nu toată lumea are gradul de previziune și competența pe care le-a avut anul trecut Sindicatul Scenariștilor Americani, când membrii săi au intrat în grevă pentru a preveni utilizarea IA pentru a înlocui lucrătorii.

Guvernele sunt sfătuite să efectueze studii de scenarii privind expunerea anumitor sectoare la perturbarea provocată de inteligența artificială. Imaginea va fi probabil destul de amestecată și va diferi de exemplele istorice, în sensul că persoanele cu studii superioare se confruntă cu mai multe riscuri astăzi. În trecut, revoluțiile tehnologice au avut tendința de a afecta cel mai mult persoanele din clasa muncitoare.

În ciuda discuțiilor despre pierderile de locuri de muncă legate de IA, văd remarcabil de puține inițiative politice. Pe lângă planificarea scenariilor, discuțiile despre impozitarea companiilor IA, din ce în ce mai bogate, ar trebui să înceapă acum.

Ecosistemul informațional

PS: De când regulamentul general european privind protecția a datelor a intrat în vigoare cu mult fast în 2018, legea a atras multe critici pentru că este dificil de interpretat, implementat și aplicat și pentru că, în general, nu se ridică la nivelul așteptărilor. Sunt justificate aceste preocupări? În ce privințe au dreptate criticii și ce nu observă?

MS: Ținând seama de cantitatea de publicitate exagerată din jurul GDPR, nu se putea altfel decât să dezamăgească. În practică, va fi întotdeauna dificil să se armonizeze 27 de regimuri naționale de protecție a datelor într-un singur cadru care să se aplice tuturor – atât guvernelor și companiilor deopotrivă. Vestea bună este că liderii UE au prevăzut necesitatea unor revizuiri și îmbunătățiri periodice, care sunt în curs de desfășurare în prezent. Ca și în cazul IA, aplicarea va trebui să fie consolidată pentru a se asigura că GDPR nu va intra în istorie ca ceva care părea să fie amenințător, dar care este, de fapt, ineficient.

PS: Într-o lume ideală, ce fel de garanții împotriva dezinformării ați dori să vedeți înainte de alegerile pentru Parlamentul European și cele din SUA din acest an? Chiar nu avem altă opțiune, în cele din urmă, decât să avem încredere în personaje precum Elon Musk și Mark Zuckerberg pentru a controla campaniile de interferență electorală?

MS: Din păcate, companiile (cu propriile politici și priorități în schimbare) stabilesc limitele ecosistemului nostru informațional. Mulți și-au concediat sau și-au redus substanțial echipele de „încredere și siguranță”. Chiar mai rău, YouTube a declarat anul trecut, ca o chestiune de politică, că nu va mai elimina și nu va mai lua măsuri împotriva videoclipurilor care promovează minciuni flagrante despre alegerile din 2020. Nu va fi scăpat nimănui că aceste minciuni stau la baza campaniei electorale a lui Donald Trump din 2024. Nu numai că cercetătorii în domeniul dezinformării sunt vizați politic și marginalizați, dar multe măsuri recente menite să îmbunătățească condițiile dezbaterii online sunt inversate.

În plus, IA – și în special IA generativă – ar putea schimba regulile jocului pentru alegerile din întreaga lume, având în vedere capacitatea sa de a genera în mod eficient o cantitate infinită de informații false și de a viza aceste informații într-un mod mai precis. Avem nevoie urgentă de mai multă transparență, astfel încât cercetătorii independenți să poată studia efectele schimbărilor în politicile corporative. În prezent, majoritatea acestor informații și date sunt protejate în spatele regulilor de protecție a proprietății intelectuale.

La rândul său, UE ia măsuri importante pentru a preveni abuzul de „modele întunecate” (interfețe de utilizator înșelătoare, concepute pentru a păcăli oamenii să ia decizii dăunătoare, cum ar fi optarea pentru niveluri invazive de urmărire a datelor) și pentru a reglementa direcționarea anunțurilor politice (cărora nu li se permite să utilizeze informații personale confidențiale). UE a convenit, de asemenea, asupra unor noi reguli care impun ca toate anunțurile politice „să fie etichetate în mod clar ca atare și trebuie să se indice cine a plătit pentru ele, cât de mult, de care alegeri, referendum sau proces de reglementare sunt legate și dacă au fost vizate”.

Acestea sunt măsuri importante. Dar mă tem că nu vor veni la timp pentru următoarele alegeri europene sau pentru alegerile din alte părți ale lumii. Cu democrația deja sub o presiune fără precedent la nivel mondial, am putea fi în curând martorii unui experiment major de manipulare augmentată tehnologic.

PS: Credeți că TikTok ar trebui interzis?

MS: Având în vedere legile chinezești privind serviciile de informații, există motive ample de îngrijorare cu privire la modul în care datele corporative pot ajunge să fie utilizate de către stat. Mulți din Europa au avut îngrijorări profunde în urma dezvăluirilor privind modul în care Agenția Națională de Securitate a SUA (NSA) ar putea folosi datele companiilor de tehnologie pentru colectarea de informații și aplicarea legii. Cu toate acestea, acest lucru nu a dus niciodată la o interdicție.

În general, protejarea copiilor de aplicațiile care creează dependență este o idee bună. Aș prefera ca deciziile privind interzicerea utilizării unei aplicații precum TikTok să se bazeze pe reguli transparente de securitate sau de protecție a copilului, care să se aplice în mod egal tuturor.


Marietje Schaake, fost membru al Parlamentului European, este director de politică internațională al Centrului de Politici Cibernetice de la Universitatea Stanford, membru de politică internațională la Institutul Stanford pentru Inteligență Artificială Centrată pe Oameni (HAI) și membru al Comitetului Executiv al Organismului Consultativ la Nivel Înalt al ONU privind Inteligența Artificială.

Coperta revistei

spot_img

Editorial

spot_img
spot_img

Opinii și analiza

spot_img

Recomandate
Recomandate