de Margrethe Vestager,
vicepreședinte executiv al Comisiei Europene
În Poznan, la 325 kilometri (200 mile) est de Varșovia, o echipă de cercetători în domeniul tehnologiei, ingineri și îngrijitori de copii lucrează la o mică revoluție. Proiectul lor comun, Insension, folosește recunoașterea facială alimentată de inteligența artificială pentru a ajuta copiii cu dizabilități intelectuale și multiple profunde să interacționeze cu ceilalți și cu lucrurile din jurul lor, devenind mai conectați cu lumea. Este o dovadă a puterii acestei tehnologii care avansează rapid.
La mii de kilometri distanță, pe străzile din beijing, recunoașterea facială bazată pe IA este folosită de oficialii guvernamentali pentru a urmări mișcările zilnice ale cetățenilor și pentru a ține întreaga populație sub supraveghere atentă. Este aceeași tehnologie, dar rezultatul este fundamental diferit. Aceste două exemple încapsulează provocarea mai largă a inteligenței artificiale: tehnologia de bază nu este nici bună, nici rea în sine; totul depinde de modul în care este folosită.
Natura în esență duală a inteligenței artificiale a stat la baza modului în care am ales să concepem Legea europeană privind inteligența artificială, un regulament axat pe utilizările IA, mai degrabă decât pe tehnologia în sine. Abordarea noastră se reduce la un principiu simplu: cu cât inteligența artificială este mai riscantă, cu atât obligațiile celor care o dezvoltă sunt mai puternice.
IA permite deja numeroase funcții inofensive pe care le efectuăm în fiecare zi – de la deblocarea telefoanelor noastre până la recomandarea melodiilor pe baza preferințelor noastre. Pur și simplu nu trebuie să reglementăm toate aceste utilizări. Dar IA joacă, de asemenea, un rol din ce în ce mai mare în momentele decisive din viața cuiva. Când o bancă verifică pe cineva pentru a determina dacă se califică pentru un credit ipotecar, nu este vorba doar despre un împrumut. Este vorba despre a-i pune un acoperiș deasupra capului și a-i permite să-și construiască averea și să urmărească securitatea financiară. Același lucru este valabil și atunci când angajatorii folosesc software-ul de recunoaștere a emoțiilor ca supliment la procesul lor de recrutare sau atunci când IA este utilizată pentru a detecta bolile în imaginile care prezintă creierul. Acesta din urmă nu este doar un control medical de rutină. Este literalmente o chestiune de viață și de moarte.
În astfel de cazuri, noul regulament impune obligații semnificative dezvoltatorilor de inteligență artificială. Aceștia trebuie să respecte o serie de cerințe – de la efectuarea evaluărilor de riscuri, până la asigurarea robusteții tehnice, monitorizarea umană și securitatea cibernetică – înainte de a-și lansa sistemele pe piață. În plus, Legea privind inteligența artificială interzice toate utilizările care contravin în mod clar valorilor noastre fundamentale. De exemplu, IA nu poate fi utilizată pentru „evaluări sociale” sau tehnici subliminale de manipulare a populațiilor vulnerabile, cum ar fi copiii.
Deși unii vor susține că acest control la nivel înalt descurajează inovarea, în Europa vedem lucrurile diferit. Pentru început, normele care nu țin cont de timp oferă certitudinea și încrederea de care inovatorii tehnologici au nevoie pentru a dezvolta noi produse. Dar, mai important, IA nu își va atinge potențialul pozitiv imens, decât dacă utilizatorii finali au încredere în ea. În acest caz, chiar mai mult decât în multe alte domenii, încrederea servește drept motor al inovației. În calitate de legiuitori, putem crea condițiile pentru ca tehnologia să înflorească prin respectarea datoriei noastre de a asigura siguranța și încrederea publică.
Departe de a contesta abordarea bazată pe risc a Europei, expansiunea recentă a modelelor IA de uz general (GPAI), cum ar fi ChatGPT, a făcut-o doar mai relevantă. În timp ce aceste instrumente ajută escrocii din întreaga lume să producă e-mailuri de phishing alarmant de credibile, aceleași modele ar putea fi utilizate și pentru a detecta conținutul generat de IA. În doar câteva luni, modelele GPAI au dus tehnologia la un nou nivel în ceea ce privește oportunitățile pe care le oferă și riscurile pe care le-a generat.
Desigur, unul dintre cele mai descurajante riscuri este că este posibil să nu fim întotdeauna capabili să distingem ceea ce este fals de ceea ce este real. Deepfake-urile generate de GPAI provoacă deja scandaluri și ajung pe prima pagină a ziarelor. La sfârșitul lunii ianuarie, imaginile pornografice false ale starului pop internațional Taylor Swift au ajuns la 47 de milioane de vizualizări pe X (fostul Twitter), înainte ca platforma să suspende în cele din urmă utilizatorul care le-a distribuit.
Nu sunt greu de imaginat daunele pe care un astfel de conținut le poate provoca sănătății mintale a unui individ. Dar dacă este aplicată pe o scară și mai largă, cum ar fi în contextul alegerilor, ar putea amenința populații întregi. Legea privind inteligența artificială oferă un răspuns direct la această problemă. Conținutul generat de IA va trebui să fie etichetat ca atare, astfel încât toată lumea să știe imediat că nu este real. Aceasta înseamnă că furnizorii vor trebui să proiecteze sistemele astfel încât materialele audio, video, textele și imaginile sintetice să fie marcate într-un format care poate fi scanat automat și care pot fi detectabile ca fiind generate sau manipulate artificial.
Companiilor li se va oferi șansa de a-și aduce sistemele la stadiul în care să respecte regulamentul. Dacă nu se vor conforma, vor fi amendați. Amenzile ar varia de la 35 de milioane EUR (37 de milioane de dolari) sau 7% din cifra de afaceri anuală globală (oricare dintre acestea este mai mare) pentru încălcări privind aplicațiile IA interzise, 15 milioane EUR sau 3% pentru încălcarea altor obligații și 7,5 milioane EUR sau 1,5 % pentru furnizarea de informații incorecte. Dar amenzile nu sunt totul. Introducerea pe piața UE a sistemelor de inteligență artificială neconforme va fi, de asemenea, interzisă.
Europa este prima care ia inițiativă în ceea ce privește reglementarea IA, dar eforturile noastre contribuie deja la mobilizarea răspunsurilor în altă parte. Pe măsură ce multe alte țări încep să adopte cadre legislative similare – inclusiv Statele Unite, care colaborează cu Europa la „o abordare bazată pe riscuri a inteligenței artificiale, pentru a promova tehnologii IA fiabile și responsabile” – suntem încrezători că abordarea noastră generală este cea corectă. Cu doar câteva luni în urmă, aceasta i-a inspirat pe liderii G7 să convină asupra unui prim Cod de conduită privind inteligența artificială. Aceste tipuri de limite internaționale vor ajuta la menținerea siguranței utilizatorilor până când obligațiile legale încep să intre în vigoare.
Inteligența artificială nu este nici bună, nici rea, dar va inaugura o eră globală de complexitate și ambiguitate. În Europa, am elaborat un regulament care reflectă acest lucru. Probabil mai mult decât orice alt act legislativ al UE, acesta a necesitat o acțiune atentă de echilibrare – între putere și responsabilitate, între inovare și încredere și între libertate și siguranță.