Studiu EY: Companiile care promovează guvernanța responsabilă în utilizarea inteligenței artificiale obțin rezultate economice mai bune

0

A doua parte a studiului EY Responsible AI (RAI) Pulse a identificat progrese pentru companiile care implementează măsuri de utilizare responsabilă a inteligenței artificiale (RAI) și stagnare în cazul celorlalte.

Pe măsură ce se intensifică adoptarea pe scară largă a tehnologiilor de inteligență artificială, cei care sunt mai avansați au parte de mai multe beneficii. Aproape patru din cinci companii care au adoptat IA au declarat că au înregistrat îmbunătățiri în inovație (81%) și creșteri de eficiență și productivitate (79%), în timp ce aproximativ jumătate au raportat majorarea creșterilor de venituri (54%), a economiilor de costuri (48%) și a satisfacției angajaților (56%).

Adoptarea responsabilă a inteligenței artificiale începe cu definirea și comunicarea principiilor de utilizare și continuă cu implementarea și guvernanța. Tranziția de la principii la practică are loc prin aplicarea măsurilor RAI – de utilizare responsabilă a IA –prin transferarea angajamentelor asumate în operațiuni. În medie, organizațiile au implementat deja șapte dintre cele 9 măsuri RAI[1], iar, dintre cele care nu au acționat încă în acest sens, majoritatea intenționează să o facă. Mai puțin de 2% dintre respondenți au declarat că nu au planuri de implementarea acestor principii. Acest fapt indică un angajament general față de practicile responsabile în materie de IA și o intenție fermă de a continua în această direcție.

Concluziile studiului sugerează că, pe măsură ce organizațiile avansează în procesul de implementare a măsurilor RAI, o respectare mai strictă a principiilor de utilizare responsabilă a IA este corelată cu rezultate economice mai bune. De exemplu, respondenții care dispun de monitorizare în timp real prezintă o probabilitate cu 34% mai mare de îmbunătățire a creșterii veniturilor și o probabilitate cu 65% mai mare de majorare a economiilor de costuri.

Studiul este al doilea dintr-o serie și continuă concluziile inițiale, publicate în iunie. Seria evaluează modul în care companiile percep și integrează practicile responsabile în materie de inteligență artificială în modelele de afaceri, în procesele decizionale și în strategiile lor de inovare. Informațiile au fost colectate în intervalul august – septembrie 2025, de la 975 de executivi, din 11 tipuri de funcții și 21 de țări.

Alte concluzii importante:

Măsurile de control inadecvate pentru riscurile IA produc efecte negative

Aproape toate organizațiile intervievate (99%) au raportat pierderi financiare cauzate de urmările riscurilor de inteligență artificială, iar aproape două treimi (64%) au suferit pierderi mai mari de 1 milion de USD. În medie, pierderea financiară pentru companiile care au avut consecințe din riscuri IA este estimată pe mai departe la 4,4 milioane USD.

Cele mai frecvente riscuri legate de inteligența artificială sunt nerespectarea reglementărilor (57%), efectele negative asupra obiectivelor de sustenabilitate (55%) și folosirea de date insuficient de relevante (53%).

Executivii au lacune în identificarea măsurilor de control corespunzătoare

În medie, când li s-a cerut să identifice măsurile de control corespunzătoare pentru cinci riscuri legate de inteligența artificială, doar 12% dintre executivii sondați au răspuns corect. Directorii de risc, care poartă în ultimă instanță responsabilitatea în privința riscurilor cu inteligența artificială, au înregistrat rezultate ușor sub medie (11%). În contextul în care inteligența artificială autonomă devine tot mai prezentă la locul de muncă, iar angajații explorează activitățile de dezvoltare independentă (citizen development), riscurile și nevoia de măsuri de control adecvate nu pot decât crească.

Dezvoltatorii independenți – citizen developers – scot în evidență lacunele de guvernanță și de pregătire a resurselor umane

Organizațiile se confruntă cu o provocare tot mai mare în gestionarea „dezvoltatorilor independenți”, angajați non-IT care dezvoltă din proprie inițiativă aplicații sau programe de inteligență artificială. Două treimi dintre companiile intervievate permit această activitate într-o formă sau alta, însă doar 60% dispun de politici și sisteme de reglementare stabilite, prin care să se asigure că aceste programe respectă toate principiile de utilizare responsabilă a inteligenței artificiale. Jumătate dintre companiile respondente au spus că nu dispun de un nivel corespunzător de vizibilitate pentru folosirea aplicațiilor de inteligență artificială dezvoltate de angajați.

Companiile care încurajează în mod activ dezvoltatorii independenți de aplicații cu IA sunt preponderent cele care nu au încă un model bine definit pentru forța de muncă hibridă, care combină resursa umană și inteligența artificială. Aceste organizații au fost și cele care au menționat ca preocupare majoră penuria de talente pentru noile modele de inteligență artificială (31%, față de 21% dintre celelalte companii). Tot aceste companii sunt și cele mai numeroase care au demarat abia recent elaborarea de strategii de gestionare a forței de muncă hibride de resursă umană și inteligență artificială (50%, față de 26% dintre celelalte companii), ceea ce evidențiază un decalaj semnificativ a gradului de pregătire.

Raj Sharma, EY Global Managing Partner, Growth & Innovation, a declarat: „Costurile tot mai mari și mai frecvente provocate de gestionarea defectuoasă a inteligenței artificiale subliniază necesitatea stringentă ca organizațiile să integreze în mod extins aceste practici în operațiunile lor, nu doar pentru a reduce riscurile, ci și pentru a accelera crearea de valoare. Nu este un simplu exercițiu de conformare, este un vector al încrederii, al inovației și al diferențierii pe piață. Companiile care consideră că aceste principii reprezintă o funcție de bază a activității economice sunt mai bine poziționate pentru a obține creșteri de productivitate mai rapide, pentru a da naștere unei majorări mai robuste a veniturilor și pentru a avea un avantaj competitiv susținut într-o economie bazată pe inteligența artificială”.

Joe Depa, EY Global Chief Innovation Officer, a adăugat: „În contextul în care companiile pătrund tot mai adânc în universul inteligenței artificiale, testând totul, de la agenți inteligenți, până la aplicații fizice, este mai important ca oricând să rămânem ancorați în principii responsabile. Adevărata inovație se naște atunci când avem libertatea de a explora prin respectarea unui sistem etic clar. Nu este vorba doar de creștere, ci de o creștere care să facă bine”.

EY a prezentat acest studiu în cadrul evenimentului World Summit AI 2025, desfășurat la Amsterdam, cea mai mare reuniune anuală mondială dedicată inteligenței artificiale și tehnologiilor emergente. Acest eveniment reunește lideri globali, inovatori și experți pentru a explora întregul spectru al aplicațiilor de inteligență artificială, de la oportunități de transformare la potențiale riscuri, evidențiind în același timp strategiile pentru maximizarea beneficiilor și promovând o adoptare responsabilă a acestei tehnologii la nivel global.


În intervalul iulie-august 2025, organizația globală EY a desfășurat o cercetare cu scopul de a înțelege mai bine opiniile conducătorilor executivi cu privire la utilizarea responsabilă a inteligenței artificiale, atât actuala generație, cât și următorul val de tehnologii AI. În vederea fundamentării acestei cercetări, am desfășurat un sondaj online anonim în rândul a 975 de conducători executivi din 10 funcții. Toți respondenții aveau un anumit nivel de responsabilitate în ceea ce privește utilizarea inteligenței artificiale în cadrul organizației lor. Respondenții au provenit din organizații cu venituri anuale de peste 1 miliard de USD, din toate sectoarele economice importante și din 21 de țări din regiunile America, Asia-Pacific și Europa, Orientul Mijlociu, India și Africa.


[1] Cele 9 principii EY de utilizare responsabilă a IA: utilizare asumată, protecție a datelor, fiabilitate, securitate, transparență, explicabilitate, corectitudine, conformitate, sustenabilitate.