Anda Rojanschi, Partener D&B David şi Baias şi Mircea Bozga, Partener PwC România, transmit că inteligenţa artificială (AI) a devenit o tehnologie cheie pentru transformarea digitală în organizaţiile private şi publice, anticipându-se că, până în 2030, va fi folosită direct sau indirect în majoritatea sectoarelor, potrivit unui comunicat remis redacţiei. Dealtfel, o analiză realizată de strategy&, departamentul de strategie al reţelei globale PwC, arată că utilizarea inteligenţei artificiale generative (GenAI) are potenţialul de a genera o creştere economică suplimentară anuală între 0,4% şi 0,7% în Europa, până în 2030, dacă organizaţiile sunt receptive la inovare, dezvoltă o strategie şi mai ales dacă sunt dispuse să facă investiţiile necesare, inclusiv pentru prevenirea riscurilor asociate. În aceste condiţii, s-ar atinge până la 90% din potenţialul de majorare a productivităţii totale datorate GenAI. Pe lângă relevanţa economică a utilizării GenAI, încrederea în performanţa, securitatea, fiabilitatea şi corectitudinea AI sunt esenţiale pentru utilizatori, clienţi şi factori de decizie.
Din acest motiv, la nivelul Uniunii Europene a fost adoptat un regulament vizând utilizarea sistemelor de inteligenţă artificială, sub denumirea de EU AI Act. Acesta este direct aplicabil în statele membre şi impactează atât organizaţiile private, cât şi pe cele publice, indiferent dacă acestea sunt producători, distribuitori sau utilizatori de sisteme AI. Alte ţări întreprind de asemenea demersuri de reglementare. Astfel, în prezent, SUA se bazează pe legile federale existente pentru a reglementa AI, dar îşi propune să introducă o legislaţie specifică şi o autoritate federală de reglementare. În acelaşi timp, Regatul Unit a elaborat "Cartea albă privind reglementarea AI" care cuprinde un cadru bazat pe principii pe care autorităţile de reglementare ale diferitelor sectoare să le interpreteze şi să le aplice pentru dezvoltarea şi utilizarea AI.
Revenind la UE, regulamentul european impune obligaţii în funcţie de riscurile potenţiale ale diferitelor tipuri de sisteme AI. Se aşteaptă ca acest regulament să aibă un impact similar cu cel privind protecţia datelor cu caracter personal (GDPR). Organizaţiile trebuie să se conformeze legal la noile cerinţe. În caz contrar, se expun mai multor riscuri legale, care includ potenţiale amenzi. În plus, încălcarea EU AI Act ar putea determina şi o analiză privind posibile încălcări ale altor prevederi legale aplicabile, precum GDPR sau alte reglementări specifice fiecărei industrii.
Producătorii şi distribuitorii de sisteme de inteligenţă artificială reglementate în Uniunea Europeană sunt vizaţi de cea mai mare parte a cerinţelor. Aceştia sunt furnizori care pun pe piaţă sau implementează sisteme de AI, indiferent dacă sunt stabiliţi în UE sau într-o ţară terţă, precum şi distribuitori de sisteme de AI reglementate care sunt stabiliţi în UE.
Regulamentul UE împarte sistemele de AI în mai multe categorii bazate pe caracteristicile lor de risc, care sunt fie permise fără restricţii, fie permise în anumite condiţii, fie interzise. Această abordare se bazează pe o evaluare a riscurilor preconizate pe care le poate prezenta un anumit sistem de AI pentru sănătatea, siguranţa sau drepturile fundamentale ale cetăţenilor UE.
Sistemele de AI cu riscuri inacceptabile sunt interzise per se. Acestea includ, de exemplu, sisteme pentru manipularea subliminală a oamenilor sau anumite sisteme biometrice de recunoaştere în timp real în spaţiile publice. Sistemele de AI cu risc ridicat sunt în centrul regulamentului. Acestea sunt permise numai în situaţii excepţionale, cu respectarea unor cerinţe stricte de documentare, monitorizare şi calitate.
UE a stabilit termene de conformare pentru diferitele clasificări ale riscurilor. Organizaţiile trebuie să clasifice şi să evalueze în mod proactiv riscurile sistemelor lor de inteligenţă artificială pentru a evita sancţiunile şi daunele aduse reputaţiei.
De exemplu, la şase luni de la intrarea în vigoare a legii, o companie care implementează un sistem de inteligenţă artificială considerat interzis, cum ar fi unul care detectează emoţii la locul de muncă, riscă amenzi de până la 35 milioane euro sau 7% din cifra sa de afaceri anuală totală la nivel mondial din anul financiar precedent, luându-se în considerare valoarea cea mai mare. Un astfel de sistem trebuie să fie scos de pe piaţa europeană sau reproiectat astfel încât să fie eliminate criteriile interzise definite de Legea UE privind inteligenţa artificială.
Companiile trebuie să ia măsuri esenţiale pentru a se conforma reglementărilor privind inteligenţa artificială şi pentru a gestiona riscurile asociate. În primul rând, este necesară evaluarea impactului AI asupra cadrelor de conformitate existente pentru a identifica eventualele ajustări necesare. De asemenea, este importantă clasificarea sistemelor AI şi elaborarea unui inventar detaliat în funcţie de riscurile asociate, menţinând un inventar dinamic conform taxonomiei UE. Companiile trebuie să identifice sistemele AI interzise şi să ia măsuri imediate pentru a le elimina.
Un alt pas crucial este revizuirea modelului de guvernanţă pentru a-l alinia la noile cerinţe ale regulamentului privind inteligenţa artificială. Companiile trebuie, de asemenea, să dezvolte şi să implementeze proceduri de gestionare, testare şi validare a riscurilor legate de utilizarea AI. Este important ca guvernanţa datelor să fie solidă, asigurându-se că sunt respectate cele mai bune practici de gestionare a acestora.
Pentru a proteja în mod corespunzător sistemele AI, este necesar să se asigure controale adecvate, în special pentru sistemele avansate de inteligenţă artificială. În plus, companiile trebuie să cartografieze interdependenţele interne şi externe legate de AI, de exemplu, cu furnizorii de cloud şi platformele terţe, pentru a implementa măsuri de protecţie şi controale adecvate.
Opinia Cititorului