Actul european privind inteligenţa artificială, regulament care urmăreşte să instituie o piaţă internă armonizată pentru IA în UE, încurajând adoptarea acestei tehnologii şi creând un mediu favorabil inovării şi investiţiilor, cu protejarea drepturilor fundamentale ale cetăţenilor, a intrat astăzi în vigoare, potrivit unui comunicat de presă emis de Comisia Europeană.
Legea privind IA introduce definiţia acestei noi tehnologii, bazată pe siguranţa produselor şi pe o abordare bazată pe riscuri în UE. Potrivit actului normativ, majoritatea sistemelor de IA, cum ar fi sistemele de recomandare bazate pe IA şi filtrele spam, se încadrează în riscul minim privind drepturile şi siguranţa cetăţenilor. Drept urmare, aceste sisteme nu au nicio obligaţie în temeiul legii privind IA, dar companiile pot adopta voluntar coduri de conduită suplimentare.
Actul normativ european în materie mai arată că sistemele de IA, cum ar fi roboţii de chat, trebuie să dezvăluie în mod clar utilizatorilor că interacţionează cu o maşină. Anumite conţinuturi generate de IA, inclusiv deep fake, trebuie etichetate ca atare, iar utilizatorii trebuie să fie informaţi atunci când se utilizează sisteme biometrice de clasificare sau de recunoaştere a emoţiilor. În plus, furnizorii vor trebui să proiecteze sistemele în aşa fel încât orice conţinut artificial (audio, video, text şi imagini) să fie marcat într-un format care poate fi citit automat şi să fie detectabil ca fiind generat sau manipulat artificial.
De asemenea sistemele de Inteligenţă Artificială identificate ca prezentând un grad ridicat de risc vor trebui să respecte cerinţe stricte, inclusiv sisteme de atenuare a riscurilor, o înaltă calitate a seturilor de date, înregistrarea activităţii, documentaţie detaliată, informaţii clare pentru utilizatori, supravegherea umană şi un nivel ridicat de robusteţe, acurateţe şi securitate cibernetică. Spaţiile de testare în materie de reglementare vor facilita inovarea responsabilă şi dezvoltarea unor sisteme de IA conforme. Astfel de sisteme de IA cu grad ridicat de risc includ, de exemplu, sistemele de IA utilizate pentru recrutare sau pentru a evalua dacă o persoană are dreptul de a obţine un împrumut sau de a administra roboţi autonomi.
Actul European în domeniul Inteligenţei Artificiale interzice sistemele care sunt considerate a fi o ameninţare clară la adresa drepturilor fundamentale ale persoanelor. Printre acestea se numără sistemele sau aplicaţiile IA care manipulează comportamentul uman pentru a eluda voinţa liberă a utilizatorilor, cum ar fi jucăriile care utilizează asistenţa vocală care încurajează comportamentul periculos al minorilor, sistemele care permit un "punctaj social" de către guverne sau întreprinderi, precum şi anumite aplicaţii ale poliţiei predictive. În plus, vor fi interzise unele utilizări ale sistemelor biometrice. Este cazul sistemelor de recunoaştere a emoţiilor utilizate la locul de muncă, al unor sisteme de împărţire a oamenilor pe categorii sau al identificării biometrice de la distanţă în timp real în scopul asigurării respectării legii în spaţiile accesibile publicului (cu excepţii restrânse).
Pentru a completa acest sistem, Legea privind IA introduce, de asemenea, norme pentru aşa-numitele modele de IA de uz general, care sunt modele concepute pentru a îndeplini o gamă largă de sarcini, cum ar fi generarea de text asemănător cu factorul uman. Modelele de IA de uz general sunt utilizate din ce în ce mai mult ca componente ale aplicaţiilor IA. Legea privind IA va asigura transparenţa de-a lungul lanţului valoric şi va aborda posibilele riscuri sistemice ale modelelor celor mai capabile.
În urma intrării în vigoare a legii la nivel european, statele membre UE trebuie să desemneze autorităţile naţionale competente până la 2 august 2025, care vor supraveghea aplicarea normelor pentru sistemele de IA şi vor desfăşura activităţi de supraveghere a pieţei. Majoritatea normelor din Legea privind IA vor începe să se aplice la 2 august 2026. Cu toate acestea, interdicţiile sistemelor de IA considerate a prezenta un risc inacceptabil se vor aplica deja după şase luni, în timp ce normele pentru aşa-numitele modele de IA de uz general se vor aplica după 12 luni. Companiile care nu respectă normele prevăzute în legea AI vor fi sancţionate contravenţional, amenzile putând să ajungă chiar la 7% din cifra de afaceri anuală globală pentru încălcarea interdicţiilor impuse aplicaţiilor IA. Legea prevede sancţiuni de până la 3% pentru încălcări ale altor obligaţii şi până la 1,5% pentru furnizarea de informaţii incorecte.