Regulamentul privind Inteligenţa Artificială (AI Act) a intrat în vigoare în vara acestui an. AI Act detaliază toate aspectele de care să ţină cont atât furnizorii de soluţii AI în HR cât şi utilizatorii finali, în construcţia unei soluţii de recrutare bazate pe AI şi în actul de recrutare ca atare.
Potrivit comunicatului primit la redacţie, cele aproape 200 de articole stabilesc criteriile pe care angajatorii trebuie le abia în vedere atunci când apelează la soluţii de recrutare construite pe baze GenAI şi regulile foarte clare de urmat de către furnizorii acestor soluţii în procesul de concepere a acestora.
Obiectivul este acela de a pune "la adăpost" drepturile fundamentale ale candidaţilor şi de a preveni încălcarea acestora prin soluţii de recrutare bazate pe AI care nu se conformează a priori unor reguli bine stabilite.
AI Act, în vigoare la 1 august, clasifica aceste soluţii în funcţie de gradul de risc.
Prevederile regulamentului merg până la a interzice utilizarea soluţiilor AI care analizează sau monitorizează caracteristici sau trăsături emoţionale ale candidaţilor la angajare şi acordă o foarte mare atenţie respectării drepturilor fundamentale ale omului.
Regulamentul defineşte nu mai puţin de patru categorii de risc, astfel:
1. Sisteme de IA cu risc inacceptabil (interzise)
Este cea mai strictă categorie şi include sistemele de IA care sunt considerate o ameninţare gravă la adresa siguranţei şi drepturilor fundamentale ale omului. Acestea sunt interzise complet în UE şi aş menţiona aici manipularea comportamentală subliminală care poate influenţa persoanele într-un mod care le poate afecta liberul arbitru (cum sunt minorii sau alt tip de persoane vulnerabile).
2. Sisteme IA cu risc ridicat
Aici intră sistemele care prezintă riscuri semnificative pentru siguranţă şi drepturile fundamentale, fiind supuse unor reguli stricte de conformitate.
Sistemele de IA cu risc ridicat sunt permise doar dacă respectă anumite cerinţe stricte, legate de siguranţă, transparenţă, responsabilitate şi monitorizare.
Regulamentul impune aici o serie de paşi:
>evaluarea riguroasă, înainte de utilizare (audituri de conformitate, evaluarea riscurilor etc.) a soluţiei respective
>transparenţă în privinţa construcţiei soluţiei respective de recrutare, iar utilizatorii trebuie să fie informaţi că interacţionează cu un sistem de IA. Este obligatorie, de asemenea, supravegherea umană constantă pentru a reduce riscul de decizii eronate sau neetice.
3. Sisteme de IA cu risc limitat
Acestea sunt considerate mai puţin periculoase, dar trebuie să respecte anumite norme de transparenţă. De obicei, acestea implică interacţiuni cu utilizatori, iar aceştia trebuie informaţi că interacţionează cu un sistem de inteligenţă artificială.
4. Sisteme de IA cu risc minim
Acestea sunt considerate a fi cu cel mai scăzut nivel de risc şi sunt permise fără reguli speciale, fiind în esenţă lăsate să opereze liber. Acest tip de sisteme include, de exemplu, IA utilizată pentru aplicaţii de divertisment sau majoritatea aplicaţiilor de gaming.
Act AI detaliază modul de abordare şi prevenire a riscurilor cu cea mai mare probabilitate de apariţie. Astfel, sunt abordate discriminarea şi părtinirea, unde se acordă o atenţie deosebită evitării discriminării pe baza IA, mai ales în contextul evaluărilor automate în domenii precum angajarea sau accesul la servicii publice. Apoi, supravegherea şi pierderea confidenţialităţii, prin care se urmăreşte prevenirea abuzurilor de supraveghere în masă prin recunoaşterea facială sau alte tehnologii de identificare biometrică. Nu în ultimul rând, răspunderea şi responsabilitatea.
Regulamentul cere ca entităţile care dezvoltă şi implementează IA să fie trasabile şi să poată fi sancţionate în caz de incidente sau erori.
"Ca expert pe zona drepturilor fundamentale ale omului şi, prin extensia necesară din ultimii peste 10 ani în cybersecurity şi GDPR, aş spune că avem cel puţin două aspecte esenţiale de care trebuie să ţină cont angajatorii atunci când se decid să implementeze o soluţie de tip AI în procesul intern de recrutare: 1. Analiza în acord cu prevederile noului regulament CE a oricărei soluţii AI propusă de către provideri, tocmai pentru a evita pe cât posibil cele două riscuri majore: neconformare cu regulamentul şi eventuale procese cu angajaţii sau potenţiali angajaţi, pe baza unui Audit şi 2. Alegerea celei mai puţin expuse soluţii la una dintre cele trei categorii de riscuri identificate de către analiştii comisiei - ridicat, moderat şi scăzut - în funcţie de specificul companiei şi al domeniului de activitate.
Recomand companiilor să urmeze serie de paşi, obligatorii în contextul apariţiei Act AI, bazaţi pe adaptabilitate, conformitate şi independenţa de soluţiile AI şi crearea unor proceduri interne foarte clare, care să le protejeze de toate riscurile expuse mai sus (cel puţin), urmând câţiva paşi absolut obligatorii atunci când apelează la o soluţie AI pentru filtrarea CV-urilor şi analiza abilităţilor candidaţilor pe baza unor interviuri automate. Pentru a respecta AI Act, ar trebui identificat şi clasificat sistemul AI pe care urmează să-l adoptaţi, să stabiliţi un cadru de guvernanţă a datelor, care să vă asigure transparenţa în relaţia cu utilizatorii. Este bine ca soluţia AI să fie auditată la fiecare şase luni pentru a vă asigura că performanţa rămâne conformă cu reglementările. Auditul include analiza deciziilor luate de AI şi verificarea conformităţii cu politicile de etică şi confidenţialitate. Se poate considera că adoptarea Act AI constituie unul dintre paşii importanţi în definirea cadrului în care soluţiile bazate pe inteligenţa artificială pot fi create şi adoptate de către utilizatori (companii) în procesele, din ce în ce mai complexe, de recrutare, într-o piaţă a forţei de muncă total modificată, aşa cum apare aceasta ca fiind în ultimii cinci ani, post-pandemie", explică Cristiana Deca, CEO Decalex, expert în cybersecurity, GDPR şi protecţia drepturilor fundamentale ale omului în contextul digitalizării şi utilizării soluţiilor de inteligenţă artificială.
Opinia Cititorului