Numeroşi lideri din domeniul tehnologiei şi oficiali guvernamentali din lume şi-au exprimat îngrijorarea în ultima vreme cu privire la dezvoltarea platformelor de inteligenţă artificială, mai exact faţă de ChatGPT, dar şi în România ar trebui dezbătute aceste îngrijorări, iar avocaţii trebuie să se implice în aceste discuţii, ţinând cont de natura profesiei lor, noua tehnologie având efecte asupra companiilor şi vieţii oamenilor, consideră Ioana Chiper Zah, Attorney Associate la Haţegan Attorneys.
Chiar şi Sam Altman, CEO-ul OpenAI, a spus că gândurile cu privire la de inteligenţa artificială îi perturbă somnul. "Ceea ce mă face să nu pot dormi este ideea ipotetică că am făcut deja ceva foarte rău prin lansarea ChatGPT", i-a spus Altman lui Satyan Gajwani, vicepreşedintele Times Internet, la un eveniment organizat în 8 iunie de Economic Times. Întrebat dacă IA ar trebui să fie reglementată în mod similar cu energia atomică, Altman a spus că trebuie să existe un sistem mai bun de verificare a procesului.
Avocata Ioana Chiper Zah consideră că utilizarea tehnologiilor IA în activităţile profesionale sau comerciale are implicaţii legale semnificative, cum ar fi protecţia datelor, responsabilitatea legală şi respectarea standardelor de etică, iar acestea ar trebui dezbătute mai mult şi în România, atât de specialiştii în IT şi tehnologii avansate, cât şi la nivel de comunitate, autorităţi, mediul de business, avocaţi, consultanţi.
În prezent, statele ori companiile private adoptă abordări diferite în faţa acestor aspecte, în funcţie de principiile şi valorile după care se ghidează.
Progresele tehnologice în domeniul inteligenţei artificiale (IA) au dus la dezvoltarea unor instrumente avansate de comunicare, cum este şi ChatGPT (Generative Pre-trained Transformer). Apariţia ChatGPT a generat interes şi controverse la nivel global, determinând reacţii diferite din partea statelor ori a companiilor private în ceea ce priveşte utilizarea acestei tehnologii revoluţionare.
ChatGPT este un sistem de inteligenţă artificială bazat pe reţele neurale, capabil să genereze răspunsuri coerente şi relevante în conversaţii cu utilizatorii, potrivit descrierii acestui program . Cu toate acestea, o astfel de utilizare are implicaţii juridice şi incumbă abordări diferite din partea ţărilor ori a companiilor private din întreaga lume, susţine reprezentanta Haţegan Attorneys.
În opinia sa, unul dintre aspectele cruciale în utilizarea ChatGPT în activităţile profesionale sau comerciale este protecţia datelor şi confidenţialitatea informaţiilor. Pentru a funcţiona eficient, ChatGPT trebuie să aibă acces la anumite date, printre altele şi la conversaţiile anterioare sau informaţii despre utilizatori. În acest sens, pentru ca funcţionarea programului să fie cât mai conformă,
acesta ar trebui să poată asigura protecţia datelor pe care le prelucrează, precum şi respectarea normele şi legilor privind protecţia datelor personale din fiecare ţară.
Modelul lingvistic ChatGPT stochează informaţiile care îi sunt furnizate de către utilizatorii săi pentru funcţia de învăţarea continuă cu care creatorii săi l-au înzestrat. În acest sens, are posibilitatea să divulge informaţii sensibile cu care intră în contact, către alţi utilizatori ori în terţe contexte nepotrivite. Riscul ca datele personale ori confidenţiale cu care intră în contact să fie dezvăluite contrar dispoziţiilor legale aplicabile în funcţie de zona geografică în cauză este prezent în fiecare domeniu în care acest sistem ar putea fi folosit, indiferent că este guvernamental, comercial ori juridic. Din acest punct de vedere, utilizarea sistemului IA ar trebui să fie în concordanţă cu fiecare normă de drept aplicabilă din fiecare ţară.( ex. GDPR în Europa, CCPA în California, etc.,)
Ioana Chiper Zah arată că un alt aspect important este responsabilitatea legală în cazul în care utilizarea ChatGPT cauzează daune sau generează consecinţe negative. Această situaţie ridică întrebări legate de responsabilitatea juridică în cazul generării de prejudicii asupra companiei în care activează utilizatorul, prin utilizarea programului AI. În activitatea lor curentă, nenumăraţi angajaţi din diverse domenii, au contact direct cu o multitudine de informaţii care constituie secrete comerciale valoroase pentru angajatorii lor, fără ca ei să conştientizeze. Divulgarea unor asemenea informaţii către un sistem precum ChatGPT, chiar şi cu cele mai inofensive intenţii, poate genera prejudicii colosale în sarcina companiei respective, precum şi o situaţie destul de inconfortabilă pentru prepusul în cauză. Într-o asemenea situaţie se ridică întrebarea cine ar trebui să acopere aceste prejudicii, care în cele mai multe cazuri sunt enorme.
În practică, angajaţii Samsung au folosit ChatGPT la muncă şi au scurs coduri sursă. Divizia de semiconductori a Samsung a permis inginerilor să utilizeze serviciul pentru a-i ajuta să rezolve problemele cu codul sursă. Cu toate acestea, angajaţii au introdus în mod neintenţionat date sensibile, cum ar fi codul sursă pentru un nou program, notele interne de la întâlniri şi informaţii legate de hardware. În mod alarmant, cu această ocazie, Samsung a descoperit trei alte cazuri în care angajaţii au dezvăluit informaţii confidenţiale prin intermediul ChatGPT în decursul a 20 de zile. Astfel, secretele comerciale ale Samsung au devenit proprietatea intelectuală a OpenAI, deoarece ChatGPT păstrează datele introduse de utilizatori pentru a rafina în continuare algoritmii săi.
Avocata Haţegan Attorneys relevă că utilizarea ChatGPT poate ridica, de asemenea, preocupări etice şi de discriminare. În timp ce modelele de limbaj sunt instruite să fie cât mai imparţiale şi neutre posibil, există riscul ca acestea să reflecte sau să perpetueze prejudecăţi şi discriminări preexistente. Un judecător din Columbia a fost primul judecător care a afirmat că s-a folosit de ChatGPT pentru a pronunţa o hotărâre judecătorească . Chiar dacă legea nu interzice utilizarea inteligenţei artificiale în pronunţarea hotărârilor judecătoreşti, este important de avut în vedere că un model de limbă precum ChatGPT nu are abilitatea de a "înţelege" în adevăratul sens al cuvântului informaţia pe care o deţine.
Sistemul IA formulează răspunsuri la întrebările adresate sintetizând propoziţii pe baza probabilităţilor din milioanele de exemple de text cu care a fost învăţat. Practic sistemul face o analiză matematică a cuvintelor şi literelor din întrebarea adresată la care formulează un răspuns bazat pe rezultatele probabilităţii respectivelor litere sau cuvinte de a sta unele lângă altele. ChatGPT nu "cunoaşte" răspunsul la întrebarea adresată, dar încearcă, cu o precizie impresionantă, să prevadă o secvenţă logică de text în limbaj uman care să răspundă cel mai potrivit la întrebarea adresată, acesta putând fi motivul pentru care răspunsurile formulate de către sistem sunt adesea incomplete ori false.
Dar răspunsurile formulate de o asemenea tehnologie pot fi părtinitoare, discriminatorii ori chiar greşite, motiv pentru care utilizarea tehnologiei în procesul de soluţionare a deciziilor judecătoreşti poate genera prejudicii însemnate subiecţilor de drept în sarcina cărora respectivele hotărâri produc efecte, apreciază Ioana Chiper Zah.
La acest moment, tehnologia nu poate ţine pasul cu complexitatea legii ori a speţelor juridice. În timp ce ChatGPT poate crea răspunsuri automate la întrebări juridice simple, nu poate înţelege concepte mai complexe sau interpreta jurisprudenţa. Această lipsă de înţelegere duce la sfaturi inexacte sau incomplete. În acest sens, un avocat din New York a utilizat ChatGPT pentru a efectua "cercetarea juridică" şi a citat o serie de cazuri inexistente în faţa instanţei de judecată .
La nivel internaţional, utilizarea ChatGPT a întâlnit abordări diferite, atât la nivelul statelor, cât şi în rândul companiilor private. Unele au înţeles să impună reguli şi standarde clare pentru a preveni discriminarea, prejudiciile ori atingerile aduse datelor cu caracter personal, în timp ce altele au manifestat o atitudine mai flexibilă când vine vorba de IA.
Printre statele care au abordat o perspectivă precaută şi au impus restricţii în utilizarea Chat GPT se numără Italia. Italia a înţeles să interzică iniţial accesul publicului larg la ChatGPT pe motiv că datele cu caracter personal nu ar fi protejate. În prezent, ChatGPT este disponibil în Italia, după ce cerinţele autorităţilor italiene privind elementele de privacy&data au fost implementate de către AI.
Din rândul companiilor, Apple a restricţionat instrumentele externe de inteligenţă artificială, cum ar fi ChatGPT, pentru ca angajaţii săi să se concentreze pe dezvoltarea propriei inteligenţe artificiale. În acelaşi ton cu Apple se numără şi Samsung .
Alte state au adoptat o abordare mai echilibrată, recunoscând potenţialul şi beneficiile utilizării Chat GPT în diferite domenii, dar insistând pe o monitorizare adecvată şi reglementări specifice. Reglementarea IA a fost încurajată chiar şi de către creatorul ChatGPT. Directorul general al OpenAI a îndemnat Congresul SUA să adopte standarde de licenţiere şi de siguranţă pentru sistemele avansate de inteligenţă artificială. Sam Altman a lăudat unele beneficii ale AI, dar a şi declarat că intervenţia guvernului este esenţială pentru a reduce riscurile asociate modelelor de AI din ce în ce mai puternice. El a propus un plan în trei puncte, inclusiv crearea unor standarde de siguranţă pentru a evalua modelele de AI şi o agenţie guvernamentală care să acorde licenţe pentru aceste modele .
Pe de altă parte, deşi India se numără printre statele care observă potenţialul inovator al Chat GPT şi sprijină dezvoltarea şi utilizarea sa în diverse domenii, Ministerul Tehnologiei Electronice şi Informaţiei din India afirmat explicit că guvernul indian nu ia în considerare reglementarea inteligenţei artificiale în ţară.
În 14 iunie, Parlamentul European (PE) a adoptat un raport care reprezintă poziţia de negociere referitoare la Legea privind inteligenţa artificială (IA), cu 499 voturi pentru, 28 împotrivă şi 93 abţineri. Acest raport este baza de plecare pentru negocierile PE cu Consiliul UE, adică statele membre. Europarlamentarii stabilesc obligaţii pentru furnizori şi pentru cei care implementează sisteme de IA, în funcţie de nivelul de risc pe care îl poate prezenta inteligenţa artificială. Astfel, sistemele de IA cu un nivel inacceptabil de risc pentru siguranţa oamenilor ar urma să fie interzise, precum cele care utilizează evaluarea comportamentului social (clasificând oamenii pe baza comportamentului social sau a caracteristicilor personale). Eurodeputaţii au inclus în lista interdicţii referitoare la utilizările intruzive şi discriminatorii ale IA. Furnizorii de sisteme de inteligenţă artificială de uz general - o branşă nouă, cu evoluţie rapidă în domeniul IA - vor trebui să evalueze şi să atenueze posibilele riscuri (faţă de sănătate, siguranţă, drepturile fundamentale, mediu, democraţie şi statul de drept) şi să îşi înregistreze modelele în baza de date a Uniunii înainte de a le lansa pe piaţa UE. Sistemele de IA generative bazate pe astfel de modele, cum ar fi ChatGPT, ar trebui să respecte cerinţele de transparenţă şi să introducă garanţii împotriva generării de conţinut ilegal.
Deşi în prezent persistă un vid de reglementare care ar putea cauza dezechilibre în utilizarea IA, Ioana Chiper Zah consideră că prin gestionarea adecvată la scară largă, în special printr-o reglementare unitară, utilizarea ChatGPT, precum şi a tehnologiilor IA care urmează să apară, pot aduce beneficii semnificative în activităţile profesionale sau comerciale, îmbunătăţind eficienţa şi experienţa utilizatorilor, în timp ce se respectă valorile şi normele legale. Totodată, aceasta crede în necesitatea unor dezbateri mai aprofundate şi în România, cu participarea tuturor celor interesaţi şi implicaţi în noile tehnologii IA şi ChatGPT.