"Jurnaliştii au un rol foarte important în combaterea dezinformării prin deepfake"

A consemnat Sabin S. Brandiburu
Ziarul BURSA #Companii #Securitate Cibernetică / 24 iulie

"Jurnaliştii au un rol foarte important în combaterea dezinformării prin deepfake"

(Interviu cu Dan Demeter, Senior Security Researcher, Kaspersky)

În era în care inteligenţa artificială devine o parte din viaţa de zi cu zi a fiecăruia dintre noi, atât beneficiile, cât şi riscurile acestei tehnologii sunt informaţii pe care fiecare utilizator trebuie să le cunoască. Deepfake, unul dintre cele mai periculoase fenomene pe care tehnologia AI le-a adus, afectează din ce în ce mai mulţi oameni. Fie că vorbim de manipulare politică, de fake news sau de infracţiuni cibernetice, fenomenul Deepfake se află în mijlocul acestor riscuri.

Reporter: Cum este percepută Inteligenţa Artificală de către experţii în securitate cibernetică? Este o ameninţare sau poate fi un ajutor?

Dan Demeter: Tehnologiile AI şi cele care sunt la modă în acest moment (Large Language Models) sunt indubitabil utile şi foarte valoroase pentru a rezolva task-uri repetitive. Ca orice tehnologie emergentă, ea poate fi folosită pentru a face bine sau pentru a face rău. Întotdeauna, pe lângă utilizatorii legitimi, răufăcătorii sunt şi ei printre primii care adoptă tehnologiile noi şi se folosesc de ele fie pentru a crea metode noi de fraudă, fie pentru a le optimiza pe cele vechi. De exemplu, ca urmare a popularităţii în creştere a LLM-urilor, în ultima vreme observăm un trend de perfecţionare a metodelor de phishing - una dintre tacticile clasice de fraudă. Graţie utilizării unui, LLM, mesajele de phishing sunt acum scrise foarte corect în limba română, iar greşelile de exprimare sau de ortografie pe care ne bazam pentru identificarea lor acum au dispărut. De asemenea, folosirea AI permite clonarea rapidă de website-uri, într-un mod tot mai "autentic". Nu mai vorbim despre utilizarea deep fake - de la clonarea de voce la manipularea fotografiilor sau a videourilor.

Reporter: Care este, în opinia dumneavoastră, cea mai mare provocare în ceea ce priveşte AI?

Dan Demeter: În momentul de faţă, fiind o tehnologie emergentă, este necesară o reglementare justă a AI, o reglementare care să reflecte o bună înţelegere a tehnologiei şi care să poată să ţină pasul cu ea. De asemenea, vedem o nevoie urgentă de educaţie, care să ajute publicul să deceleze cu uşurinţă între conţinutul creat autentic sau generat folosind tehnologii AI. Sunt două teme foarte complexe, dar care trebuie abordate cât mai rapid cu putinţă pentru că tehnologia nu bate pasul pe loc.

Reporter: În ceea ce priveşte fenomenul deepfake, cât de periculos poate să fie şi cât de periculos va putea deveni pe măsură ce tehnologia avansează?

Dan Demeter: Fenomenul de deepfake (crearea de conţinut generat de un AI bazat pe poze, video-uri, sau sunete autentice sau care are ca protagonişti persoane reale, transpuse fără voia lor în contexte sau ipostaze false) este un fenomen ce a luat amploare începând din deceniul anterior. Dacă stăm să judecăm nivelul la care a ajuns research-ul academic actual (Unstable Diffusion), deepfake este în prezent o tehnologie accesibilă oricui deţine o placă video de ultimă generaţie. Deci, literalmente poate, foarte uşor, să încapă pe mâini rele. Mai mult decât atât, ţinând cont de faptul că în momentul actual conţinutul generat în acest mod este consumat preponderent pe platofrmele de social media (TikTok, Instagram etc..) pe ecranele de telefon care nu au nevoie de rezoluţii foarte bune sau de detalii prea minuţioase, şansa ca un video deep-fake creat cu rea-intenţie să apară în feed şi să nu fie detectat la timp este foarte mare. Odată ce a fost vizionat de un numar destul de mare de persoane (a atins o masă critică) poate produce pagube reale victimei, adevărul fiind, ca întotdeauna, mult mai dificil de demonstrat.

Reporter: Cum pot utilizatorii să se apere împotriva deepfake?

Dan Demeter: Din punctul nostru de vedere, educaţia continuă a utilizatorului de internet este foarte importantă, pentru a înţelege faptul că nu orice lucru găsit sau văzut pe internet este real, pentru a înţelege faptul că infractorii folosesc tehnici de manipulare şi de alterare a opiniei publice în încercarea de a influenţa anumite evenimente sau aspecte importante (vot, afectarea reputatiei unei persoane publice). Nu mai vorbesc despre folosirea la un nou nivel a tehnicilor de social engineering, cu mesaje audio sau video false care sunt 99% imposibil de detectat. În acest context, jurnaliştii au un rol foarte important în protejarea utilizatorilor prin articolele scrise (ca acesta!) despre acest pericol, prin informarea publicului larg despre trendurile emergente, despre avantajele şi pericolele pe care acestea le implică.

Reporter: Consideraţi că un cadru legislativ este suficient pentru a preveni fraudele prin AI sau este nevoie şi de elemente digitale de prevenţie?

Dan Demeter: Un cadru legislativ care încearcă să reglementeze AI-ul ajută până într-un anumit punct. El este mai eficient pentru conţinutul prezentat la TV, un mediu de comunicare în masă, pentru care deja există destul de multe reglementări, dar pentru internetul larg nu este de ajuns dată fiind natura deschisă a acestuia. Dezbaterea asupra libertăţii pe internet este lungă şi complexă, pentru că nimeni nu-şi doreşte ca, prin supra-reglementare sau printr-o reglementare care nu ia în considerare specificul tehnologiei să ajungem la cenzură. De aceea, pentru a putea să contracarăm fraudele este nevoie de educaţie / training-uri pentru angajaţi, dar şi pentru indivizi, informări de toate tipurile pentru a determina cât mai multă lume să conştientizeze faptul ca în secolul al XXI-lea apar mereu noi metode de fraudare şi a fi la curent cu aceste metode este cea mai bună protecţie.

Reporter: În ceea ce priveşte asistenţii virtuali bazaţi pe AI, accesibili pe internet, cât de sigure sunt datele utilizatorilor care folosesc aceşti asistenţi?

Dan Demeter: În momentul în care asistenţii virtuali bazaţi pe AI vor fi folosiţi pe scară largă, pentru a putea sa ofere o experienţă cât mai bogată, autentică şi personală (deep-connection) cu utilizatorul, s-ar putea ca ei să solicite acces la o mulţime de date personale ale acestuia. In acel moment, există pericolul să apară forme de atac noi (vezi recentele forme de atac împotriva LLM-urilor de tip Prompt Injection) prin care infractorii vor încerca să extraga informaţii confidenţiale deţinute de AI. Noi considerăm ca e nevoie să treacă o perioadă de timp de testare înainte ca asemenea asistenţi personali să fie folosiţi pe scară largă pentru a putea verifica nivelul lor de protecţie şi confidenţialitate şi a ne asigura că utilizarea lor nu ne pune în pericol.

Reporter: Consideraţi că utilizatorii trebuie să fie rezervaţi în ceea ce priveşte detaliile personale în discuţiile cu AI?

Dan Demeter: Depinde foarte mult de cine "întreţine" (owns / hosts) acel AI. În prezent, modelul actual este ca acel LLM să fie rulat şi hostat de o terţă firmă, prin urmare toate datele pe care le oferim, tot ce discutăm cu acel AI este înregistrat de corporaţia care îl deţine. Recomandarea noastră, din punct de vedere al confidenţialităţii, este sa nu dăm unui asemenea AI date pe care nu ni le putem asuma dacă devin publice. În situaţia în care rulăm un model de LLM (large language model) la noi pe calculator, local, atunci datele vor rămâne doar în acea instanţă de rulare (cu condiţia, foarte importantă, ca acel LLM să nu fie public accesibil pe internet). Atunci, poate, am putea oferi mai multe date private acelui model.

Reporter: În ceea ce priveşte securitatea cibernetică, cât de expuse sunt dispozitivele IoT la atacuri?

Dan Demeter: IoT-ul în general în momentul de faţă este destul de slab protejat. Dacă introducem şi AI-ul în acest mix, nu va influenţa faptul că multe device-uri sunt oricum prost protejate. Dar ce ar putea face un AI (şi deja începe sa se întâmple asta) ar fi operaţiuni de automated pentesting - ar fi să fie antrenat să descopere automat şi sistematic vulnerabilităţi care să poată fi raportate şi rezolvate mult mai repede.

Reporter: Poate AI să fie programată să atace şi să preia controlul unor dispozitive IoT?

Dan Demeter: Da.

Reporter: Consideraţi că AI reprezintă viitorul în interacţiunile companiilor cu clienţii? Un exemplu fiind centrele de customer support...

Dan Demeter: Da, pe partea conversaţională va putea funcţiona la un anumit moment, mai ales dacă interacţiunea cu centrul de customer support presupune doar un schimb de informaţii - dar nu va fi capabil să rezolve problemele reale pentru care clientul sună. Deci va putea oferi un răspuns sau o reacţie la o problemă, dar nu întotdeauna o rezolvare. Supraestimarea prea timpurie a capabilităţilor sale poate avea efecte adverse - vezi utilizatorii care se plâng în număr mare pe reţelele de socializare de faptul că multe firme au înlocuit deja call-center-ul cu un AI nu tocmai competent şi că acum e foarte greu să ajungi la o persoană reală care să-ţi rezolve efectiv problema.

Reporter: Vă mulţumesc!

Cotaţii Internaţionale

vezi aici mai multe cotaţii

Bursa Construcţiilor

www.constructiibursa.ro

Comanda carte
fngcimm.ro
danescu.ro
raobooks.com
boromir.ro
Mozart
Schlumberger
chocoland.ro
arsc.ro
domeniileostrov.ro
leonidas-universitate.ro
Stiri Locale

Curs valutar BNR

20 Dec. 2024
Euro (EUR)Euro4.9764
Dolar SUA (USD)Dolar SUA4.7908
Franc elveţian (CHF)Franc elveţian5.3538
Liră sterlină (GBP)Liră sterlină5.9910
Gram de aur (XAU)Gram de aur401.4137

convertor valutar

»=
?

mai multe cotaţii valutare

erfi.ro
Cotaţii Emitenţi BVB
Cotaţii fonduri mutuale
petreceriperfecte.ro
novaplus.ro
Studiul 'Imperiul Roman subjugă Împărăţia lui Dumnezeu'
The study 'The Roman Empire subjugates the Kingdom of God'
BURSA
BURSA
Împărăţia lui Dumnezeu pe Pământ
The Kingdom of God on Earth
Carte - Golden calf - the meaning of interest rate
Carte - The crisis solution terminus a quo
www.agerpres.ro
www.dreptonline.ro
www.hipo.ro

adb