CORESPONDENŢĂ DIN ATENA Kaspersky NEXT: Deepfake - unealta de propagandă a acestui deceniu

Sabin S. Brandiburu
Ziarul BURSA #Internaţional #Securitate Cibernetică / 21 iunie

Kaspersky NEXT: Deepfake - unealta de propagandă a acestui deceniu

Tehnologia Deepfake, bazată pe inteligenţă artificială, prin intermediul căreia utilizatorii pot copia vocea şi trăsăturile fizice ale unei persoane şi pot apoi să îi "ordone" să spună ce vor, este unealta principală de propagandă a acestui deceniu, sunt de părere experţii în securitate cibernetică din cadrul Kaspersky.

Experţii în securitate cibernetică de la Kaspersky şi mai mulţi reprezentanţi ai comunităţii de securitate cibernetică s-au reunit la evenimentul anual Kaspersky NEXT din Atena, unde au prevăzut o abordare în două direcţii pentru a combate ameninţările generate de fenomenul produselor cibernetice de tip deepfakes.

Conform acestora, sistemele sofisticate de securitate cibernetică pentru AI va trebui să fie însoţite de programe de educaţie şi conştientizare bine puse la punct pentru utilizatori, pentru a-i ajuta să identifice pericolele reprezentate de deepfakes şi actorii rău intenţionaţi care folosesc AI pentru a comite fraude, pentru a dezinforma sau pentru a distorsiona adevărul.

Infractorii cibernetici adoptă rapid noile tehnologii, una dintre cele mai îngrijorătoare tendinţe fiind creşterea numărului de deepfakes. Problema este cu atât mai deranjantă în ultima vreme, pe măsură ce instrumentele pentru generarea AI devin din ce în ce mai răspândite şi accesibile publicului larg.

Experţii prezic, de asemenea, că va fi o nevoie tot mai mare de tehnologii menite să protejeze sistemele personale bazate pe inteligenţă artificială, de ameninţările continue şi insistente ale criminalilor cibernetici. Vom depinde din ce în ce mai mult de tehnologiile AI în viaţa de zi cu zi. Această dependenţă va introduce un nou vector de atac, atrăgând criminalii cibernetici să exploateze această nouă oportunitate uşoară. Astfel, utilizatorii vor fi nevoiţi să investească în securizarea sistemelor personale AI împotriva atacurilor.

"Viitorul, aşa cum îl vedem noi, nu va necesita doar găsirea de soluţii tehnologice pentru ameninţările noi şi în continuă evoluţie, ci şi o schimbare de mentalitate. În această eră de aur a jurnalismului, în care calitatea ştirilor este mai importantă ca niciodată, trebuie să investim cât mai mult posibil în educaţia utilizatorilor pentru a proteja societăţile şi democraţiile noastre împotriva dezinformării şi a altor ameninţări similare", a declarat Marco Preuss, Director Adjunct al Departamentului de Analiză şi Cercetare Globală din cadrul Kaspersky"

Kaspersky NEXT: Deepfake - unealta de propagandă a acestui deceniu

Ce înseamnă deepfake

Deepfake este o tehnologie bazată pe inteligenţa artificială care permite crearea de imagini, videoclipuri sau înregistrări audio false, dar care, din păcate, pot să pară foarte reale, mai ales pentru persoanele care nu au o educaţie tehnologică avansată. Termenul "deepfake" provine din combinarea cuvintelor "deep learning" - un subset al inteligenţei artificiale - şi "fake". Prin utilizarea algoritmilor avansaţi de învăţare automată, deepfake-urile pot suprapune feţe, schimba voci sau crea scene care nu au avut loc niciodată în realitate, astfel reuşind să inducă oamenii în eroare sau să îi atragă în capcana fraudelor cibernetice.

Acestea tehnologii deepfake sunt adesea folosite pentru a crea conţinut falsificator, cum ar fi videoclipuri în care persoanele par să spună sau să facă lucruri pe care nu le-au spus sau făcut în realitate. Deşi tehnologia poate avea aplicaţii pozitive, cum ar fi în industria divertismentului sau pentru efecte speciale în filme, ea este adesea utilizată în mod abuziv pentru a răspândi dezinformări, pentru a compromite reputaţia persoanelor sau pentru alte activităţi rău intenţionate. De asemenea, tehnologia de tip deepfake este folosită în fraudele cibernetice de tip "scam" , unde sunt folosite imaginile unor personalităţi cunoscute, pentru a convinge internauţii să "investească într-o afacere profitabilă" sau în fraudele bancare, unde utilizatorii sunt contactaţi de un "angajat al băncii" care le va cere datele bancare şi anumite sume de bani pentru a le oferi acces la servicii bancare.

Kaspersky NEXT: Deepfake - unealta de propagandă a acestui deceniu

"Problema acum este că deepfake-urile sunt din ce în ce mai accesibile şi chiar mai ieftine de achiziţionat. Tehnologia a devenit atât de puternică, preţurile pentru puterea de procesare au devenit şi mai mici, încât, în zilele noastre, comparativ cu acum zece ani, este şi ieftin să achiziţionezi această tehnologie, să o închiriezi. Poţi chiar să îţi faci propriile deepfake-uri acasă. Cu un computer suficient de puternic, le poţi face acasă. Poţi crea videoclipuri, bazate pe persoane reale, generându-le cu un buget limitat. Nu cheltuim milioane de dolari pentru a genera aceste persoane false. Din acest motiv, deepfake este unealta de propagandă preferată pentru acest deceniu. Şi de ce este aşa? Toate ideile şi toate principiile care au format fenomenul "fake news" încă rămân, încă se aplică, dar acum ai video, sunet şi text, ceea ce le face mai periculoase. Până acum s-a făcut doar o prezentare generală a ceea ce s-a întâmplat şi a unor pericole cu care ne confruntăm în prezent, dar ce urmează? Doar pentru că nu ştim ce se întâmplă peste tot în lume, nu înseamnă că nu au apărut deja noi tehnologii", a declarat Dan Demeter, Senior Security Researcher în cadrul Departamentului de Analiză şi Cercetare Globală, Kaspersky.

Sunt oamenii pregătiţi să confrunte fenomenul deepfake?

Întrebarea care îi apasă tot mai mult pe cercetătorii şi pe experţii din domeniul securităţii cibernetice este dacă oamenii, utilizatorii de internet sunt, oare, pregătiţi să confrunte fenomenul deepfake sau daca au educaţia tehnologică necesară pentru a identifica ce este real şi ce este deepfake. Din păcate, însă, potrivit experţilor în securitate cibernetică, foarte mulţi oameni încă sunt victime ale acestui fenomen şi nu reuşesc să recunoască elementele cheie prin intermediul cărora se pot identifica fişierele deepfake.

Conform experţilor în securitate cibernetică, produsele cibernetice de tip deepfake pot fi recunoscute, însă, pentru a face acest lucru, este nevoie ca utilizatorii să aibă cunoştinţele necesare pentru identificarea lor.

Câteva dintre elementele prin care utilizatorii pot identifica videoclipurile de tip deepfake sunt lipsa de sincronizare perfectă între sunetul videoclipului şi miscările feţei sau ale buzelor, mişcările sacadate ale corpului sau, pur şi simplu, informaţia transmisă şi posibilitatea ei de a fi reală. Potrivit experţilor, prin intermediul educaţiei, utilizatorii pot realiza ca este "puţin probabil ca Preşedintele Statelor Unite ale Americii să îndemne oamenii, într-un mesaj video, să investească într-o aplicaţie de criptomonede".

În ceea ce priveşte companiile, experţii sunt de părere că acestea trebuie să urmeze câţiva paşi esenţiali pentru a-şi asigura infrastructura digitală şi pentru a se putea proteja de eventuale atacuri cibernetice.

Potrivit experţilor, un pas important pentru protejarea companiilor este ca acestea să înţeleagă activităţile infractorilor cibernetici pe darkweb, să anticipeze riscurile potenţiale şi scurgerile de informaţii atunci când dezvoltă o strategie de securitate cibernetică. De asemenea, cercetătorii din domeniul securităţii cibernetice recomandă implementarea unui sistem sofisticat de securitate cibernetică care nu doar protejează, ci şi valorifică puterea AI pentru a consolida securitatea şi detectarea.

Pe lângă aceşti paşi, experţii recomandă companiilor să investească în cursuri de formare educaţională şi iniţiative de conştientizare a securităţii cibernetice la toate nivelurile şi să implementeze cursuri de conştientizare a securităţii pentru a aborda nevoile specifice de securitate AI şi pentru a minimiza riscul incidentelor interne de securitate cibernetică.

În final, pentru companii, experţii recomandă ca acestea să se conformeze cu reglementările. Pe lângă abordările tehnologice şi educaţionale pentru a atenua riscurile, este necesară şi reglementarea. În multe eforturi de reglementare, riscul utilizării rău intenţionate a AI în atacurile cibernetice este evidenţiat, iar autorităţile de reglementare sunt îndemnate să dezvolte metode mai bune de detectare şi watermarking pentru media generată de AI.

Tehnologia AI şi deepfake pot avea consecinţe asupra sănătăţii mintale

Evoluţia inteligenţei artificiale şi a tehnologiei deepfake poate avea efecte nocive pe termen lung asupra sănătăţii mintale a utilizatorilor. Conform experţilor, există cazuri în care oamenii au ajuns să se îndrăgostească de "partenerii" lor bazaţi pe inteligenţă artificială şi există riscul ca oamenii să ajungă în punctul în care le este foarte greu să mai facă diferenţa dintre inteligenţa artificială şi persoanele reale. De asemenea, conform acestora, un alt curent care a prins popularitate în rândul utilizatorilor este acela prin care, cu ajutorul AI, persoanele "readuc la viaţă" pe cei care au decedat, folosind poze şi înregistrări cu ajutorul cărora "învaţă" un sistem de inteligenţă artificială să se comporte ca persoana care a decedat.

Kaspersky NEXT: Deepfake - unealta de propagandă a acestui deceniu

"Roboţii şi maşinile autonome sunt o tendinţă, se întâmplă acum. Este o implementare fizică a tehnologiilor create de om, până acum, iar această implementare este necesară deoarece fără aceste noi tehnologii AI nu ai putea avea maşini autonome sau roboţi inteligenţi. Însă, un lucru interesant este ceea ce este dincolo de asta, ceea ce ne conectează şi mai mult cu inteligenţa artificială, adică principiul «tu şi AI-ul». Există mai multe startup-uri în acest domeniu care îţi permit să îţi creezi propriul sistem AI. Practic, este ca şi cum ai un prieten digital atribuit ţie, care te poate ajuta, îţi poate da recomandări, va asculta poveştile tale. Există chiar şi poveşti în care acest lucru a mers atât de departe încât oamenii s-au îndrăgostit de AI-ul lor. Recent, a avut loc chiar o nuntă a unui artist cu un AI holografic. A fost în Marea Britanie şi a fost făcută pentru a experimenta cum este să ai o interacţiune completă cu AI-ul. Acest lucru duce mai departe problema la un nivel de expertiză atât de mare, încât poţi să îl hrăneşti şi să îl înveţi tot ce ştii despre o persoană pentru a crea un «geamăn digital» al unei persoane care nu mai există, şi poţi să îi pui întrebări, să interacţionezi cu el toată viaţa ta, astfel făcând acea persoană să trăiască pentru totdeauna şi să aibă rolul de sprijin pentru copiii tăi, nepoţii tăi, strănepoţii tăi şi aşa mai departe. Este un lucru ciudat, ceea ce ne arată că există foarte multe posibilităţi", a declarat Marco Preuss, Director Adjunct al Departamentului de Analiză şi Cercetare Globală din cadrul Kaspersky.

AI - o tehnologie benefică, în ciuda riscurilor pe care le adduce

Inteligenţa artificială, în ciuda riscurilor pe care le aduce, precum fenomenul deepfake sau cel al informaţiilor incorecte, poate să fie benefic în evoluţia societăţii, susţin experţii. Aceştia sunt de părere că, prin capacitatea sa de a învăţa şi de a colecta date, tehnologia AI poate fi benefică în personalizarea educaţiei, în medicină, prin găsirea rapidă de diagnostice sau, pur şi simplu, în viaţa de zi cu zi, la cumpărături sau la treburile casei.

Totodată, experţii susţin că ameninţarea inteligenţei artificiale, în ciuda opiniilor populare, este datorată nu neapărat din cauza tehnologiei în sine sau a capacităţii sale de calcul şi de adaptare, ci, dimpotrivă, poate fi periculoasă datorită modului în care oamenii o vor folosi.

Kaspersky NEXT: Deepfake - unealta de propagandă a acestui deceniu

"Ne putem imagina cu toţii o lume în care tehnologia AI poate ajuta cu adevărat la construirea unei societăţi diferite. Această tehnologie poate personaliza educaţia, poate rezolva cu adevărat problemele lumii noastre, poate aborda problemele pe care noi, oamenii, nu le putem rezolva, poate ajuta la îmbunătăţirea educaţiei noastre, a experienţelor noastre, a cumpărăturilor noastre, modului în care mâncăm, la ce ne dorim să facem şi poate reduce costurile în fiecare aspect al societăţii. Este cu adevărat incitant. Acum, putem imagina şi o lume în care un hacker digital poate obţine acces într-o aplicaţie de date care gestionează o cantitate mare de date ale clienţilor şi date sensibile ale pacienţilor. Asta nu sună atât de corect şi de incitant. Pe măsură ce IA câştigă în complexitate şi continuă să se îmbunătăţească, tot aşa se întâmplă şi cu infracţiunile cibernetice", a declarat Dr. Lilian Balatsou, expert în IA şi Doctor în ştiinţe neuro-cognitive.

Aceasta a adăugat: "Sunt puţin sceptică atunci când vine vorba de IA, nu pentru că mă îndoiesc de faptul că tehnologia nu este neapărat rea sau părtinitoare sau că va întrece oamenii sau că este capabilă să preia controlul asupra tuturor lucrurilor, ci sunt mai degrabă sceptică deoarece cred mai mult în nedreptăţile şi ineficienţele lumii noastre decât în tehnologia noastră. Dar, totuşi, cum am ajuns aici? Cum vorbim încă despre IA în viaţa noastră de zi cu zi şi cum a devenit IA un trendsetter atât de mare? Cum a revoluţionat complet întreaga noastră industrie şu ne-a adus într-o eră nouă. Nu este ceva nou, asta este sigur. Aşadar, nu am inventat IA acum un an, sau acum doi ani, sau acum cinci ani. Au fost eforturi concentrate din partea oamenilor de ştiinţă, de-a lungul anilor. Încă din era lui Turing am văzut eforturi concentrate. În anii "60 şi "70, am văzut oameni de ştiinţă încercând să îmbunătăţească modelele şi să mimeze inteligenţa umană. Am avansat, ulterior, în domenii mai mari ale IA. Am făcut analize de tipar, am făcut predicţii şi în cele din urmă am dezvoltat nişte modele care sunt capabile să genereze conţinut din cantităţi mari de date. Suntem cu toţii uimiţi de tendinţele revoluţionare ale GenAI [N.r. - inteligenţă artificială generativă]. GenAI a revoluţionat întregi industrii. Acum suntem capabili să discutăm despre prevenţia bolilor iar GenAI poate analiza mamografiile şi radiografiile din spitale şi poate ajuta la diagnosticarea rapidă a bolilor. Poate reduce semnificativ costurile operaţiunilor în unităţile de call center. Aplicaţiile AI conversaţionale sunt cu adevărat în fruntea revoluţiei noastre".

Opinia Cititorului ( 2 )

  1. o sa ne ducem in cap rau cu AI ul

    In sfarsit un articol care abordeaza corect problema si nu incearca sa ne bage IA pe gat

Cotaţii Internaţionale

vezi aici mai multe cotaţii

Bursa Construcţiilor

www.constructiibursa.ro

Comanda carte
danescu.ro
arsc.ro
Stiri Locale

Curs valutar BNR

14 Aug. 2024
Euro (EUR)Euro4.9761
Dolar SUA (USD)Dolar SUA4.5124
Franc elveţian (CHF)Franc elveţian5.2344
Liră sterlină (GBP)Liră sterlină5.7993
Gram de aur (XAU)Gram de aur358.8318

convertor valutar

»=
?

mai multe cotaţii valutare

Cotaţii Emitenţi BVB
Cotaţii fonduri mutuale
Teatrul Național I. L. Caragiale Bucuresti
hipo.ro
hipo.ro
energyexpo.ro
roenergy.eu
rommedica.ro
prow.ro
aiiro.ro
oaer.ro
Studiul 'Imperiul Roman subjugă Împărăţia lui Dumnezeu'
The study 'The Roman Empire subjugates the Kingdom of God'
BURSA
BURSA
Împărăţia lui Dumnezeu pe Pământ
The Kingdom of God on Earth
Carte - Golden calf - the meaning of interest rate
Carte - The crisis solution terminus a quo
www.agerpres.ro
www.dreptonline.ro
www.hipo.ro

adb