Inteligenţa Artificială (IA) reprezintă provocarea tehnologiei viitorului. Utilizarea acesteia pe scară largă, odată cu implementarea tehnologiei 5G, va crea o mulţime de vulnerabilităţi şi de riscuri pentru care societatea trebuie să se pregătească de acum pentru a le contracara, a susţinut colonelul Marc-André Ryter, membru al Statului Major al Armatei Elveţiene.
Unul dintre aceste riscuri, potrivit domniei sale, este multiplicarea proceselor de manipulare prin intermediul fake-news.
În cadrul Conferinţei internaţionale de dialog public-privat "Noi ameninţări şi atacuri financiare/5G = pericol exponenţial", organizată de Grupul de presă BURSA împreună cu Swiss Web Academy, Marc-André Ryter a declarat: "Inteligenţa Artificială va spori manipularea prin fake-news. Este aproape imposibil să faci diferenţa între adevăr şi fals. Sunt unele state - de exemplu Turcia - unde populaţia se confruntă în mod obişnuit cu fenomenul fake-news. Ştirile false pot constitui un instrument puternic pentru guvernele care doresc să manipuleze populaţia şi de aceea ar trebui să luăm măsuri pentru combaterea acestora. Una dintre aceste măsuri constă în împărtăşirea informaţiilor şi cooperarea în domeniul securităţii cibernetice".
Conform domniei sale, utilizarea pe scară largă a inteligenţei artificiale va avea un impact uriaş în spaţiul cibernetic, datorită lăţimii spectrului 5G şi complementarităţii dintre om şi maşinile tehnologice. Specialistul elveţian susţine că există un potenţial uriaş în mai multe domenii de activitate şi a dat exemplul medicinei, unde diagnosticarea bolilor a fost mult îmbunătăţită prin utilizarea inteligenţei artificiale.
Marc-André Ryter a precizat: "Din păcate, există şi riscuri legate de inteligenţa artificială. Din cauza potenţialului uriaş, apariţia erorilor umane va fi mult mai facilă, iar acestea pot interveni în special în domeniul logistic, unde există un lanţ întreg de informaţii, dar există şi un număr crescut de vulnerabilităţi. Din această cauză, vor apărea mai uşor disfuncţionalităţi, iar reţelele şi sistemele globale vor fi ţintite. Nu există o diferenţă între utilizatorii din domeniul militar şi cel civil în privinţa vulnerabilităţilor cauzate de folosirea eronată a inteligenţei artificiale. Ambele sectoare de activitate trebuie să fie atente cu privire la utilizarea incorectă a inteligenţei artificiale".
Domnia sa a menţionat că pentru scopuri comerciale se folosesc aplicaţii machine-learning, care poat fi vulnerabile odată cu utilizarea inteligenţei artificiale, dacă se introduc elemente greşite în lanţul informaţional. O asemenea eroare ar face ca maşina respectivă să execute cu totul alte comenzi decât cele dorite de oameni.
Ryter mai susţine că, din cauza vitezei de procesare, care va deveni din ce în ce mai mare odată cu dezvoltarea exponenţială a tehnologiei, oamenii vor deveni un obstacol deoarece sistemele de securitate vor dori să acţioneze imediat în situaţii de risc şi să nu aştepte comanda din partea omului. Domnia sa afirmă că acest lucru va fi cauzat de multitudinea atacurilor cibernetice. Marc-André Ryter susţine: "Vor fi tot mai multe atacuri, legate de alte procese anterioare. Va fi o utilizare sistematică, de la alegerea ţintei, până la obiectivele propuse. Un rol important îl va avea şi micşorarea echipamentelor propriu-zise pentru actorii puternici. Practic, toţi vor fiolosi noile sisteme, inclusiv hackerii şi teroriştii".
Două dintre măsurile pe care specialistul elveţian le consideră eficiente în contracararea vulnerabilităţilor sunt tratarea noilor ameninţări cibernetice cu aceeaşi exactitate cu care au fost analizate şi combătute vechile riscuri de securitate şi promovarea securităţii multidimensionale, în care să se ţină cont de stabilirea profilului utilizatorilor şi identificarea comportamentelor anormale.