Tehnologia folosită de infractori devine în cele din urmă o armă. Instrumentele de AI, precum ChatGPT, sunt folosite de hackeri pentru a-şi îmbunătăţi atacurile cibernetice, avertizează chiar OpenAI şi Microsoft, care au lansat un avertisment comun cu privire faptul că hackerii folosesc deja modele lingvistice pentru a-şi consolida tacticile. Avertizări asupra acestei posibilităţi au fost emise şi până acum de diverse alte entităţi, însă cele două companii americane vin şi cu dovezi. Acestea spun că grupuri de hackeri chinezi, ruşi, iranieni şi nord coreeni folosesc deja instrumente precum ChatGPT pentru a crea scripturi mai bune şi a-şi îmbunătăţi tehnicile sociale.
Acestea din urmă sunt folosite pentru a crea campanii de phishing mai convingătoare, în urma cărora utilizatorii sunt păcăliţi mai uşor să ofere informaţii personale. Există şi situaţii cu implicaţii militare. De exemplu, Stontium, un grup de hackeri susţinut de spionajul rus, a folosit AI-ul pentru a descifra protocolul de comunicaţii al sateliţilor, informaţiile radarelor şi diverşi alţi parametrii tehnici sensibili Avertismentul celor două companii vine în condiţiile în care propriile instrumente de AI, ChatGPT şi Copilot, pot fi folosite de hackeri în atacuri.
1. fără titlu
(mesaj trimis de anonim în data de 16.02.2024, 12:34)
E o vorba romanesca "Prost sa fii noroc sa ai", acum trebuie sa ai inteligenta artificala care se obtine foarte usor.