INTERVIU Cum a transformat Inteligența Artificială fraudele cibernetice. A dispărut un indiciu puternic, iar asta face ca înșelătoria să fie mult mai dificil de depistat de către oameni
Atacurile cibernetice nu mai pot fi recunoscute după greșelile gramaticale, iar în curând ar putea veni sub forma vocii unor persoane apropiate, explică pentru publicul HotNews un expert în securitate informatică. El spune că Inteligența Artificială a simplificat munca infractorilor și ne obligă să fim tot mai atenți la orice facem, dar și la ce informații împărtășim atunci când vorbim cu chatboții.
Silviu Stahie, specialist în securitate informatică la Bitdefender, a vorbit într-un interviu pentru HotNews despre cele mai periculoase înșelătorii online ale momentului și a explicat de ce trebuie să fim rezervați să le dăm chatboților informații personale.
Dezvoltarea uneltelor de AI generativ a crescut viteza atacurilor cibernetice, iar țintele ajung să fie compromise mult mai rapid, arată o analiză McKinsey, care susține că numărul atacurilor de phishing a crescut de peste zece ori de la final de 2022, momentul lansării ChatGPT.
O revoluție la nivel de gramatică
– HotNews.ro: Ce s-a schimbat cel mai mult în peisajul amenințărilor cibernetice de când a „explodat” Ai-ul generativ?
– Silviu Stahie: Nu este prima oară când ne confruntăm cu probleme generaționale. La fel s-a întâmplat și la apariția rețelelor de socializare, ce-i drept într-o mai mică măsură. Dar din punct de vedere al securității informatice, lucrurile nu au evoluat la modul evident.

Când au apărut prima oară acești agenți de limbaj, presupunerea inițială a fost că atacatorii vor începe să folosească aceste unelte pentru a crea amenințări mult mai complexe și mult mai greu de detectat. Însă adevărul este că ei au fost folosiți într-un mod mult mai simplu și destul de eficient. Pur și simplu au înlăturat niște praguri foarte joase, cum ar fi cele de gramatică.
Acum, atacatorii nu mai au probleme cu mesaje exprimate incorect gramatical. Acesta a fost unul dintre efecte. Înainte, atacurile erau țintite pe zone, iar în momentul în care un atacator se muta dintr-o zonă la alta, nu făcea decât să traducă mesajul, spre exemplu din germană în română. Și bineînțeles că apăreau toate acele greșeli și era ușor să recunoaștem că acel email este periculos. Însă acum nu mai există această diferență. Sunt identice atacurile din Germania, din Australia, din România.
– Așadar, o schimbare ține de faptul că nu mai există acele greșeli gramaticale care te făceau să te prinzi imediat că este o păcăleală?
– Exact. Iar faptul acesta a dus la uniformizarea atacurilor. Înainte, atacurile veneau sub forma unor „valuri”, înainte de sărbători, înainte de evenimente importante, iar asta se întâmpla fiindcă infractorii se concentrau pe zonele de care erau interesați, dar și pentru că aveau resurse limitate. Să traduci, să găzduiești pagini, toate acestea înseamnă resurse, bani pe care trebuie să îi investești în atacuri.
Însă pentru că traducerile au devenit mult mai simple, iar paginile de phishing au ajuns să fie mult mai ieftine pe Darknet, atacatorii au, mai nou, multe avantaje. Nu mai vedem așa de multe valuri, ci numai câteva. În general, există un flow uniform de spam și de atacuri care clar sunt legate de această automatizare.
False apeluri de la poliție, cu texte scrise de ChatGPT
– Putem spune, deci, că atacurile sunt mult mai numeroase, mai susținute, mai insistente?
– Sunt. Pentru că un efect al mesajelor corecte gramatical este că sunt mult mai dificil de depistat de către oameni și atunci ingineria socială este mai ușor de realizat. Începem să vedem lucruri pe care nu le vedeam înainte. Spre exemplu, au început să apară și pe la noi acele apeluri telefonice de la persoane care susțin că sunt de la poliție și îți spun că ești implicat într-un dosar. Acel atacator urmează un script care este bine pus la punct și nu este scris de cineva, ci probabil că au folosit un agent AI. Genul acesta de utilizare al agenților este cumva „de fundal”.
– Cineva te sună, pretinde că este de la poliție și îți spune că ești urmărit, ca apoi să-ți poată cere bani…
– Da, scopul este să te prindă. Simți ideea de urgență. S-a întâmplat ceva, ți se spune că ești prins într-o anchetă. Unii oameni vor fi panicați, iar la telefon ți se va spune, „bine, uite, ca să te excludem, dă-mi e-mailul tău sau „hai să vorbim pe WhatsApp”. Atacatorii încearcă să te mute pe alte platforme de unde să scoată niște bani de la tine.
Înșelătoria momentului este mai credibilă din cauza bazelor de date consistente
– Este și această înșelătorie larg răspândită, când oamenii primesc SMS legat de un fals colet și sunt invitați să intre pe un site creat de atacatori. Care este marele pericol aici?
– Da, schema asta a circulat foarte mult în ultima lună. Pagina respectivă este un kit de phishing, așa se numește, este de vânzare pe Dark Web. Intermediarii cumpără aceste kituri, le dau drumul și există baze de date pe DarkNet care adună nume, e-mail, telefon, cât mai multe date despre o anumită persoană. Aceste baze de date cuprind milioane de intrări, deci atacatorii au de unde să aleagă. Și pur și simplu folosesc informațiile acestea ca să dea un pic de greutate atacului.
Ce se întâmplă? În momentul în care tu pui datele în pagina respectivă, vei oferi unui atacator contul tău de WhatsApp. Respectivul folosește numărul tău de telefon ca să se înregistreze în WhatsApp, aplicația îi cere un cod distribuit cu toate aceste SMS-uri de autentificare, doar că tu îl oferi prin aplicația respectivă.
După ce ai pierdut controlul WhatsApp, aplicația nu te dă afară de pe telefonul tău. Însă asta nu înseamnă că altcineva nu poate folosi în același timp WhatsApp-ul tău și va trimite mesaje către oameni din agendă.
– De tipul „puneți-mi 2.700 de lei pe card, până mâine”.
– Da, diverse sume, de la persoane cu care nu ai mai discutat de foarte mult timp. Sumele acelea diferă…2.700, 3.000, 2.000. Scopul este să prindă măcar una-două victime. Nu trebuie să prinzi mulți ca să faci 1.000 de euro.
Evitați autentificarea prin SMS
– Ce poate face un om care află că infractorii trimit mesaje pe WhatsApp în numele lor? Autentificare în doi pași, parolă la logarea pe WhatsApp?
– Da, Cu cât ai mai multe măsuri de securitate, cu atât mai bine. Noi am recomandat ca la orice fel de serviciu să se ocolească opțiunea aceea cu autentificarea prin SMS, pentru că este cea mai ușor de păcălit.
– Atunci când te sună un număr necunoscut este periculos să răspunzi cu DA, în ideea că un atacator îți va înregistra vocea și o va folosi în alt context, cum ar fi acceptul dat pentru diverse acțiuni?
– Este un pericol, dar eu cred nu acesta este motivul pentru care nu ar fi bine să răspunzi cu DA. Eu mi-am făcut o regulă și recomand tuturor ca, în momentul în care te sună un număr necunoscut, să nu zici nimic. Nimic. Numai dacă respectivul spune „bună ziua”, „salut”, altceva, poți să-i răspunzi și tu. De ce? Fiindcă există sisteme automate care nu fac decât să verifice dacă numerele de telefon sunt corecte, dacă răspunde cineva. Ați văzut că de multe ori se întâmplă să răspunzi, să zici alo, și apoi se închide convorbirea.
Practic, nu s-a întâmplat nimic, nu te-a păcălit nimeni cu nimic, dar ulterior, peste o lună sau peste șase luni, s-ar putea să primești alte telefoane de la unii care te invită la conferințe de sănătate, cum se întâmplă mai nou. Nici atacatorii nu vor să trimită sute de mii de mesaje, ideal ar fi să trimită la numere unde să știe că există cineva, așa că au sisteme automate care apelează numere de telefon.
„Sunetul este mult mai ușor de replicat” – Schemele născute când AI-ul aude prea multe voci
– Dar cum stăm la capitolul de clonare a vocilor?
– În ceea ce privește clonarea vocilor, ea a luat-o mult înaintea imaginilor. Deepfake-urile video și foto încă mai au probleme, încă mai pot fi recunoscute, chiar și atunci când s-au făcut cu resurse destul de mari. Ele, de obicei, sunt gândite pentru ecrane mici, iar când ești la metrou sau în autobuz și te uiți pe telefon nu o să vezi foarte bine toate detaliile din video-ul respectiv.
Sunetul este mult mai ușor de replicat, vocile sunt mult mai ușor de replicat și deja au fost utilizate. Un caz celebru este din alegerile americane din 2020, când clonarea de voci a ajuns la un nivel destul de ridicat și alegătorii erau sunați de un robot cu vocea lui Joe Biden.
– Din ce știți, în România au fost înșelătorii grave cu clonare de voce?
– Nu, din ce știu, nu, dar într-o primă fază cred că vor intra pe „metoda accidentul” sau lucruri de acest gen. Dacă oamenii deja cad victime fără să recunoască vocea de la telefon, vă dați seama cum va fi și când vor recunoaște vocea. Totuși, uneltele acestea nu sunt așa de ușor de folosit de către oricine. Nu sunt disponibile tuturor, dar se vor perfecționa.
„Nu mai dați ChatGPT informații personale”
– Avansul AI-ului se vede extrem de bine la chatboți precum ChatGPT, Gemini sau Claude. Mulți oameni vorbesc cu ei ore în șir. Ce lucruri personale nu ar trebui în niciun caz să punem în discuțiile cu chatboții?
– Înainte să vă răspund la întrebare, recomand un exercițiu interesant: să întrebați chatboții „ce știi despre mine”, iar în acest fel poți afla ce date personale au păstrat.
Aproape toate serviciile acestea au fost victimele unor breșe de securitate și chat-urile au ajuns în domeniul public sau pe Darknet. Nu sunt sigure pe post de canale de stocare de informații. Teoretic, nu ar trebui să vadă nimeni chat-urile respective. Dar nu știi niciodată: după o breșă de securitate, informațiile pe care le-ai urcat acolo pot ajunge publice.
Oferim același sfat precum la rețelele de socializare: nu mai încărcați informații personale în aceste zone publice, la fel cum încurajăm și acolo oamenii să-și pună contul pe „private” sau postările să poată fi vizionate doar de către prieteni. În plus, le spunem să nu facă publice poze făcute cu copiii la mare, la munte, în vacanță…
– Care este riscul real dacă punem multe informații personale în discuțiile cu chatboții?
– Trebuie să încercăm, pe cât posibil, să limităm informațiile personale pe care le urcăm, din cauză că, vrem, nu vrem, avem cu toții o amprentă digitală, iar unele amprente sunt mai pronunțate decât altele. Cei care oferă publicitate au deja profilurile noastre de utilizator cu nume și prenume și știu exact ce să ne servească, ce ne interesează.
Există un pericol, unul teoretic, și ne putem gândi ce se întâmplă în cazul în care companiile care operează aceste LLM-uri spun că vor să obțină mai mulți bani. Și pot face asta vânzând datele pe care le au despre utilizatori către companii terțe, mai ales că datele acestea sunt importante.
Ne putem trezi că „bula” aceasta de AI se sparge și companiile respective sunt puse „la colț” și trebuie să facă niște bani, pentru că nu mai au mulți utilizatori sau poate nu s-au dovedit atât de profitabile pe cât sperau ei. Aceste companii au adunat foarte multe informații despre utilizatorii lor.
Un pericol denumit „AI poisoning”
– O diferență între o postare pe rețeaua de socializare și discuția cu un chatbot ar putea fi că la cea din urmă totul pare mai sigur, fiindcă ai falsa impresie că ești doar tu cu el în discuție…
– Așa este, însă, înțelegerea pe care noi o aveam cu rețelele de socializare era că noi suntem produsul. Este un motto faimos: „dacă ceva este gratuit, tu ești produsul”. Asta era tranzacția: tu îmi oferi un serviciu gratuit și în schimb îți ofer datele mele de user pe care Meta sau alte companii le reutilizează mai departe în scopuri publicitare.
Și în discuția cu chatboții tot date oferim acestor LLM-uri. Punem poze, îi întrebăm despre sănătate, despre rute, despre orașe. Este foarte ușor pentru aceste companii să facă profile. Nu știm dacă o fac sau nu, dar ei știu de exemplu că X este bărbat, este interesat de călătorii, preferă anumite mâncăruri, are unele probleme de sănătate. Ne putem gândi, de exemplu, ce se întâmplă dacă datele despre problemele de sănătate ajung la o companie de asigurări?
– Mulți oameni tind să discute lucruri foarte personale cu chatboții, unii îi folosesc pe post de terapie. Este riscant dacă îi spui despre senzații, despre sentimentele tale?
– Categoric. Mai ales că sunt chatboți care au fost și foarte nereușiți și care au oferit sfaturi ce s-au dovedit a fi extrem de periculoase. Când erau mai la început, unii chatboți i-au îndemnat pe oameni la suicid. Plus că devine foarte greu să eviți chatbotul pentru că, spre exemplu, o simplă căutare pe Google s-a transformat într-un chatbot. Ai folosit un LLM chiar fără să vrei. Este tot ca și cum ai discuta cu un chatbot.
Dacă ai întrebat, logat fiind pe contul de Google, „de la ce ar putea fi pata roșie care mi-a apărut pe mână”, acea informație se păstrează. Toate informațiile despre căutările tale pe Google există undeva. Sunt în profilul tău de utilizator. (…)
Dar, să fie clar, tot ce discutăm cu acești chatboți este folosit pentru antrenare, pentru răspunsuri mai bune pe viitor. Problema principală este că aceste date nu sunt verificate pentru autenticitatea lor și aceasta este și principala limitare a acestor sisteme în prezent.
Dezvoltatorii nu prea mai au cu ce să „hrănească” sistemele, nu prea mai au lucruri noi care să fie și verificate și există deja problema care se numește AI poisoning și bazele de date sunt generate aici de răspunsuri de la alte AI-uri și pot fi multe invenții, halucinații.
Dacă „hrănești” un sistem AI din aceste baze de date faptul se va vedea în interacțiunea cu publicul și AI-ul respectiv ajunge să „creadă” un anumit lucru dacă suficient de multă lume întreabă o chestie greșită. Au fost situații în care AI-urile au citat drept sursă bună o pagină de satiră.