Denisa Crăciun

Metoda „accidentul” intră în era inteligenței artificiale: Cum pot fi păcăliți românii

AI 2023

Escrocii au învățat să folosească inteligența artificială (IA) și au făcut metoda „accidentul” mai „eficientă”. Dacă până acum oamenii mai puteau identifica înșelătoriile evitând astfel să dea bani, în prezent, cu ajutorul tehnologiei deepfake, pot fi mai ușor de păcălit.

În metoda tradițională, escrocii apelează la întâmplare - sau targetat - persoane cărora le spun că un membru al familiei sau un apropiat a suferit un (presupus) accident și are nevoie de bani. Unii au reușit astfel, de-a lungul timpului, să obțină sume mari de bani și să păcălească în special oamenii în vârstă.

În metoda îmbunătățită, ei se folosesc de inteligența artificială pentru a reproduce vocile unor persoane, făcând înșelătoria mai realistă și convingându-i pe apropiații acestora să ofere bani sau alte obiecte de valoare. Și pentru asta nu e nevoie să fie experți tech, ci doar să aibă un computer și o conexiune bună la internet.

Această tehnologie deepfake - folosită de aplicații precum FaceApp - poate fi de asemenea utilizată pentru manipularea imaginilor. 

„Un «deepfake» e o imagine, un videoclip, o voce sau un text creat cu ajutorul inteligenței artificiale. «Deep» vine de la «deep learning», o metodă de antrenare a computerelor pe cantități masive de date pentru a realiza sarcini asemănătoare cu cele umane. «Fake» indică faptul că e (conținut - nr) generat de computer și este dificil de diferențiat de media generată de oameni”, explică experții de la University of Virginia (UVA).  

Un raport din 2023, realizat de Sumsub pe baza unor date culese din 224 de țări și teritorii, inclusiv România, arată că numărul incidentelor care implică tehnologia deepfake a crescut de 10 ori între 2022 și 2023. 

Studiul mai arată că România este pe locul al doilea, după Belgia, în clasamentul țărilor europene cu cea mai mare creștere a fenomenului deepfake în perioada 2022 - 2023. Următoarele 3 poziții sunt ocupate de Slovacia, Portugalia și Ungaria.

Metoda „accidentul” cu inteligență artificială. Cum o poți evita 

Pe TikTok, una dintre aplicațiile pe care s-au viralizat în ultima vreme videoclipuri deepfake cu artiști, politicieni, șefi de stat și alte persoane publice, am dat și de Lucian Popescu, un creator de conținut care le explică urmăritorilor lui cum pot evita înșelătoriile care folosesc inteligența artificială.

Lucian este urmărit pe TikTok de peste 192.000 de utilizatori și a strâns, în total, 4 milioane de like-uri la videoclipurile sale. 

„Sună-ți părinții și setează cu ei un cuvânt sau o frază cheie pe care să o știți doar voi. Sunt din ce în ce mai multe cazuri de înșelăciune prin care un IA îți preia vocea și îți sună părinții spunându-le că ai fost răpit sau ai avut un accident și cerându-le o sumă de bani. Treaba e atât de credibilă din moment ce este vocea ta, încât se întâmplă foarte des ca părinții să cadă în plasa acestei înșelătorii. Și cine ar vrea să i se întâmple așa ceva? Dar treaba asta poate fi foarte ușor combătută cu acest cuvânt cheie pe care îl setezi cu ai tăi și în eventualitatea acelui telefon, ei îl pot cere să se prindă dacă e pe bune sau e scam”, spune Lucian.

@acel.lucian Cu siguranță știi pe cineva care a pățit asta ☝🏻 #sfaturiutile #sfaturibune #howto #ai #tipsandtricks ♬ original sound - Lucian | Lu

În cazul videoclipurilor, pentru a identifica dacă este vorba despre un deepfake, ar trebui să fiți atenți, potrivit Directoratului Național de Securitate Cibernetică (DNSC), la:

  • Sincronizare necorespunzătoare a buzelor
  • Clipitul nefiresc
  • Mișcări bâlbâite
  • Umbre lipsă și iluminare nefirească
  • Părul nemișcat sau mișcarea nefirească a părului

Conform sursei citate, deepfakes au tendința de a avea efectul „uncanny valley”, în care creierul simte că ceva nu este natural. 
 

Parallax

Vizualizari
3565
Conţinut
Parerea ta despre articol
Adauga comentariu

- Ultimele știri -

 


  Ultimele știri