Poliția Română a emis un avertisment detaliat cu privire la riscurile asociate inteligenței artificiale generative,
subliniind că tehnologia este tot mai des utilizată pentru comiterea de infracțiuni.
Videoclipurile manipulate,cunoscute sub numele de deepfake, nu mai sunt doar o curiozitate tehnologică, ci au devenit arme eficiente în mâinile infractorilor cibernetici, fiind folosite pentru înșelăciuni financiare, denigrare, șantaj sau răspândirea de informații false.
Deși evoluția AI din ultimii ani a permis crearea de conținut vizual extrem de realist, destinat inițial divertismentului, autoritățile notează o schimbare de direcție îngrijorătoare. Aceste instrumente sunt acum deturnate pentru a induce în eroare publicul și a genera profituri ilicite.
„Deepfake-urile (videoclipuri false create cu AI) şi imaginile generate artificial au devenit instrumentele
preferate ale autorilor infracţiunilor din domeniul criminalităţii informatice, promovate masiv pe reţelele de
socializare. Cetăţenii de bună-credinţă sunt induşi în eroare de aceste «capcane» crezând că văd celebrităţi,
experţi financiari sau persoane aflate la nevoie”, arată sursa citată, într-un comunicat de presă.
Pentru anul 2025, polițiștii au identificat mai multe metode de operare care au luat amploare. Una dintre cele mai frecvente este frauda de tip „trading scam”, unde imaginile unor politicieni sau oameni de afaceri sunt manipulate pentru a recomanda investiții în criptomonede sau platforme bazate pe „inteligență artificială miraculoasă”. Victimele sunt convinse să transfere bani către site-uri clonă, fondurile ajungând direct în conturile infractorilor.
O altă metodă vizează latura emoțională a victimelor. Prin „scam-uri caritabile”, sunt generate clipuri cu copii bolnavi sau zone calamitate pentru a solicita donații urgente. De asemenea, înșelăciunile sentimentale (romance scam) au evoluat, infractorii folosind profiluri perfecte generate de AI pentru a seduce victimele și a le solicita ulterior bani sub diverse pretexte, precum urgențe medicale.
În mediul corporate, fraudele de tip CEO/CFO implică apeluri video falsificate în care un presupus superior ierarhic solicită transferuri urgente de fonduri. Nu lipsesc nici campaniile cu produse false „oferite gratuit” de diverse vedete.„Potrivit statisticilor din anul 2025, tentativele de fraudă cu deepfake au crescut foarte mult pe fondul avansării tehnologiei bazate pe inteligenţă artificială, iar pierderile financiare globale se ridică la zeci de
miliarde de dolari, anual”, atrage atenţia Poliţia Română.
Pe lângă pierderile materiale, fenomenul are consecințe grave asupra încrederii în instituții și media. Sunt create imagini cu persoane fictive, dar care par reale, folosite pentru a susține mărturii mincinoase despre îmbogățiri rapide sau pentru șantaj cu materiale compromițătoare fabricate.
„Dacă nimic nu mai e real, atunci nimic nu mai contează”; manipulare politică şi electorală (deepfake-uri cu
candidaţi care spun lucruri pe care nu le-au spus niciodată); distrugerea reputaţiei personale (revenge porn
deepfake, folosit în special împotriva femeilor); ameninţări la securitatea naţională (deepfake-uri cu lideri
politici care declară război etc.).
Pentru a depista un videoclip falsificat, polițiștii recomandă atenție la detalii specifice. Deși clipitul ochilor a fost
îmbunătățit în versiunile din 2025, pot apărea încă neconcordanțe. Alte indicii includ sincronizarea imperfectă a buzelor cu sunetul, umbre care nu corespund sursei de lumină, lipsa reflexiilor naturale în ochi sau dinți și, foarte des, deformări ale mâinilor și degetelor.
În cazul imaginilor statice, utilizatorii ar trebui să caute fundaluri inconsistente, obiecte care par topite sau accesorii vestimentare ilogice. O metodă eficientă de verificare rămâne căutarea inversă a imaginii (reverse image search) prin servicii precum Google Lens.
Ca măsuri generale de protecție, autoritățile reiterează regula de aur: dacă o ofertă pare prea bună pentru a fi
adevărată, cel mai probabil este falsă. Cetățenii sunt sfătuiți să nu acceseze link-uri suspecte, să nu trimită banipersoanelor cunoscute exclusiv online și să verifice informațiile pe canalele oficiale ale instituțiilor sau personalităților implicate. Activarea autentificării în doi pași (2FA) este, de asemenea, esențială.
Un alt palier al dezinformării prin AI vizează negarea adevărurilor științifice. Au fost identificate clipuri virale cu falși astronauți care neagă aselenizarea, „oameni de știință” care contestă încălzirea globală sau „medici” care promovează tratamente naturiste periculoase pentru boli grave. Aceste materiale sunt preluate uneori chiar și de surse media locale care nu verifică veridicitatea conținutului.
„Acestea nu mai sunt doar postări izolate pe grupuri conspirative. În anul 2025, astfel de clipuri ajung în trend
pe reţelele de socializare, sunt distribuite de conturi cu sute de mii de followeri şi sunt preluate chiar şi de
televiziuni locale care nu verifică sursele”, adaugă Poliţia Română.
Poliția Română atrage atenția în mod special asupra tentativelor de impersonare a autorităților. Au apărut cazuri în care infractorii folosesc videoclipuri falsificate cu ofițeri de poliție pentru a convinge victimele să facă investiții sau să divulge date financiare.
„În acest sens, pe lângă recomandările sus-menţionate, facem precizarea că niciodată poliţiştii nu vor apela
cetăţenii cu video, prin intermediul anumitor aplicaţii şi cu atât mai mult nu vor face recomandări de investiţii.
Totodată, poliţiştii colaborează doar instituţional cu unităţile bancare, în vederea recuperării prejudiciilor sau
în cadrul activităţilor desfăşurate şi nu vor face recomandări sau îndrumări cetăţenilor în niciun fel, de genul
«urmează să fiţi sunaţi de banca X sau de vreo altă instituţie financiară»”, precizează Poliţia.
Pentru a exemplifica aceste tentative, instituția a menționat existența unor imagini cu falși polițiști, subliniind că
uniformele prezentate conțin erori vizibile, cum ar fi grade inexistente în structura Poliției Române, unde gradele reale sunt reprezentate prin stele.