Imaginează-ți că înainte cu câteva zile de o elecție, pe rețelele de socializare apare un videoclip cu unul dintre candidați în care acesta susține un discurs instigator la ură, rasism și alte jigniri care îl pun în antiteză cu imaginea sa pro minorități de până acum. Sau că o tânără află că în grupul ei de colegi circulă un videoclip explicit cu aceasta despre care doar ea știe cu certitudine că nu este real. Acestea sunt doar câteva dintre multiplele scenarii în care deepfake-urile pot fi folosite cu scop malițios și în care prezintă un adevărat pericol. Odată cu dezvoltarea tot mai accelerată a Inteligenței Artificiale, fenomenul „deepfake-urilor” devine un subiect din ce în ce mai des întâlnit și, adesea, controversat.
În 2024, lumea se confruntă activ cu această manipulare a datelor și a persoanei, fiind mai periculoasă ca niciodată acum că resursele creării unui astfel de videoclip sunt tot mai accesibile, iar victimele nu mai sunt doar celebrități sau persoane publice, ci oameni obișnuiți.
În aceste condițiiții alarmante, importanța educării asupra pericolelor din jurul deepfake-urilor devine o necesitate și un semnal de alarmă.
„Deepfake-urile și dezinformarea sunt doar două dintre modalitățile prin care AI ar putea avea un impact negativ major asupra știrilor false.”
~Dave Waters
Iar ca și cum lupta pentru combaterea dezinformării nu ar fi fost destul de anevoioasă până acum, aceste videoclipuri modificate de către un algoritm folosind Inteligența Artificială denumite “deepfakes” au devenit unul dintre cele mai mari obstacole. Deepfake-urile au afectat deja o serie de scenarii politice, arătând personalități din această sferă spunând sau făcând lucruri pe care nu le-au făcut niciodată. Un exemplu cunoscut în acest sens îl implică pe președintele ucrainean Volodymyr Zelenskyy care, într-un videoclip modificat prin IA, cere armatei sale să înceteze atacurile. Acest lucru nu numai că subminează încrederea în liderii politici, dar are și potențialul de a influența opinia publică.
Astfel, abundența deepfake-urilor și rapiditatea cu care acestea se răspândesc pe rețelele sociale agravează problema dezinformarii. Un studiu [1] realizat de Universitatea din Baltimore și firma de securitate cibernetică CHEQ, a constatat că, în 2020, știrile false au costat economia globală 78 de miliarde de dolari.
Deși pentru generațiile mai tinere unele dintre aceste tipuri de videoclipuri par ușor de recunoscut, persoanele mai în vârstă sunt adesea vulnerabile în fața dezinformării [2] și joacă un rol major în răspândirea știrilor false și implicit a panicii, a fricii pe rețelele de socializare. Fără a avea intenții malițioase, ci adesea din contră, aceștia din urmă nu dispun de o bună educație în ce privește modul în care veridicitatea unei informații sau imagini poate fi verificată, rezultând în agravarea fenomenului de dezinformare.
Tot în domeniul politic, deepfake-urile s-au dovedit a fi un bun mijloc de manipulare a alegerilor și opiniei publice, compromițând la un oarecare nivel încrederea în sistemul electoral. Cu doar două zile înainte de alegerile din octombrie din Slovacia, de exemplu, o înregistrare audio falsă a fost postată pe Facebook, care îl prezenta pe liderul partidului liberal “Slovacia Progresistă”, Michal Šimečka, discutând despre cum să fraudeze alegerile prin cumpărarea de voturi de la minoritatea romă a țării. Deoarece deepfake-ul era doar audio, a exploatat o lacună în politica media Meta, care vizează doar videoclipuri false în care o persoană a fost editată pentru a spune cuvinte pe care nu le-a spus niciodată. Šimečka a pierdut alegerile, iar o parte din experți se presupune că ar învinovăți parțial acel audio fals pentru pierderea sa.
Dar nu doar oamenii din sfera politică au avut de suferit din cauza deepfake-urilor, de fapt, pornografia din răzbunare și cea în care sunt folosite trăsăturile celebrităților au fost printre primele utilizări răuvoitoare ale deepfake-urilor. Pornografia deepfake este plasată într-un context mai amplu, cel al inegalității de gen, și vizează și dăunează majoritar femeilor, reflectând daune emoționale și ale reputației. Aproximativ 96% dintre deepfake sunt videoclipuri pornografice, cu peste 134 de milioane de vizualizări pe primele patru site-uri pornografice deepfake [3].
Deepfake-urile pornografice adesea amenință, intimidează și provoacă traume psihologice victimelor. Reduc femeile la obiecte sexuale și pot conduce din nefericire pe lângă cele deja menționate, la abuz și, în unele cazuri, chiar pierderi financiare sau a locului de muncă. În contextul pornografiei din răzbunare, doar câteva imagini și videoclipuri ale victimei sunt suficiente pentru a fi manipulate într-o formă de media pornografică convingătoare. Tehnologia IA poate fi folosită și pentru a altera imagini deja existente cu scopul de a conferi nuditate victimei. Astfel, după încărcarea unei imagini cu o persoană reală, o fotografie nud convingătoare poate fi generată folosind aplicații și site-uri web gratuite. În timp ce unele dintre aceste aplicații au fost interzise sau șterse (de exemplu, DeepNude a fost închis de creatorul său în 2019 [4] după o reacție critică imensă), există unele noi care așteaptă să apară în locul lor.
Sensity AI a urmărit videoclipurile deepfake de acest tip și a constatat că 90%-95% dintre ele sunt non-consensuale, iar 90% dintre acestea sunt pornografie non-consensuală despre femei [5]. Această formă de abuz bazată pe gen a fost recent un subiect al online-ului atunci când un cunoscut streamer de jocuri video masculin a accesat videoclipuri deepfake ale unei colege din domeniu de sex feminin și le-a afișat în timpul unui live stream [6]. În urma evenimentelor, streamerul Twitch „Sweet Anita” și-a dat seama că există deepfake-uri care o au pe ea drept subiect în videoclipuri pornografice online.
„Este foarte, foarte suprarealist să te vezi cum faci ceva ce nu ai făcut niciodată”, a spus „Sweet Anita” pentru CNN [6], după ce și-a dat seama că fața ei a fost inserată în videoclipuri pornografice fără consimțământul ei. „Este ca și cum ai vedea cum ți se întâmplă ceva șocant. De exemplu, dacă ai urmări un videoclip cu tine însuți fiind ucis sau un videoclip cu tine sărind de pe o stâncă”, a spus ea.
Totuși, se poate argumenta că deepfake-urile, ca majoritatea lucrurilor din lumea în care trăim, nu au doar o parte rea, invazivă, ci și un oarecare scop fie de entertainment, fie chiar benefic. În ultimii doi ani această ramură a Inteligenței Artificiale a fost virală pe internet atât la nivel național, cât și global sub forma videoclipurilor cu celebrități care fac activități necaracteristice lor. De la Dani Mocanu fluent în franceză, până la Andreea Tonciu care predă biologie, deepfake-urile au stârnit reacții de amuzament în rândul utilizatorilor de social media fără a avea un caracter hărțuitor sau înșelător.
Iar în ceea ce privește scopurile folositoare și pozitive ale deepfake-urilor, un exemplu relevant îl constituie un videoclip creat pentru a sprijini lupta împotriva malariei în cadrul campaniei “Malaria Must Die”. Videoclipul îl prezintă pe celebrul fotbalist David Beckham, care pare să vorbească în nouă limbi diferite. De fapt, vocea se schimbă – chiar și la cea feminină, dar gura lui Beckham pare să fie perfect sincronizată cu vorbele, tehnologia deepfake fiind folosită pentru a-i manipula mișcările faciale.
Videoclipul lui Beckham ilustrează de asemenea potențialul de aplicare a tehnologiei deepfake în filmele de dublare. Editarea la nivelul mișcărilor faciale ale unui actor dar și a vocii acestuia poate constitui un concept prin care oamenii pot viziona versiuni de film dublate, auzind în continuare vocea actorului original.
Puțin mai neobișnuite sunt tipurile de situații în care această tehnologie se află la limita dintre pozitiv și negativ. Despre o astfel de experiență vorbește Michael Grothaus în cartea sa intitulată “Trust No One” care are drept nucleu deepfake-urile și caracterul insidios al acestora. Într-un articol publicat de “The Guardian” în 2021 [7], este analizată experiența autorului cu această tehnologie, și felul în care i s-au putut schimba sentimentele față de ea. Astfel că în anul 1999, tatăl scriitorului a murit în urma unor complicații lăsate de un accident de mașină, iar două decenii mai târziu, fiul său “stătea la un computer și urmărea un videoclip cu tatăl său, sănătos și purtând un tricou galben, jucându-se cu un smartphone care a fost inventat la mulți ani după moartea sa. Se distra, înregistrând parcul plin de soare din jurul lui. Apoi s-a întors spre ecran și i-a zâmbit binevoitor fiului său din spatele sprâncenelor sale stufoase inconfundabile. Grothaus și-a readus tatăl la viață sub forma unui „deepfake”. L-a costat doar câteva sute de dolari.”
Autorul a trecut prin ambele dintre stările pe care le-ar putea provoca un astfel de videoclip unei persoane în situația lui, prin urmare “Revenirea la viață sub forma digitală a tatălui său a dat naștere unor sentimente contradictorii în Grothaus. A vizionat videoclipul în mod repetat – bucurându-se de reuniune. Apoi l-a șters – îngrozit de ruptura pe care o făcuse în realitate și de consecințele pe care le presupune pentru simțul nostru de adevăr și încredere.”
Ca privire de ansamblu, deși este just să recunoaștem și impactul evolutiv al deepfake-urilor asupra industriilor de divertisment, utilizarea amenințătoare a acestei tehnologii ridică preocupări cât se poate de valide. Asta face ca implicațiile etice ale deepfake-ului să fie enorme. Aceste videoclipuri alterate fac posibile lucruri precum manipularea mass-media la o cu totul altă scară, hărțuire, folosirea imaginii și a persoanei fără consimțământ, provocarea de traume psihologice, instabilitate politică și multe altele.
În timp ce da, trendurile de pe rețelele de socializare care conțin deepfake sunt distractive și amuzante, sunt în același timp un reminder pentru noi toți că odată cu o tehnologie avansată și încredibilă, vin la pachet și multiplele feluri în care aceasta poate fi folosită pentru a face rău. Iar deși mulți dintre noi adoptăm o atitudine pasivă, fiind de părere că “nu mi se poate întâmpla așa ceva”, modul în care deepfake-urile își îndreaptă tot mai mult subiectul către oameni obișuiti în defavoarea celebrităților, reprezintă un apel de trezire care nu poate fi mai evident de atât.
BIBLIOGRAFIE
[1] https://www.zdnet.com/article/online-fake-news-costing-us-78-billion-globally-each-year/
[2] https://www.technologyreview.com/2020/05/26/1002243/misinformation-older-adults/
[3] Giorgio Patrini, Henry Ajder, Francesco Cavalli, and Laurence Cullen, “The State of deepfakes”, Deeptrace, October 7, 2019. https://regmedia.co.uk/2019/10/08/deepfake_report.pdf (pg 5, linia 47)
[5] https://www.technologyreview.com/2021/02/12/1018222/deepfake-revenge-porn-coming-ban/
[6] https://edition.cnn.com/2023/02/16/tech/nonconsensual-deepfake-porn/index.html