NGA GJENERAL PIRO AHMETAJ
Lista e oportuniteteve si dhe rreziqeve të sigurisë është e ndërvarur dhe po dominohet gjithnjë e më shumë nga industria elektronike. Po çfarë është dhe si funksionon teknologjia “Deepfake” si pjesë e kësaj industrie? Cilat janë konkretisht oportunitetet, ose mundësitë që ofron, si dhe rrezikshmëritë që mbart “Deepfake”? Cilat janë disa raste/skenarë të ndryshëm të përdorimit apo dhe të shpërdorimit të saj? Si mund të dallohet një video reale nga një video-fake? Si mund të përballen institucionet, shoqëria dhe qoftë edhe individi me “Deepfake” Si mund të përballet bota, rajoni, vendet dhe shtetet nga këto rreziqe Cila është ardhmja? Këto e shumë pyetje të tjera do të jenë subjekt i këtij shkrimi mbi “Deepfake”, që po trondit botën dhe që pritet të ketë impakte gjithnjë e më të mëdha.
Një histori e shkurtër mbi “Deepfake”. Termi “Deepfake” është një kombinim i fjalëve “Deep learning” (mësim i thelluar, ose dije shteruese) si dhe “fake”, pra fals, ose jo e vërtetë. Kjo teknologji filloi të marrë vëmendje në vitin 2017, kur një përdorues i forumit ‘online’ “Reddit” filloi të postonte video të rreme të krijuara përmes një teknike të re të Inteligjencës Artificiale (AI). Këto video, që dukeshin plotësisht autentike (të vërteta), por në fakt ishin tërësish të manipuluara, ishin fryt i algoritmeve të sofistikuara në rrjetet artificiale, duke i mbivendosur fytyrat e njerëzve, përfshi kryetarë shtetesh, personalitete, biznesmenë, artistë, gazetarë të njohur etj., në video të ndryshme.
Origjina e “Deepfake” mund të gjendet tek avancimet në fushën e “deep learning”, një degë e inteligjencës artificiale, që fokusohet në ndërtimin e modeleve që mund të mësojnë nga të dhënat bazike. Në thelb, teknologjia përdor një lloj sistemi artificial nervor të quajtur “rrjete gjenerative kundërshtare” (GANs), që përbëhet nga dy rrjete: një rrjet “gjenerues”, që krijon përmbajtje të re dhe një rrjet “diskriminues”, që përpiqet të dallojë nëse përmbajtja është e vërtetë apo false. Kjo marrëdhënie konkurruese mes rrjeteve lejon krijimin e imazheve dhe videove që janë gjithnjë e më të besueshme, edhe pse nuk janë të vërteta.
Si funksionon “Deepfake”? E thënë më qartë, “Deepfake” bazohet në përdorimin e inteligjencës artificiale dhe “mësimit të thellë” për të analizuar dhe riprodhuar fytyra, zëra dhe lëvizje (body language) në mënyrë të tillë që të duken reale. Procesi fillon me mbledhjen e një numri të madh imazhesh ose videosh të personit që do të (sh)përdoret si model. Këto të dhëna pastaj përdoren për të trajnuar një model, që mund të gjenerojë fytyrën e këtij personi në kontekste të ndryshme.
Softuerët për krijimin e “Deepfake” përfshijnë ndër të tjera: Nga viti 2017 janë përmirësuar ndjeshëm softuerët (sistemet elektronike) për gjenerimin e “Deepfake”. Më të përdorurit deri tani janë: “FakeApp”: Një nga programet e para të krijuar posaçërisht për “Deepfake”, që u bë shumë popullor në vitin 2018. “Faceswap”: Një projekt me kod të hapur që lejon përdoruesit të shkëmbejnë fytyrat në video duke përdorur qeliza dhe rrjete nervore të thella. “DeepFaceLab”: Një tjetër mjet i fuqishëm që përdoret për krijimin e “Deepfake” dhe që është i popullarizuar në komunitetin “online”. Është për t’u theksuar që teknologjitë e “Deepfake” po zhvillohen me shpejtësi të paparashikueshme…
Përdorimi në ditët e sotme i “Deepfake”. Në fillim, “Deepfake” u përdor kryesisht për argëtim, me përdoruesit që krijonin video humoristike duke manipuluar imazhe për efekte vizuale. Megjithatë, me kalimin e kohës, përdorimi i kësaj teknologjie u zgjerua dhe u diversifikua. Aktualisht, “Deepfake” po përdoret me sukses në disa fusha:
-Në industrinë e filmit dhe argëtimit: Po përdoret për të gjeneruar efekte vizuale, për të ringjallur aktorë të vdekur ose për të ndryshuar pamjen e aktorëve pa pasur nevojë për makiazhe ose animacione. Të gjithë kemi parë filma me skena dhe efekte speciale që janë realisht të pamundura. Sot këto efekte bëhen të mundura falë teknologjisë “Deepfake”.
-Në marketing dhe reklamim: Kompanitë po përdorin “Deepfake” për të krijuar fushata marketingu më të personalizuara dhe për të përmirësuar përvojën e klientit.
-Në arsimim: Institucione arsimore po eksplorojnë përdorimin e “Deepfake” për të prodhuar materiale mësimore më tërheqëse dhe më interaktive.
Disa raste konkrete të “Deepfake”: Megjithëse “Deepfake” ka potencial të madh për të sjellë inovacione pozitive, ekziston një anë e errët e kësaj teknologjie, që nuk duhet kurrsesi të injorohet. Një nga rreziqet më të mëdha është përdorimi nga shtete dhe grupe të krimit të organizuar. Psh., liderët politikë ose figurat publike mund të bëhen viktima të videove të rreme, që i portretizojnë ata duke thënë ose duke bërë diçka që nuk e kanë bërë kurrë, ose në forma me sens pexhiorativ.
Ka pasur disa raste të bujshme të përdorimit të “Deepfake”. Disa prej tyre që kanë lënë gjurmë kohët e fundit, janë si psh, video ndaj Kryeministrit Rama mund të shihen në “YouTube” në sitin https://www.youtube.com/ watch?v=PPi-umUdaNI, apo ndaj Kryeministres Meloni në https://www. youtube.com/watch?v=D7BrX99USQw etj., apo edhe ndaj Kryeministrit Kurti të Kosovës, të cilat mund të gjenden lehtësisht në rrjetet sociale.
Videove “Deepfake” nuk u kanë shpëtuar as Presidenti Biden, apo Kryeministri Trudo, si dhe Putini apo Kim Jongu, aktorët Morgan Freeman apo Tom Cruise, Mark Zuckenberg, Elon Musk etj.. Në një botë ku lajmet përhapen me shpejtësi përmes mediave sociale, një video “Deepfake” e krijuar me cilësi të lartë mund të ketë pasoja të rënda, duke përhapur dezinformim dhe shkaktuar deri konflikte politike ose ushtarake midis vendeve.
Si shembull sjellim një video e rremë e Presidentit të SHBA: Një video “Deepfake” u publikua në internet, duke treguar presidentin amerikan që shpallte një politikë të shpifur radikale. Kjo video u zbulua se ishte e rreme, por vetëm pasi kishte shkaktuar një debat të madh publik dhe një alergji për presidentin. Një video të tillë mund ta shikoni në “Youtube” në sitin: https:// www.youtube.com/watch?v=AmUC4 m6w1wo&t=13s
“Deepfake” mund të përdoret në sulme ndaj privatësisë së individëve. Krijimi i videove të rreme pornografike me figura publike apo njerëz të zakonshëm është një shembull i tmerrshëm i kësaj teknologjie. Prandaj përdorimi i “Deepfake” për shantazh, përhapjen e informacioneve të rreme ose për të manipuluar opinionin publik mbetet një sfidë serioze për shoqëritë moderne.
Fushata elektorale: Në disa vende, teknologjia “Deepfake” është përdorur gjatë fushatave elektorale duke manipuluar pamjet e kandidatëve politikë, duke krijuar imazhe të rreme që ndikonin në perceptimin publik, deri në përmbysje të rezultatit të votës së lirë e shoqëruar me revolta popullore. Mund ta gjeni këtë në: https://www.youtube.com/ watch?v=B4jNttRvbpU&t=226s
Mashtrime financiare: Në disa raste “Deepfake” është përdorur për të manipuluar videot e drejtuesve të kompanive të mëdha, duke çuar në mashtrime financiare dhe falimentime për kompanitë dhe individët. Kjo ka çuar në përplasje të mëdha të bankave me bizneset, pasi bëhet fjalë për transferta tepër të mëdha dhe çështje që kanë përfunduar në gjyq. Mund ta shikoni një video të tillë në link-un: https:// www.youtube.com/watch?v=3tI_ 4QzyhE8
Tre skenarë hipotetikë “Deepfake”:
Skenari 1. Shpërndahet një video “Deepfake” ku Putini deklaron se Rusia i ka shpallur luftë Amerikës dhe NATO-s duke i akuzuar ato për furnizimin me armë të Ukrainës. Në video që duket si reale, Putini thotë se ka aktivizuar lëshimin e mbushjeve bërthamore drejt 32 kryeqyteteve të vendeve të NATO-s, përfshi (ose) përjashto SHBA. Bota dhe institucionet e sigurisë globale, rajonale dhe kombëtare do të futeshin në një kaos të vërtetë. Qytetërimi dhe qytetarët do presin me ankth çfarë do të ndodh më tej… apo jo?
Skenari 2. Është mbrëmja e datës 4 nëntor, një ditë para zgjedhjeve elektorale në SHBA. Është ditë heshtjeje elektorale. Po këtë mbrëmje, CNN, “Fox News” dhe “YouTube” shfaqin në televizion një video “Deepfake”, ku del ish-Presidenti Trump, i cili thotë që jep dorëheqjen nga gara elektorale. I gjithë elektorati i tij, që e kishte ndjekur me besnikëri gjatë fushatës elektorale, është esktremisht i zhgënjyer dhe i revoltuar. Çfarë ka ndodhur me të? Të gjithë janë në pritje se ç’mund të ndodhë më tej. Koha është tepër e kufizuar. Për më tepër, një kaos i vërtetë në vendin simbol të besimit te zgjedhjet e lira dhe demokracia funksionale!
Skenari 3. Në një video që doli para një viti në Ukrainë, shohim Presidentin Zelenski që u bën thirrje trupave ukrainase të dorëzojnë armët dhe të vihen nën komandën e forcave Ruse. Kjo video krijoi jo pak pështjellim në Ukrainë dhe forcat e armatosura. Pas analizës së bërë nga ekspertë të NATO-s, doli se kjo video ishte “Deepfake” dhe ishte prodhuar nga rusët për të krijuar konfuzion në Ukrainë. Kushdo i interesuar, mund ta shikojnë këtë fake-video në “Youtube”: https://www.youtube.com/ watch?v=X17yrEV5sl4
Morëm vetëm tre skenarë të mundshëm, por si skenarët e mësipërm mund të imagjinohen me dhjetëra skenarë të tjerë me peshe globale, në rajone të brishta si psh., Ballkani Perëndimor. Ky rajon, sa të dalë e vërteta, mund të ndizet shumë shpejt dhe situata mund të precipitojë deri në masën ekstreme që nuk mund të ketë kthim prapa. Duhet të përgatitemi seriozisht edhe për raste të tilla që vijnë nga zhvillimi i vrullshëm i teknologjisë së informacionit dhe “Deepfake, ose video false”.
Po si mund të identifikohet/dallohet një video false ose “Deepfake”? Në fillesat e saj, shumë video “Deepfake” mund të dalloheshin edhe me sy të lirë. Tani gjithmonë e më shumë, videot po sofistikohen shumë dhe bëhen aq origjinale, sa edhe ekspertët më të mirë me vështirësi i dallojnë ato.
Ekspertët që e kontrollojnë autenticitetin e një video për “Deepfake” duhet të jenë më të mirë se ata që e kanë krijuar atë dhe duhet të përdorin teknologji më të mirë se prodhuesit e tyre. Sot mund të bësh video për këdo dhe mund të shkaktosh dëme të konsiderueshme për individin, shtetin, shoqërinë apo deri sa të krijosh trazira dhe konfuzion në nivel global.
Është e pafundme imagjinata njerëzore për të krijuar video false (Deepfake) me përmbajtje të rrezikshme e për të shkaktuar dëme të paimagjinueshme. Për efekte të tilla, mund të shikoni videon: https://www.youtube.com/watch?v= aPTnq_1hWDE E ardhmja e “Deepfake”.
E ardhmja e “Deepfake” mbetet e pasigurt dhe varet shumë nga mënyra se si shoqëria do të zgjedhë të përballet me këtë teknologji. Siç e përmendëm me lartë, nga njëra anë “Deepfake” ka potencialin për të revolucionarizuar industrinë e argëtimit dhe të marketingut, duke sjellë përvoja më të personalizuara dhe të sofistikuara për tregun dhe përdoruesit. Në anën tjetër, edhe rreziqet për privatësinë e individit, sigurinë dhe demokracinë janë të konsiderueshme. Ka një nevojë urgjente për zhvillimin e paketës ligjore, rregullave të përdorimit si dhe teknologjive mbrojtëse që mund të identifikojnë dhe ndalojnë përhapjen e përmbajtjeve “Deepfake”. Ky vit dhe ai në vijim janë një vit zgjedhor në shumë shtete të botës. Vetëm para dy ditësh shteti i Kolorados në SHBA i parapriu me një ligj ndaj rasteve “Deepfake” në zgjedhjet e 5 nëntorit. “Colorado’s New ‘Deepfake’ Law: A Warning to Voters”. Ky ligj parashikon masa të rrepta atyre që abuzojnë me këtë teknologji. Po ashtu, ai përfshin masa për përdorimin e algoritmeve të zbulimit të “Deepfake”, rritjen e edukimit publik për rreziqet e kësaj teknologjie dhe forcimin e masave parandaluese për të mbrojtur viktimat e abuzimit me “Deepfake”. Në përfundim, teknologjia “Deepfake” është një thikë me dy presa që mund të sjellë përfitime të konsiderueshme, por që mund të paraqes edhe rreziqe të mëdha për shoqërinë. Rritja e ndërgjegjësimit dhe zhvillimi i masave mbrojtëse janë kyçe për të siguruar që “Deepfake, ose videot e rreme” të përdoret në mënyrë të përgjegjshme dhe etike në të ardhmen. Po ashtu, krijimi i mekanizmave si dhe një grupi ekspertësh që të menaxhojnë “në kohë reale” situata “Deepfake” mbetet prioritet i domosdoshëm.
Nuk ka kurrsesi as individ, as vende as shtete imune, pasi “Deepfake” nuk afekton vetëm Amerikën, Wall Streetin apo Hollywood-in. Prandaj edhe dy shtetet sovrane (RSh dhe R.Kosovës) të një kombi të vetëm, nuk kanë kohë për të humbur, por duhet të mendojmë dhe veprojnë qysh tani (SOT), jo kur apo pasi të kenë ndodhur raste të “Deepfake ose video false”.