Duboki falsifikati, sintetički sadržaj iliti deepfakes.
- Tamara Zavišić
- Dec 17, 2024
- 5 min read
ima li neko neki bolji predlog prevoda na srpski jezik, send help.
Granice stvarnosti. Redefinisane?
Jedan od najkontroverznijih (ali ne i najozbiljnijih, postoje i drugi) aspekata ove naše pompezne tehnologije jesu deepfakes – iliti hiperrealistični falsifikati kreirani pomoću naprednih AI algoritama. Iako predstavljaju potencijal za inovacije u umetnosti, marketingu, obrazovanju, komunikaciji (i još mnogo toga, budimo kreativni), zloupotrebe ove tehnologije ukazuju na ozbiljne društvene i etičke izazove. Definitivno.
Šta su duboki falsifikati iliti deepfakes?
Deepfakes su digitalni falsifikati koji koriste algoritme dubokog učenja (deep learning) za kreiranje vizuelno i zvučno uverljivih zamena lica, glasa ili pokreta stvarnih ljudi. Ovi algoritmi analiziraju ogromne količine podataka kako bi naučili specifične karakteristike pojedinca, a zatim ih precizno rekreirali. Tako kaže internet.
Prvobitno korišćeni u industriji zabave i edukacije, deepfakes su ubrzo postali alatka za manipulaciju – od političkih dezinformacija do zloupotrebe u privatnoj sferi. Njihov razvoj pokreće ozbiljna pitanja o granicama tehnologije, odgovornosti i posledicama za celokupno društvo.
Ova tehnologija ne postavlja samo pitanja o njenoj primeni, već i o granicama odgovornosti – ko je odgovoran za nastanak, širenje i posledice deepfake sadržaja? Njihov razvoj zahteva hitne odgovore na etička, pravna i društvena pitanja, kako bi se obezbedilo poverenje u digitalnu stvarnost.
Nije da se nije desilo kod nas
> Politički deepfakes
U Srbiji su se pojavili lažni snimci opozicionih političara, kreirani pomoću AI tehnologija, sa ciljem diskreditacije i manipulacije javnim mnjenjem. Snimci koji prikazuju pomenute opozicione lidere u kompromitujućim situacijama izazivaju sumnju i zbunjenost među nama običnim građanima, otežavajući razlikovanje stvarnih informacija od lažnih. Ovaj slučaj ukazuje na opasnost kada se tehnologija koristi kao političko oružje, urušavajući poverenje u medije i demokratske procese.
npr > AI generisani video snimci koji prikazuju političke protivnike u kompromitujućim ili manipulativnim situacijama. Link > https://bit.ly/40Wrjl8
Lažno generisani sadržaji stvaraju konfuziju i urušavaju kredibilitet političkih figura (kakve god one bile, u to ne ulazim). Javnost je sve češće podložna informacionim “ratovima” gde istina postaje relativan pojam. I to je strašno, da se tako prosto izrazim. Pored direktne štete nanete pojedincima, dugoročna posledica je erozija poverenja u politički proces.
> Deepfake incident sa Emirom Kusturicom
Reditelj Emir Kusturica našao se na meti deepfake snimaka, u kojima su mu pripisane izjave koje nikada nije dao. Link > https://bit.ly/3Zg4qI6 Iako su snimci ubrzo demantovani, ovaj slučaj pokrenuo je pravnu “bitku” i otvorio ozbiljna pitanja o zloupotrebi AI u javnom prostoru.
Ovaj slučaj pokazuje koliko brzo i lako dezinformacije mogu da se šire, narušavajući reputaciju pojedinaca i stvarajući medijski haos.
Iako je tehnologija brzo prepoznata kao lažna, šteta je već bila naneta. Viralnost ovakvih sadržaja stvara situaciju gde demanti dolazi prekasno, a posledice ostaju trajne. Ovaj primer nameće važno pitanje > ko je odgovoran za kreiranje i distribuciju ovakvog sadržaja? Odgovornost ne leži samo na kreatorima već i na platformama koje omogućavaju brzo širenje dezinformacija.
*EU AI Akt kaže da svi deepfakes moraju biti tako i označeni. Bonus činjenica. Nadam se da ćemo takvu odredbu i prepisati.
3. Deepfake pornografija
Prema istraživanju koje je objavio Balkan Insight, žene sve češće postaju žrtve deepfake pornografije. Ovi snimci, kreirani bez njihovog pristanka, koriste se za ucene, ponižavanje i psihološko nasilje. Link > https://bit.ly/41GO10L
Deepfake pornografija nije samo tehnološki problem već predstavlja ozbiljan oblik digitalnog nasilja. Psihološke posledice za žrtve su duboke – od stresa i anksioznosti, do socijalnog povlačenja i narušenih profesionalnih prilika.
Odsustvo jasnih pravnih mehanizama i kaznenih mera otvara prostor za nekažnjenost i sistemsku neodgovornost. Zakonski okvir u Srbiji nije adekvatan (neću reći nepostojeći) da se nosi sa ovakvim zloupotrebama. Problem je dvostruk > nedostatak zakona koji jasno tretiraju zloupotrebu AI za kreiranje kompromitujućih sadržaja i sporo delovanje institucija koje bi trebale da pruže zaštitu žrtvama. U situaciji kada žrtve nemaju pravnu zaštitu, ovakvi slučajevi postaju još učestaliji.
Još gore, deca nam ovakve softvere koriste radi kreiranja eksplicitnih sadržaja svojih vršnjaka, nastavnika, profesora. Ne priča se mnogo o tome. Ali priča se o tigrovima, EXPOu, napretku. Trepćem.
ALI imamo još jedan problem >
U situacijama kada kompromitujući snimci ili fotografije postanu javno dostupni, pojedinci, institucije ili organizacije pribegavaju (desilo se, doslovno) tvrdnji da su takvi materijali rezultat veštačke inteligencije. Ovakvo postupanje služi kao sredstvo za manipulaciju percepcijom javnosti i diskreditaciju stvarnih dokaza.
npr > Nedavni incident u našoj Srbiji ilustruje ovu pojavu. Link > https://bit.ly/3OXjPqC (za ovo rekoše da je AI……………lol). Audio snimci koji prikazuju neprikladno ponašanje određenih političkih figura bili su momentalno označeni kao deepfake manipulacije. Umesto da se suoče sa posledicama svojih dela, odgovorni su jednostavno okrivili tehnologiju, stvarajući prostor za sumnju u autentičnost materijala. Niko nije odgovarao inače, to je epilog.
Kada stvarni dokazi postanu predmet sumnje, posledice su dalekosežne > gubitak poverenja javnosti u stvarne informacije, izbegavanje posledica svojih dela, stvarne žrtve manipulacija gube kredibilitet itd itd.
Pojam deepfake nosi sa sobom prizvuk tehnološke kompleksnosti i sumnje, zbog čega ga je lako zloupotrebiti. Ukoliko neko tvrdi da je autentični snimak deepfake, oni efektivno prebacuju teret dokaza na drugu stranu. Javnost, suočena sa nesigurnim mehanizmima za proveru, postaje podložna zbunjenosti i dezinformacijama.
U političkom kontekstu, zloupotreba termina deepfake može da služi kao veeeeeoma moćno oružje. Kada se stvarni snimci označe kao manipulacija, istina postaje zamagljena, a odgovornost se gubi u buci medijskih spinova. Koji su samo i dostupni na televizijama sa nacionalnom frekvencijom. Ova praksa urušava poverenje (ako ga je uopšte i ostalo) u institucije, medije i same tehnološke alate.
Budimo realni, tehnologija nije (uvek) “kriva”, već način na koji je koristimo.
Pitanje odgovornosti za zloupotrebu pojma deepfake ostaje otvoreno. Trenutno ne postoji pravni mehanizam koji jasno sankcioniše lažno pozivanje na AI manipulaciju. Ovo ostavlja prostor za nekažnjenost i obeshrabruje stvarne žrtve digitalnih manipulacija koje se bore za pravdu.
Ne zaboravimo > mediji i digitalne platforme igraju ključnu ulogu u ovoj priči. Kada se pojavi snimak koji je označen kao deepfake, mediji moraju imati jasne protokole za verifikaciju autentičnosti pre nego što se prenesu bilo kakve tvrdnje. Platforme koje omogućavaju viralnost ovakvih sadržaja snose odgovornost za proaktivno otkrivanje i uklanjanje manipulativnih objava.
Kako vratiti poverenje?
Da bi se sprečila zloupotreba pojma deepfake, neophodna su sistemska rešenja koja uključuju tehnologiju, regulativu i edukaciju.
npr >
> razvijanje softvera koji omogućavaju brzu i preciznu verifikaciju snimaka i fotografija (imamo naše domaće WasItAI, koji prepoznaje AI generisane fotografije / skrinšote iz video snimaka).
> uvođenje sistema sankcija za lažno pozivanje na deepfake tehnologiju, kao sredstvo za izbegavanje odgovornosti.
> AI pismenost - obrazovanje o tome šta su deepfakes, kako funkcionišu i kako ih prepoznati, jačanje svesti o odgovornom korišćenju tehnologije i kritičkom konzumiranju AI generisanih sadržaja.
Dakle, ne možemo uvek kriviti tehnologiju
Deepfake tehnologija je mač sa dve oštrice, što kažu. Sa jedne strane, predstavlja fascinantnu tehnološku inovaciju sa velikim potencijalom u industriji zabave, edukacije i umetnosti. Sa druge strane, zloupotreba te tehnologije i manipulacija pojmom deepfake urušavaju poverenje u digitalni prostor.
Srbija se suočava sa izazovom gde se autentični snimci lako diskredituju, a odgovornost zamagljuje. Da bismo kao društvo povratili poverenje u tehnologiju, moramo insistirati na odgovornosti, transparentnosti i jasno definisanim mehanizmima za borbu protiv zloupotreba.
Pitanje koje se postavlja nije kako zaustaviti napredak veštačke inteligencnije, daleko od toga, to nije cilj, već kako osigurati da taj napredak bude iskorišćen odgovorno. U vremenu kada je realnost lako falsifikovana, istina postaje vrednost koju moramo negovati.
Da ne bude da samo mračim, jeste ispratili bum AI alatki za generisanje videa? Sora se, inače, najslabije pokazala od svih njih - interesantno. Ima mnogo ljudi koji ovu oblast poznaju bolje od mene, uputiću vas na njih > Borislav Vukojević, Slobodan Jošić.
Meanwhile >

Šalu (ali zaista šalu) na stranu, svaka čast našim mladima koji hrabro, dostojanstveno i na genijalan način opstaju u iznošenju svoj stavova, njihov glas se čuje. Glasno. Njihova energija, upornost i želja za promenama pokazuju da budućnost može biti drugačija, pravednija i svetlija. Na nama je da ih podržimo. Kako nam ide?
Comments