
Ovaj tekst pisan je u toku trajanja javne rasprave o izmenama i dopunama Krivičnog zakonika. Sudeći prema nacrtu, oblast digitalnog seksualnog nasilja moraće da sačeka neka „gora vremena“, jer “osvetnička pornografija”[1] (revenge porn) i “dipfejk pornografija”[2] (deepfake porn), čini se, nisu dovoljno uznemirujući za zakonodavce, koliko za žene i devojčice u Srbiji. Podsetimo, iako postoji dovoljan broj relevatnih inicijativa, istraživanja, javnih svedočenja žena i dokaza o sveprisutnosti gore navedenih oblika nasilja, ne postoji stručna i politička volja da se ovom problemu priđe sistemski i uvremenjeno. Izgleda da peticija koju je pokrenuo Autonomni ženski centar sa ciljem da se “osvetnička pornografija” kriminalizuje, a koja je podržana sa 21 723 potpisa, razotkrivanje razmera seksualnog nasilja na Telegram grupama od strane grupe OsnaŽene, svedočanstva žena o iskustvima nasilja na heštegu Nisam prijavila, i mnogi drugi primeri, nisu dovoljni da pokrenu ozbiljnu javnu raspravu u društvu i eventualno revidiranje zakona. Kako je neko upućen dobro primetio, mi se protiv zloupotreba tehnologije borimo zakonima koji su pisani u vreme pre njenog nastajanja.
Kada govorimo o fenomenologiji dipfejka, problematiku bismo mogli da svedemo na: na početku smo se smejali, sada plačemo. Ironiju na stranu, činjenica je da je deo javnosti razvoj dipfejk tehnologije u početku pratio kroz slučajeve javnih ličnosti. Nekako očekivano, sadržaji fabrikovane pornografije, nasilja i osramoćivanja kroz koje su prolazili slavni, normalizovali su se u stilu „i bogati plaču“. Bilo je malo onih koji su razumeli da široka/nekažnjiva upotreba dipfejk alata može prouzrokovati ozbiljnu pojedinačnu ali i kolektivnu štetu. Kao i sa prethodnim inovacijama u svetu tehnologije, humor i profit bile su reči koje sve objašnjavaju.
Kako je razvoj tehnologije, posebno veštačke inteligencije – AI povezan sa rodno zasnovanim nasiljem? Poslužimo se primerom dip nud (Deep nude) aplikacije. Ova i slične joj aplikacije dizajnirane su da omoguće digitalno svlačenje, a poznate su i kao botovi za svlačenje žena. Rad jedne od dip nud aplikacija zasnovan je na pix2pix otvorenom kodu koji su razvili istraživači sa Kalifornija Univetiteta u Berkliju 2017. godine, a koji koristi adversarial networks (GAN) – tip mašinskog učenja, koji trenira algoritam na ogromnom broju unetih podataka, čime istovremeno poboljšava sopstvene performanse. U slučaju dip nud aplikacije, 10 hiljada fotografija nagih žena poslužilo je za treniranje algoritma aplikacije u cilju dobijanja što realističnijih rezultata. Slično funkcionišu i druge aplikacije iz ove grupe, poput andres ai – Undress AI. Važno je da naglasimo da su neke osnovne verzije ovih aplikacija u početku funkcionisale „nahranjene“ isključivo fotografijama žena i devojčica. Objašnjenje za to je pronađeno u navodnoj većoj dostupnosti ženskih fotografija na mreži. Kao i kod drugih digitalnih proizvoda i usluga, besplatna verzija dipfejk alata nudi rezultate ograničenog kvaliteta, dok one plaćene, a ima ih u nekoliko cenovnih rangova, nude realistične rezultate. Način upotrebe dipfejk tehnologije pojednostavljen je do maksimuma. Nije potrebno nikakvo specifično znanje ili veština za rukovanje dipfejk alatima. Procene su da je upotreba dipfejk alata enormno porasla u zadnjih par godina, a posledice su osetne, ne samo u pogledu ljudskih prava, već i funkcionisanja političkog sistema i demokratije ali i rada finansijskih institucija.
Nevolja sa dipfejk alatima je u tome što svaku ženu i devojčicu na planeti mogu da dovedu u situaciju da postanu žrtve digitalnog seksualnog nasilja. Kada je jedna od dip nud aplikacija uočena a potom i testirana na slobodnom internet tržištu, pokrenuta je široka javna diskusija o prirodi te tehnologije, regulaciji, ali i zaštiti prava žrtava odnosno oštećenih. Pod pritiskom javnosti, u kojoj su dominirale aktivistkinje za zaštitu prava žena, aplikaciju je sa tržišta povukao njen dizajner, tzv. Alberto, žaleći što „svet još uvek nije spreman za dip nud (Deep Nude) aplikaciju“. Pored besa koji opravdano u mnogima izaziva, ova izjava zavređuje ozbiljnu pažnju i analizu.
Kakav svet zamišljaju ljudi koji se bave razvojem tehnologije? Brine li ih pitanje etike, društvena odgovornost? Da li se bave analizom efekata koji mogu produbiti nasilje, govor mržnje, marginalizaciju ranjivih grupa ljudi, strah? Da li do njih dopire priča o univerzalnosti ljudskih prava ili su vrednosti svedene na funkcionalnost, profit i slavu? Relevantnost ovih pitanja nedavno je potvrdio i jedan od osnivača interneta, potpredsednik gugla Vinton Cerf. On takođe smatra da inženjeri i programeri uglavnom ne razmišljaju o društvenim posledicama, već se staraju da njihova tehnologija proradi. Nedostatak komunikacije na relaciji humanistika – tehnologija ozbiljan je izazov kada je razvoj tehnologije u pitanju.
Iz perspektive zaštite ženskih ljudskih prava, važno je upozoriti da nažalost, mnoge kompanije i startapi u informaciono komunikacionim tehnologijama koriste vrlo problematičnu razvojnu, odnosno marketinšku strategiju plasmana svojih proizvoda i usluga. Nije teško uočiti da se iza erotizovanih glasova, izgleda robota i čet botova poturaju mizoginija i društveno prihvatljiva pornografija. Objektivizacija i ekspoloatacija ženske seksualnosti nije nova pojava, mada sa razvojem AI i AI dipfejk alata dobija nove dimenzije. Takvom stavu u prilog ide i statistika koja pokazuje da je oko 95 % dipfejkova seksualno eksplicitne prirode.[3] U njima dominiraju žene i devojčice.
Iako ne postoji sveobuhvatan pravni okvir koji tretira pitanje dipfejka a koji bi mogao da doprinese boljem razumevanju kaznene politike ali i sukoba oko nadležnosti i ovlašćenja, postoje primeri različitih zemalja iz kojih bi se moglo učiti. Australija i Kanada su klasifikovale dipfejk pornografiju pod okriljem pornografije bez pristanka, što uključuje i „osvetničku pornografiju“, fotografije “pod suknjom“[4] i drugi eksplicitan sadržaj snimljen bez pristanka osobe. Ali u većem delu sveta, žrtve u suštini nemaju pravnu zaštitu kada se njihove slike koriste protiv njihove volje za generisanje pornografskih video snimaka. Izuzetak predstavljaju Online safety act[5] u Ujedinjenom Kraljevstvu i južnokorejski zakon Act on special cases concerning the punishment of sexual crimes[6], kod koga je posebno pohvalno to što ne predviđa dokazivanje štetnih namera od strane počinioca_teljke. Polemika o kriminalizaciji dipfejka se trenutno vodi i u Nemačkoj. Tamo su međutim, vrlo prisutni glasovi analitičara koji upozoravaju na loše strane kriminalizacije, u smislu ograničavanja umetničkih sloboda i kritičkog izražavanja putem audio – vizuelnog sadržaja. Aktivistkinje za zaštitu prava žena smatraju da je od dokazivanja motiva odnosno namere, važnije pitanje pristanka da se određeni sadržaj napravi i/ili distribuira. Dok se zakonodavci ne usaglase, građani_ke nemaju mnogo izbora. A čini se da će im sa sve većom sofisticiranošću AI tehnologije, biti sve teže da uočimo razlike između dipfejka i realnih/istinitih sadržaja.
Iz ugla žrtava dipfejk tehnologije, najvažnije je pitanje kako postići da sadržaji dipfejka ali i osvetničke pornografije budu povučeni sa interneta. Do nekog sveobuhvatnog sistemskog rešenja se još uvek nije došlo, jer kompanije, zakonodavci i građani_ke ne govore istim jezikom. Na raspolaganju su trenutno platforme neprofitnog sektora koje nude podršku oštećenima za uklanjanje intimnog sadržaja sa interneta. Međutim, i ovde postoje maliciozni sajtovi/softveri koji mogu da zloupotrebe aplodovan sadržaj. Za podršku pri uklanjanju zloupotrebljenog intimnog sadržaja oštećene/i mogu se obratiti na Stop Non-Consensual Intimate Image.
Apsolutna zaštita korisnika_ca na internetu ne postoji. Ono što je dostupno i uglavnom besplatno jeste učenje i buđenje kritičkog odnosa prema tehnologiji, putem razvijanja digitalne pismenosti i kulture. Tehnologija nije neutralan i bezazlen fenomen, namenjen isključivo za zabavu i dokolicu. Ona je važan činilac koji oblikuje društvenu stvarnost i tokove kojima smo nekada voljno, a nekada nevoljno izloženi_e.
Autorka teksta: Anita Pantelić
[1] Široko rasprostranjen termin osvetnička pornografija podrazumeva onlajn distribuciju fotografija ili video snimaka seksualno eksplicitnog sadržaja, bez pristanka osobe koja se na njima nalazi. Počinilac_teljka je često bivši partner_ka koji dobija slike ili video zapise tokom emotivne veze i ima za cilj da javno osramoti i ponizi žrtvu u znak odmazde za prekid veze. Međutim, počinioci_teljke nisu nužno partneri_ke ili bivši partneri_ke i motiv nije uvek osveta.
Sadržaji se takođe mogu dobiti hakovanjem u žrtvin računar, naloge na društvenim mrežama ili telefon, i mogu imati za cilj da nanesu štetu životu mete u „stvarnom svetu“ (na primer, nameru da se osoba otpusti sa posla, ili u nekim slučajevima izazivanje samoubistva). – Preuzeto i prevedeno sa https://eige.europa.eu/publications-resources/thesaurus/terms/1459?language_content_entity=en
[2] Dipfejk tehnologija koristi moć tehnologije dubokog učenja za proizvodnju audio i audio-vizuelnih sadržaja koji mogu ubedljivo pokazati da ljudi govore ili rade stvari koje nikada nisu radili, ili stvaraju ljude i dogođaje koji nikada nisu postojali ili se nisu dogodili. U strogom smislu reči, dipfejk predstavlja vrstu sintetičkog medija koji se generiše ili manipuliše pomoću veštačke inteligencije. – preuzeto i prevedeno sa https://www.europol.europa.eu/cms/sites/default/files/documents/Europol_Innovation_Lab_Facing_Reality_Law_Enforcement_And_The_Challenge_Of_Deepfakes.pdf
[3] https://www.techpolicy.press/exploring-legal-approaches-to-regulating-nonconsensual-deepfake-pornography/
[4] prevod engleske reči upskirt podrazumeva praksu pravljenja malicioznih fotografija ili snimaka u blizini osobe koja nosi suknju, bez njenog pristanka i znanja, a kako bi se uslikali delovi međunožja, donjeg veša ili genitalija.
[5] https://www.gov.uk/government/publications/online-safety-act-explainer/online-safety-act-explainer
[6] https://elaw.klri.re.kr/eng_service/lawView.do?hseq=40947&lang=ENG
