top of page
Search

EU AI AKT - ZABRANJENE PRAKSE

Updated: Dec 16, 2024

Gde povlačimo crtu?


EU AI Akt nije samo regulativa koja pruža okvir za inovacije – on je i kočnica koja (nadamo se) sprečava zloupotrebe veštačke inteligencije. Zabranjene AI prakse su one koje su ocenjene kao pretnja osnovnim pravima građana EU, etičkim vrednostima i socijalnoj pravdi. Ove zabrane predstavljaju jasan signal da određene vrste tehnologija nisu poželjne, ni pod kojim okolnostima. 


Okej, zašto postoje zabrane?


Akt je usmeren na balansiranje između inovacija i (sveobuhvatne) zaštite građana. Zabranjene prakse su definisane kao one koje predstavljaju pretnju ljudskom dostojanstvu, slobodama i pravima. Evropska unija je, u ovom pogledu, jasna: postoji crvena linija koju veštačka inteligencija ne sme preći, bez obzira na potencijalne vrednosti i prednosti koje bi mogla doneti. Ideja je da se unapredi razvoj tehnologije, ali na način koji ne ugrožava osnovne vrednosti društva.


Zabranjene AI prakse su oblik preventivne regulative – njihova svrha je da spreče pojave koje bi mogle prouzrokovati nepopravljivu štetu, bilo materijalnu, bilo nematerijalnu. EU se na ovaj način pozicionira kao globalni lider u etičkoj regulaciji AI tehnologija, šaljući jasnu poruku da su prava građana iznad ekonomske koristi i/ili brzih tehnoloških napredaka.


EU AI AKT - ZABRANJENE PRAKSE >


1. Manipulacija ljudskim ponašanjem putem subliminalnih tehnika>

Radi se o sistemima koji koriste tehnike koje su izvan svesnog opažanja pojedinca, s ciljem da utiču na njegovo ponašanje na način koji može naneti štetu. Ovi sistemi narušavaju autonomiju pojedinca, manipulišući njegovim odlukama bez njegovog znanja. Zamislite sistem koji može da detektuje vaše emocionalno stanje i koristi te informacije kako bi vas naveo da kupite proizvod koji vam možda nije potreban, ili da donesete odluku koja nije u vašem interesu. Ovakvi sistemi ozbiljno ugrožavaju sposobnost lica da slobodno i informisano donose odluke. Korišćenje ovakvih tehnika nosi sa sobom ogroman etički teret, jer pojedinac ne može da se brani od uticaja kojeg nije svestan.


npr> zabranjeno je stavljanje na tržište AI sistema koji koriste subliminalne tehnike za manipulaciju ponašanjem pojedinca. Na primer, AI sistem koji koristi mikroizraze lica kako bi utvrdio da li je osoba podložna određenim reklamnim porukama, a zatim koristi te informacije za ciljano oglašavanje. Takva manipulacija može dovesti do potrošnje koja nije u najboljem interesu potrošača, ali i narušavanja psihološkog integriteta.


2. Eksploatacija ranjivosti specifičnih grupa>


Zabranjeno je korišćenje AI sistema koji ciljano iskorišćava ranjivosti specifičnih grupa, kao što su deca, osobe sa invaliditetom ili starije osobe, s ciljem da utiče na njihovo ponašanje na način koji može imati negativne posledice. Ranjive grupe su posebno osetljive na različite vrste manipulacija. Kada se AI sistemi koriste za eksploataciju ovih ranjivosti, rizik od ozbiljnih posledica se značajno povećava. EU želi da obezbedi zaštitu za ove grupe, kako bi se sprečilo da postanu mete sofisticiranih algoritama koji mogu zloupotrebiti njihovu ranjivost.

npr> zabranjeno je stavljanje na tržište AI sistema koji eksploatiše ranjivost dece, osoba sa invaliditetom ili starijih osoba. Na primer, AI igračke koje koriste podatke o emocionalnom stanju dece kako bi uticale na njihove želje i nagnale ih da traže od roditelja određene proizvode predstavljaju primer kako AI može, ukoliko se ne reguliše, direktno ugroziti dobrobit dece, koristeći njihove razvojne slabosti u komercijalne svrhe.


3. Socijalni bodovni sistemi>


EU eksplicitno zabranjuje korišćenje AI sistema za rangiranje građana na osnovu njihovog socijalnog ponašanja ili ličnih karakteristika, kako bi se određivale njihove društvene privilegije ili ograničenja. Ideja socijalnog bodovnog sistema, kao što je onaj koji se primenjuje u nekim delovima sveta, u suštini je suprotna evropskim vrednostima slobode, jednakosti i individualnih prava. Ovi sistemi potencijalno omogućavaju državi ili korporacijama da ocenjuju „vrednost“ pojedinca na osnovu njegovog ponašanja, što može rezultirati diskriminacijom i kršenjem osnovnih prava.


npr> zabranjeno je korišćenje AI sistema za evaluaciju ili klasifikaciju građana na osnovu njihovog socijalnog ponašanja. Zamislite AI sistem koji ocenjuje građane na osnovu njihove finansijske stabilnosti, poštovanja saobraćajnih propisa ili društvenih aktivnosti, a zatim koristi te ocene za odlučivanje o pristupu određenim javnim uslugama. Ovakva praksa stvara društvo gde se individualna sloboda zamenjuje algoritamskim ocenama, što može dovesti do ozbiljnih posledica po socijalnu koheziju.


4. Detekcija emocija u specifičnim kontekstima


Zabranjena je upotreba AI sistema za detekciju emocija u radnom okruženju i obrazovnim institucijama, OSIM ukoliko je to neophodno iz medicinskih ili bezbednosnih razloga. Korišćenje AI sistema za detekciju emocija može stvoriti nelagodnost i osećaj nadzora, posebno u radnom i obrazovnom okruženju, gde pojedinci ne bi smeli da budu pod konstantnim nadzorom emocionalnog stanja. Cilj ove zabrane je da se očuva dostojanstvo i privatnost ljudi u situacijama kada se očekuje sloboda izražavanja i zaštita ličnih emocija.


npr > zabranjeno je koristiti AI sisteme za detekciju emocija zaposlenih kako bi se procenjivala njihova produktivnost ili angažovanost. Na primer, sistem koji prati izraze lica zaposlenih tokom radnog vremena i koristi te informacije za ocenu njihovih performansi može ozbiljno narušiti privatnost i stvoriti atmosferu straha i nesigurnosti.


5. Predviđanje kriminalnih aktivnosti


Zabranjena je upotreba AI sistema za procenu rizika da pojedinac počini krivično delo, zasnovana isključivo na profilisanju ili proceni ličnih osobina i karakteristika. Profilisanje pojedinaca na osnovu njihovih osobina i pokušaj predviđanja kriminalnog ponašanja baziranog na tim osobinama nosi značajne rizike od pristrasnosti, diskriminacije i narušavanja osnovnih prava. Evropska unija ovakvu praksu smatra etički neprihvatljivom, jer ona podstiče predrasude i perpetuira društvene nejednakosti.


npr> AI sistemi koji koriste isključivo podatke o ličnosti kako bi procenili verovatnoću da neko počini krivično delo su zabranjeni. Na primer, algoritam koji analizira obrasce ponašanja na društvenim mrežama kako bi odredio da li je osoba potencijalno sklona kriminalnim aktivnostima može ozbiljno narušiti prava pojedinca i izazvati pristrasne ili diskriminatorne zaključke, što dovodi do dodatne stigmatizacije i društvenog isključivanja.


6. Biometrijski nadzor u realnom vremenu u javnim prostorima>


Akt zabranjuje sisteme koji omogućavaju biometrijski nadzor u realnom vremenu u javnim prostorima, osim u izuzetnim okolnostima, kao što su ozbiljne pretnje javnoj bezbednosti. Biometrijski nadzor, poput prepoznavanja lica, u realnom vremenu predstavlja ozbiljno narušavanje privatnosti i može voditi ka masovnom nadzoru građana. Ova zabrana ima za cilj da spreči zloupotrebe koje bi mogle da pretvore javne prostore u zone totalnog nadzora, gde se svaki korak pojedinca prati i analizira.


npr> zabranjena je upotreba AI sistema za biometrijski nadzor u realnom vremenu, osim u strogo definisanim situacijama kao što su pretnje životu ili bezbednosti. Na primer, korišćenje sistema za prepoznavanje lica na javnim trgovima kako bi se pratili građani i analiziralo njihovo kretanje može imati ozbiljne posledice po slobodu okupljanja i izražavanja, jer ljudi mogu izbegavati javne prostore iz straha da su stalno pod nadzorom.


*detaljnije - drugi put


7. Biometrijska kategorizacija prema osetljivim karakteristikama


Zabranjeno je korišćenje AI sistema za biometrijsku kategorizaciju ljudi kako bi se zaključivalo o njihovoj rasi, političkim uverenjima, članstvu u sindikatu, verskim ili filozofskim uverenjima, seksualnoj orijentaciji ili seksualnom životu. Ovakva praksa može imati ozbiljne posledice po prava pojedinaca i dovesti do diskriminacije na osnovu karakteristika koje su suštinski lične i osetljive. Evropska unija je izričita u zabrani bilo kakve AI analize koja zadire u ove aspekte ljudskog identiteta, osim u specifičnim kontekstima kao što je zakonito prikupljanje podataka za sprovođenje zakona.


npr > zabranjeno je korišćenje biometrijskih podataka za dedukciju nečijeg političkog opredeljenja ili seksualne orijentacije. Na primer, AI sistem koji analizira biometrijske podatke kako bi identifikovao versku pripadnost osobe može lako dovesti do profilisanja i diskriminacije, što je direktno u suprotnosti sa osnovnim pravima na jednak tretman i privatnost.


8. Kreiranje i proširivanje baza podataka za prepoznavanje lica


Zabranjeno je stavljanje na tržište ili korišćenje AI sistema za kreiranje ili proširivanje baza podataka za prepoznavanje lica putem nekontrolisanog prikupljanja slika sa interneta ili CCTV snimaka. Prikupljanje biometrijskih podataka bez izričitog pristanka pojedinaca ozbiljno narušava privatnost i podiže mnoge etičke probleme. Evropska unija nastoji da spreči masovno prikupljanje podataka koji mogu biti zloupotrebljeni ili korišćeni bez znanja i pristanka pojedinca.


npr> zabranjeno je koristiti AI sisteme koji proširuju baze podataka za prepoznavanje lica putem nenamenskog prikupljanja podataka. Na primer, AI sistemi koji koriste slike sa društvenih mreža ili CCTV snimke bez dozvole pojedinaca za kreiranje baza podataka za prepoznavanje lica. Takva praksa može ozbiljno ugroziti privatnost pojedinaca i omogućiti neovlašćen pristup osetljivim informacijama.



Iako Akt jasno definiše zabranjene prakse, postoje i određene neizvesnosti koje ostaju otvorene za interpretaciju. Prvo, pitanje je kako će se zabrane sprovoditi u praksi i da li postoje adekvatni mehanizmi za nadzor i kažnjavanje prekršaja. Tehnologija se razvija brže nego regulativa, i postoji realna mogućnost da zloupotrebe prođu neprimećeno, naročito kada se AI koristi u manje transparentnim kontekstima. 


Drugo, bitno -  potencijalni uticaj ovih zabrana na inovacije. Iako je cilj Akta da zaštiti građane, postoji rizik da stroga regulacija može obeshrabriti neke kompanije da razvijaju AI sisteme zbog straha od pravnih posledica ili visokih troškova usklađivanja. Ovo može imati negativan uticaj na konkurentnost evropskog tržišta u poređenju sa drugim globalnim igračima gde regulativa nije toliko restriktivna. Već sada vidimo “odliv mozgova” na zapad, a San Francisko je trenutno raj za inovatore.


Pored toga, implementacija zabrana zahteva visok nivo stručnosti i međusektorsku saradnju, što može predstavljati izazov za regulatorna tela. Ova tela moraju biti u stanju da razumeju i prate napredne tehnološke sisteme, što znači da će obuka i zapošljavanje stručnjaka biti od ključne važnosti za efikasno sprovođenje Akta. (Haha)


Evidentno, pitanje balansiranja između zaštite prava i sloboda građana i podsticanja inovacija ostaje jedan od najvećih izazova za evropske zakonodavce. Jasno je da Akt predstavlja korak u prav(n)om smeru, ali kako se tehnologija razvija, tako će biti potrebno i prilagođavati regulatorni okvir, kako bi se osiguralo da pravila budu relevantna i efikasna u suočavanju sa novim izazovima. A biće ih.


17 puta u ovom tekstu pominje se “zabranjeno”, sada 18 - fun fact.


Naslovna fotografija generisana je pomoću Midjourney .

 
 
 

Comments


bottom of page