KATEGORIJE RIZIKA - EU AI AKT.
- Tamara Zavišić
- Dec 9, 2024
- 7 min read
Updated: Dec 16, 2024
Šta, zašto, kako?
EU AI Akt.
Pristup zasnovan na riziku je srž ove regulative. Regulativa diferencira AI sisteme prema rizicima koje mogu predstavljati po prava i sigurnost građana, definišući pravila i obaveze za subjekte koji su uključeni u razvoj i implementaciju. No, zašto je EU odabrala baš ovaj pristup, i šta on znači za kompanije, građane i inovacije?
Pristup zasnovan na riziku: Zašto?
Sistemi veštačke inteligencije nisu homogeni. AI sistemi koji procenjuju kreditnu sposobnost ili zapošljivost očigledno nose veći rizik po prava pojedinaca nego, na primer, onaj koji vam pomaže da pronađete novu omiljenu pesmu. Upravo vođena time, EU je odlučila da Akt bude fleksibilan okvir koji usklađuje obaveze subjekata prema nivou rizika koji određeni AI sistemi nose.
Ideja je jednostavna: zaštititi građane i povećati transparentnost, a istovremeno omogućiti kompanijama razvoj i inovaciju bez nepotrebnih opterećenja. Pristup zasnovan na riziku bi trebalo da osigura da se regulativa usmerava tamo gde su potencijalne štete najveće, dok se tehnologije niskog rizika podstiču kroz lakše uslove usklađenosti.
No, implementacija ovog pristupa zahteva duboko poznavanje ne samo tehnologije, već i konteksta u kojem se tehnologija primenjuje. Rizik u oblasti veštačke inteligencije nije inherentno vezan samo za tehničku složenost, već i za način na koji sistem može uticati na ljudska prava, društvene norme i ekonomske odnose. Iz tog razloga, procena rizika često uključuje širok spektar eksperata – pravnika, etičara, tehničkih stručnjaka – kako bi se osiguralo da nijedan aspekt ne bude zanemaren.
Što bi se reklo, pros>
- Proporcionalnost: kao što rekosmo, nisu svi AI sistemi isti, pa ni pravila ne bi trebalo da budu ista za sve, jelte. Pristup zasnovan na riziku omogućava da se regulativa primenjuje proporcionalno nivou rizika, čime se izbegava prekomerno opterećenje za sisteme koji su nesporno bezbedni. Ovo je naročito važno za startape i manje kompanije, koji nemaju resurse da se nose sa kompleksnim zahtevima visokorizičnih sistema, ali i dalje žele da budu inovativni. Pitanje, da li takvim pristupom mogu biti inovativni, ostavljamo za neki drugi put.
- Zaštita osnovnih prava: fokus je na visokorizičnim sistemima – onima koji imaju potencijal da značajno utiču na ljudska prava ili bezbednost. Na ovaj način, Akt postavlja sigurnosne barijere tamo gde je to najpotrebnije, jačajući poverenje građana. Osnovna prava kao što su pravo na privatnost, nediskriminaciju i pravedan tretman postaju neizostavni deo evaluacije svakog AI sistema.
- Fleksibilnost za inovacije, možda, da li: sistem omogućava širu primenu AI-a uz manje regulatorne prepreke za niskorizične sisteme, dok se stroga pravila primenjuju samo tamo gde postoji značajan rizik. Na taj način, podstiče se razvoj inovativnih rešenja koja mogu unaprediti društvo bez straha od prekomerne regulacije. Pružanjem prostora za „eksperimentisanje“ s niskorizičnim tehnologijama, EU želi da stvori povoljno okruženje za rast novih ideja. Ponovo, da li ovakvim pristupom ovakvi sistemi mogu unaprediti društvo, ostavljamo za neki drugi put.
- Holistički pristup: pristup zasnovan na riziku podrazumeva integraciju etičkih, pravnih i tehničkih elemenata u proceni rizika. Amin. Ovaj multidisciplinarni pogled omogućava identifikaciju rizika koji mogu biti manje očigledni tehničkim ekspertima, ali su ključni iz perspektive društvenih i pravnih normi. Time se stvara sveobuhvatan okvir koji uzima u obzir sve aspekte upotrebe AI-a. Ovim sam već udavila, davim, i daviću.
Što bi se reklo, cons>
- E sada, složenost procene: određivanje nivoa rizika nije jednostavno, naprotiv, i često zavisi od tumačenja i konteksta. Kako pravilno proceniti rizik sistema koji se stalno razvija i menja? Ovaj proces može biti subjektivan i kompleksan. Rizik zavisi ne samo od tehničkih karakteristika, već i od načina na koji se koristi – isti AI sistem može biti niskorizičan u jednom kontekstu, a visokorizičan u drugom. Stoga, procena zahteva duboko razumevanje specifičnih primena i posledica koje one mogu izazvati. Složeno, ali ključno.
- Pravna nesigurnost: tehnologija se brzo razvija, dok regulativa nekada ne može ispratiti takav tempo. Ponavljam, od 2019ish kada je započet rad na upravo ovom Aktu, od teksutalnih modela, došli smo do multimodalnosti i “unapređenog” rezona. Od tada, do momenta usvajanja prošlo je gotovo pet godina - upravo moja poenta. Ali, da se vratim na temu - zbog toga, granice između kategorija rizika mogu biti nejasne, što stvara pravnu nesigurnost i otežava planiranje usklađenosti. Dodatno, pravna nesigurnost može rezultirati različitim tumačenjima i prevodima istih odredbi, što može uticati na doslednost u primeni zakona.
- Bitno, efekat na inovacije: strogi zahtevi usklađenosti za visokorizične sisteme mogu obeshrabriti kompanije da se upuste u inovacije koje bi mogle imati ogroman društveni doprinos, ali i nositi visoke regulatorne zahteve. Posebno je ovo izraženo kod manjih kompanija i startapa, koji možda nemaju kapacitete da zadovolje sve zahteve usklađenosti. Time se može desiti da određene inovacije, koje bi inače imale značajan pozitivan uticaj na društvo, budu odložene ili potpuno obustavljene. Jedna od omiljenih tema. Odoše ljudi, kompanije i ideje na zapad - o ovome neki drugi put.
- I najzad, troškovi usklađenosti: Pridržavanje svih zahteva koje Akt nameće može biti skupo, posebno za male i srednje kompanije. Troškovi povezani sa osiguravanjem kvaliteta podataka, sprovođenjem evaluacija, sprovođenjem redovnih provera i osiguravanjem transparentnosti mogu se akumulirati, što stvara dodatni teret za subjekte koji razvijaju AI sisteme. Plus, multidisciplinarnost je skupa.
...
Kategorije rizika EU AI Akt, ukratko>
Akt klasifikuje AI sisteme u četiri osnovne kategorije rizika:
1. Neprihvatljiv rizik>
Sistemi koji predstavljaju ozbiljan rizik po osnovna prava građana – e, oni su zabranjeni. EU ovde ne ostavlja prostora za greške, budući da se radi o tehnologijama koje mogu ugroziti osnovne slobode i integritet pojedinaca. Dakle, radi se o sistemima koji koriste manipulativne tehnike, ugrožavajući fizičku ili psihološku dobrobit ljudi. Ovi sistemi su ocenjeni kao suštinski neetički, te njihova zabrana predstavlja nužnu meru zaštite društva. Na primer, sistemi koji koriste subliminalne tehnike za manipulaciju korisnicima kako bi donosili odluke na svoju štetu, ili oni koji podstiču diskriminaciju na osnovu etničke pripadnosti ili političkog opredeljenja.
Npr> Prepoznavanje emocija radi manipulacije potrošačima ili algoritmi koji automatski dodeljuju kredite bez ljudskog nadzora i transparentnosti. Ili, sistemi za prepoznavanje emocija koji se koriste u svrhe političke propagande ili targetiranja specifičnih grupa potrošača, gde se prikupljeni podaci koriste za manipulaciju ponašanjem potrošača bez njihove svesne saglasnosti. Takve prakse su neprihvatljive jer ugrožavaju autonomiju pojedinca i omogućavaju zloupotrebu poverenja. Nije da se nije desilo, nije da se ne dešava.
2. Visoki rizik>
AI sistemi koji se primenjuju u osetljivim oblastima, poput zdravstva, obrazovanja ili zapošljavanja, gde mogu imati značajan uticaj na prava pojedinaca. Ovi sistemi mogu doneti koristi, ali i potencijalno štetiti ukoliko se ne koriste odgovorno. Dakle, ovi sistemi podležu strogim merama usklađenosti, uključujući evaluaciju kvaliteta podataka, transparentnost algoritama i obaveznu ljudsku kontrolu. Potrebno je da algoritmi budu obučeni na nepristrasnim i kvalitetnim podacima, uz jasan uvid u način donošenja odluka i mogućnost ljudskog nadzora. Visoki standardi ovde su ključni jer greške u ovim oblastima mogu imati direktne posledice na život, prava i dobrobit ljudi.
npr> AI sistem koji procenjuje kandidate za zapošljavanje ili određuje pristup zdravstvenim uslugama. Primera radi, algoritam za procenu podobnosti kandidata za zapošljavanje mora omogućiti nadležnoj osobi da pregleda sve odluke, uz mogućnost intervencije u slučaju da procena nije adekvatna ili se primećuju nepravedne pristrasnosti. U zdravstvu, AI sistem koji pomaže lekarima da donesu odluke o tretmanima mora osigurati da su svi podaci i predlozi transparentni, te da lekar može osporiti ili prilagoditi odluku sistema. O obavezama, neki drugi put.
3. Ograničeni rizik>
Sistemi koji imaju relativno nizak rizik, ali ipak zahtevaju određeni stepen transparentnosti prema korisnicima. Iako su manje opasni, potrebno je osigurati da korisnici razumeju s kim ili čim interaguju. Dakle, u ovom slučaju je naglasak na informisanju korisnika – važno je da oni znaju kada komuniciraju sa sistemom zasnovanom na tehnologiji veštačke inteligencije. Informacije o tome moraju biti jasne, dostupne i razumljive svakom korisniku. Transparentnost je ključna kako bi se izbeglo stvaranje lažnog osećaja interakcije sa stvarnom osobom, što bi moglo dovesti do problema poverenja ili nesporazuma ili zablude. Itd.
npr> Chatbotovi za korisničku podršku, gde korisnik mora biti obavešten da komunicira sa sistemom zasnovanom na tehnologiji veštačke inteligencije. Na primer, korisnici e-trgovine koji postavljaju pitanja o proizvodima putem AI - based chatbota moraju biti jasno obavešteni da ne razgovaraju sa stvarnom osobom, već sa softverom koji daje automatizovane odgovore. Ovo je važno jer korisnici moraju biti svesni ograničenja takvih sistema, kao što je nemogućnost davanja kompleksnih ili emotivno obojenih odgovora.
4. Minimalni rizik>
Sistemi poput video igara ili spam filtera, koji sa sobom ne nose značajne rizike po prava građana. Ovi sistemi su deo svakodnevnog života i nisu osmišljeni da utiču na važne odluke ili osnovna prava korisnika. Dakle, ovi sistemi nemaju posebne zahteve za usklađenost prema Aktu, što olakšava njihovu primenu i podstiče inovacije. Ipak, i ovde postoji određena odgovornost proizvođača da se pridržavaju osnovnih etičkih standarda, naročito kada su deca ili druge ranjive grupe korisnici ovih sistema. Etika i odgovornost proizvođača ostaju važni kako bi se osiguralo da ove tehnologije ne budu zloupotrebljene ili ne utiču negativno na korisnike.
npr> AI algoritmi koji preporučuju video sadržaj na streaming platformama. Primera radi, algoritam za preporuku filmova na platformama poput Netflixa koji na osnovu istorije gledanja predlaže sadržaj bez direktnih implikacija na prava korisnika ili rizika po njihov integritet. Iako ovi sistemi ne nose visok rizik, preporuke mogu uticati na način na koji korisnici provode svoje vreme, pa se od proizvođača očekuje odgovoran pristup u pogledu sadržaja koji se preporučuje.
Pristup zasnovan na riziku predstavlja pokušaj (kako im ide?) EU da pronađe balans između zaštite prava građana i podsticanja inovacija. Dok su izazovi prisutni – od složenosti procene rizika do pravne nesigurnosti – ovaj okvir, recimo, omogućava proporcionalnu regulativu koja se prilagođava nivou rizika.
Ono što je ključno jeste razumevanje da su AI sistemi raznovrsni, i da ne mogu svi podleći istim pravilima. Logično. Kompanije moraju imati jasnu strategiju procene rizika i pristup usklađivanju sa regulativom, uz transparentnost kao osnovni stub. Transparentnost nije samo zakonska obaveza, već i način da se povrati poverenje korisnika, naročito u svetlu brojnih skandala koji su ukazivali na opasnosti nepravilne upotrebe AI tehnologije. E t i k a ljudi, etika.
Rekosmo, EU AI Akt nam ne gine, zaista jeste tako. Svi subjekti koji žele da posluju na evropskom tržištu moraju biti spremni da usklade svoje sisteme sa ovim standardima. Kroz “jasnu” kategorizaciju i razumevanje rizika, kompanije mogu da pronađu put kroz regulatorni okvir i iskoriste prilike koje AI Akt donosi. Za sve nejasnoće, pa - tu sam.
A i pričaćemo još o ovome.
Naslovna fotografija generisana je pomoću Midjourney .






Comments