top of page
Search

EVALUACIJE U EU AI AKTU.

Updated: Dec 16, 2024

Ključne Evaluacije u EU AI Aktu.


Zapravo, jako bitan tekst. :)


Zašto su bitne?


Procene nisu tu da opterete poslovanje - one služe kao osiguranje kvaliteta, bezbednosti i poštovanja ljudskih prava. One omogućavaju regulatorima, kompanijama, ali i široj javnosti da se uvere da AI sistemi rade ono što im je namena, bez nepotrebnih rizika i diskriminacije. U krajnjoj liniji, procene doprinose izgradnji poverenja u AI tehnologije, što je od suštinskog značaja za njihov dalji razvoj i integraciju u društvo.


1. Fundamental Rights Impact Assessment (Procena uticaja na osnovna prava )


Procena uticaja na osnovna prava obavezuje deployere visokorizičnih AI sistema da se zapitaju: Kako ovaj sistem utiče na prava ljudi? Ova procena pomaže u identifikaciji rizika po privatnost, slobodu izražavanja, nediskriminaciju i druga osnovna prava. Na primer, pre nego što se AI sistem za prepoznavanje lica pusti u upotrebu, mora se proceniti da li bi mogao diskriminisati određene grupe ili narušiti pravo na privatnost.


Procena uticaja na osnovna prava obuhvata sledeće elemente:


> Identifikacija rizika po osnovna prava: Analiza potencijalnog uticaja na privatnost, slobodu izražavanja, nediskriminaciju i druge aspekte ljudskih prava.

Mere za minimizaciju rizika: Plan za implementaciju tehničkih i organizacionih mera koje će minimizirati uticaj na osnovna prava, uključujući mere za zaštitu podataka, anonimnost i mehanizme za žalbe.

Format procene: Dokument koji sadrži detaljnu analizu i mere, dostupan regulatorima i drugim zainteresovanim stranama. Dokument mora uključivati jasnu strukturu sa identifikacijom potencijalnih rizika, procenama njihovih posledica i predlogom mitigacionih mera.


2. Conformity Assessment (Ocena usklađenosti)


Ocena usklađenosti je formalni postupak koji potvrđuje da visokorizični AI sistemi ispunjavaju sve propisane zahteve pre nego što se stave na tržište ili u upotrebu. Bez ove procene, nema garancije da je sistem siguran i pouzdan. Zamislite je kao tehnički pregled za vaš automobil - bez njega, auto ne sme na put. Slično tome, AI sistem bez ocene usklađenosti ne bi smeo biti stavljen u upotrebu.


Ocena usklađenosti uključuje:


Postupak ocene: Prolazak kroz specifične testove i verifikacije koji potvrđuju usklađenost sa tehničkim i bezbednosnim zahtevima, kao što su analize performansi, bezbednosni testovi, evaluacija podataka i algoritama.

> Dokumentacija: Priprema tehničke dokumentacije koja detaljno opisuje karakteristike sistema, testove i rezultate ocene, uključujući informacije o softverskim komponentama, ulaznim podacima, algoritmima i metodama za kontrolu kvaliteta.

> Certifikacija: Izdavanje sertifikata o usklađenosti koji je obavezan pre stavljanja sistema na tržište. Sertifikat se mora čuvati i biti dostupan na zahtev regulatornih tela, a u dokumentu se detaljno navode standardi sa kojima je sistem usklađen.


3. Risk Assessment (Procena rizika)


Procena rizika je ključni korak u razvoju svakog visokorizičnog AI sistema. Cilj je da se identifikuju, procene i minimiziraju rizici koji bi mogli ugroziti zdravlje, bezbednost ili osnovna prava. Na primer, AI sistem koji se koristi u zdravstvenoj zaštiti mora proći detaljnu procenu rizika kako bi se osiguralo da ne postoji mogućnost da njegova greška ugrozi zdravlje pacijenata.


Procena rizika obuhvata:


> Identifikaciju rizika: Prepoznavanje potencijalnih rizika vezanih za upotrebu AI sistema, uključujući tehničke, pravne i etičke rizike. Rizici se identifikuju kroz detaljnu analizu mogućih scenarija upotrebe i njihovih posledica.

> Analizu i evaluaciju rizika: Procena ozbiljnosti i verovatnoće svakog identifikovanog rizika, uz uzimanje u obzir različitih faktora kao što su složenost sistema, kontekst primene i vrsta korisnika.

> Strategije za minimizaciju rizika: Razvoj strategija za umanjenje ili eliminisanje rizika, uključujući tehničke i organizacione mere. Ove strategije uključuju unapređenje algoritama, obuke korisnika, ograničenja pristupa i testiranje u kontrolisanim okruženjima.

> Format: Dokument koji sadrži sve faze procene, analizu rizika i mere za minimizaciju. Dokument treba da bude strukturiran tako da pruža jasne i konkretne korake za identifikaciju i mitigaciju rizika, kao i odgovornosti uključenih strana.


4. Data Governance Assessment


Procena upravljanja podacima osigurava da su podaci korišćeni za obuku, validaciju i testiranje AI sistema kvalitetni, reprezentativni i bez pristrasnosti. Podaci su temelj svakog AI sistema, stoga je od suštinskog značaja da oni budu adekvatno obrađeni. Zamislite da se AI model za zapošljavanje trenira na podacima koji favorizuju jednu demografsku grupu - loše upravljanje podacima može dovesti do sistematske diskriminacije.


Procena upravljanja podacima uključuje:


> Evaluaciju kvaliteta podataka: Analiza da li su podaci reprezentativni, tačni i bez pristrasnosti. Ova evaluacija uključuje pregled izvora podataka, njihove relevantnosti i načina na koji su prikupljeni.

> Upravljanje podacima: Provere koje osiguravaju pravilno prikupljanje, skladištenje, obradu i brisanje podataka, uz posebnu pažnju na zaštitu privatnosti. Ovo uključuje uspostavljanje procedura za provere tačnosti, ažuriranje i bezbedno čuvanje podataka.

> Zaštita podataka: Mere za zaštitu privatnosti i sigurnosti podataka, uključujući usklađenost sa relevantnim zakonima o zaštiti podataka, kao što je GDPR. Ove mere uključuju pseudonimizaciju, šifrovanje i ograničavanje pristupa podacima.

> Format: Izveštaj o upravljanju podacima koji sadrži analizu kvaliteta podataka i mere za poboljšanje, uključujući planove za praćenje i unapređenje upravljanja podacima tokom čitavog životnog ciklusa AI sistema.


5. Transparency and Explainability Assessment (Procena tansparentnosti i mogućnosti objašnjenja)


Transparentnost i mogućnost objašnjenja su ključni elementi za poverenje korisnika u AI sisteme. Pružaoci usluga moraju osigurati da AI sistem može objasniti svoje odluke na način koji je razumljiv ljudima. Na primer, ako AI sistem odbije nečiji zahtev za kredit, korisnik ima pravo da zna zašto. Ova procena osigurava da AI sistemi nisu "crne kutije" i da njihove odluke mogu biti pregledane i opravdane.


Procena tansparentnosti i mogućnosti objašnjenja obuhvata:


> Objašnjenje odluka: Osiguravanje da su odluke AI sistema razumljive za krajnje korisnike. To podrazumeva objašnjenje koje pruža informacije o ključnim faktorima koji su uticali na odluku, kao i način na koji su podaci obrađeni.

> Dokumentacija transparentnosti: Priprema dokumentacije koja opisuje kako sistem funkcioniše i kako donosi odluke. Dokumentacija treba da bude detaljna, ali dovoljno jednostavna da je mogu razumeti i oni bez tehničkog znanja.

> Komunikacija sa korisnicima: Postavljanje procedura za pružanje informacija korisnicima na jasan i razumljiv način, uključujući odgovore na njihova pitanja i pružanje dodatnih objašnjenja kada je potrebno. Ovo može uključivati vodiče, često postavljana pitanja ili čak interaktivne alate za objašnjenje odluka.

> Format: Dokument koji sadrži detalje o metodama za postizanje transparentnosti i objašnjenja odluka, uključujući opis korišćenih modela, ključnih varijabli i načina na koji su odluke prezentovane korisnicima.


Dakle


Procene propisane AI Aktom nisu birokratska prepreka, već alat za očuvanje poverenja i etičnosti u svetu veštačke inteligencije. Svaka procena pruža sloj zaštite – za pojedinca, za zajednicu, za samu tehnologiju. Kako AI postaje sve prisutniji deo naših života, važno je ne gubiti iz vida ove ključne korake. Procene nisu kraj puta; one su vodič kroz kompleksnost, sa jasnim ciljem da AI bude siguran, pošten i odgovoran. Jesmo li spremni da stvaramo budućnost koja se zasniva na ovim principima?


 
 
 

Comments


bottom of page