top of page
Search

Build, baby, build!

Ovaj je mješovit. Krenimo redom.


Trampova administracija objavila je AI Action Plan.



Iako dokument izgleda kao strateški plan za inovacije, iza retorike o dominaciji i nacionalnoj bezbednosti krije se pokušaj da se redefinišu pravila. I to brzo, agresivno i sa što manje prepreka.


Retorika? Jasna.


“unquestioned technological dominance”, “national security imperative”, “exploitative adversaries”.


Ovo nije plan razvoja. Ovo je strategija mobilizacije - kroz deregulaciju, ideološki reset i infrastrukturni

sprint.


Sastoji se iz tri stuba, pilara.


Pillar I – Accelerate AI Innovation


Masovno uklanjanje regulative (rescind EO 14110), pritisak na agencije da revidiraju/ukinu pravila koja "otežavaju inovacije", i ograničavanje federalnog finansiranja državama sa "opteretjujućim" AI propisima.


Istovremeno, uvodi se zahtev da se NISTov AI RMF "očisti" od referenci na dezinformacije, DEI i klimatske promene, kako bi se AI sistemi gradili "bez ideološke pristrasnosti". Šokantno. 


Posebno se podržavaju open-source/open-weight modeli (zbog fleksibilnosti, akademske vrednosti i geostrateške koristi). 


Pillar II – Build American AI Infrastructure, iliti build, baby, build


Fokus je na ubrzanoj izgradnji data centara, čip fabrika i energetskih kapaciteta. Build, baby, build narativ i odbacivanje radikalnog klimatskog dogmatizma. Šokantno, ponovo. 


Predlažu se nova NEPA "categorical exclusions" za data centre, ubrzavanje dozvola pod Clean Water Act i drugim. Tvrdi se da je potrebno stabilizovati i proširiti električnu mrežu da prati AI potražnju. Logično.


Pillar III – International AI Diplomacy & Security


Izvoz "full-stack" američkog AI-a saveznicima, suzbijanje kineskog uticaja u međunarodnim telima i pojačana kontrola izvoza čipova. Plan takođe naglašava procenu bezbednosnih rizika frontier modela i razvoj standarda za visoko-bezbednosne data centre. 


A EU?


U ovom trenutku imamo dva paralelna vokabulara koja pokušavaju da vladaju istom tehnologijom. Trustworthy AI, human-centric, fundamental rights vs technological dominance, national security imperative, unquestioned leadership.


Ovo nije samo razlika u tonu. To je razlika u političkoj ambiciji.

Evropa pokušava da izgradi poverenje. SAD da ga nadomesti autoritetom.


Nego, još jedna vest. 

Novi dan, novi propis.


Evropska komisija je upravo usvojila Mandatory AI Training Data Disclosure Template. 



Novi mehanizam koji zahteva transparentnost o poreklu podataka za sve sisteme klasifikovane kao visokorizični. Kao što mu i ime kaže, obavezan je.


U prevodu, ako razvijate model za EU tržište, biće vam traženo da precizno prijavite šta je od podataka ušlo u proces treniranja. Bez improvizacije. Nasuprot tome, Trampov plan promoviše open-source pristup. Ali bez zahteva za razjašnjenje porekla podataka. Više slobode, manje odgovornosti.


Bez obzira da li radite u razvoju, pravnoj podršci, upravljanju podacima ili poslovnoj strategiji – nova realnost u vezi s AI regulativom traži sistemsko prilagođavanje. 


Ne radi se samo o usklađivanju sa jednim pravnim režimom, već o razumevanju i upravljanju regulatornim divergencijama koje postaju sve dublje.


Hajde da pričamo malo o praksi.


Ako razvijate modele – usklađivanje postaje višeslojno.


U SAD America’s AI Action Plan otvara prostor za ubrzan razvoj i testiranje, uz minimalne regulatorne zahteve. Ne postoje formalne obaveze za objavljivanje informacija o podacima, evaluaciju rizika ili ograničavanje primene modela u osetljivim kontekstima.


Suprotno tome, u EU, AI Act i prateća dokumenta - uključujući novi Mandatory Training Data Disclosure Template - postavljaju jasne obaveze za sve koji razvijaju generativne modele koji se koriste kao osnova za druge sisteme. 


Zahteva se transparentan prikaz glavnih izvora podataka, procena zastupljenosti ličnih podataka i korišćenih filtera, obrazloženje selekcije i relevantnosti podataka u kontekstu namene modela.


Savet: 


Uvedite praksu internih evidencija o poreklu podataka - svojevrsni dataset inventory sa metapodacima o izvorima, dozvolama, vrstama sadržaja i kriterijumima filtriranja. Taj dokument postaje važan za evropsko tržište, ali i za dugoročnu održivost u drugim jurisdikcijama koje uvode slične mehanizme (npr. Kanada, Singapur, Australija).


Ako ste deo pravnog ili compliance tima – ne čekajte.


U SAD, iako se formalni zahtevi ublažavaju, pravna odgovornost nije uklonjena. Incident response, evaluacija rizika i bezbednosni protokoli i dalje ostaju deo očekivanog standarda pažnje. Posebno u slučaju štetnih posledica ili regulatornih istraga.


U EU, Disclosure Template se podnosi regulatorima, ali takođe postaje deo javnog registra. To znači da sve što prijavite čitaće korisnici, konkurencija i mediji.


Savet:


  • Pripremite interni proces za validaciju Disclosure Template-a i pravnu reviziju svakog odgovora.

  • Uvedite obavezu redovne provere doslednosti između tehničke dokumentacije (npr. model card) i regulatornih izveštaja.

  • Definišite jasan protokol za prijavu i odgovor na incidente u vezi sa AI modelima – čak i ako to nije (još) zakonski obavezno.


Ako se bavite infrastrukturom i operacijama – ESG dimenzija više nije (svuda) opciona.


Trampov plan podstiče ubrzanu izgradnju data centara i čip fabrika, uz relaksaciju ekoloških procedura. Međutim, to ne eliminiše reputacione i komercijalne rizike povezane s potrošnjom resursa. Posebno u zajednicama koje su direktno pogođene.


S druge strane, evropski kupci, partneri i investitori sve više insistiraju na ESG standardima u vezi s energijom, vodom i ugljeničnim otiskom AI infrastrukture. 


Savet:


  • Dokumentujte ekološke parametre svakog podatkovnog klastera. Posebno kada se koristi za EU klijente.

  • Pripremite tehničku dokumentaciju za ESG due diligence. Uključujući podatke o izvorima energije, kapacitetu i planovima kompenzacije emisija.


Ako upravljate ljudima i obukom – prilagodite pristupe tržištu.


U SAD, plan se oslanja na grantove i poreske podsticaje za obuke, ali ne uvodi obaveze u vezi s etičkom ili društvenom dimenzijom AI znanja. U EU, sa druge strane, sve više programa finansiranja (npr. Erasmus+, Digital Europe i slični) podržava standardizovane kurseve o odgovornoj upotrebi veštačke inteligencije.


Savet:


  • Prilagodite interne programe obuke potrebama različitih jurisdikcija: jedan fokusiran na tehničku efikasnost i brzinu (US), drugi na razumevanje društvenih uticaja i regulatornih rizika (EU).

  • Uvedite osnovni AI Governance modul kao obaveznu komponentu za sve timove koji direktno rade na razvoju modela ili njihovoj implementaciji.


Dakle


Svet AI se (još više) fragmentira. 


SAD i EU više ne nude varijante istog modela, već divergentne paradigme. Deregulacija i brzina nasuprot transparentnosti i odgovornosti.


Kompanije koje žele dugoročnu održivost moraće da dizajniraju interne procese koji ne odgovaraju samo jednom tržištu, već funkcionišu preko razlika.


Zato će naredne dve godine oblikovati jedno neugodno pitanje:


Da li uopšte pričamo o istim stvarima kada kažemo AI governance?


 
 
 

Comments


bottom of page