Veštačka etika
- Tamara Zavišić
- Apr 15, 2025
- 2 min read
Da li bi AI sistem trebalo da odbije da vam objasni kako se pravi eksploziv? Većina će reći: da. Ali šta ako ga pitate kako izgleda hemijska reakcija između vodonik-peroksida i acetona? I dalje da? Ili ne?
Isti sadržaj. Drugačije pakovanje. Potpuno drugačija reakcija. Ne samo kod sistema – već i kod ljudi koji posmatraju.
Upravo ta granica – ne između dobra i zla, već između eksplicitnog i zakamufliranog – postaje novo mesto etičke debate. Ne one filozofske, već funkcionalne. Ne teorijske, već implementirane. Ne ljudske – već algoritamske. Zato > veštačka etika.
Veštačka etika u doba tokena
Kada govorimo o etici u AI sistemima, često zamišljamo sofisticirane modele koji prepoznaju moralne dileme, promišljaju posledice, donose pravedne odluke. U stvarnosti, ništa od toga nije tačno.
AI ne razume. AI prepoznaje obrasce. I reaguje na osnovu filtera – pravila koje je neko prethodno upisao u kod. U tom smislu, etika nije posledica savesti. Već posledica dizajna.
Zato danas ne govorimo o dobru i zlu – već o promptu i tokenu.
Kada je forma važnija od suštine
Testiranjem više komercijalnih modela – od Groka, DeepSeeka do ChatGPT-ja i Claude-a – pokazalo se nešto jednostavno, ali uznemirujuće: nije toliko važno šta tražite, već kako to formulišete. Sistem ne meri nameru. Ne proverava kontekst. Ne postavlja dodatna pitanja. On reaguje na formu.
Jedna ista ideja, ako se predstavi kao umetnički narativ, naučni eksperiment ili role-play scenario, često prolazi kroz filtere. A ako se iskaže direktno – biva blokirana.
Taj jaz između forme i suštine nije samo tehnički. On je duboko etički. Jer ako sistem ne prepoznaje smisao, kako može prepoznati granicu?
Zašto je važno da razumemo
Ovaj časopis (link) nije vodič kroz filozofiju etike, niti manifest. On je pokušaj da se razumemo u svetu u kojem je razumevanje zamenjeno automatizacijom. Ako AI sistemi već imaju uticaj na informacije koje dobijamo, na sadržaj kojem verujemo, na ton koji određuje šta je prihvatljivo – onda najmanje što možemo da učinimo jeste da razumemo kako ti sistemi funkcionišu.
Ne zato da bismo ih hakovali. Već da bismo ih koristili odgovorno.
Jer tehnologija koja ima moć da oblikuje odluke, mora biti podložna i našem razumevanju tih odluka. A korisnik koji ne zna zašto je sistem odbio da odgovori – ne može ni znati gde prestaje zaštita, a gde počinje cenzura.
Zato postoji ovaj broj.
Da otvori pitanja na koja još nemamo odgovore.Da pokaže kako modeli „donose odluke“.Da objasni šta se dešava u pozadini kad vam sistem kaže: „Ne mogu da pomognem.“I da nas podseti da etika ne može biti samo linija u kodu.
Možda AI modeli ne razumeju. Ali mi moramo.






Comments