ChatGPT - Agent
- Tamara Zavišić
- Jul 18, 2025
- 7 min read
OpenAI je objavio novu funkcionalnost u okviru ChatGPTja - agent.
Pričitah, pogledah, istražih.
Imam pitanja, naravno.
Ali, za početak - informativno.
Za razliku od standardnog modela koji odgovara na poruke, agent planira i izvršava zadatke samostalno, koristeći virtuelni računar, pretraživač, terminal, API-je i povezanost sa eksternim servisima.
Korisnik daje zadatak - agent odlučuje kako da ga obavi. To znači da može da, npr
otvori vaš kalendar i pripremi brifing
proveri stanje u CRM‑u i dopuni tabelu
napiše mejl
rezerviše let
napravi prezentaciju
koristi vaš Gmail, Google Drive, Slack, Asanu, Notion - ako mu to dozvolite.
Radi to u realnom vremenu i pruža vam naraciju svakog koraka.
Možete da ga pauzirate, prekinete, tražite objašnjenje ili ručno intervenišete.
Za svaku radnju koja ima posledicu (kupovina, slanje poruka, izmena fajlova) traži eksplicitnu potvrdu korisnika.
Agent funkcioniše u sandboxovanom okruženju, izolovanom od vašeg računara. Za kod i fajlove koristi sopstveni virtuelni terminal. Pretražuje sajtove putem sopstvenog browser‑a. Pristupa eksternim servisima kroz tzv. connectors, koje korisnik mora pojedinačno da aktivira.
Trenutno je dostupan korisnicima u ChatGPT Pro planu (400 poruka mesečno).
Plus i Team planovi će imati ograničen pristup (40 poruka). Rollout, ubrzo.
Enterprise i Education rollout počinje u narednim nedeljama.
U tehničkom smislu, agent kombinuje dosadašnje prototipove Operator i Deep research u jednu celinu.
U praktičnom smislu, ovo je ChatGPT koji više ne samo odgovara - nego preuzima inicijativu.
Šta ChatGPT agent zna, vidi i (ne) pamti
Kada softver dobije sposobnost da sam pretražuje veb, piše mejlove i pokreće terminal, pitanje bezbednosti više nije simpatičan dodatak - to postaje osnovna tema.
OpenAI je (sa razlogom) uveo najstroži bezbednosni okvir do sada.
Kažu sledeće.
Kontrola ostaje u vašim rukama. Agent ne može da uradi ništa bez vašeg znanja.
Svaka radnja koja ima posledicu (npr. kupovina karata, slanje mejla, menjanje dokumenta) traži eksplicitnu potvrdu korisnika. Ako napustite tab dok agent nešto (značajno?) radi, automatski se aktivira Watch Mode - pauzira se dok se ne vratite. Možete ga u svakom trenutku pauzirati, prekinuti, ručno preuzeti tok, zatražiti rezime onoga što je do tada uradio.
Virtuelni računar, izolovano okruženje. Agent funkcioniše u sandboxu (izolovanom virtuelnom okruženju).
To znači da nema pristup vašem lokalnom računaru, sve se izvršava u OpenAI‑jevoj infrastrukturi, terminal je ograničen (nema neautorizovanih mrežnih poziva).
Podaci. Moja omiljena tema.
U takeover režimu (npr kada agent pristupa vašem Gmail‑u), lozinke i kolačići se ne vide i ne skladište.
OpenAI ne pamti te podatke. Vi ih unosite direktno u sesiju.
Jednim klikom (Settings → Privacy → “Delete browsing data”) možete u potpunosti obrisati sve kolačiće i odjaviti sve sesije koje je agent otvorio. Kažu. Poučeni iskustvom, nećemo im verovati na onu časnu.
Takođe, memorija je isključena u agent modu - ono što radite u toj sesiji ne ulazi u trajno pamćenje modela. Da se ne ponavljam, sačekaćemo sa poverenjem.
Bezbednost. Model je posebno treniran da ignoriše pokušaje manipulacije (npr da treća strana ubaci instrukciju na sajtu koji agent čita). Prompt‑injection zaštite funkcionišu i za tekstualni i za vizuelni browser. OpenAI koristi automatizovane filtere i monitore koji proveravaju ponašanje agenta u realnom vremenu.
Sertifikati i usklađenost. OpenAI navodi da su ispoštovani standardi poputSOC 2 Type 2, CSA STAR Level 1, DPA za korisnike u skladu s GDPR‑om, redovni eksterni pen‑testovi, aktivan bug bounty program.
Klasifikacija rizika. Zbog potencijala za zloupotrebu, agent je interno klasifikovan kao “High Biological & Chemical capability” u okviru OpenAI Preparedness Framework‑a, što znači da se na njega primenjuje najviši nivo bezbednosnih protokola.
....
E sve ovo što ste pročitali nam je OpenAI rekao.
Interesantno je da (ne baš tako) OpenAI (ponovo) ne deli informacije o potrošnji resursa, uticaju na životnu sredinu. O, zašto li?
Ali, da se vratimo na temu.
...
Šta vi možete da uradite
Ako planirate da koristite agent funkcionalnost (ili ako već jeste) evo nekoliko (netraženih) saveta.
Dajte minimum dozvola. Svaki connector (npr. Gmail, Google Calendar, Slack) aktivira se posebno. Ako ne mora da čita vaše mejlove - nemojte mu ih davati.
Ako je zadatak jednokratan - posle završetka isključite pristup.
Manje pristupa = manje rizika. Kao i kod svake delegacije - podelite ono što bi ste i ljudskom saradniku dali. Ništa više.
Uključite se kad je pipavo. Watch mode je tu s razlogom. Ako agent treba da šalje mejl, edituje prezentaciju ili menja fajl, gledajte šta radi. Watch mode vas automatski vraća u petlju. Iskoristite to. Pratite. Intervenišite po potrebi.
Redovno brišite sesije i kolačiće. Agent ima svoj browser - i kreira svoje kolačiće. Klik na Settings → Privacy → Delete browsing data. Time brišete sve privremene sesije i automatski gasite pristup koji više ne koristite.
Pratite log aktivnosti. Za svaki task koji agent izvršava, dobijate detaljnu naraciju radnji. To nije samo nice to have dodatak - to je vaš svojevrsni trag do izvora xyz. Ako nešto krene po zlu, uvek možete proveriti gde je zapelo.
Ne delegirajte važne odluke. Agent može da napiše mejl, da istraži temu, da pripremi nacrt. Ali ne zna kontekst. Ne zna reputaciju. Ne zna posledice.Prosto - ne zna.
Zadržite donošenje odluka za sebe - pogotovo u osetljivim, pravnim, finansijskim i reputacionim stvarima.
Agent nije pametan. Samo je sposoban. Agent ume da radi. Zna da pretraži, klikne, pokrene kod, obradi podatke, pošalje mejl. Ali ne zna zašto nešto radi, kome to šalje, kakve posledice može izazvati.
Nema razumevanje. Nema intuiciju. Nema odgovornost.
I tu dolazimo do najvažnijeg trenutka.
Što su AI alati moćniji - to je ljudsko uključivanje važnije.
Ne obrnuto.
Paradoks je očigledan.
Ranije, kad je model samo odgovarao na poruke, šteta je bila ograničena na pogrešan savet.
Danas, ako mu date pristup vašim sistemima i zadacima - posledice se dešavaju u stvarnom svetu.
Zato se ovde ne radi o poverenju u alat, već o odgovornosti korisnika. Agent vam neće reći ovo ne bi trebalo da uradimo - neće znati ni šta je problem. Vi ste i dalje jedini koji razume kontekst, rizik i posledice.
U tom smislu, ova faza AI evolucije ne zahteva manje nadzora, već više. Ne pasivnog gledanja, nego aktivnog učešća. Ne delegiranja odluke, nego njenog oblikovanja uz pomoć novog operativca - koji ne zna ništa o vama, osim onog što mu kažete.
Realnost
U vremenu kada se svaki novi (ChatGPT) AI alat pozicionira kao rešenje za sve i svašta, agent funkcionalnost u ChatGPT‑u će brzo postati deo prodajnog narativa.
Pre nego što uđete u to sa očekivanjima da zamenjuje timove, integracije i procedure, važno je postaviti realne granice i očekivanja. Npr.
Nije plug‑and‑play automatizacija. Agent može izvesti niz zadataka - ali isključivo unutar jedne sesije, jednog korisničkog konteksta i ograničenih ovlašćenja. Ne postoji pozadinska orkestracija. Ne postoji workflow koji je perzistentan ili višekorisančki. Sve je trenutno, konverzacijski, i u okviru sandboxa.
To nije poslovni sistem - to je operativni asistent.
Nije zamena za postojeći integracioni sloj. Agent ne razume izuzetke. Ne upravlja zavisnostima. Nema logiku, ne zna šta je rollback, i ne poseduje memoriju van aktivne sesije. Može da klikne, obradi, pošalje - ali to ne znači da razume sve varijante toka.
Nije spreman za enterprise okruženje. Bez uvida na nivou tima. Bez granularne kontrole pristupa. Bez audit mehanizama po organizacionim jedinicama. Bez SLA‑ova. Za ozbiljnije upotrebe (posebno u regulisanim industrijama) agent još uvek zahteva dodatnu infrastrukturu kontrole i nadzora.
Nije alat koji razume vaš poslovni kontekst. Agent reaguje na prompt. Ne poznaje odnose u timu, reputacione rizike, pravne ograničenja ni komercijalne implikacije. Sve što nije eksplicitno navedeno - biće izostavljeno iz odluke. To nije nemar - to je ograničenje.
Nije instant ušteda. Za svaku dobitak u vremenu, prethodi period učenje kao što je npr mapiranje procesa, edukacija korisnika, uspostavljanje granica, definisanje internih pravila upotrebe. Davim vas o AI governance-u svakodnevno, znam. Bez tog dodatnog, uloženog rada, koristi ostaju fragmentarne. Bez strukture, agent može stvoriti više konfuzije nego koristi.
Nije automatski usklađen sa regulatornim zahtevima. Činjenica da agent radi u sandboxu i koristi eksplicitne potvrde ne oslobađa vas obaveza u pogledu zaštite podataka. Ako koristite agenta u poslovne svrhe, vi ste i dalje rukovalac obrade u smislu GDPR/ZZPL.
To povlači obaveze, između ostalog:
vođenje evidencije obrada
sprovođenje DPIA kada je primenljivo
provera ugovornih odnosa sa OpenAI‑jem kao obrađivačem
dodatne tehničke i organizacione mere ako se podaci prenose van EEA.
ostalo
EU AI Act će dodatno pooštriti ove standarde. Ukoliko agent u vašem sistemu koristi podatke koji potpadaju pod visoko‑rizične obrade (npr. HR, zdravlje, finansije, pravni dokumenti), bićete u obavezi da sprovedete širu procenu usklađenosti i odgovornosti.
Drugim rečima - agent ne preuzima vašu odgovornost kao organizacije. On samo obavlja zadatke - sve drugo ostaje na vama.
Dakle. Agent može biti vredan alat u poslovnom okruženju, ali nije rešenje koje dolazi „iz kutije“. Zahteva promišljeno uvođenje, nadzor i jasno razumevanje njegovih stvarnih mogućnosti i ograničenja.
Za organizacije koje to mogu da obezbede - agent može doneti operativni pomak.
Za sve ostale - preuranjeno poverenje može nositi značajan rizik.
I šta sad?
Agent je taj sledeći korak. Ka čemu?
Ne zbog senzacije. Nego zbog toga što menja odnos između korisnika i AI alata. Više nije stvar u "šta da ga pitam". Već "šta mu mogu prepustiti".
U tehničkom smislu - impresivno.
U organizacionom - potencijalno disruptivno.
U etičkom - tek ulazimo na teren koji nije istražen.
Jer kad alat sam pretražuje, povezuje se s vašim nalozima, donosi mikro‑odluke i izvršava ih - nema više neutralnosti. To je agent. I to ga obavezuje - i vas s njim.
Zato je od izuzetno velikog značaja da ovu fazu AI‑a ne dočekamo kao potrošači, već kao akteri sa stavom.
Ne zaneseni, ali ni paranoični.
Obavešteni. Prisutni. Kritični.
Da li je agent revolucionaran? Zavisi koga pitamo.
Za korisnike koji prvi put delegiraju digitalni zadatak - jeste.
Za kompanije koje znaju kako da ga iskoriste - može biti.
Za one koji ne prate šta radi - biće, ali verovatno ne na dobar način.
U svakom slučaju - to više nije alat koji čeka da ga nešto pitate. I to nešto menja.






Comments