This is the Trace Id: 8048905559b7f2f0fd83d59644c81cfd

 

Cyber Pulse: Izveštaj o bezbednosti veštačke inteligencije

Najnoviji Microsoft telemetrijski podaci i istraživanja pokazuju da mnoge organizacije usvajaju AI agente. Pravo je vreme da rukovodioci uvedu posmatranje, upravljanje i bezbednost.

1. izdanje: Uvod

Vodeće organizacije preoblikuju način rada, gde ljudi i agenti rade zajedno kako bi podigli ljudsku ambiciju na viši nivo. Nedavni podaci korporacije Microsoft pokazuju da se timovi sa ljudima i agentima brzo šire i globalno usvajaju.

AI agenti se skaliraju brže nego što ih neke kompanije mogu pratiti, a taj nedostatak vidljivosti predstavlja poslovni rizik. Organizacije hitno moraju uspostaviti efektivno upravljanje i bezbednost kako bi bezbedno usvojile agente, podstakle inovacije i smanjile rizike. Kao i ljudski korisnici, AI agenti zahtevaju zaštitu kroz posmatranje, upravljanje i jaku bezbednost zasnovanu na principima Nulte pouzdanosti. Preduzeća koja će uspeti u sledećoj fazi usvajanja AI-ja biće ona koja brzo deluju i okupe poslovne, IT, bezbednosne i razvojne timove da zajedno posmatraju, upravljaju i obezbeđuju svoju AI transformaciju.

U okviru Microsoft ekosistema, klijenti sada razvijaju i primenjuju agente na svim ključnim platformama – od platformi Fabric i Foundry do rešenja Copilot Studio i Agent Builder – što odražava široku tranziciju ka automatizaciji u toku rada koja koristi AI.

Izgradnja agenata više nije rezervisana samo za tehničke stručnjake; danas zaposleni na različitim pozicijama kreiraju i koriste agente u svakodnevnom radu. Šta više, podaci korporacije Microsoft pokazuju da više od 80% Fortune 500 kompanija primenjuje aktivne agente izgrađene pomoću alatki niskog/bez kodiranja.1 Kako se upotreba agenata širi, a mogućnosti transformacije rastu, pravo je vreme da se uspostave osnovni mehanizmi kontrole.

Baš kao i za ljudske zaposlene, princip Nulte pouzdanosti za agente podrazumeva:
 

  • Pristup sa najmanjim privilegijama: Dodelite svakom korisniku, AI agentu ili sistemu samo neophodne dozvole – ne više.

  • Jasna verifikacija: Uvek proverite ko ili šta traži pristup, koristeći identitet, stanje uređaja, lokaciju i nivo rizika.

  • Pretpostavka da može doći do ugroženja bezbednosti: Dizajnirajte sisteme sa očekivanjem da će napadači uspeti da probiju odbranu.

Grafikon koji pokazuje da više od 80% kompanija sa Fortune 500 liste koristi aktivne alate za low-code, uključujući Ask Copilot

AI agenti se brzo šire – u svim regionima i sektorima

Usvajanje agenata se ubrzava širom sveta – od EMEA regiona do američkih i azijskih kontinenata.2
 Stubasti dijagram prikazuje regionalnu raspodelu: EMEA 42%, Sjedinjene Države 29%, Azija 19%, Amerika 10%.
Microsoft beleži rast upotrebe agenata u svim sektorima. Finansijske usluge, proizvodnja i maloprodaja predvode u usvajanju agenata. Finansijske usluge – uključujući bankarstvo, tržišta kapitala i osiguranje – sada predstavljaju oko 11% svih aktivnih agenata globalno.2 Proizvodnja zauzima 13% globalne upotrebe agenata, sa širokom primenom u fabrikama, lancima snabdevanja i energetskim sektorima.2 Maloprodaja predstavlja 9%, koristeći agente za unapređenje korisničkog iskustva, upravljanje zalihama i procese direktnu interakciju sa klijentima.2

Problem je: neke od ovih agenata je odobrilo IT odeljenje – dok druge nisu. Neki od ovih agenata su bezbedni – dok drugi nisu.
Preklapajući krugovi prikazuju raspodelu po industrijama: Softver i tehnologija 16 %, proizvodnja 13 %, finansijske usluge 11 %, maloprodaja 9 %.

Rizik od dvostrukih agenata

Brza primena agenata može nadmašiti kontrole bezbednosti i usaglašenosti, što povećava rizik od AI-ja u senci. Zlonamerni akteri mogu iskoristiti pristup i privilegije agenata, pretvarajući ih u nenamerne „dvostruke agente“. Kao i kod ljudskih zaposlenih, agent sa previše pristupa – ili sa pogrešnim instrukcijama – može postati bezbednosna ranjivost.

Pretnja od zloupotrebe dvostrukih agenata, ukoliko se njima ne upravlja, ako su pogrešno autorizovani ili njima manipulišu nepouzdani unosi, nije samo teorijski rizik. Nedavno je tim za Microsoft Defender identifikovao prevarantsku kampanju u kojoj je više aktera koristilo tehniku napada AI-jem poznatu kao „trovanje memorije“ da trajno manipulišu memorijom AI pomoćnika, tiho usmeravajući buduće odgovore i narušavajući poverenje u tačnost sistema.

U nezavisnom istraživanju bezbednog test okruženja koje je sproveo Microsoft AI Red Team, istraživači su dokumentovali kako su agenti zavedeni lažnim elementima interfejsa, poput praćenja štetnih instrukcija ugrađenih u svakodnevni sadržaj. Red Team je takođe otkrio kako se rezonovanje agenata može suptilno preusmeriti manipulacijom načina na koji se formulišu zadaci. Ovi nalazi jasno pokazuju zašto je ključno da preduzeća imaju potpuno posmatranje i upravljanje svim agentima koji utiču na njihovo poslovanje, kako bi kontrole mogle centralizovano da se sprovode, a rizici centralizovano rešavaju kroz integrisani pristup.
Prema istraživanju iz 2025. godine, 29% zaposlenih koristi nesankcionisane AI agente za obavljanje radnih zadataka.
Prema Microsoft Indeksu za bezbednost podataka, samo 47% organizacija u različitim sektorima izveštava da primenjuje specifične bezbednosne kontrole za GenAI,3 što ukazuje na značajnu priliku za organizacije da steknu jasnu vidljivost neophodnu za bezbedno usvajanje AI tehnologije. Još važnije, prema multinacionalnoj anketi više od 1.700 stručnjaka za bezbednost podataka, koju je Microsoft naručio od Hypothesis Group, čak 29% zaposlenih koristi neodobrene AI agente za obavljanje radnih zadataka.4
Dijagram u obliku pite pokazuje da samo 47% organizacija ima uspostavljene bezbednosne kontrole za korišćenje generativne veštačke inteligencije.

Kako se usvajanje ubrzava, koliko rukovodioca zaista prepoznaje skrivene rizike? Koliko rukovodioca ima uvid u celu populaciju svojih agenata? AI agenti bez nadzora ili kontrole mogu višestruko povećati rizike u preduzećima – što ugrožava bezbednost, kontinuitet poslovanja i reputaciju, a sav teret pada direktno na CISO direktore i rukovodstvo. Ovo je suština dileme sa kibernetičkim rizicima. AI agenti donose nove mogućnosti na radno mesto i postaju neizostavni deo unutrašnjih poslovnih procesa. Međutim, rizično ponašanje agenata može pojačati unutrašnje pretnje i stvoriti nove načine neuspeha za organizacije koje nisu spremne da njima upravljaju.

 

Dvostrana priroda AI-ja je stigla: izuzetne inovacije u kombinaciji sa neviđenim rizicima.

Kako maksimalno iskoristiti AI agente

Vodeće kompanije koriste talas AI tehnologije da modernizuju upravljanje, smanje nepotrebnu izloženost podataka i primene kontrole na nivou celog preduzeća. To kombinuju sa kulturološkom promenom: rukovodioci preduzeća vode AI strategiju, ali su timovi za IT i bezbednost sada ključni partneri u posmatranju, upravljanju i bezbednom eksperimentisanju. Za ove organizacije, obezbeđenje agenata nije ograničenje – već konkurentska prednost, zasnovana na tretiranju AI agenata kao da su ljudi i primeni istih principa nulte pouzdanosti.

Sve počinje sa posmatranjem – ne možete zaštititi ono što ne vidite, niti upravljati onim što ne razumete. Mogućnost posmatranja znači imati nivo kontrole na svim nivoima organizacije (IT, bezbednost, programeri i AI timovi) kako biste razumeli:

  • Koji agenti postoje
     

  • Čiji su agenti
     

  • Kojim sistemima i podacima pristupaju
     

  • Kako se ponašaju


 

Mogućnost posmatranja obuhvata pet ključnih oblasti:

  • Centralizovani registrator predstavlja jedan izvor istine za sve agente u organizaciji – odobrene, od nezavisnih proizvođača i nove agente u senci. Ovaj spisak pomaže u sprečavanju nekontrolisanog širenja agenata, omogućava odgovornost i podržava njihovo otkrivanje, dok istovremeno omogućava ograničavanje ili karantin neodobrenih agenata kada je to neophodno.
  • Svakim agentom se upravlja koristeći iste kontrole pristupa zasnovane na identitetu i smernicama koje se primenjuju na ljudske korisnike i aplikacije. Dozvole sa najmanjim privilegijama, dosledno primenjene, osiguravaju da agenti pristupaju samo onim podacima, sistemima i radnim tokovima koji su im potrebni za rad – ni manje, ni više.
  • Kontrolne table i telemetrija u realnom vremenu pružaju uvid u to kako agenti komuniciraju sa ljudima, podacima i sistemima. Rukovodioci mogu pratiti gde agenti rade, razumeti njihove zavisnosti i nadgledati ponašanje i uticaj – što omogućava brže otkrivanje zloupotrebe, odstupanja ili novih rizika.
  • Agenti funkcionišu na Microsoft platformama, radnim okvirima otvorenog koda i ekosistemima nezavisnih proizvođača, pod doslednim modelom upravljanja. Ova interoperabilnost omogućava agentima da sarađuju sa ljudima i drugim agentima kroz radne tokove, dok ostaju pod upravom istih korporativnih kontrola.
  • Ugrađene zaštite štite agente od unutrašnje zloupotrebe i spoljašnjih pretnji. Bezbednosni signali, sprovođenje smernica i integrisanost alatki pomaže organizacijama da rano otkriju kompromitovane ili neusklađene agente i brzo reaguju – pre nego što problemi prerastu u štetu po poslovanje, propise ili ugled.

Zatvaranje jaza: kontrolna lista za upravljanje i bezbednost AI-ja

Jasan je put za suzbijanje AI rizika: tretirajte AI agente sa istom pažnjom i rigoroznošću kao i svakog zaposlenog ili nalog softverske usluge. Evo sedam stavki za vašu listu za proveru.
  • Detaljno beležite svrhu svakog agenta i dodelite mu pristup isključivo onome što mu je neophodno. Bez širokih privilegija.
  • Primenite pravila zaštite podataka na AI kanale. Održavajte evidenciju probnih verzija i jasno označite sadržaj generisan AI-jem.
  • Ponudite bezbedne alternative kako biste suzbili upotrebu AI-ja u senci. Blokirajte neovlašćene aplikacije.
  • Ažurirajte planove za kontinuitet poslovanja u slučaju scenarija AI-jem. Sprovodite simulirane vežbe i pratite ključne metrike posmatranja iz oblasti identiteta, podataka i pretnji.
  • Izgradite mehanizme za upravljanje AI-jem i sami se regulišite odmah – vodite dokumentaciju o podacima za obuku, procenjujte pristrasnost i uspostavite ljudski nadzor iz oblasti zakona, podataka i bezbednosti, kako bi usaglašenost sa propisima bila ugrađena od početka, a ne naknadno dodata.
  • Podignite upravljanje AI rizicima na nivo preduzeća – uspostavite izvršnu odgovornost, merljive KPI-jeve i vidljivost na nivou odbora, uzimajući u obzir finansijske i operativne rizike.
  • Obučite zaposlene da bezbedno koriste veštačku inteligenciju. Podstičite transparentnost i saradnju.

Organizacije koje uspeju sa AI agentima biće one koje daju prioritet posmatranju, upravljanju i bezbednosti. Da bi se to postiglo, potrebna je saradnja svih timova i posmatranje AI agenata na svim nivoima organizacije: IT stručnjaci, bezbednosni timovi, AI timovi i programeri, kojima je moguće upravljati i nadgledati ih putem objedinjene centralne kontrolne platforme.

Agent 365 je objedinjena kontrolna platforma korporacije Microsoft za upravljanje AI agentima u okviru organizacije. Pruža centralizovani sistem za registraciju, upravljanje, obezbeđenje, nadzor i rad sa AI agentima na nivou preduzeća – bilo da su razvijeni na Microsoft platformama, radnim okvirima otvorenog koda ili sistemima nezavisnih proizvođača. Više informacija o Microsoft proizvodima i uslugama koje pomažu sa zaštitom AI-ja i agenata dostupno je ovde.
Kartice resursa za Microsoft bezbednost sa vodičima za AI aplikacije, upravljanje AI-jem i usaglašenost sa AI propisima, prikazane na plavoj pozadini
Vodiči za bezbednost veštačke inteligencije

Microsoft vodič za obezbeđivanje preduzeća koja koriste veštačku inteligenciju

Dobijte uputstva za izgradnju čvrstih temelja za AI, uključujući kako upravljati i obezbediti AI aplikacije, kao i kako održavati usaglašenost sa propisima.

Još resursa

Osoba radi na laptopu u zajedničkom radnom prostoru dok proverava informacije na pametnom telefonu

Indeks bezbednosti podataka korporacije Microsoft

Dobijte uvide u to kako generativni AI transformiše bezbednost podataka.
Izlagač stoji na pozornici sa prikazima na ekranu: razumevanje rizika, postavljanje pravih kontrola, merenje i nadzor

Ubrzavanje mogućnosti sa pouzdanom veštačkom inteligencijom

Poslušajte Microsoft rukovodioce koji dele praktične savete za izgradnju poverenja tokom svake faze tranzicije na AI.
Plavo-bela ikona sa listom papira u koverti i natpisom „Novo“.

Preuzmite CISO Digest

Budite u toku sa stručnim uvidima, trendovima u sektoru i istraživanjima bezbednosti u ovom serijalu e-poruka, dva puta mesečno.
  1. [1]
    Zasnovano na Microsoft telemetrijskim podacima za merenje agenata koji su izgrađeni u rešenjima Microsoft Copilot Studio ili Microsoft Agent Builder, a koji su bili aktivni tokom poslednjih 28 dana u novembru 2025.
  2. [2]
    Metrički podaci za sektorske i regionalne agente prikupljeni su putem Microsoft telemetrijskih podataka koji mere agente izgrađene u rešenjima Microsoft Copilot Studio ili Microsoft Agent Builder, a koji su bili aktivni u poslednjih 28 dana u novembru 2025.
  3. [3]
    Multinacionalna anketa iz jula 2025. sa preko 1.700 stručnjaka za bezbednost podataka, koju je naručila korporacija Microsoft od preduzeća Hypothesis Group
  4. [4]

    Indeks bezbednosti podataka korporacije Microsoft za 2026. godinu: Objedinjavanje zaštite podataka i AI inovacija, Microsoft bezbednost, 2026. godina

     

    Metodologija:

     

    Metrički podaci za sektorske i regionalne agente prikupljeni su putem Microsoft telemetrijskih podataka koji mere agente izgrađene u rešenjima Microsoft Copilot Studio ili Microsoft Agent Builder, a koji su bili aktivni u prošlih 28 dana u novembru 2025.

     

    2026 Indeks bezbednosti podataka:

     

    Multinacionalna anketa na mreži u trajanju od 25 minuta sprovedena je od 16. jula do 11. avgusta 2025. godine među 1.725 rukovodioca u oblasti bezbednosti podataka.

     

    Pitanja su se fokusirala na stanje bezbednosti podataka i povezane incidente, bezbedne upotrebe GenAI kod zaposlenih i primenu GenAI u programima bezbednosti podataka, sa ciljem poređenja sa 2024. godinom.

     

    Detaljni intervjui u trajanju od sat vremena sprovedeni su sa 10 rukovodioca u oblasti bezbednosti podataka iz SAD-a i Velike Britanije, kako bi se prikupile priče o njihovim pristupima bezbednosti podataka u organizacijama.

     

    Definicije:

     

    Aktivni agenti su 1) primenjeni u proizvodnji i 2) beleže neku „stvarnu aktivnost“ u poslednjih 28 dana.

     

    „Stvarna aktivnost“ podrazumeva jednu ili više interakcija sa korisnikom (pomoćni agenti) ILI jedno ili više autonomnih izvršavanja (autonomni agenti).

Pratite Microsoft bezbednost