This is the Trace Id: 2dfcd731a6208f25d2cf5082da38e0dc

Pridružite se izvršnoj panel-sesiji RSAC-a 24. ožujka pod nazivom „Agent AI su tu” Jeste li spremni za?”.

Odmah se registrirajte

Microsoftov vodič za osiguranje poduzeća pogonjenog umjetnom inteligencijom

background-img

Početak rada s aplikacijama umjetne inteligencije

Umjetna inteligencija (AI) transformira poslovne operacije i otključava inovacije, a istovremeno predstavlja nove rizike. Od umjetne inteligencije u sjeni (alati potrošačke razine koji se prihvaćaju bez nadzora) do napada ubacivanjem upita i promjenjivih propisa poput Zakona EU-u a o umjetnoj inteligenciji, tvrtke ili ustanove moraju riješiti ove izazove kako bi sigurno koristile umjetnu inteligenciju.

Ovaj vodič pokriva rizike povezane s umjetnom inteligencijom: curenje podataka, nove prijetnje i izazove usklađenosti, zajedno s jedinstvenim rizicima agentske umjetne inteligencije. Također pruža smjernice i praktične korake koje treba poduzeti na temelju Okvira za prihvaćanje umjetne inteligencije. Za dublje uvide i praktične korake preuzmite vodič.

Umjetna inteligencija mijenja igru – ali samo ako je možete osigurati. Počnimo s radom.

Tri najveća rizika u sigurnosti umjetne inteligencije


Dok tvrtke ili ustanove prihvaćaju umjetnu inteligenciju, voditelji se moraju suočiti s tri ključna izazova:
  • 80 % voditelja navodi curenje podataka kao glavni razlog za zabrinutost. 1
    Alati umjetne inteligencije u sjeni, koji se koriste bez odobrenja IT-ja, mogu izložiti povjerljive informacije, čime se povećava rizik od kršenja sigurnosti.
  • 88 % tvrtki ili ustanova brine o lošim akterima koji manipuliraju sustavima umjetne inteligencije.2
    Napadi poput ubacivanja upita iskorištavaju ranjivosti u sustavima umjetne inteligencije, što naglašava potrebu za proaktivnom obranom.
  • 52 % voditelja priznaje nesigurnost u snalaženju s propisima o umjetnoj inteligenciji.3
    Ostati usklađen s okvirima poput Zakona EU-a o umjetnoj inteligenciji ključno je za poticanje povjerenja i održavanje inovacijskog zamaha.

Agentska umjetna inteligencija: glavni rizici i kako ih riješiti

Agentska umjetna inteligencija nudi transformativni potencijal, ali njezina autonomija donosi jedinstvene sigurnosne izazove koji zahtijevaju proaktivno upravljanje rizicima. U nastavku su ključni rizici i strategije prilagođene za njihovo rješavanje:

Halucinacije i neželjeni rezultati

Sustavi agentske umjetne inteligencije mogu proizvoditi netočne, zastarjele ili neusklađene rezultate, što dovodi do operativnih poremećaja ili lošeg donošenja odluka.

Kako bi se umanjili ti rizici, tvrtke ili ustanove trebaju implementirati rigorozne procese nadzora za pregled točnosti i relevantnosti rezultata generiranih umjetnom inteligencijom. Redovito ažuriranje podataka za obuku osigurava usklađenost s trenutačnim informacijama, dok putevi eskalacije za složene slučajeve omogućuju ljudsku intervenciju kada je to potrebno. Ljudski nadzor ostaje ključan za održavanje pouzdanosti i povjerenja u operacije vođene umjetnom inteligencijom.

Prekomjerno oslanjanje na odluke umjetne inteligencije

Slijepo povjerenje u sustave agentske umjetne inteligencije može dovesti do ranjivosti kada korisnici djeluju na temelju neispravnih rezultata bez validacije.

Tvrtke ili ustanove trebaju uspostaviti pravilnike koji zahtijevaju ljudsku provjeru za važne odluke s visokim ulozima na koje utječe umjetna inteligencija. Obučavanje zaposlenika o ograničenjima umjetne inteligencije potiče informirani skepticizam, čime se smanjuje vjerojatnost pogrešaka. Kombiniranje uvida umjetne inteligencije s ljudskom prosudbom kroz složene procese donošenja odluka jača ukupnu otpornost i sprječava pretjeranu ovisnost.

Novi vektori napada

Autonomija i prilagodljivost agentske umjetne inteligencije stvaraju prilike za napadače da iskoriste ranjivosti, što donosi operativne i sistemske rizike.

Operativni rizici uključuju manipulaciju sustavima umjetne inteligencije radi izvođenja štetnih radnji, poput neovlaštenih zadataka ili pokušaja krađe identiteta. Tvrtke ili ustanove mogu ublažiti te rizike implementacijom robusnih sigurnosnih mjera, uključujući otkrivanje anomalija u stvarnom vremenu, šifriranje i stroge kontrole pristupa.
Sistematski rizici nastaju kada kompromitirani agenti ometaju međusobno povezane sustave, što uzrokuje kaskadne kvarove. Mehanizmi zaštite od kvarova, protokoli redundancije i redovite revizije, usklađeni s okvirima računalne sigurnosti poput NIST-a, pomažu u smanjenju tih prijetnji i jačanju obrane od neprijateljskih napada.

Odgovornost i obveza

Agentska umjetna inteligencija često djeluje bez izravnog ljudskog nadzora, zbog čega se postavljaju složena pitanja o odgovornosti za pogreške ili propuste.

Tvrtke ili ustanove trebaju definirati jasne okvire odgovornosti koji određuju uloge i odgovornosti za ishode povezane s umjetnom inteligencijom. Transparentno dokumentiranje procesa donošenja odluka umjetnom inteligencijom podržava identifikaciju pogrešaka i dodjeljivanje odgovornosti. Suradnja s pravnim timovima osigurava usklađenost s propisima, dok usvajanje etičkih standarda za upravljanje umjetnom inteligencijom gradi povjerenje i smanjuje reputacijske rizike.

Započnite s faznim pristupom

S novim inovacijama umjetne inteligencije poput agenata, tvrtke ili ustanove moraju uspostaviti čvrstu osnovu temeljenu na načelima modela „svi su nepouzdani” – „nikad ne vjeruj, uvijek provjeri“. Ovaj pristup pomaže da se osigura da je svaka interakcija autentificirana, autorizirana i kontinuirano nadzirana. Iako postizanje modela „svi su nepouzdani” iziskuje vrijeme, prihvaćanje fazne strategije omogućuje stalan napredak i gradi povjerenje u sigurnu integraciju umjetne inteligencije.

 

Microsoftov okvir za usvajanje umjetne inteligencije usmjeren je na tri ključne faze: kontroliranje umjetne inteligencije, vođenje umjetne inteligencije i osiguranje umjetne inteligencije.

Baveći se tim područjima, tvrtke ili ustanove mogu postaviti temelje za odgovornu upotrebu umjetne inteligencije te istovremeno ublažiti glavne rizike.

Za uspjeh, prioritet treba dati ljudima obučavanjem zaposlenika da prepoznaju rizike povezane s umjetnom inteligencijom i koriste odobrene alate na siguran način. Potaknite suradnju između timova informacijske tehnologije, timova za sigurnost i poslovnih timova kako biste osigurali jedinstven pristup. Promičite transparentnost otvorenim komuniciranjem svojih inicijativa za sigurnost umjetne inteligencije kako biste izgradili povjerenje i pokazali vodstvo.

S pravom strategijom, utemeljenom na principima modela „svi su nepouzdani”, možete umanjiti rizike, otključati inovacije i samouvjereno se kretati kroz promjenjivi krajolik umjetne inteligencije.

Više ovakvih sadržaja

Naslovnica knjige s tekstom „Microsoftove sigurnosne strategije za usklađenost umjetne inteligencije” uz ilustraciju muškarca i žene koji gledaju u prijenosno računalo.
5 minuta

Microsoftov vodič za osiguravanje poduzeća pogonjenog umjetnom inteligencijom: strategije za usklađenost umjetne inteligencije

Muškarac gleda tablet u ruci.
3 minute

Veća vrijednost, manji rizik: kako sigurno i odgovorno implementirati generativnu umjetnu inteligenciju u cijeloj tvrtki ili ustanovi

Bijeli crtež papira u omotnici s riječju Novo na plavoj pozadini.

Preuzmite CISO Digest

Budite korak ispred uz stručne uvide, trendove u djelatnosti i istraživanja sigurnosti u ovom dvomjesečnom serijalu e-pošte.

Pratite Microsoft Security