This is the Trace Id: 69e52e8e2b3995cf5226b5cd7a3193ad

Pridružite se sesiji izvršnog odbora za RSAC 24. marta „AI agenti su stigli! Da li ste spremni?“.

Registrujte se odmah

Microsoft vodič za obezbeđivanje preduzeća koja koriste veštačku inteligenciju

pozadinska-slika

Prvi koraci u radu sa AI aplikacijama

Veštačka inteligencija (AI) transformiše poslovne operacije, omogućavajući inovacije dok istovremeno uvodi nove rizike. Od AI-ja u senci (usvajanja potrošačkih alatki bez nadzora) do napada preko upita – i regulativa koje se razvijaju, poput EU Akta o veštačkoj inteligenciji – organizacije moraju da prevaziđu ove izazove kako bi bezbedno koristile veštačku inteligenciju.

Ovaj vodič pokriva rizike vezane za veštačku inteligenciju: curenje podataka, nove pretnje i izazove usaglašenosti, kao i jedinstvene rizike agentskog AI-ja. Takođe nudi uputstva i praktične korake na osnovu Radnog okvira za usvajanje veštačke inteligencije. Za dublje uvide i korake koje možete preduzeti, preuzmite vodič.

Veštačka inteligencija potpuno menja pravila igre – ali samo ako možete da je obezbedite. Krenimo.

3 najveća rizika za bezbednost veštačke inteligencije


Kako organizacije sve više prihvataju veštačku inteligenciju, rukovodioci moraju da prevaziđu tri ključna izazova:
  • 80% rukovodilaca tvrde da im je curenje podataka među glavnim brigama. 1
    AI alatke u senci – kada se koriste bez odobrenja informatičkog odeljenja – mogu da otkriju osetljive informacije, što povećava rizik od proboja.
  • 88% organizacija brine o zlonamernim akterima koji manipulišu AI sistemima.2
    Napadi poput unosa upita zloupotrebljavaju ranjivosti sistema veštačke inteligencije, naglašavajući potrebu za proaktivnim odbranama.
  • 52% rukovodilaca priznaje nesigurnost u navigaciji propisa o veštačkoj inteligenciji.3
    Održavanje usaglašenosti sa pravnim okvirima poput EU Akta o veštačkoj inteligenciji nužno je za negovanje poverenja i održavanje inovativnosti.

Agentska veštačka inteligencija: Ključni rizici i kako ih rešiti

Agentski AI nudi potencijal za transformaciju, ali njegova autonomija uvodi jedinstvene bezbednosne izazove koji zahtevaju proaktivno upravljanje rizikom. Dole su navedeni ključni rizici i strategije osmišljene kako bi se oni adresirali:

Halucinacije i neželjen izlazni materijal

Agentski AI sistemi mogu da proizvedu neprecizne, zastarele ili neusaglašene izlaze, što dovodi do operativnih prekida ili loših odluka.

Kako bi umanjile ove rizike, organizacije treba da uvedu rigorozne procese nadgledanja kako bi kontrolisale AI-generisani materijal radi tačnosti i relevantnosti. Redovno ažuriranje podataka za obuku obezbeđuje poravnanje sa trenutnim informacijama, dok putanje eskalacije za kompleksne slučajeve omogućavaju ljudsku intervenciju onda kada je ona neophodna. Ljudski nadzor ostaje neophodan radi održanja pouzdanosti i poverenja u operacije koje koriste veštačku inteligenciju.

Preterano oslanjanje na odluke veštačke inteligencije

Slepo verovanje u agentske AI sisteme može da dovede do ranjivosti onda kada korisnici koriste faličan izlazni materijal bez provere valjanosti.

Organizacije treba da uspostave smernice koje zahtevaju ljudski pregled za odluke od visokog značaja na koje utiče AI. Obuka zaposlenih o ograničenjima veštačke inteligencije neguje informisani skepticizam, što smanjuje mogućnost grešaka. Kombinovanje uvida veštačke inteligencije sa ljudskom presudom kroz slojevite procese donošenja odluka ojačava opštu izdržljivost i sprečava preteranu zavisnost.

Novi vektori napada

Autonomija i prilagodljivost agentskog AI-ja stvara mogućnosti za napadače da iskoriste ranjivosti, što uvodi operativne i sistemske rizike.

Operativni rizici uključuju manipulaciju AI sistema tako da čine štetne radnje, kao što su nedozvoljeni zadaci ili pokušaji phishing-a. Organizacije mogu da umanje ove rizike tako što će uvesti snažne mere bezbednosti, uključujući otkrivanje anomalija u realnom vremenu, enkripciju i strogu kontrolu pristupa.
Sistemski rizici nastaju kada ugroženi agenti ometaju međupovezane sisteme, što izaziva kaskadu grešaka. Mehanizmi bezbedni od grešaka, protokoli za redundanciju i redovna ispitavanja – usklađeni sa okvirima za kibernetičku bezbednost kao što je NIST – pomažu u umanjenju ovih pretnji i jačanju odbrana protiv neprijateljskih napada.

Odgovornost i nadležnost

Agentski AI često operiše bez direktnog ljudskog nadzora, što izaziva složena pitanja o odgovornosti i nadležnosti za greške i neuspehe.

Organizacije treba da definišu jasne okvire odgovornosti koji konkretizuju uloge i odgovornosti za ishode vezane za veštačku inteligenciju. Transparentna dokumentacija procesa pravljenja odluka pomoću veštačke inteligencije podržava identifikaciju grešaka i dodelu nadležnosti. Saradnja sa pravnim timovima osigurava usaglašenost sa regulativama, dok usvajanje etičkih standarda za AI upravljanje ojačava poverenje i smanjuje rizike po reputaciju.

Napravite prve korake kroz postupan pristup

Uz nove AI inovacije poput agenata, organizacije moraju da uspostave snažnu osnovu zasnovanu na principima Nulte pouzdanosti – „nikad ne veruj, uvek proveri“. Ovaj pristup pomaže pri garantovanju da je svaka interakcija proverena, dozvoljena i kontinuirano nadgledana. Iako je potrebno vreme da bi se dostigla Nulta pouzdanost, usvajanje postupne strategije omogućava konstantan napredak i jača osećaj pouzdanja u bezbednu integraciju veštačke inteligencije.

 

Radni okvir za usvajanje veštačke inteligencije korporacije Microsoft fokusira se na tri ključne faze: Upravljanje, kontrola i obezbeđenje veštačke inteligencije.

Adresirajući ove oblasti, organizacije mogu da uspostave temelj za odgovorno korišćenje veštačke inteligencije dok umanjuju ključne rizike.

Da biste uspeli, prioritizujte ljude tako što ćete obučiti zaposlene da prepoznaju rizike veštačke inteligencije i bezbedno koriste odobrene alatke. Pospešite saradnju između timova za IT, bezbednost i poslovanje, kako biste osigurali jedinstven pristup. Promovišite transparentnost tako što ćete otvoreno komunicirati o svojim inicijativama za AI bezbednost, kako biste izgradili poverenje i demonstrirali liderstvo.

Uz ispravnu strategiju zasnovanu na principima nulte pouzdanosti, možete da umanjite rizike, otključate inovacije i pouzdano se krećete kroz promenljivo okruženje veštačke inteligencije.

Više sličnih sadržaja

Korica knjige sa naslovom „Strategije Microsoft bezbednosti za usaglašenost sa AI propisima“, uz ilustraciju muškarca i žene koji gledaju u laptop.
5 minuta

Microsoft vodič za zaštitu preduzeća koja koriste AI: Strategije za usaglašenost sa AI propisima

Muškarac koji gleda u tablet u svojoj ruci.
3 minuta

Više vrednosti, manji rizik: Kako bezbedno i odgovorno primeniti generativnu veštačku inteligenciju u celoj organizaciji

Beli linijski crtež papira u koverti sa natpisom „Novo“ na plavoj pozadini.

Preuzmite CISO Digest

Budite u toku sa stručnim uvidima, trendovima u sektoru i istraživanjima bezbednosti u ovom serijalu e-poruka, dva puta mesečno.

Pratite Microsoft bezbednost