This is the Trace Id: 0169c61d854a0a941ae3b825d0c33ade

 

Cyber Pulse: raport zabezpieczeń sztucznej inteligencji

Najnowsze dane telemetryczne i badania firmy Microsoft wskazują, że wiele organizacji wdraża agenty AI. Teraz nadszedł czas, aby liderzy zaimplementowali wgląd, ład i zabezpieczenia.

Wydanie 1: Wprowadzenie

Firmy na czele zmian definiują na nowo sposób wykonywania pracy, gdzie ludzie i agenty działają obok siebie w celu zaspokojenia ludzkiej ambicji. Najnowsze dane firmy Microsoft wskazują, że liczba tych zespołów składających się z ludzi i agentów rośnie oraz są one szeroko wdrażane na całym świecie.

Agenty AI są skalowane szybciej, niż wiele firm jest w stanie dostrzec — ta luka w widoczności stanowi ryzyko biznesowe. Organizacje pilnie potrzebują skutecznego zarządzania i zabezpieczeń, aby bezpiecznie wdrażać agentów, wspierać innowacje i minimalizować ryzyko. Agenty AI, podobnie jak ludzie, wymagają ochrony poprzez wgląd, zarządzanie i silne zabezpieczenia oparte na zasadach Zero Trust. Firmy, które odniosą sukces w kolejnej fazie wdrażania sztucznej inteligencji, to te, które szybko zintegrują zespoły biznesowe, IT, zabezpieczeń i deweloperów, aby uzyskiwać wgląd w transformację związaną ze sztuczną inteligencją, zarządzać nią i zabezpieczać ją.

W całym ekosystemie firmy Microsoft obecnie klienci budują i wdrażają agenty na wszystkich głównych platformach — od Fabric i Foundry po Copilot Studio i Konstruktora agentów — co odzwierciedla szeroko zakrojone przesunięcie ku automatyzacji obsługiwanej przez sztuczną inteligencję w przepływie pracy.

Tworzenie agentów nie ogranicza się do ról technicznych — dziś pracownicy na różnych stanowiskach tworzą agenty i korzystają z nich w codziennej pracy. W rzeczywistości dane firmy Microsoft pokazują, że ponad 80% firm z listy Fortune 500 wdraża aktywne agenty utworzone za pomocą narzędzi niskokodowych/bezkodowych1. Rosnące stosowanie agentów i mnożące się możliwości transformacji sprawiają, że teraz jest odpowiedni moment na wdrożenie podstawowych mechanizmów kontroli.

Podobnie jak w przypadku pracowników, Zero Trust dla agentów oznacza:
 

  • Dostęp z najniższym poziomem uprawnień: przyznaj każdemu użytkownikowi, agentowi AI lub systemowi wyłącznie niezbędne uprawnienia — nic ponad to.

  • Jawna weryfikacja: zawsze potwierdzaj, kto lub co żąda dostępu, używając tożsamości, kondycji urządzenia, lokalizacji i poziomu ryzyka.

  • Zakładaj możliwość wystąpienia naruszenia bezpieczeństwa: projektuj systemy z założeniem, że atakujący przenikną do środka.

Grafika przedstawiająca, że ponad 80% firm z listy Fortune 500 korzysta z aktywnych narzędzi low code, takich jak Ask Copilot

Agenty AI są szybko skalowane — we wszystkich regionach i branżach

Wdrażanie agentów przyspiesza w regionach na całym świecie — od EMEA po Ameryki i Azję2.
 Wykres słupkowy przedstawiający rozkład regionalny: EMEA 42%, Stany Zjednoczone 29%, Azja 19%, Ameryki 10%.
Firma Microsoft obserwuje wzrost liczby agentów w każdej branży. We wdrażaniu agentów przodują usługi finansowe, produkcja i handel detaliczny. Sektor usług finansowych — obejmujący bankowość, rynki kapitałowe i ubezpieczenia — obecnie odzwierciedla około 11% wszystkich aktywnych agentów na świecie2. Produkcja odpowiada za 13% globalnego wykorzystania agentów, co świadczy o szerokim zastosowaniu w fabrykach, łańcuchach dostaw i operacjach związanych z energetyką2. Handel detaliczny odzwierciedla 9%, gdzie agenty są stosowane do poprawy jakości obsługi klienta, zarządzania zapasami i procesów obsługi pierwszego kontaktu2.

Wyzwanie: niektóre agenty są zatwierdzone przez IT — inne działają bez nadzoru. Niektóre z tych agentów są bezpieczne — inne stanowią zagrożenie.
Nakładające się koła ilustrujące rozkład branż: Oprogramowanie i technologie 16%, produkcja 13%, usługi finansowe 11%, handel detaliczny 9%.

Ryzyko podwójnych agentów

Szybkie wdrażanie agentów może wyprzedzać mechanizmy kontroli zabezpieczeń i zgodności, zwiększając ryzyko niezatwierdzonych narzędzi AI. Osoby o złych intencjach mogą wykorzystywać dostęp i uprawnienia agentów, zamieniając ich w niezamierzone „podwójne agenty”. Podobnie jak pracownik będący człowiekiem, agent z nadmiernym dostępem — lub niewłaściwymi instrukcjami — może stać się luką w zabezpieczeniach.

Zagrożenie wykorzystaniem podwójnych agentów, jeśli pozostaną niezarządzane, z niewłaściwymi uprawnieniami lub zmanipulowane przez niezaufane dane wejściowe, to realne ryzyko. Niedawno zespół usługi Defender firmy Microsoft zidentyfikował oszukańczą kampanię, w której wielu przestępców wykorzystało technikę ataku AI nazywaną „zatruwaniem pamięci”, aby zmanipulować pamięć asystentów AI w sposób trwały, cicho kierując przyszłymi odpowiedziami i podważając zaufanie do dokładności systemu.

W niezależnych badaniach na zabezpieczonej platformie testowej przeprowadzonych przez własny zespół AI Red Team firmy Microsoft badacze udokumentowali, jak agenty były wprowadzane w błąd przez zwodnicze elementy interfejsu, takie jak wykonywanie szkodliwych instrukcji osadzonych w codziennej zawartości. Zespół Red Team odkrył również, jak wnioskowanie agentów można subtelnie przekierować poprzez zmanipulowane formułowanie zadania. Te odkrycia podkreślają, jak kluczowe jest, aby przedsiębiorstwa miały pełny wgląd i możliwość zarządzania wszystkimi agentami mającymi styczność z ich przedsiębiorstwem, umożliwiając centralne egzekwowanie mechanizmów kontroli i zarządzanie ryzykiem w zintegrowany sposób.
29 procent pracowników korzysta z niezatwierdzonych agentów AI do realizacji zadań służbowych, wynika z badania przeprowadzonego w 2025 roku
Według raportu Indeks zabezpieczeń danych firmy Microsoft tylko 47% organizacji z różnych branż deklaruje wdrażanie konkretnych mechanizmów kontroli zabezpieczeń GenAI3, co podkreśla szansę dla organizacji na uzyskanie przejrzystego wglądu niezbędnego do bezpiecznego wdrażania sztucznej inteligencji. Co ważniejsze, według międzynarodowego badania ponad 1700 specjalistów ds. bezpieczeństwa danych, zleconego przez firmę Microsoft firmie Hypothesis Group, już 29% pracowników używa niezatwierdzonych agentów AI do wykonywania zadań służbowych4.
Wykres kołowy ilustrujący, że zaledwie 47% organizacji posiada zabezpieczenia dotyczące korzystania z generatywnej sztucznej inteligencji.

Ilu liderów wraz z przyspieszaniem wdrażania dostrzega ukryte ryzyko? Ilu liderów ma wgląd w swoją populację agentów? Nadzorowane lub niekontrolowane agenty AI mogą potęgować ryzyka w przedsiębiorstwie — zagrażając bezpieczeństwu, ciągłości działania i reputacji, co bezpośrednio obciąża CISO oraz zarząd. Jest to istota dylematu związanego z ryzykiem cybernetycznym. Agenty AI wprowadzają nowe możliwości do środowiska pracy i stają się integralną częścią operacji wewnętrznych. Jednak ryzykowne zachowania agenta mogą nasilać wewnętrzne zagrożenia i generować nowe scenariusze awarii dla organizacji, które nie są przygotowane na radzenie sobie z nimi.

 

Podwójna natura sztucznej inteligencji stała się faktem: wyjątkowa innowacja idzie w parze z bezprecedensowymi ryzykami.

Maksymalne wykorzystywanie potencjału agentów AI

Pionierskie firmy używają fali AI do modernizowania zarządzania, ograniczania niepotrzebnej ekspozycji danych oraz wdrażania mechanizmów kontroli na poziomie całego przedsiębiorstwa. Łączą to ze zmianą kulturową: liderzy biznesowi mogą odpowiadać za strategię dotyczącą sztucznej inteligencji, ale zespoły IT i ds. zabezpieczeń stają się teraz prawdziwymi partnerami w zakresie wglądu, ładu i bezpiecznego eksperymentowania. Dla tych organizacji zabezpieczanie agentów to nie ograniczenie, ale przewaga konkurencyjna oparta na traktowaniu agentów AI jak ludzi i stosowaniu tych samych zasad Zero Trust.

Wszystko zaczyna się od wglądu — nie można chronić tego, czego nie widać, ani zarządzać tym, czego się nie rozumie. Wgląd to posiadanie centralnej płaszczyzny sterowania obejmującej wszystkie warstwy organizacji (IT, zabezpieczenia, deweloperzy i zespoły AI), która pozwala zrozumieć:

  • Jakie agenty istnieją
     

  • Kto jest ich właścicielem
     

  • Do których systemów i danych mają dostęp
     

  • Jak się zachowują


 

Wgląd obejmuje pięć kluczowych obszarów:

  • Centralny rejestr stanowi jedno źródło prawdziwych informacji dla wszystkich agentów w całej organizacji — zatwierdzonych, innych firm oraz pojawiających się agentów niezatwierdzonych. Taka inwentaryzacja pomaga zapobiec rozrostowi agentów, umożliwia przypisanie odpowiedzialności i obsługuje ich odnajdywanie, jednocześnie pozwalając na ograniczanie lub poddawanie kwarantannie niezatwierdzonych agentów w razie potrzeby.
  • Każdy agent jest zarządzany za pomocą tych samych mechanizmów kontroli dostępu opartych na tożsamości i zasadach, które stosuje się wobec użytkowników i aplikacji. Uprawnienia na zasadzie najmniejszych uprawnień, konsekwentnie egzekwowane, gwarantują agentom dostęp wyłącznie do danych, systemów i przepływów pracy niezbędnych do realizacji ich zadań — ni mniej, ni więcej.
  • Telemetria i pulpity nawigacyjne w czasie rzeczywistym dostarczają wglądu w sposób interakcji agentów z ludźmi, danymi i systemami. Liderzy mogą śledzić, gdzie działają agenty, rozumieć ich zależności oraz monitorować zachowanie i wpływ — co pozwala szybciej wykrywać nadużycia, dryf danych lub pojawiające się ryzyko.
  • Agenty funkcjonują na platformach firmy Microsoft, w otwartych strukturach i ekosystemach innych firm, działając w ramach spójnego modelu zarządzania. Ta interoperacyjność umożliwia agentom współpracę z ludźmi i innymi agentami w ramach przepływów pracy, przy czym nadal są one zarządzane w ramach tych samych mechanizmów kontroli przedsiębiorstwa.
  • Wbudowane zabezpieczenia chronią agenty przed wewnętrznym nadużyciem oraz zewnętrznymi zagrożeniami. Sygnały dotyczące zabezpieczeń, egzekwowanie zasad i zintegrowane narzędzia pomagają organizacjom wcześnie wykrywać zagrożone lub niezgodne agenty i szybko reagować, zanim problemy przerodzą się w szkody biznesowe, regulacyjne lub wizerunkowe.

Eliminowanie luki: lista kontrolna zabezpieczeń i zarządzania AI

Droga do ograniczenia czynników ryzyka związanych ze sztuczną inteligencją jest jasna: traktuj agenty AI z taką samą surowością jak każdego pracownika lub konto usługi oprogramowania. Oto siedem kluczowych punktów do Twojej listy kontrolnej.
  • Dokumentuj cel każdego agenta i przyznawaj mu dostęp wyłącznie do potrzebnych zasobów. Nie nadawaj szerokich uprawnień.
  • Stosuj reguły ochrony danych do kanałów sztucznej inteligencji. Utrzymuj dzienniki inspekcji i oznaczaj zawartość wygenerowaną przez AI.
  • Zapewnij bezpieczne alternatywy, aby ograniczyć korzystanie z niezatwierdzonych narzędzi AI. Blokuj nieautoryzowane aplikacje.
  • Aktualizuj plany ciągłości działania, uwzględniając scenariusze związane ze sztuczną inteligencją. Przeprowadzaj ćwiczenia symulacyjne i monitoruj wskaźniki wglądu na płaszczyznach tożsamości, danych i zagrożeń.
  • Już teraz zbuduj ład i samoregulację sztucznej inteligencji — dokumentuj dane treningowe, oceniaj odchylenia i ustanawiaj nadzór ludzki w obszarach prawnych, danych i zabezpieczeń, aby zgodność z przepisami była częścią integralną, a nie dodatkiem.
  • Podnieś zarządzanie ryzykiem AI do poziomu całego przedsiębiorstwa — ustanów odpowiedzialność kierownictwa, mierzalne wskaźniki KPI oraz widoczność na poziomie zarządu, obok ryzyka finansowego i operacyjnego.
  • Przeprowadź szkolenie pracowników w zakresie bezpiecznego korzystania ze sztucznej inteligencji. Zachęcaj do przejrzystości i współpracy.

Organizacje, które odniosą sukces z agentami AI, to te, które nadają priorytet wglądowi, ładowi i zabezpieczeniom. Osiągnięcie tego wymaga współpracy wszystkich zespołów oraz wglądu w agenty AI na wszystkich poziomach organizacji: specjalistów IT, zespołów ds. zabezpieczeń, zespołów AI i deweloperów — wszyscy mogą być zarządzani i monitorowani za pomocą ujednoliconej, centralnej platformy sterowania.

Agent 365 to ujednolicona płaszczyzna sterowania firmy Microsoft do zarządzania agentami AI w całej organizacji. Udostępnia scentralizowany system klasy korporacyjnej do rejestrowania, zabezpieczania i monitorowania agentów AI oraz do zarządzania i operowania nimi — niezależnie od tego, czy są oparte na platformach Microsoft, strukturach open-source czy systemach innych firm. Więcej informacji o produktach i usługach firmy Microsoft wspomagających zabezpieczanie AI i agentów znajdziesz tutaj.
Karty zasobów rozwiązań zabezpieczających firmy Microsoft prezentujące przewodniki dotyczące aplikacji AI, ładu AI oraz zgodności AI na niebieskim tle
Przewodniki dotyczące zabezpieczania sztucznej inteligencji

Przewodnik firmy Microsoft po zabezpieczaniu przedsiębiorstwa obsługiwanego przez sztuczną inteligencję

Uzyskaj wskazówki, które pomogą zbudować solidne fundamenty dla sztucznej inteligencji, w tym dotyczące sposobu zarządzania aplikacjami AI i zabezpieczania ich oraz ułatwiające utrzymywanie zgodności z przepisami.

Więcej zasobów

Osoba pracująca na laptopie przy biurku we wspólnej przestrzeni biurowej, jednocześnie sprawdzająca informacje na smartfonie

Indeks zabezpieczeń danych firmy Microsoft

Uzyskaj szczegółowe informacje o tym, jak generatywna AI przekształca zabezpieczenia danych.
Osoba prowadząca stojąca na scenie z napisami na ekranie dotyczącymi zrozumienia czynników ryzyka, stosowania odpowiednich funkcji kontroli do mierzenia i monitorowania

Zwiększanie możliwości dzięki zaufanej sztucznej inteligencji

Posłuchaj liderów firmy Microsoft, którzy przekazują praktyczne sposoby na budowanie zaufania na każdym etapie podróży ku wdrożeniu AI.
Niebiesko-biała ikona przedstawiająca dokument w kopercie z napisem New.

Uzyskaj CISO Digest

Bądź na bieżąco dzięki fachowym analizom, trendom branżowym i badaniom dotyczącym bezpieczeństwa dostępnym w tej publikowanej co dwa miesiące serii wiadomości e-mail.
  1. 1.
    Na podstawie własnych danych telemetrycznych firmy Microsoft mierzących agenty utworzone za pomocą narzędzia Microsoft Copilot Studio lub Konstruktor agentów Microsoft, które były używane w ostatnich 28 dniach listopada 2025 r.
  2. 2.
    Branżowe i regionalne metryki agentów zostały utworzone przy użyciu własnych danych telemetrycznych firmy Microsoft mierzących agenty utworzone za pomocą narzędzia Microsoft Copilot Studio lub Konstruktor agentów Microsoft, które były używane w ostatnich 28 dniach listopada 2025 r.
  3. 3.
    Wielonarodowa ankieta z lipca 2025 r. przeprowadzona wśród ponad 1700 specjalistów ds. zabezpieczeń danych, zlecona przez firmę Microsoft firmie Hypothesis Group
  4. 4.

    Indeks zabezpieczeń danych firmy Microsoft na rok 2026: Łączenie ochrony danych z innowacjami AI, Rozwiązania zabezpieczające firmy Microsoft, 2026

     

    Metodologia:

     

    Branżowe i regionalne metryki agentów zostały utworzone przy użyciu własnych danych telemetrycznych firmy Microsoft mierzących agenty utworzone za pomocą narzędzia Microsoft Copilot Studio lub Konstruktor agentów Microsoft, które były używane w ubiegłych 28 dniach listopada 2025 r.

     

    Indeks zabezpieczeń danych firmy Microsoft na rok 2026:

     

    25-minutowa, wielonarodowa ankieta online została przeprowadzona między 16 lipca a 11 sierpnia 2025 r. wśród 1725 liderów ds. zabezpieczeń danych.

     

    Pytania dotyczyły krajobrazu zabezpieczeń danych, incydentów związanych z zabezpieczeniami danych, zabezpieczania korzystania z GenAI przez pracowników oraz wykorzystania GenAI w programach zabezpieczeń danych w celu wyróżnienia porównań z rokiem 2024.

     

    Godzinne, szczegółowe wywiady przeprowadzono z 10 liderami ds. zabezpieczeń danych w Stanach Zjednoczonych i Wielkiej Brytanii, aby poznać ich podejście do zabezpieczeń danych w ich organizacjach.

     

    Definicje:

     

    Aktywne agenty to takie, które 1) zostały wdrożone do produkcji oraz 2) wykazały „rzeczywistą aktywność” w ciągu ostatnich 28 dni.

     

    „Rzeczywista aktywność” oznacza co najmniej 1 interakcję z użytkownikiem (agenty pomocnicze) LUB co najmniej 1 autonomiczne uruchomienie (agenty autonomiczne).

Obserwuj rozwiązania zabezpieczające firmy Microsoft