This is the Trace Id: 6f5d508d042bc506a09e215dc7159694

Dołącz do sesji panelu wykonawczego RSAC 24 marca: „Agenci AI już z nami! Czy Twoja firma jest gotowa?”

Zarejestruj się teraz

Przewodnik firmy Microsoft po zabezpieczaniu przedsiębiorstwa obsługiwanego przez sztuczną inteligencję

background-img

Wprowadzenie do aplikacji sztucznej inteligencji

Sztuczna inteligencja (AI) przekształca działania operacyjne firm, odblokowuje innowacje, a zarazem wprowadza nowe zagrożenia. Aby bezpiecznie korzystać ze sztucznej inteligencji, organizacje muszą sprostać szeregowi wyzwań, od niezatwierdzonych narzędzi AI (narzędzi klasy konsumenckiej wdrożonych bez nadzoru) po ataki polegające na wstrzyknięciu poleceń — i pojawiające się przepisy, takie jak Rozporządzenie UE o Sztucznej Inteligencji.

W tym przewodniku omówiono czynniki ryzyka skojarzone ze sztuczną inteligencją: wyciek danych, pojawiające się zagrożenia oraz wyzwania związane z zapewnieniem zgodności z przepisami wraz z unikatowymi ryzykami agentycznej sztucznej inteligencji. Zawiera on także wskazówki i praktyczne kroki do podjęcia na podstawie struktury wdrażania sztucznej inteligencji. Aby uzyskać bardziej szczegółowe informacje i praktyczne kroki, pobierz przewodnik.

Sztuczna inteligencja to przełomowe rozwiązanie — ale tylko pod warunkiem, że możesz ją zabezpieczyć. Zaczynajmy.

3 najważniejsze czynniki ryzyka w zabezpieczeniach sztucznej inteligencji


Gdy organizacje wdrażają sztuczną inteligencję, liderzy muszą sprostać trzem najważniejszym wyzwaniom:
  • 80% liderów wskazuje wyciek danych jako największą obawę. 1
    Niezatwierdzone narzędzia AI — używane bez zatwierdzenia działu IT — mogą ujawnić poufne informacje, co zwiększa ryzyko naruszenia zabezpieczeń.
  • 88% organizacji obawia się, że osoby o złych intencjach będą manipulować systemami sztucznej inteligencji2.
    Ataki, takie jak wstrzyknięcia poleceń, wykorzystują luki w zabezpieczeniach systemów sztucznej inteligencji, co uwydatnia potrzebę proaktywnych środków obrony.
  • 52% liderów przyznaje się do niepewności w zakresie poruszania się po przepisach dotyczących sztucznej inteligencji3.
    Zapewnienie zgodności ze strukturami, takimi jak Rozporządzenie UE o Sztucznej Inteligencji, jest niezbędne do budowania zaufania i utrzymywania tempa wprowadzania innowacji.

Agentyczna AI: najważniejsze czynniki ryzyka i sposoby radzenia sobie z nimi

Agentyczna sztuczna inteligencja ma potencjał w zakresie transformacji, ale jej autonomiczność stwarza unikatowe zagrożenia dla bezpieczeństwa wymagające proaktywnego zarządzania ryzykiem. Poniżej wymieniono najważniejsze czynniki ryzyka i strategie opracowane w celu ich minimalizowania:

Halucynacje i niezamierzone wyniki

Systemy agentycznej sztucznej inteligencji mogą wytwarzać niedokładne, przestarzałe lub niedopasowane dane wyjściowe, co prowadzi do zakłóceń operacyjnych lub podejmowania niewłaściwych decyzji.

Aby złagodzić te czynniki ryzyka, organizacje powinny zaimplementować rygorystyczne procesy monitorowania do przeglądania wyników wygenerowanych przez AI pod kątem dokładności i istotności. Regularne aktualizowanie danych szkoleniowych zapewnia dopasowanie do bieżących informacji, a ścieżki eskalacji w skomplikowanych przypadkach umożliwiają ludzką interwencję w razie potrzeby. Nadzorowanie przez człowieka pozostaje niezbędne do utrzymywania niezawodności i zaufania w działaniach operacyjnych opartych na sztucznej inteligencji.

Nadmierne poleganie na decyzjach sztucznej inteligencji

Bezgraniczne zaufanie do systemów agentycznej sztucznej inteligencji może doprowadzić do powstania luk w zabezpieczeniach, gdy użytkownicy będą podejmować działania na podstawie wadliwych danych wyjściowych bez sprawdzania ich poprawności.

Organizacje powinny ustanowić zasady wymagające weryfikacji ręcznej w przypadku decyzji o dużym znaczeniu, na które wpływa sztuczna inteligencja. Przeszkolenie pracowników z ograniczeń sztucznej inteligencji propaguje świadomy sceptycyzm, ograniczając prawdopodobieństwo wystąpienia błędów. Połączenie analiz sztucznej inteligencji z oceną przez człowieka w ramach warstwowego procesu podejmowania decyzji wzmacnia ogólną odporność i zapobiega nadmiernemu poleganiu na nich.

Nowe wektory ataku

Autonomia i możliwość dostosowywania agentycznej sztucznej inteligencji stwarza dla atakujących szanse na wykorzystanie luk w zabezpieczeniach, powodując powstawanie zarówno operacyjnych, jak i systemowych czynników ryzyka.

Ryzyka operacyjne obejmują manipulowanie systemami sztucznej inteligencji w celu wykonywania szkodliwych działań, takich jak nieautoryzowane zadania lub próby wyłudzania informacji. Organizacje mogą złagodzić te ryzyka, wdrażając niezawodne środki bezpieczeństwa, w tym wykrywanie anomalii w czasie rzeczywistym, szyfrowanie i rygorystyczne mechanizmy kontroli dostępu.
Ryzyka systemowe powstają, gdy agenci z naruszonymi zabezpieczeniami zakłócają działanie połączonych ze sobą systemów, powodując kaskadowe niepowodzenia. Mechanizmy zabezpieczające, protokoły nadmiarowości i regularne audyty — dopasowane do struktur cyberbezpieczeństwa, takich jak NIST — ułatwiają minimalizowanie tych zagrożeń i wzmacnianie obrony przed atakami.

Wiarygodność i odpowiedzialność

Agentyczna sztuczna inteligencja często działa bez bezpośredniego nadzoru człowieka, co wzbudza złożone wątpliwości dotyczące wiarygodności i odpowiedzialności za błędy lub niepowodzenia.

Organizacje powinny zdefiniować jasne schematy wiarygodności, w których są wyszczególnione role i odpowiedzialności za wyniki związane ze sztuczną inteligencją. Przejrzysta dokumentacja procesów podejmowania decyzji z użyciem sztucznej inteligencji ułatwia identyfikowanie błędów i przypisywanie odpowiedzialności. Współpraca z zespołami działów prawnych zapewnia zgodność z przepisami, natomiast wdrażanie standardów etycznych w zakresie ładu w sztucznej inteligencji buduje zaufanie i zmniejsza ryzyko dla reputacji.

Wprowadzenie do podejścia etapowego

Wraz z nowymi innowacjami sztucznej inteligencji, takimi jak agenci, organizacje muszą ustanowić solidne fundamenty oparte na zasadach Zero Trust — „nigdy nie ufaj, zawsze weryfikuj”. To podejście pomaga zapewnić, że każda interakcja jest uwierzytelniona, autoryzowana i stale monitorowana. Wprowadzenie modelu Zero Trust wymaga czasu, jednak wdrożenie strategii etapowej umożliwia systematyczne postępy i buduje zaufanie w bezpieczne integrowanie sztucznej inteligencji.

 

Struktura wdrażania sztucznej inteligencji firmy Microsoft opiera się na trzech kluczowych fazach: nadzorowanie AI, zarządzanie AI oraz zabezpieczanie AI.

Podejmując działania w tych obszarach, organizacje mogą położyć fundamenty pod odpowiedzialne korzystanie ze sztucznej inteligencji, jednocześnie łagodząc krytyczne ryzyka.

Aby odnieść sukces, nadaj priorytet ludziom, szkoląc pracowników z rozpoznawania ryzyk związanych ze sztuczną inteligencją i bezpiecznego stosowania zatwierdzonych narzędzi. Sprzyjaj współpracy między zespołami IT, zabezpieczeń i biznesowymi, aby zapewnić ujednolicone podejście. Propaguj jawność, otwarcie informując o inicjatywach dotyczących zabezpieczeń sztucznej inteligencji, aby budować zaufanie i przejawiać przywództwo.

Dzięki odpowiedniej strategii opartej na zasadach Zero Trust możesz złagodzić ryzyko, odblokować innowacyjność i pewnie nawigować po stale zmieniającym się krajobrazie sztucznej inteligencji.

Więcej podobnych materiałów

Okładka książki z napisem Microsoft Security Strategies for AI Compliance obok ilustracji przedstawiającej mężczyznę i kobietę patrzących na laptop.
5 minut

Przewodnik firmy Microsoft dotyczący zabezpieczania przedsiębiorstwa obsługiwanego przez sztuczną inteligencję: strategie zgodności sztucznej inteligencji z przepisami

Mężczyzna patrzący na tablet w swojej dłoni.
3 minuty

Więcej wartości, mniej ryzyka: jak bezpiecznie i odpowiedzialnie wdrożyć generatywną AI w całej organizacji

Naszkicowany białą linią rysunek dokumentu w kopercie z napisem „New” na niebieskim tle.

Uzyskaj CISO Digest

Bądź na bieżąco dzięki fachowym analizom, trendom branżowym i badaniom dotyczącym bezpieczeństwa dostępnym w tej publikowanej co dwa miesiące serii wiadomości e-mail.

Obserwuj rozwiązania zabezpieczające firmy Microsoft