This is the Trace Id: b19367c539fecb8d2facde5c39bc3e81
Преминаване към основното съдържание

Присъединете се към сесията на RSAC на 24 март, предназначена за висши ръководители: „AI агентите са тук!“ Готови ли сте?

Регистрирайте се сега

Ръководство на Microsoft за защита на предприятие с подкрепа на ИИ

фоново изображение

Първи стъпки с приложенията с ИИ

Изкуственият интелект (ИИ) трансформира бизнес операциите, отключвайки иновации, като същевременно въвежда нови рискове. От „сенчест“ ИИ (инструменти на потребителско ниво, прилагани без надзор) до атаките с инжектиране на подкани и развиващите се регулации като законодателния акт на ЕС за ИИ – организациите трябва да се справят с тези предизвикателства, за да използват ИИ защитено.

Това ръководство обхваща рисковете, свързани с ИИ: изтичане на данни, нововъзникващи заплахи и предизвикателства за съответствие, заедно с уникалните рискове на агентния ИИ. То също така предоставя насоки и практически стъпки за предприемане на действия на базата на Рамката за приемане на ИИ. За по-дълбоки прозрения и действия изтеглете ръководството.

ИИ променя играта – но само ако можете да го защитите. Да започваме.

Топ 3 риска в защитата на ИИ


Докато организациите приемат ИИ, ръководителите трябва да се справят с три основни предизвикателства:
  • 80% от лидерите посочват изтичането на данни като основна причина за притеснения. 1
    Инструменти със „сенчест“ ИИ, използвани без одобрение от „Информационни технологии“, могат да изложат чувствителна информация, увеличавайки рисковете от пробив в сигурността.
  • 88% от организациите се притесняват за злонамерени извършители, представляващи заплаха, които манипулират системи с ИИ.2
    Атаките като инжектиране на подкани експлоатират уязвимости в системите с ИИ, подчертавайки необходимостта от проактивна защита.
  • 52% от лидерите изпитват несигурност относно навигирането в регулациите за ИИ.3
    Поддържането на съответствие с рамки като законодателния акт на ЕС за ИИ е от съществено значение за изграждане на доверие и поддържане на темпото за въвеждане на иновации.

Агентен ИИ: основни рискове и как да се справим с тях

Агентният ИИ предлага трансформационен потенциал, но неговата автономия въвежда уникални предизвикателства за защитата, които изискват проактивно управление на рисковете. По-долу са ключовите рискове и стратегии, съобразени с тях:

Халюцинации и непреднамерени резултати

Агентните ИИ системи могат да произвеждат неточни, остарели или несъответстващи резултати, което води до оперативни смущения или лошо вземане на решения.

За да се намалят тези рискове, организациите трябва да внедрят строги процеси за мониторинг, за да преглеждат резултатите, генерирани от ИИ, за точност и съответствие. Редовното обновяване на данните за обучение осигурява съответствие с актуалната информация, докато пътищата за ескалация за сложни случаи активират човешка намеса, когато е необходимо. Човешкият надзор остава съществен за поддържане на надеждност и доверие в операциите, управлявани от ИИ.

Прекомерна зависимост от решения с ИИ

Сляпото доверие в агентните системи с ИИ може да доведе до уязвимости, когато потребителите действат на базата на неправилни резултати, без да ги проверяват.

Организациите трябва да установят правила, изискващи човешки преглед за важни решения, повлияни от ИИ. Обучението на служителите относно ограниченията на ИИ насърчава информирания скептицизъм, намалявайки вероятността от грешки. Комбинирането на прозренията за ИИ с човешко съдействие чрез многослойни процеси на вземане на решения укрепва общата устойчивост и предотвратява прекомерната зависимост.

Нови вектори на атака

Автономията и адаптивността на агентния ЕЕ създават възможности извършителите на кибератаки да експлоатират уязвимости, въвеждайки както оперативни, така и системни рискове.

Оперативните рискове включват манипулиране на системи с ИИ да извършват вредни действия, например неразрешени задачи или опити за фишинг. Организациите могат да смекчат тези рискове, като внедрят надеждни мерки за защита, включително откриване на аномалии в реално време, шифроване и строги контроли на достъпа.
Системни рискове възникват, когато компрометирани агенти нарушават взаимосвързани системи, причинявайки каскадни откази. Безотказни механизми, протоколи за резервиране, както и редовни одити, съобразени с рамки за киберсигурност като NIST, помагат за минимизиране на тези заплахи и укрепване на защитите срещу атаки от противници.

Отговорност и задължения

Агентният ИИ често работи без директен човешки надзор, което повдига сложни въпроси относно отговорността и задълженията в случай на грешки или откази.

Организациите трябва да определят ясни рамки за отговорност, които да специфицират роли и отговорности за резултатите, свързани с ИИ. Прозрачната документация на процесите на вземане на решения с ИИ подпомага идентифицирането на грешки и възлагането на отговорността. Сътрудничеството с правните екипи осигурява съответствие с регулациите, докато приемането на етични стандарти за управление на ИИ изгражда доверие и намалява рисковете за репутацията.

Първи стъпки в поетапния подход

С новите иновации в ИИ, например агентите, организациите трябва да установят солидна основа, основана на принципите на Zero Trust – „никога не се доверявайте, винаги проверявайте“. Този подход помага да се осигури, че всяко взаимодействие е удостоверено, упълномощено и непрекъснато наблюдавано. Докато постигането на Zero Trust отнема време, приемането на поетапна стратегия дава възможност за стабилен напредък и изгражда увереност в защитената интеграция на ИИ.

 

Рамката за приемане на ИИ на Microsoft Рамка на приемане на ИИ се фокусира върху три ключови етапа: управление на ИИ, контрол на ИИ и защита на ИИ.

Като насочат вниманието си към тези области, организациите могат да положат основите за отговорна употреба на ИИ, докато смекчават критичните рискове.

За да успеете, насочете се приоритетно към хората, като обучите служителите да разпознават рисковете от ИИ и да използват одобрени инструменти защитено. Насърчавайте сътрудничеството между екипите за информационни технологии, защитата и бизнеса, за да осигурите единен подход. Насърчавайте прозрачността, като открито комуникирате вашите инициативи за защита на ИИ, за да изградите доверие и да демонстрирате лидерство.

С правилната стратегия, основана на принципите на Zero Trust, можете да смекчите рисковете, да отключите иновации и уверено да навигирате в развиващия се пейзаж на ИИ.

Повече като това

Корицата на книга с надпис „Microsoft Security Strategies for AI Compliance“ и илюстрация на мъж и жена, които разглеждат лаптоп.
5 минути

Ръководство на Microsoft за защита на предприятия, поддържани от ИИ: Стратегии за съответствие с изискванията за ИИ

Мъж гледа таблета в ръката си.
3 минути

Прочетете в блога: повече стойност, по-малък риск: как да внедрите генеративен ИИ в цялата си организация си защитено и отговорно

Бяло контурно изображение на плик с лист хартия и надпис „Ново“ на син фон.

Получете периодичния резюмиран доклад на CISO

Бъдете в крак с експертни анализи, тенденции в отрасъла и проучвания за сигурността с този двумесечен имейл бюлетин.

Следвайте Microsoft Security