This is the Trace Id: d60c2d6024476e50e64de0f4d0af3e85
Перейти до основного
Захисний комплекс Microsoft

Приєднуйтеся до панельної дискусії для керівників на конференції RSAC 24 березня: "Агенти ШІ серед нас! Ви готові?".

Зареєструватися

Посібник Microsoft із захисту підприємств, які використовують штучний інтелект

background-img

Початок роботи з програмами на основі штучного інтелекту

Штучний інтелект (ШІ) трансформує бізнес-операції, відкриваючи шлях для впровадження інновацій і водночас створюючи нові ризики. Враховуючи наявність тіньових ШІ-ресурсів (інструментів споживчого рівня, що застосовуються без нагляду), атаки з введенням підказок, а також постійний розвиток нормативних документів, як-от Закон ЄС про штучний інтелект, організаціям доводиться вирішувати ці проблеми, щоб безпечно використовувати штучний інтелект.

У цьому посібнику розглядаються ризики, пов’язані з використанням штучного інтелекту: витік даних, нові загрози й проблеми з дотриманням вимог, а також унікальні ризики використання агентів на основі ШІ. Він також містить рекомендації та практичні кроки, які слід виконати на основі Системи стандартів запровадження штучного інтелекту. Для глибшого розуміння та виконання практичних кроків завантажте посібник.

Штучний інтелект змінює правила гри, але лише якщо ви зможете гарантувати його безпеку. Отже, почнімо.

3 головні ризики, пов’язані з безпекою використання ШІ


Оскільки організації впроваджують штучний інтелект, керівникам потрібно вирішити три основні проблеми:
  • 80% керівників називають витік даних головною проблемою. 1
    Тіньові ресурси-ШІ, що застосовуються без схвалення ІТ-фахівцями, можуть розкривати конфіденційну інформацію, збільшуючи ризики порушення вимог безпеки.
  • 88% організацій стурбовані тим, що зловмисники маніпулюють системами на основі ШІ.2
    Такі атаки, як введення підказок, використовують вразливості в системах на основі ШІ, що підкреслює необхідність запровадження упереджувального захисту.
  • 52% керівників визнають невпевненість у дотриманні вимог нормативних документів щодо використання штучного інтелекту.3
    Відповідність вимогам таких нормативних актів, як Закон ЄС про штучний інтелект, є важливим для зміцнення довіри й підтримки інноваційних ініціатив.

Агенти на основі ШІ: основні ризики й способи їх усунення

Агент на основі ШІ пропонує потенціал трансформації, але його автономія створює унікальні проблеми безпеки, які вимагають випереджувального керування ризиками. Нижче наведено основні ризики й стратегії, розроблені для їх усунення:

Ілюзії та непередбачувані результати

Системи агентів на основі ШІ можуть видавати неточні, застарілі чи неузгоджені результати, що призводить до операційних збоїв або ухвалення неефективних рішень.

Щоб зменшити ці ризики, організаціям потрібно впроваджувати процеси ретельного моніторингу для перевірки правильності та відповідності результатів, згенерованих штучним інтелектом. Регулярне оновлення навчальних даних забезпечує відповідність поточній інформації, а шляхи делегування в разі складних ситуацій дають змогу втручатися людині, коли це необхідно. Нагляд людини залишається важливим для забезпечення надійності та довіри до операцій на основі ШІ.

Надмірна довіра до рішень ШІ

Сліпа довіра до систем агентів на основі ШІ може призвести до вразливостей, коли користувачі діють, покладаючись на помилкові й неперевірені результати.

Організаціям слід запровадити політики, що вимагають перевірки людиною важливих рішень, на які впливає штучний інтелект. Навчання працівників обмежувати використання штучного інтелекту сприяє обґрунтованому скептицизму, зменшуючи ймовірність помилок. Поєднання аналітики штучного інтелекту з людським судженням через багаторівневі процеси ухвалення рішень зміцнює загальну стійкість і запобігає надмірній залежності.

Нові вектори атак

Автономність та адаптивність агентів на основі ШІ дають можливість зловмисникам використовувати вразливості, створюючи як операційні, так і системні ризики.

Операційні ризики: маніпулювання системами на основі ШІ для виконання шкідливих дій, як-от несанкціоновані завдання або спроби фішингу. Організації можуть зменшити ці ризики, упроваджуючи надійні заходи безпеки, зокрема виявлення аномалій у режимі реального часу, шифрування та суворий контроль доступу.
Системні ризики виникають, коли вражені агенти порушують роботу взаємопов’язаних систем, спричиняючи каскадні пошкодження. Відмовобезпечні механізми, протоколи резервування та регулярні аудити, узгоджені з такими системами стандартів кібербезпеки, як NIST, допомагають мінімізувати ці загрози й посилити захист від "змагальних атак".

Підзвітність і відповідальність

Агенти на основі ШІ часто працюють без прямого людського нагляду, що викликає складні питання щодо підзвітності та відповідальності за помилки чи несправності.

Організаціям слід установити чіткі рамки підзвітності, які визначатимуть ролі та відповідальність за результати, пов’язані з використанням штучного інтелекту. Прозора документація процесів ухвалення рішень на основі ШІ сприяє виявленню помилок і визначенню відповідальності. Співпраця з юристами забезпечує відповідність вимогам нормативних актів, а впровадження стандартів етики для системи керування штучним інтелектом зміцнює довіру й зменшує репутаційні ризики.

Почніть з поетапного підходу

Працюючи з такими новими інноваціями на основі ШІ, як агенти, організаціям слід створити міцний фундамент, заснований на принципах нульової довіри – "ніколи не довіряй, завжди перевіряй". Такий підхід допомагає забезпечити автентифікацію, авторизацію та постійний контроль кожної взаємодії. Хоча досягнення нульової довіри потребує часу, запровадження стратегії поетапного підходу забезпечує стабільний прогрес і зміцнює впевненість у безпечній інтеграції штучного інтелекту.

 

Система стандартів запровадження ШІ корпорації Майкрософт базується на трьох основних етапах: регулювання, керування та захист.

Звертаючи увагу на ці області, організації можуть закласти фундамент для відповідального використання ШІ, одночасно зменшуючи критичні ризики.

Щоб досягти успіху, надавайте пріоритет людям, навчаючи працівників розпізнавати ризики, пов’язані зі штучним інтелектом, і безпечно використовувати затверджені інструменти. Посильте співпрацю між ІТ-фахівцями, командами відділу забезпечення захисту й комерційного відділу, щоб гарантувати застосування єдиного підходу. Забезпечте прозорість, відкрито повідомляючи про свої ініціативи щодо безпеки використання ШІ, щоб зміцнити довіру й продемонструвати лідерство.

Завдяки правильній стратегії, що ґрунтується на принципах нульової довіри, ви можете зменшити ризики, надати можливість упроваджувати інновації та впевнено орієнтуватися в умовах мінливого середовища штучного інтелекту.

Більше схожих матеріалів

Обкладинка книги з написом англійською Microsoft Security Strategies for AI Compliance (Стратегії Захисного комплексу Microsoft для забезпечення відповідності ШІ вимогам) та ілюстрація чоловіка і жінки, які дивляться на екран ноутбука.
5 хвилин

Посібник Microsoft із захисту підприємств, які використовують штучний інтелект: стратегії дотримання вимог щодо ШІ

Чоловік, який дивиться на планшет у руці.
3 хвилини

Більше користі, менше ризиків: як безпечно й відповідально впровадити генеративний ШІ в організації

Малюнок білими лініями, що зображує листок у конверті з написом "New" (нове) на синьому фоні.

Отримати дайджест для керівників відділу ІТ-безпеки

Отримуючи електронні листи раз на два місяці, ви зможете випереджати зловмисників за допомогою аналітичних висновків від фахівців, відомостей про галузеві тенденції та даних досліджень у сфері кібербезпеки.

Підпишіться на новини про Захисний комплекс Microsoft