This is the Trace Id: 3c03d1efc5052e041266a487c936cdab

انضم إلى جلسة لجنة التنفيذيين في مؤتمر RSAC بتاريخ 24 مارس بعنوان "وكلاء الذكاء الاصطناعي هنا! هل أنت مستعد؟".

التسجيل الآن

دليل Microsoft لتأمين المؤسسات المدعومة بالذكاء الاصطناعي: إدارة البيانات وأمنها

صورة لرجل يرتدي بدلة يقف أمام خلفية زرقاء.

نظرة عامة

مع تسابق المؤسسات لتبني الذكاء الاصطناعي على نطاق واسع، أصبحت إدارة البيانات وأمان البيانات أكثر ترابطاً مع بعضهما بعضاً كركائز أساسية لمرونة المؤسسة. بالنسبة للشركات الرائدة- وهي الشركات التي تدفع حدود التحول المدفوع بالذكاء الاصطناعي - فإن القدرة على تمكين أنظمة الذكاء الاصطناعي من التفكير في مجموعات البيانات الضخمة تتطلب شراكة غير مسبوقة بين كبار مسؤولي المعلومات (CIOs) وكبار مسؤولي أمان المعلومات (CISOs) ونظرائهم في مجال البيانات. بدون الملكية المشتركة والتنفيذ الموحد، تتزايد المخاطر مثل تسريب البيانات، والإفراط في المشاركة، والاستخدام غير المتوافق للذكاء الاصطناعي بشكل كبير.

يستند هذا الدليل إلى المواضيع السابقة في سلسلة تأمين المؤسسات المدعومة بالذكاء الاصطناعي لمساعدتك في تبني الذكاء الاصطناعي بأمان وتحقيق أقصى استفادة من استثمارك.

فرق الإدارة

بالنسبة لبعض المؤسسات، يُستخدم الذكاء الاصطناعي بوتيرة أسرع من قدرة هياكل الحوكمة التقليدية على مواكبة ذلك. وفقاً لمؤشر أمان البيانات من Microsoft، تقوم نسبة 47% من المؤسسات بالإبلاغ أنها تطبق عناصر التحكم في الأمان المحددة "للذكاء الاصطناعي التوليدي،1 ما يفتح فرصة للمؤسسات للحصول على رؤية واضحة وحاسمة تضمن تبني آمن للذكاء الاصطناعي. والأهم من ذلك، وفقاً لدراسة استقصائية متعددة الجنسيات أجرتها Hypothesis Group، بتكليف من Microsoft، وشملت أكثر من 1700 متخصص في أمن البيانات، فقد لجأ 29% من الموظفين بالفعل إلى استخدام برامج الذكاء الاصطناعي غير المصرح بها لإنجاز مهام العمل.2 ونتيجة لذلك، تواجه المؤسسات تحديات جديدة تتعلق بمعالجة البيانات، ووضوح الأمن، والامتثال، لا سيما عندما تتفاعل أدوات الذكاء الاصطناعي التوليدية مع البيانات الحساسة أو غير المهيكلة.

وفي الوقت نفسه، يستجيب قادة الأعمال: حيث تطبق المزيد من المؤسسات ضوابط متخصصة للذكاء الاصطناعي التوليدي وتسريع الاستثمار في الضمانات التقنية والتشغيلية. الرسالة واضحة، لا يمكن للابتكار في مجال الذكاء الاصطناعي أن يزدهر بدون الحوكمة التي تدعمه وتؤمنه.

نموذج موحد للملكية: التصنيف، والتسمية، والحماية، والإدارة

تتطلب إدارة البيانات الفعالة وضوح المسؤولية بين أدوار مدير المعلومات، ومدير أمان المعلومات، ومدير البيانات، ومدير الخصوصية. ومع ذلك، لا تزال الملكية مجزأة في العديد من المؤسسات. لسد هذه الفجوة، نوصي بنموذج مشترك: التصنيف، والتسمية، والحماية، والإدارة.

يوضح الترابط الإداري أربع مراحل - التصنيف، والوصف، والحماية، والإدارة.
الترابط الإداري

1. التصنيف: إرساء قابلية الملاحظة والملكية

تبدأ رحلة الإدارة بمعرفة ما لديك. يجب على المؤسسات بناء قدرة كاملة على المراقبة عبر البيانات المنظمة وغير المنظمة والبيانات التي يولدها الذكاء الاصطناعي - بما في ذلك القدرة على تتبع عوامل الذكاء الاصطناعي الناشئة. يتطلب التصنيف ما يلي:

  • مخطط واضح وبديهي مرتبط بمخاطر الأعمال
  • مالكو البيانات والمسؤولون عنها المعينون داخل وحدات الأعمال
  • الجرد المستمر المدعوم بجهود الاكتشاف التي يقودها مديرو تقنية المعلومات

يُمهد التصنيف الطريق لكل ما يليه.

2. التسمية: جعل الإدارة قابلة للتنفيذ

حيث يحدد التصنيف النية، فإن وضع العلامات يفرضها. تربط تصنيفات الحساسية النهج بالاستخدام في العالم الحقيقي، ما يُعلم أنظمة الأمان، وضوابط الوصول، وحتى كيفية تفاعل الموظفين البشريين مع مخرجات عامل الذكاء الاصطناعي.

تشمل العناصر الرئيسية ما يلي:

  • نشر التكنولوجيا التي تساعد في فرض وضع العلامات، ما يضمن أن العلامات تُفعّل بشكل فعال نُهج الأمان وتفادي فقدان البيانات (DLP)
  • استراتيجية تصنيف قائمة على المخاطر تعكس تأثيرها على الأعمال
  • تدريب الموظفين الذي يعزز فهم متى وكيف تُوضع التسميات

3. حماية: تفعيل الأمان

الحماية هي المكان الذي تصبح فيه النُهج بمثابة ضوابط وقائية. يتضمن هذا ما يلي:

  • تطبيق النُهج من خلال ضوابط الوصول مثل ضوابط الوصول القائمة على الأدوار (RBAC)، والوصول في الوقت المناسب (JIT)، وتفادي فقدان البيانات (DLP)
  • تشفير البيانات المخزنة والمنقولة
  • مراقبة آلية لرصد الإفراط في مشاركة البيانات وانتهاكات النُهج
  • خطط استجابة منظمة للأحداث تتوافق مع لوائح الخصوصية

تضمن هذه الضوابط حماية البيانات الحساسة، حتى عندما تصل أدوات الذكاء الاصطناعي إليها وتعالج على نطاق واسع.

4. الإدارة: الإشراف على دورة حياة البيانات بالكامل

الإدارة مستمرة. يجب أن تحافظ المؤسسات على ما يلي:

  • نُهج استبقاء البيانات وحذفها متوافقة مع مبادئ التقليل
  • مراقبة مستمرة لانحراف البيانات، وتصنيفها بشكل خاطئ، والحالات غير المألوفة في الوصول إليها
  • إعادة اعتماد ملكية البيانات بشكل آلي
  • رؤية عوامل الذكاء الاصطناعي وإدارتها عبر فرق تكنولوجيا المعلومات والتطوير والأمان

تقلل إدارة دورة حياة البيانات من مساحة الهجوم وتضمن التوافق طويل الأجل بين استخدام البيانات والقيمة التجارية.

الأفق: إدارة قوة عاملة من البشر وعوامل الذكاء الاصطناعي

مع بدء عوامل الذكاء الاصطناعي في تشغيل عمليات سير عمل معقدة بشكل متزايد، يجب أن تتطور الإدارة مرة أخرى. تقدم الشركات الرائدة مفهوم رئيس العوامل- وهو دور جديد يمنح كل موظف مسؤولية عن العمال الرقميين الذين ينشرهم.

يُنشئ هذا التحول مهاماً جديدة للقيادة التكنولوجية:

لأجل مديري المعلومات (CIO):

أنشئ نظاماً بنائياً للذكاء الاصطناعي موحداً حيث يمكن لوحدات الأعمال إنشاء العوامل ونشرها بأمان باستخدام قوالب معتمدة، تحت إدارة مركز التميز في الذكاء الاصطناعي.

لأجل مديري أمان المعلومات (CIO):

يمكنك توسيع نطاق مبدأ الثقة المعدومة ليشمل، بالإضافة إلى المستخدمين البشريين، العوامل المستقلة. يعني هذا ما يلي:
 

  • إنشاء قائمة بجميع العملاء وهوياتهم
  • تطبيق مبدأ أقل الامتيازات بما يتناسب مع وظيفة كل عامل، وتطبيق مبدأ امتيازات الوصول بما يتناسب مع وظيفة كل عامل
  • مراقبة سلوك العوامل وافتراض حدوث خرق أمني خلال تفاعلها مع البيانات الحساسة

إن الاستعداد للمؤسسات المستقلة يعتمد على الجمع بين هذه الضوابط الجديدة والمساءلة البشرية.

أول 180 يوماً: دليل عمل مشترك لمديري تقنية المعلومات ومديري أمان المعلومات

تبدأ الرحلة بخطة طريق منظمة لمساعدة قادة تكنولوجيا المعلومات والأمان في تفعيل إدارة الذكاء الاصطناعي على مستوى المؤسسات:

الأسبوع الأول: التوافق الأساسي
 

  • حدد مخططاً مشتركاً لتصنيف البيانات.
  • يمكنك تحديد الأصول الحيوية ومتطلبات استمرارية العمل.
  • اتفق على معايير إنشاء عوامل الذكاء الاصطناعي والتحقق منها.

أول 90 يوماً: رسم خرائط الاكتشاف والتحكم
 

  • حالات استخدام الذكاء الاصطناعي في إدارة المخزون ومصادر البيانات المرتبطة بها.
  • يمكنك تنفيذ تفادي فقدان البيانات والتحكم بتحليل فروق.
  • أنشئ سجل مخاطر مشتركاً وحدد أولويات حالات الاستخدام التجريبية.

أول 180 يوماً: التنفيذ والتحقق
 

  • انشر التصنيفات والنُهج الجديدة لوحدات الأعمال التجريبية.
  • طبق نظام تفادي فقدان البيانات الآلي في سيناريوهات عالية المخاطر.
  • أنشئ مجلس إدارة شهري لتحسين الضوابط.

تساعد هذه الخطة المؤسسات في تحويل إدارة البيانات من وظيفة توافق إلى محرك استراتيجي للابتكار في مجال الذكاء الاصطناعي.

بناء المؤسسة الجاهزة للذكاء الاصطناعي

تبدأ الرحلة نحو مستقبل مدعوم بالذكاء الاصطناعي بأساس متين ومشترك لإدارة البيانات وأمان البيانات. من خلال مواءمة مسؤوليات مدير المعلومات ومدير أمان المعلومات، وإنشاء نموذج دورة حياة مشترك، والاستعداد لقوة عاملة هجينة من البشر والعوامل، يمكن للمؤسسات أن تساعد في إطلاق العنان للإمكانات الكاملة للذكاء الاصطناعي بثقة وأمان أكبر.

حان الوقت الآن لبناء هذا الأساس.

المزيد من هذا القبيل

صورة لمجموعة من الأشخاص يجلسون على أريكة مع نص يقول: جديد: Cyber Pulse: تقرير أمني عن الذكاء الاصطناعي.

Cyber Pulse: تقرير أمان قائم على الذكاء الاصطناعي

تحليلات عن نمو عوامل الذكاء الاصطناعي والمسار نحو استخدام مسؤول وآمن من خلال المراقبة والإدارة والأمان.
غلاف كتاب يتضمن نصاً يقول "استراتيجيات الأمان من Microsoft لإدارة الذكاء الاصطناعي" إلى جانب رسم توضيحي لرجل يرتدي قميصاً أخضر يجلس إلى طاولة مع جهاز كمبيوتر.

استراتيجيات لإدارة الذكاء الاصطناعي

خطوات عملية لبناء الثقة وتقليل المخاطر وخفض التكاليف وتحقيق الابتكار
رسم خطي أبيض لورقة داخل ظرف مكتوب عليها كلمة "جديد" على خلفية زرقاء.

الحصول على ملخص CISO

ابق على اطلاع دائم بأفكار الخبراء وتوجهات المجال وأبحاث الأمان في سلسلة البريد الإلكتروني هذه التي تُرسل كل شهرين.
  1. [1]
    مؤشر أمان بيانات Microsoft لعام 2026: توحيد حماية البيانات وابتكار الذكاء الاصطناعي، "الأمان من Microsoft"، 2026
  2. [2]
    استطلاع متعدد الجنسيات أجراه فريق شمل أكثر من 1700 متخصص في أمان البيانات بتكليف من Microsoft من Hypothesis Group في يوليو 2025.

متابعة الأمان من Microsoft