This is the Trace Id: f2ab1d0476aa10d6157f7699e1b6f57c

انضم إلى جلسة لجنة التنفيذيين في مؤتمر RSAC بتاريخ 24 مارس بعنوان "وكلاء الذكاء الاصطناعي هنا! هل أنت مستعد؟".

التسجيل الآن

دليل Microsoft لتأمين المؤسسات التي تعمل بالذكاء الاصطناعي

صورة الخلفية

بدء استخدام تطبيقات الذكاء الاصطناعي

يعمل الذكاء الاصطناعي على تحويل العمليات التجارية وإطلاق العنان للابتكار مع تقديم مخاطر جديدة. من الذكاء الاصطناعي الظلي (أدوات مخصصة للمستهلك يتم اعتمادها دون إشراف) إلى هجمات إدخال المطالبات - واللوائح المتطورة مثل قانون الذكاء الاصطناعي في الاتحاد الأوروبي- يجب على المنظمات معالجة هذه التحديات لاستخدام الذكاء الاصطناعي بشكل آمن.

يغطي هذا الدليل المخاطر المرتبطة بالذكاء الاصطناعي: تسرب البيانات، والتهديدات الناشئة، وتحديات التوافق بالإضافة إلى المخاطر الفريدة للذكاء الاصطناعي العامل. كما يقدم إرشادات وخطوات عملية يجب اتخاذها بناءً على إطار عمل استخدام الذكاء الاصطناعي. للحصول على تحليلات أعمق وخطوات عملية عليك تنزيل الدليل.

الذكاء الاصطناعي هو عامل تغيير كبير، ولكن فقط إذا تمكنت من تأمينه. لنبدأ.

أهم 3 مخاطر في أمان الذكاء الاصطناعي


مع تبني المؤسسات للذكاء الاصطناعي، يتعين على القادة معالجة ثلاثة تحديات رئيسية:
  • 80% من القادة يعتبرون تسرب البيانات أحد أهم المخاوف. 1
    يمكن لأدوات الذكاء الاصطناعي الظلية - المستخدمة دون موافقة تكنولوجيا المعلومات - الكشف عن معلومات حساسة، ما يؤدي إلى زيادة مخاطر الاختراق.
  • 88% من المؤسسات تشعر بالقلق بشأن تلاعب الجهات السيئة بأنظمة الذكاء الاصطناعي.2
    تستغل الهجمات مثل إدخال المطالبات نقاط الضعف في أنظمة الذكاء الاصطناعي، ما يسلط الضوء على الحاجة إلى دفاعات استباقية.
  • 52% من القادة يعترفون بعدم اليقين بشأن التعامل مع لوائح الذكاء الاصطناعي.3
    إن الالتزام بأطر عمل مثل قانون الذكاء الاصطناعي للاتحاد الأوروبي أمر ضروري لتعزيز الثقة والحفاظ على زخم الابتكار.

الذكاء الاصطناعي العامل: المخاطر الرئيسية وكيفية التعامل معها

يقدم الذكاء الاصطناعي العامل إمكانات تحويلية، إلا أن استقلاليته تفرض تحديات أمنية فريدة تتطلب إدارة مخاطر استباقية. وفيما يلي المخاطر الرئيسية والاستراتيجيات المصممة لمعالجتها:

الهلوسة والمخرجات غير المقصودة

يمكن أن تنتج أنظمة الذكاء الاصطناعي العاملة مخرجات غير دقيقة أو قديمة أو غير متوافقة، ما يؤدي إلى حدوث اضطرابات تشغيلية أو اتخاذ قرارات سيئة.

ولتخفيف هذه المخاطر، ينبغي على المؤسسات تنفيذ عمليات مراقبة صارمة لمراجعة المخرجات التي تولدها الذكاء الاصطناعي للتأكد من دقتها وملاءمتها. يضمن تحديث بيانات التدريب بانتظام التوافق مع المعلومات الحالية، في حين تتيح مسارات التصعيد للحالات المعقدة التدخل البشري عند الحاجة. تظل الرقابة البشرية ضرورية للحفاظ على الموثوقية والثقة في العمليات التي تعتمد على الذكاء الاصطناعي.

الاعتماد المفرط على قرارات الذكاء الاصطناعي

يمكن أن تؤدي الثقة العمياء في أنظمة الذكاء الاصطناعي العامل إلى نقاط ضعف عندما يتصرف المستخدمون بناءً على مخرجات معيبة دون التحقق من صحتها.

ينبغي على المؤسسات وضع نُهج تتطلب المراجعة البشرية للقرارات ذات المخاطر العالية المتأثرة بالذكاء الاصطناعي. يؤدي تدريب الموظفين على حدود الذكاء الاصطناعي إلى تعزيز الشك المستنير، ما يقلل من احتمالية حدوث الأخطاء. إن الجمع بين نتائج تحليلات الذكاء الاصطناعي والحكم البشري من خلال عمليات صنع القرار المتعددة الطبقات يعزز المرونة الشاملة ويمنع الاعتماد المفرط.

ناقلات هجوم جديدة

إن استقلالية الذكاء الاصطناعي العامل وقدرته على التكيف تصنع فرصاً للمهاجمين لاستغلال نقاط الضعف، ما يؤدي إلى إدخال مخاطر تشغيلية ونظامية.

تتضمن المخاطر التشغيلية التلاعب بأنظمة الذكاء الاصطناعي لأداء أعمال ضارة، مثل المهام غير المصرح بها أو محاولات التصيد الاحتيالي. يمكن للمؤسسات التخفيف من هذه المخاطر من خلال تنفيذ تدابير أمنية قوية، بما في ذلك اكتشاف الحالات غير المألوفة في الوقت الفعلي، والتشفير، وضوابط الوصول الصارمة.

تنشأ المخاطر النظامية عندما تتسبب العوامل المخترقة في تعطيل الأنظمة المترابطة، ما يتسبب في حدوث أعطال متتالية. وتساعد آليات الأمان، وبروتوكولات التكرار، وعمليات التدقيق المنتظمة - المتوافقة مع أطر الأمان عبر الإنترنت مثل المعهد الوطني للمعايير والتكنولوجيا- في تقليل هذه المخاطر وتعزيز الدفاعات ضد الهجمات المعادية.

المساءلة والمسؤولية

غالباً ما يعمل الذكاء الاصطناعي العامل دون إشراف بشري مباشر، ما يثير أسئلة معقدة عن المساءلة والمسؤولية عن الأخطاء أو الإخفاقات.

ينبغي على المؤسسات تحديد أطر واضحة للمساءلة تحدد الأدوار والمسؤوليات المتعلقة بالنتائج المتعلقة بالذكاء الاصطناعي. إن التوثيق الشفاف لعمليات صنع القرار في مجال الذكاء الاصطناعي يدعم تحديد الأخطاء وتحديد المسؤولية. ويضمن التعاون مع الفرق القانونية الامتثال للوائح، في حين أن استخدام المعايير الأخلاقية لإدارة الذكاء الاصطناعي يبني الثقة ويقلل من المخاطر المتعلقة بالسمعة.

بدء استخدام نهج تدريجي

مع ابتكارات الذكاء الاصطناعي الجديدة مثل العوامل، يجب على المؤسسات إنشاء أساس قوي يعتمد على مبادئ الثقة المعدومة - "لا تثق أبداً، تحقق دائماً." يساعد هذا النهج على ضمان مصادقة كل تفاعل وتفويضه ومراقبته بشكل مستمر. رغم أن تحقيق الثقة المعدومة يستغرق وقتاً، فإن اعتماد استراتيجية تدريجية يسمح بالتقدم الثابت ويبني الثقة في دمج الذكاء الاصطناعي بشكل آمن.

 

يركز إطار عمل Microsoft لاستخدام الذكاء الاصطناعي على ثلاث مراحل رئيسية: حوكمة الذكاء الاصطناعي، وإدارة الذكاء الاصطناعي، وتأمين الذكاء الاصطناعي.

ومن خلال معالجة هذه المجالات، تستطيع المؤسسات إرساء الأساس لاستخدام الذكاء الاصطناعي المسؤول مع التخفيف من المخاطر الحرجة.

لتحقيق النجاح، يجب إعطاء الأولوية للأشخاص من خلال تدريب الموظفين على التعرف على مخاطر الذكاء الاصطناعي واستخدام الأدوات المدعومة بشكل آمن. يمكن تعزيز التعاون بين فرق تكنولوجيا المعلومات والأمان والأعمال لضمان اتباع نهج موحد. يمكن تعزيز الشفافية من خلال التواصل بشكل مفتوح بشأن مبادراتك الأمنية المتعلقة بالذكاء الاصطناعي لبناء الثقة وإظهار القيادة.

باستخدام الاستراتيجية الصحيحة، المبنية على مبادئ الثقة المعدومة، يمكنك التخفيف من المخاطر، وإطلاق العنان للابتكار، والتنقل بثقة في مشهد الذكاء الاصطناعي المتطور.

المزيد من هذا القبيل

غلاف كتاب يتضمن نصاً يقول "استراتيجيات الأمان من Microsoft للامتثال للذكاء الاصطناعي" إلى جانب رسم توضيحي لرجل وامرأة ينظران إلى جهاز كمبيوتر محمول.
5 دقائق

دليل Microsoft لتأمين المؤسسات المدعومة بالذكاء الاصطناعي: استراتيجيات توافق معايير الذكاء الاصطناعي

صورة لرجل ينظر إلى الجهاز اللوحي الذي يحمله في يده.
3 دقائق

مزيد من القيمة ومخاطر أقل: كيفية تنفيذ الذكاء الاصطناعي التوليدي في جميع أنحاء المؤسسة بشكل آمن ومسؤول

رسم خطي أبيض لورقة داخل ظرف مكتوب عليها كلمة "جديد" على خلفية زرقاء.

الحصول على ملخص CISO

ابق على اطلاع دائم بأفكار الخبراء وتوجهات المجال وأبحاث الأمان في سلسلة البريد الإلكتروني هذه التي تُرسل كل شهرين.

متابعة الأمان من Microsoft