This is the Trace Id: 85c8e61327b6362d2b1598b52f63f70d
ข้ามไปที่เนื้อหาหลัก
Microsoft Security

เข้าร่วมเซสชันคณะผู้บริหาร RSAC ในวันที่ 24 มีนาคม ในหัวข้อ "เอเจนต์ AI อยู่ที่นี่แล้ว! คุณพร้อมหรือยัง"

ลงทะเบียนเลย

คู่มือ Microsoft สำหรับการรักษาความปลอดภัยขององค์กรที่ขับเคลื่อนโดย AI

background-img

การเริ่มต้นใช้งานแอปพลิเคชัน AI

ปัญญาประดิษฐ์ (AI) กำลังพลิกโฉมการดำเนินธุรกิจ ปลดล็อกนวัตกรรม ในขณะที่ก่อให้เกิดความเสี่ยงใหม่ๆ ตั้งแต่ Shadow AI (เครื่องมือระดับผู้บริโภคที่นำมาใช้โดยไม่มีการควบคุมดูแล) ไปจนถึงการโจมตีแบบแทรกพร้อมท์ รวมถึงกฎระเบียบที่พัฒนาอย่างต่อเนื่อง เช่น กฎหมายด้าน AI ของสหภาพยุโรป องค์กรต่างๆ จะต้องจัดการกับความท้าทายเหล่านี้เพื่อใช้ AI อย่างปลอดภัย

คู่มือนี้ครอบคลุมถึงความเสี่ยงที่เกี่ยวข้องกับ AI ได้แก่ การรั่วไหลของข้อมูล ภัยคุกคามที่กำลังเกิดขึ้น และความท้าทายในการปฏิบัติตามข้อบังคับ รวมไปถึงความเสี่ยงเฉพาะของ AI แบบเอเจนต์ นอกจากนี้ คู่มือยังให้คำแนะนำและขั้นตอนปฏิบัติที่เป็นรูปธรรมที่ต้องปฏิบัติตามตามเฟรมเวิร์กการเริ่มนำ AI มาใช้ สำหรับข้อมูลเชิงลึกและขั้นตอนการดำเนินการที่เจาะลึกยิ่งขึ้น ให้ดาวน์โหลดคู่มือ

AI เป็นตัวพลิกเกมก็ต่อเมื่อคุณสามารถรักษาความปลอดภัยได้ มาเริ่มกันเลย

ความเสี่ยง 3 อันดับแรกในการรักษาความปลอดภัยของ AI


เมื่อองค์กรเปิดรับ AI ผู้นำต้องจัดการความท้าทายหลักสามประการ:
  • ผู้นำ 80% ระบุว่าการรั่วไหลของข้อมูลเป็นปัญหาสำคัญที่สุด 1
    เครื่องมือ Shadow AI ซึ่งใช้โดยไม่ได้รับการอนุมัติจากฝ่าย IT อาจเปิดเผยข้อมูลที่ละเอียดอ่อน ทำให้มีความเสี่ยงต่อการละเมิดเพิ่มมากขึ้น
  • องค์กร 88% กังวลเกี่ยวกับผู้ไม่ประสงค์ดีที่เข้ามาควบคุมระบบ AI2
    การโจมตีต่างๆ เช่น การแทรกพร้อมท์ ใช้ประโยชน์จากช่องโหว่ในระบบ AI ซึ่งเน้นย้ำถึงความจำเป็นในการป้องกันเชิงรุก
  • ผู้นำ 52% ยอมรับว่ามีความไม่แน่นอนเกี่ยวกับการจัดการกฎระเบียบด้าน AI3
    การปฏิบัติตามเฟรมเวิร์กต่างๆ เช่น กฎหมายด้าน AI ของสหภาพยุโรป ถือเป็นสิ่งสำคัญในการส่งเสริมความไว้วางใจและรักษาแรงผลักดันในการสร้างสรรค์นวัตกรรม

AI แบบเอเจนต์: ความเสี่ยงสำคัญและวิธีรับมือ

AI แบบเอเจนต์มีศักยภาพในการเปลี่ยนแปลง แต่ระบบอัตโนมัติทำให้เกิดความท้าทายด้านความปลอดภัยเฉพาะซึ่งต้องมีการจัดการความเสี่ยงเชิงรุก ด้านล่างนี้คือความเสี่ยงสำคัญและกลยุทธ์ที่ได้รับการปรับแต่งเพื่อรับมือกับความเสี่ยงเหล่านี้:

อุปาทานและผลลัพธ์ที่ไม่ได้ตั้งใจ

ระบบ AI แบบเอเจนต์อาจสร้างผลลัพธ์ที่ไม่ถูกต้อง ล้าสมัย หรือบิดเบือน ส่งผลให้การทำงานหยุดชะงักหรือตัดสินใจผิดพลาด

เพื่อบรรเทาความเสี่ยงเหล่านี้ องค์กรต่างๆ ควรนำกระบวนการตรวจสอบที่เข้มงวดมาใช้เพื่อตรวจสอบความถูกต้องและความเกี่ยวข้องของผลลัพธ์ที่สร้างโดย AI การอัปเดตข้อมูลการฝึกเป็นประจำจะช่วยให้มั่นใจว่าสอดคล้องกับข้อมูลปัจจุบัน ในขณะที่เส้นทางการยกระดับสำหรับกรณีที่ซับซ้อนช่วยให้มนุษย์สามารถดำเนินการได้เมื่อจำเป็น การควบคุมดูแลโดยมนุษย์ยังคงมีความจำเป็นต่อการรักษาความน่าเชื่อถือและความไว้วางใจในการดำเนินงานที่ขับเคลื่อนด้วย AI

การพึ่งพาการตัดสินใจของ AI มากเกินไป

การเชื่อถือระบบ AI แบบเอเจนต์โดยไม่มีการตรวจสอบอาจนำไปสู่ช่องโหว่ได้เมื่อผู้ใช้ดำเนินการกับผลลัพธ์ที่ผิดพลาดโดยไม่ตรวจสอบความถูกต้อง

องค์กรต่างๆ ควรกำหนดนโยบายที่กำหนดให้ต้องมีการตรวจสอบโดยมนุษย์สำหรับการตัดสินใจที่มีความสำคัญสูงซึ่งได้รับอิทธิพลจาก AI การฝึกอบรมพนักงานเกี่ยวกับข้อจำกัดของ AI ช่วยส่งเสริมให้เกิดความสงสัยโดยใช้ข้อมูล ซึ่งจะช่วยลดโอกาสที่จะเกิดข้อผิดพลาด การรวมข้อมูลเชิงลึกของ AI เข้ากับการตัดสินใจของมนุษย์ผ่านกระบวนการตัดสินใจแบบหลายชั้นจะช่วยเสริมสร้างความยืดหยุ่นโดยรวมและป้องกันการพึ่งพามากเกินไป

แนวทางการโจมตีใหม่ๆ

ความเป็นอิสระและความสามารถในการปรับตัวของ AI แบบเอเจนต์สร้างโอกาสให้ผู้โจมตีสามารถใช้ประโยชน์จากช่องโหว่ต่างๆ นำมาซึ่งความเสี่ยงทั้งในด้านการดำเนินงานและระบบ

ความเสี่ยงในการดำเนินงาน ได้แก่ การจัดการระบบ AI เพื่อดำเนินการที่เป็นอันตราย เช่น งานที่ไม่ได้รับอนุญาตหรือความพยายามฟิชชิ่ง องค์กรต่างๆ สามารถบรรเทาความเสี่ยงเหล่านี้ได้ด้วยการนำมาตรการรักษาความปลอดภัยที่มีเสถียรภาพมาใช้ รวมถึงการตรวจหาสิ่งผิดปกติในเวลาจริง การเข้ารหัส และการควบคุมการเข้าถึงที่เข้มงวด
ความเสี่ยงในระบบเกิดขึ้นเมื่อเอเจนต์ที่มีช่องโหว่รบกวนระบบที่เชื่อมต่อกัน ส่งผลให้เกิดความล้มเหลวแบบต่อเนื่อง กลไกป้องกันความล้มเหลว โพรโทคอลความซ้ำซ้อน และการตรวจสอบเป็นประจำซึ่งสอดคล้องกับเฟรมเวิร์กการรักษาความปลอดภัยทางไซเบอร์ เช่น NIST ช่วยลดภัยคุกคามเหล่านี้และเสริมการป้องกันต่อการโจมตีจากปรปักษ์

ความรับผิดชอบและการรับผิด

AI แบบเอเจนต์มักจะทำงานโดยไม่มีการควบคุมดูแลโดยตรงจากมนุษย์ ทำให้เกิดคำถามที่ซับซ้อนเกี่ยวกับความรับผิดชอบและการรับผิดสำหรับข้อผิดพลาดหรือความล้มเหลว

องค์กรควรกำหนดเฟรมเวิร์กความรับผิดชอบที่ชัดเจนซึ่งระบุบทบาทและความรับผิดชอบสำหรับผลลัพธ์ที่เกี่ยวข้องกับ AI คู่มือที่โปร่งใสของกระบวนการตัดสินใจด้วย AI รองรับการระบุข้อผิดพลาดและการกำหนดการรับผิด ความร่วมมือกับทีมกฎหมายช่วยให้มั่นใจได้ว่าเป็นไปตามกฎระเบียบ ในขณะที่การนำมาตรฐานทางจริยธรรมในการกำกับดูแล AI มาใช้จะสร้างความไว้วางใจและลดความเสี่ยงด้านชื่อเสียง

เริ่มต้นใช้งานแนวทางแบบเป็นขั้นตอน

เมื่อใช้นวัตกรรม AI ใหม่ๆ เช่น เอเจนต์ องค์กรต้องสร้างรากฐานที่มั่นคงตามหลักการ Zero Trust ซึ่งก็คือ "อย่าวางใจ ตรวจสอบอยู่เสมอ" แนวทางนี้ช่วยให้มั่นใจได้ว่าการโต้ตอบทุกครั้งผ่านการรับรอง ได้รับอนุญาต และตรวจสอบอย่างต่อเนื่อง แม้ว่าการบรรลุ Zero Trust จะต้องใช้เวลา แต่การใช้กลยุทธ์แบบเป็นขั้นตอนจะช่วยให้มีความคืบหน้าอย่างต่อเนื่องและสร้างความเชื่อมั่นในการผสานรวม AI อย่างปลอดภัย

 

กรอบการนำ AI มาใช้ของ Microsoft มุ่งเน้นสามขั้นตอนหลัก ได้แก่ การกำกับดูแล AI, การจัดการ AI และการรักษาความปลอดภัย AI

การแก้ไขปัญหาในพื้นที่เหล่านี้จะช่วยให้องค์กรสามารถวางรากฐานสำหรับการใช้ AI ที่รับผิดชอบพร้อมทั้งบรรเทาความเสี่ยงที่สำคัญได้

เพื่อให้ประสบความสำเร็จ ควรให้ความสำคัญกับบุคลากรโดยฝึกอบรมพนักงานให้สามารถรับรู้ความเสี่ยงจาก AI และใช้เครื่องมือที่ได้รับอนุมัติอย่างปลอดภัย ส่งเสริมการทำงานร่วมกันระหว่างทีม IT ความปลอดภัย และธุรกิจ เพื่อให้แน่ใจว่ามีแนวทางที่เป็นหนึ่งเดียว ส่งเสริมความโปร่งใสโดยการสื่อสารแผนริเริ่มด้านการรักษาความปลอดภัย AI ของคุณอย่างเปิดเผยเพื่อสร้างความไว้วางใจและแสดงความเป็นผู้นำ

ด้วยกลยุทธ์ที่ถูกต้องและยึดหลัก Zero Trust คุณสามารถลดความเสี่ยง ปลดล็อกนวัตกรรม และจัดการขอบเขต AI ที่เปลี่ยนแปลงไปได้อย่างมั่นใจ

เนื้อหาเพิ่มเติมในลักษณะนี้

ปกหนังสือที่มีข้อความว่า Microsoft Security Strategies for AI Compliance พร้อมภาพประกอบชายและหญิงกำลังดูแล็ปท็อป
5 นาที

คู่มือ Microsoft สำหรับการรักษาความปลอดภัยขององค์กรที่ขับเคลื่อนโดย AI: กลยุทธ์การปฏิบัติตามข้อบังคับของ AI

ผู้ชายกำลังมองแท็บเล็ตในมือ
3 นาที

เพิ่มคุณค่า ลดความเสี่ยง: วิธีนำ AI สร้างสรรค์ไปใช้ในองค์กรอย่างปลอดภัยและมีความรับผิดชอบ

ภาพวาดเส้นสีขาวของกระดาษในซองจดหมายที่มีคำว่า “New” บนพื้นหลังสีฟ้า

รับ CISO Digest

ก้าวนำด้วยข้อมูลเชิงลึกจากผู้เชี่ยวชาญ แนวโน้มอุตสาหกรรม และงานวิจัยด้านความปลอดภัยในอีเมลรายสองเดือนนี้

ติดตาม Microsoft Security