This is the Trace Id: aff350323cc64f8f73573c2e32b36599
ข้ามไปที่เนื้อหาหลัก
Microsoft Security

 

Cyber Pulse: รายงานด้านความปลอดภัย AI

ข้อมูลการวินิจฉัยและการค้นคว้าล่าสุดจาก Microsoft แสดงให้เห็นว่าองค์กรจำนวนมากกำลังนำเอเจนต์ AI มาใช้ ขณะนี้เป็นเวลาที่ผู้นำต้องนำการตรวจสอบ การกำกับดูแล และความปลอดภัยมาใช้

ฉบับที่ 1: บทนำ

องค์กร Frontier กำหนดนิยามรูปแบบการทำงานใหม่ โดยให้มนุษย์และเอเจนต์ทำงานร่วมกันแบบเคียงข้างกันเพื่อยกระดับความทะเยอทะยานของมนุษย์ ข้อมูล Microsoft ล่าสุดแสดงให้เห็นว่าทีมที่ประกอบด้วยมนุษย์และเอเจนต์เหล่านี้กำลังเติบโตและได้รับการนำไปใช้ทั่วโลกอย่างกว้างขวาง

เอเจนต์ AI กำลังขยายตัวอย่างรวดเร็วจนบางบริษัทไม่ทันสังเกตเห็น และช่องว่างในการมองเห็นนี้เป็นความเสี่ยงทางธุรกิจ องค์กรต่างๆ จำเป็นต้องมีการกำกับดูแลและความปลอดภัยที่มีประสิทธิภาพอย่างเร่งด่วน เพื่อให้สามารถนำเอเจนต์มาใช้ได้อย่างปลอดภัย ส่งเสริมนวัตกรรม และลดความเสี่ยง เช่นเดียวกับผู้ใช้งานที่เป็นมนุษย์ เอเจนต์ AI ก็ต้องการการปกป้องผ่านการตรวจสอบ การกำกับดูแล และความปลอดภัยที่แข็งแกร่งโดยใช้หลักการ Zero Trust องค์กรที่จะประสบความสำเร็จในขั้นตอนต่อไปของการนำ AI มาใช้จะเป็นองค์กรที่เคลื่อนไหวอย่างรวดเร็วและผสานรวมทีมธุรกิจ ไอที ความปลอดภัย และนักพัฒนาเข้าด้วยกันเพื่อสังเกตการณ์ ควบคุม และรักษาความปลอดภัยของการเปลี่ยนแปลงสู่ AI

ในระบบนิเวศของ Microsoft ขณะนี้ลูกค้ากำลังสร้างและใช้งานเอเจนต์ในแพลตฟอร์มหลักทุกแพลตฟอร์ม ตั้งแต่ Fabric และ Foundry ไปจนถึง Copilot Studio และตัวสร้างเอเจนต์ ซึ่งแสดงให้เห็นถึงการเปลี่ยนแปลงครั้งใหญ่ไปสู่ระบบอัตโนมัติที่ขับเคลื่อนโดย AI ในกระบวนการทำงาน

การสร้างเอเจนต์ไม่ได้จำกัดอยู่เฉพาะบทบาททางเทคนิคเท่านั้น ปัจจุบันพนักงานในหลากหลายตำแหน่งสามารถสร้างและใช้งานเอเจนต์ในงานประจำวันได้ ในความเป็นจริง ข้อมูลจาก Microsoft แสดง ให้เห็นว่ากว่า 80% ของบริษัท Fortune 500 กำลังใช้งานเอเจนต์ ที่สร้างขึ้นด้วยเครื่องมือแบบ Low-Code/No-Code1 ด้วยการใช้งานเอเจนต์ที่ขยายตัวและโอกาสในการเปลี่ยนแปลงที่เพิ่มมากขึ้น ตอนนี้จึงเป็นเวลาที่เหมาะสมที่จะกำหนดการควบคุมพื้นฐานให้พร้อม

เช่นเดียวกับพนักงานที่เป็นมนุษย์ Zero Trust สำหรับเอเจนต์หมายความว่า:
 

  • การเข้าถึงแบบใช้สิทธิ์น้อยที่สุด: ให้สิทธิ์แก่ผู้ใช้ เอเจนต์ AI หรือระบบเฉพาะที่จำเป็นเท่านั้น ไม่มากไปกว่านั้น

  • การตรวจสอบอย่างชัดเจน: ควรตรวจสอบเสมอว่าใครหรืออะไรกำลังขอการเข้าถึง โดยใช้ข้อมูลประจำตัว สภาพการทำงานของอุปกรณ์ ตำแหน่งที่ตั้ง และระดับความเสี่ยง

  • สมมติว่าการโจมตีสามารถเกิดขึ้นได้: ออกแบบระบบโดยคาดการณ์ว่าผู้โจมตีจะสามารถเจาะระบบเข้าไปได้

กราฟิกแสดงให้เห็นว่า กว่า 80% ของบริษัทใน Fortune 500 ใช้เครื่องมือแอ็กทีฟโลว์โค้ดเอเจนต์ Ask Copilot

เอเจนต์ AI กำลังขยายตัวอย่างรวดเร็ว - ครอบคลุมทุกภูมิภาคและอุตสาหกรรม

การนำเอเจนต์มาใช้กำลังเพิ่มขึ้นอย่างรวดเร็วในทุกภูมิภาคทั่วโลก ตั้งแต่ EMEA ไปจนถึงอเมริกาและเอเชีย2
 แผนภูมิแท่งแสดงการกระจายตัวตามภูมิภาค: EMEA 42%, สหรัฐอเมริกา 29%, เอเชีย 19% และอเมริกา 10%
Microsoft เห็นการเติบโตของเอเจนต์ในทุกอุตสาหกรรม บริการทางการเงิน การผลิต และการค้าปลีกเป็นผู้นำในการนำเอเจนต์มาใช้ บริการทางการเงิน รวมถึงการธนาคาร ตลาดทุน และประกันภัย ขณะนี้คิดเป็นประมาณ 11% ของเอเจนต์ที่ใช้งานอยู่ทั่วโลก2 การผลิตคิดเป็น 13% ของการใช้เอเจนต์ทั่วโลก ซึ่งแสดงให้เห็นถึงการใช้งานอย่างแพร่หลายในโรงงาน ห่วงโซ่อุปทาน และการดำเนินงานด้านพลังงาน2 การค้าปลีกคิดเป็น 9% โดยใช้เอเจนต์เพื่อปรับปรุงประสบการณ์ของลูกค้า การจัดการสินค้าคงคลัง และกระบวนการทำงานแนวหน้า2

ข้อควรระวัง: เอเจนต์ AI เหล่านี้บางส่วนได้รับการอนุมัติจากฝ่ายไอที แต่บางส่วนไม่ได้รับการอนุมัติ เอเจนต์เหล่านี้บางส่วนมีความปลอดภัย แต่บางส่วนก็ไม่มีความปลอดภัย
วงกลมทับซ้อนแสดงสัดส่วนการกระจายตัวของอุตสาหกรรม ได้แก่ ซอฟต์แวร์และเทคโนโลยี 16% การผลิต 13% บริการทางการเงิน 11% และค้าปลีก 9%

ความเสี่ยงจากเอเจนต์สองหน้า

การนำเอเจนต์ไปใช้อย่างรวดเร็วอาจเร็วกว่าการควบคุมด้านความปลอดภัยและการปฏิบัติตามข้อบังคับ ซึ่งจะเพิ่มความเสี่ยงของ Shadow AI ผู้ไม่ประสงค์ดีอาจใช้ประโยชน์จากการเข้าถึงและสิทธิ์ของเอเจนต์ ซึ่งทำให้เอเจนต์กลายเป็น “เอเจนต์สองหน้า” โดยไม่ตั้งใจ เช่นเดียวกับพนักงานที่เป็นมนุษย์ เอเจนต์ที่มีการเข้าถึงมากเกินไปหรือได้รับคำสั่งที่ไม่ถูกต้องก็อาจกลายเป็นช่องโหว่ได้

ภัยคุกคามจากการที่เอเจนต์สองหน้าถูกใช้ประโยชน์ หากปล่อยไว้โดยไม่จัดการ ให้สิทธิ์ไม่ถูกต้อง หรือถูกป้อนข้อมูลที่ไม่น่าเชื่อถือจะไม่ใช่ความเสี่ยงในเชิงทฤษฎี เมื่อไม่นานมานี้ ทีม Defender ของ Microsoft ได้ตรวจพบแคมเปญฉ้อโกงที่มีผู้ดำเนินการหลายรายใช้ประโยชน์จากเทคนิคการโจมตี AI ที่เรียกว่า "การโจมตีด้วยการปนเปื้อนข้อมูล" เพื่อเปลี่ยนแปลงความจำของผู้ช่วย AI อย่างต่อเนื่อง ซึ่งส่งผลให้การตอบสนองในอนาคตค่อยๆ เปลี่ยนแปลงไป และบั่นทอนความน่าเชื่อถือในความเที่ยงตรงของระบบ

ในการวิจัยที่สภาพแวดล้อมที่ปลอดภัยและเป็นอิสระโดยทีม AI Red Team ของ Microsoft เอง นักวิจัยได้บันทึกวิธีการที่เอเจนต์ถูกหลอกลวงโดยองค์ประกอบอินเทอร์เฟซที่หลอกลวง เช่น การทำตามคำแนะนำที่เป็นอันตรายซึ่งฝังอยู่ในเนื้อหาทั่วไป Red Team ยังพบว่าการให้เหตุผลของเอเจนต์สามารถถูกเปลี่ยนทิศทางได้อย่างแนบเนียนผ่านการปรับเปลี่ยนกรอบงาน ผลการค้นพบเหล่านี้แสดงให้เห็นว่าเหตุใดจึงเป็นเรื่องสำคัญอย่างยิ่งที่องค์กรต่างๆ จะต้องมีการสังเกตการณ์และการจัดการที่ครอบคลุมของทุกเอเจนต์ที่เกี่ยวข้องกับองค์กร เพื่อให้สามารถบังคับใช้มาตรการควบคุมและจัดการความเสี่ยงจากส่วนกลางได้อย่างเป็นระบบและบูรณาการ
29% ของพนักงานใช้เอเจนต์ AI ที่ไม่ได้รับอนุญาตในการทำงาน ตามผลสำรวจปี 2025
จากดัชนีความปลอดภัยข้อมูลของ Microsoft พบว่ามีเพียง 47% ขององค์กรในอุตสาหกรรมต่างๆ เท่านั้นที่รายงานว่าได้นำมาตรการควบคุมความปลอดภัย GenAI มาใช้โดยเฉพาะ3 ซึ่งชี้ให้เห็นถึงโอกาสที่องค์กรต่างๆ จะได้รับข้อมูลที่ชัดเจนซึ่งจำเป็นต่อการนำ AI มาใช้อย่างปลอดภัย ที่สำคัญยิ่งกว่านั้น จากผลสำรวจระดับนานาชาติที่มีผู้เชี่ยวชาญด้านความปลอดภัยข้อมูลกว่า 1,700 คนที่จัดทำโดย Microsoft จาก Hypothesis Group พบว่า 29% ของพนักงานได้หันไปใช้เอเจนต์ AI ที่ไม่ได้รับอนุมัติสำหรับงานในที่ทำงาน4
แผนภูมิวงกลมเผยว่า มีเพียง 47% ขององค์กรที่มีมาตรการควบคุมความปลอดภัยสำหรับการใช้งานปัญญาประดิษฐ์เชิงสร้างสรรค์

ในขณะที่การนำไปใช้แพร่หลายมากขึ้น มีผู้นำกี่คนที่ตระหนักถึงความเสี่ยงที่ซ่อนอยู่ มีผู้นำกี่คนที่มองเห็นชุดข้อมูลเอเจนต์ของตน เอเจนต์ AI ที่ไม่ได้รับการควบคุมหรือไม่ได้รับการกำกับดูแลอาจเพิ่มความเสี่ยงให้กับองค์กร ทั้งในด้านความปลอดภัย ความต่อเนื่องทางธุรกิจ และชื่อเสียง ซึ่งทั้งหมดนี้จะตกเป็นภาระของ CISO และผู้บริหารระดับสูงโดยตรง นี่คือหัวใจสำคัญของปัญหาความเสี่ยงทางไซเบอร์ เอเจนต์ AI กำลังนำโอกาสใหม่ๆ มาสู่ที่ทำงานและกำลังถูกผสานรวมเข้ากับการดำเนินงานภายใน แต่พฤติกรรมเสี่ยงของเอเจนต์อาจทำให้ภัยคุกคามจากภายในทวีความรุนแรงขึ้น และสร้างความล้มเหลวรูปแบบใหม่ให้กับองค์กรที่ไม่พร้อมรับมือ

 

ลักษณะสองด้านของ AI ได้ปรากฏขึ้นแล้ว: นวัตกรรมที่ยอดเยี่ยมควบคู่ไปกับความเสี่ยงที่ไม่เคยมีมาก่อน

การใช้งานเอเจนต์ AI ให้เกิดประโยชน์สูงสุด

บริษัท Frontier ใช้ประโยชน์จากกระแส AI เพื่อปรับปรุงการกำกับดูแล ลดการเปิดเผยข้อมูลที่ไม่จำเป็น และนำการควบคุมทั่วทั้งองค์กรมาใช้ โดยนำสิ่งนี้มาผสานกับการเปลี่ยนแปลงทางวัฒนธรรม: ผู้นำทางธุรกิจอาจเป็นเจ้าของกลยุทธ์ด้าน AI แต่ทีมไอทีและทีมความปลอดภัยได้กลายเป็นพันธมิตรที่แท้จริงในด้านการสังเกตการณ์ การกำกับดูแล และการทดลองอย่างปลอดภัย สำหรับองค์กรเหล่านี้ การรักษาความปลอดภัยของเอเจนต์ไม่ใช่ข้อจำกัด แต่เป็นข้อได้เปรียบในการแข่งขัน ซึ่งสร้างขึ้นจากการปฏิบัติต่อเอเจนต์ AI เหมือนมนุษย์ และใช้หลักการ Zero Trust เดียวกัน

เริ่มต้นด้วยการสังเกตการณ์ เพราะคุณไม่สามารถปกป้องสิ่งที่คุณมองไม่เห็น และคุณไม่สามารถจัดการสิ่งที่คุณไม่เข้าใจได้ การสังเกตการณ์คือชั้นการควบคุมความปลอดภัยทุกระดับขององค์กร (ทีมไอที ความปลอดภัย นักพัฒนา และ AI) เพื่อทำความเข้าใจ:

  • มีเอเจนต์อะไรบ้าง
     

  • ใครเป็นเจ้าของ
     

  • ระบบและข้อมูลใดบ้างที่ใช้
     

  • ลักษณะการทำงาน


 

การสังเกตการณ์ครอบคลุมห้าด้านหลัก:

  • ทะเบียนกลางทำหน้าที่เป็นแหล่งข้อมูลจริงเพียงแห่งเดียวสำหรับเอเจนต์ทุกรายการในองค์กร ทั้งที่ได้รับอนุมัติ จากบริษัทภายนอก และเอเจนต์ Shadow ที่เกิดขึ้นใหม่ คลังข้อมูลนี้ช่วยป้องกันการขยายตัวของเอเจนต์ที่ไม่เป็นระเบียบ สนับสนุนความรับผิดชอบ และช่วยในการค้นพบ พร้อมทั้งสามารถจำกัดหรือกักกันเอเจนต์ที่ไม่ได้รับอนุมัติเมื่อจำเป็น
  • แต่ละเอเจนต์ถูกกำกับดูแลด้วยการควบคุมการเข้าถึงที่ขับเคลื่อนโดยข้อมูลประจำตัวและนโยบายเดียวกับที่ใช้กับผู้ใช้ที่เป็นมนุษย์และแอปพลิเคชัน สิทธิ์แบบน้อยที่สุดและบังคับใช้อย่างสม่ำเสมอจะช่วยให้เอเจนต์สามารถเข้าถึงข้อมูล ระบบ และขั้นตอนการทำงานเฉพาะที่จำเป็นต่อการดำเนินงานเท่านั้น ไม่มากหรือน้อยเกินไป
  • แดชบอร์ดและข้อมูลการวินิจฉัยในเวลาจริงให้ข้อมูลเชิงลึกเกี่ยวกับวิธีที่เอเจนต์โต้ตอบกับผู้คน ข้อมูล และระบบ ผู้นำสามารถมองเห็นได้ว่าเอเจนต์กำลังทำงานอยู่ที่ใด เข้าใจถึงความสัมพันธ์ระหว่างกัน และติดตามพฤติกรรมและผลกระทบ ซึ่งจะช่วยให้มีการตรวจจับการใช้งานในทางที่ผิด การเบี่ยงเบน หรือความเสี่ยงที่เกิดขึ้นใหม่ได้รวดเร็วยิ่งขึ้น
  • เอเจนต์ทำงานในแพลตฟอร์มของ Microsoft, เฟรมเวิร์กโอเพนซอร์ส และระบบนิเวศของบริษัทภายนอกภายใต้โมเดลการกำกับดูแลที่สอดคล้องกัน ความสามารถในการทำงานร่วมกันนี้ช่วยให้เอเจนต์สามารถทำงานร่วมกันกับบุคคลและเอเจนต์อื่นๆ ในขั้นตอนการทำงานต่างๆ ในขณะที่ยังคงมีการจัดการอยู่ภายใต้การควบคุมขององค์กรเดียวกัน
  • การป้องกันในตัวช่วยปกป้องเอเจนต์จากการใช้งานภายในที่ไม่ถูกต้องและภัยคุกคามภายนอก สัญญาณความปลอดภัย การบังคับใช้นโยบาย และเครื่องมือแบบบูรณาการจะช่วยให้องค์กรตรวจจับเอเจนต์ที่มีช่องโหว่หรือทำงานผิดปกติได้ตั้งแต่เนิ่นๆ และตอบสนองได้อย่างรวดเร็ว ก่อนที่ปัญหาจะลุกลามบานปลายจนก่อให้เกิดความเสียหายต่อธุรกิจ กฎระเบียบ หรือชื่อเสียง

ปิดช่องว่าง: รายการตรวจสอบการกำกับดูแลและความปลอดภัย AI

เส้นทางสู่การควบคุมความเสี่ยง AI ชัดเจน: ปฏิบัติต่อเอเจนต์ AI ด้วยความเข้มงวดเทียบเท่ากับพนักงานหรือบัญชีบริการซอฟต์แวร์ใดๆ ต่อไปนี้คือเจ็ดสิ่งสำหรับรายการตรวจสอบของคุณ
  • บันทึกวัตถุประสงค์ของเอเจนต์แต่ละรายการ และให้การเข้าถึงเฉพาะสิ่งที่จำเป็นเท่านั้น ไม่มีสิทธิ์แบบกว้าง
  • ใช้กฎการป้องกันกับช่องทาง AI รักษาบันทึกการตรวจสอบและติดป้ายกำกับเนื้อหาที่สร้างโดย AI
  • นำเสนอทางเลือกที่ปลอดภัยเพื่อควบคุม Shadow AI บล็อกแอปที่ไม่ได้รับอนุญาต
  • คู่มืออัปเดตการดำเนินธุรกิจอย่างต่อเนื่องสำหรับสถานการณ์ที่เกี่ยวข้องกับ AI ดำเนินการฝึกซ้อมในห้องประชุม และติดตามเมตริกการสังเกตการณ์ในด้านต่างๆ เช่น ข้อมูลประจำตัว ข้อมูล และภัยคุกคาม
  • สร้างนโยบายการกำกับดูแลและการควบคุมตนเองสำหรับ AI ตอนนี้—บันทึกข้อมูลการฝึกอบรม ประเมินอคติ และสร้างการกำกับดูแลโดยมนุษย์ในด้านกฎหมาย ข้อมูล และความปลอดภัย—เพื่อให้การปฏิบัติตามข้อบังคับเป็นส่วนหนึ่งของระบบ ไม่ใช่สิ่งที่ต้องเพิ่มเติมในภายหลัง
  • ยกระดับความเสี่ยงด้าน AI ไปสู่ระดับองค์กร โดยกำหนดความรับผิดชอบของผู้บริหาร ตัวชี้วัดประสิทธิภาพที่วัดผลได้ และการมองเห็นในระดับคณะกรรมการควบคู่ไปกับความเสี่ยงทางการเงินและการดำเนินงาน
  • ฝึกอบรมพนักงานเกี่ยวกับการใช้งาน AI อย่างปลอดภัย ส่งเสริมความโปร่งใสและการทำงานร่วมกัน

องค์กรที่จะประสบความสำเร็จในการใช้เอเจนต์ AI จะเป็นองค์กรที่ให้ความสำคัญกับการสังเกตการณ์ การกำกับดูแล และความปลอดภัย การบรรลุเป้าหมายนี้ต้องมีการทำงานร่วมกันจากทุกทีม และการสังเกตการณ์ในการทำงานของ AI ในทุกระดับขององค์กร ได้แก่ ผู้เชี่ยวชาญด้านไอที, ทีมความปลอดภัย, ทีม AI และนักพัฒนา ซึ่งทั้งหมดนี้สามารถจัดการและตรวจสอบได้ผ่านแพลตฟอร์มการควบคุมส่วนกลางแบบครบวงจร

Agent 365 คือชั้นการควบคุมความปลอดภัยแบบรวมศูนย์ของ Microsoft สำหรับการจัดการเอเจนต์ AI ทั่วทั้งองค์กร ซึ่งมีระบบการทำงานแบบรวมศูนย์ระดับองค์กรเพื่อใช้ในการลงทะเบียน ควบคุม รักษาความปลอดภัย สังเกตการณ์ และใช้งานเอเจนต์ AI ไม่ว่าจะเป็นเอเจนต์ที่สร้างขึ้นบนแพลตฟอร์มของ Microsoft, เฟรมเวิร์กโอเพนซอร์ส หรือระบบของบริษัทภายนอกก็ตาม ข้อมูลเพิ่มเติมเกี่ยวกับผลิตภัณฑ์และบริการของ Microsoft ที่ช่วยรักษาความปลอดภัยให้กับ AI และเอเจนต์ สามารถดูได้ที่นี่
การ์ดทรัพยากร Microsoft Security ที่แสดงคำแนะนำสำหรับแอปพลิเคชัน AI, การกำกับดูแล AI และการปฏิบัติตามข้อบังคับ AI บนพื้นหลังสีน้ำเงิน
คู่มือรักษาความปลอดภัย AI

คู่มือ Microsoft สำหรับการรักษาความปลอดภัยขององค์กรที่ขับเคลื่อนโดย AI

รับคำแนะนำเพื่อช่วยสร้างรากฐานที่แข็งแกร่งสำหรับ AI รวมถึงวิธีการกำกับดูแลและรักษาความปลอดภัยของแอปพลิเคชัน AI และช่วยรักษาการปฏิบัติตามข้อบังคับ

แหล่งข้อมูลเพิ่มเติม

บุคคลกำลังทำงานบนแล็ปท็อปที่โต๊ะพื้นที่ทำงานที่ใช้ร่วมกัน พร้อมกับตรวจสอบข้อมูลบนสมาร์ทโฟนไปด้วย

ดัชนีความปลอดภัยของข้อมูลของ Microsoft

รับข้อมูลเชิงลึกเกี่ยวกับวิธีที่ AI สร้างสรรค์กำลังเปลี่ยนแปลงการรักษาความปลอดภัยของข้อมูล
ผู้นำเสนอยืนอยู่บนเวทีพร้อมข้อความบนหน้าจอที่อ่านว่า “การทำความเข้าใจความเสี่ยง การกำหนดมาตรการควบคุมที่เหมาะสม การวัด และการติดตาม”

เร่งโอกาสด้วย AI ที่วางใจได้

ฟังผู้นำของ Microsoft แบ่งปันวิธีการปฏิบัติเพื่อสร้างความไว้วางใจในทุกขั้นตอนของการใช้งาน AI
ไอคอนสีน้ำเงินและสีขาวที่แสดงภาพกระดาษอยู่ในซองจดหมายที่มีข้อความ “ใหม่”

รับ CISO Digest

ก้าวนำด้วยข้อมูลเชิงลึกจากผู้เชี่ยวชาญ แนวโน้มอุตสาหกรรม และงานวิจัยด้านความปลอดภัยในอีเมลรายสองเดือนนี้
  1. [1]
    อ้างอิงจากข้อมูลการวินิจฉัยจาก Microsoft ที่วัดเอเจนต์ที่สร้างขึ้นด้วย Microsoft Copilot Studio หรือตัวสร้างเอเจนต์ Microsoft ซึ่งใช้งานในช่วง 28 วันสุดท้ายของเดือนพฤศจิกายน ปี 2568
  2. [2]
    เมตริกอุตสาหกรรมและเอเจนต์ในภูมิภาคถูกสร้างขึ้นโดยใช้ข้อมูลการวินิจฉัยจาก Microsoft ที่วัดเอเจนต์ที่สร้างขึ้นด้วย Microsoft Copilot Studio หรือตัวสร้างเอเจนต์ Microsoft และใช้งานอยู่ในช่วง 28 วันสุดท้ายของเดือนพฤศจิกายน ปี 2568
  3. [3]
    ผลสำรวจระดับนานาชาติเดือนกรกฎาคม 2568 จากผู้เชี่ยวชาญด้านความปลอดภัยข้อมูลกว่า 1,700 คน ซึ่งจัดทำโดย Microsoft จาก Hypothesis Group
  4. [4]

    ดัชนีความปลอดภัยของข้อมูลของ Microsoft ปี 2569: การผสานรวมการปกป้องข้อมูลและนวัตกรรม AI, Microsoft Security, 2569

     

    ระเบียบวิธี:

     

    เมตริกอุตสาหกรรมและเอเจนต์ในถูกสร้างขึ้นโดยใช้ข้อมูลการวินิจฉัย Microsoft ที่วัดเอเจนต์ที่สร้างขึ้นด้วย Microsoft Copilot Studio หรือตัวสร้างเอเจนต์ Microsoft ที่ใช้งานอยู่ในช่วง 28 วันที่ผ่านมาของเดือนพฤศจิกายน ปี 2568

     

    ดัชนีความปลอดภัยข้อมูลปี 2569:

     

    แบบสำรวจออนไลน์ระดับนานาชาติใช้เวลา 25 นาที โดยจัดทำขึ้นระหว่างวันที่ 16 กรกฎาคม ถึง 11 สิงหาคม 2568 โดยมีผู้นำด้านความปลอดภัยข้อมูลเข้าร่วม 1,725 ​​คน

     

    คำถามต่างๆ มุ่งเน้นไปที่สถานการณ์ด้านความปลอดภัยของข้อมูล เหตุการณ์ด้านความปลอดภัยของข้อมูล การรักษาความปลอดภัยในการใช้งาน GenAI ของพนักงาน และการใช้ GenAI ในโปรแกรมรักษาความปลอดภัยของข้อมูล เพื่อเปรียบเทียบกับปี 2567

     

    มีการสัมภาษณ์เชิงลึกเป็นเวลาหนึ่งชั่วโมงกับผู้นำด้านความปลอดภัยข้อมูล 10 คนในสหรัฐอเมริกาและสหราชอาณาจักร เพื่อรวบรวมเรื่องราวเกี่ยวกับวิธีการที่พวกเขาใช้ในการรักษาความปลอดภัยข้อมูลในองค์กรของตน

     

    คำนิยาม:

     

    เอเจนต์ที่ใช้งานอยู่คือ 1) เอเจนต์ที่ถูกนำไปใช้งานจริง และ 2) เอเจนต์ที่มี “กิจกรรมจริง” ที่เกี่ยวข้องกับเอเจนต์นั้นในช่วง 28 วันที่ผ่านมา

     

    “กิจกรรมจริง” หมายถึง การมีส่วนร่วมกับผู้ใช้ (เอเจนต์ช่วยเหลือ) อย่างน้อย 1 ครั้ง หรือการทำงานอัตโนมัติ (เอเจนต์อัตโนมัติ) อย่างน้อย 1 ครั้ง

ติดตาม Microsoft Security