מהדורה 6 Cyber Signals
כל יום, יותר מ- 2.5 מיליארד זיהויים מבוססים על ענן שמונעים על-ידי בינה מלאכותית מגינים על לקוחות Microsoft.
כל יום, יותר מ- 2.5 מיליארד זיהויים מבוססים על ענן שמונעים על-ידי בינה מלאכותית מגינים על לקוחות Microsoft.
העולם של אבטחת סייבר של ימינו עובר טרנספורמציה עצומה. בינה מלאכותית (AI) נמצאת בחזית של שינוי זה, ומהווה הן איום והן הזמנות. בעוד שלבינה מלאכותית יש את פוטנציאל להעצים ארגונים לזהות מתקפות סייבר במהירות מחשב ולקדם חדשנות ויעילות בזיהוי איומים, ציד איומים ותגובה לתקריות, יריבים יכולים להשתמש בבינה מלאכותית כחלק מפעולות הניצול שלהם. העיצוב, הפריסה והשימוש בטוחים בבינה מלאכותית מעולם לא היו כה קריטיים עבורנו.
אנחנו ב- Microsoft חוקרים את הפוטנציאל של בינה מלאכותית לשפר את אמצעי האבטחה שלנו, לשחרר הגנות מתקדמות ולבנות תוכנה טובה יותר. באמצעות בינה מלאכותית, יש לנו את הכוח לאמץ לצד איומים מתפתחים, לזהות חריגויות באופן מידי, להגיב במהירות לסיכונים שהפכו לניטרליים ולהתאים הגנות עבור צרכים של ארגון.
בינה מלאכותית יכולה גם לעזור לנו להתגבר על אתגרים גדולים אחרים של הענף. אל מול המחסור בכוח עבודה גלובלי בתחום אבטחת סייבר, עם צורך של בערך4 מיליון אנשי מקצועברחבי העולם, לבינה מלאכותית יש את הפוטנציאל להיות כלי מכריע לסגירת פערי הכישרונות ולעזור למגינים להיות יותר פרודוקטיביים.
כבר ראינו במחקר אחד כיצד Microsoft Security Copilot לאבטחה יכול לעזור לאנליסטים של אבטחה ללא קשר לרמת המומחיות שלהם - בכל המשימות, רמת הדוק של משתתפים עלתה ב-44% והייתה מהירה יותר ב-26%.
בזמן שאנו שורפים לאבטח את העתיד, עלינו לוודא שאנו מאזנים התכוננות בצורה מאובטחת לקראת בינה מלאכותית וממנפים את היתרונות שלה, מאחר שלבינה מלאכותית יש את הכוח לשפר את הפוטנציאל האנושי ולפתור כמה מהאתגרים הקשים ביותר שלנו.
עתיד מאובטח יותר באמצעות בינה מלאכותית ידרוש התקדמויות בסיסיות בהנדסת תוכנה. הוא ידרוש מאיתנו להבין איומים שמונעים על-ידי בינה מלאכותית ולהתנגד להם כרכיבים חיוניים של כל אסטרטגיית אבטחה. ועלינו לעבוד יחד כדי לבנות שיתוף פעולה ושותפויות עמוקים ברחבי מגזרים ציבוריים ופרטיים ולהיאבק בשחקנים מזיקים.
כחלק ממאמץ זה ומיוזמת העתיד המאובטח שלנו, OpenAI ו- Microsoft מפרסמות היום בינה חדשה שמפרטית את הניסיונות של גורמי איום לבחון ולחקור שימושיות של מודלי שפה גדולים (LLM) בטכניקות מתקפה.
אנחנו מקווים שמידע זה יהיה שיומי בין תעשיות שכן כולנו עובדים לקראת עתיד מאובטח יותר. מאחר שבסופו של דבר, כולנו מגינים.
צפה בתדרוך הדיגיטלי של ’אותות סייבר’ שבו ואסו ג’קאל, סמנכ”לית ארגוני של Microsoft Security Business, מראיינת מומחי בינת איומים חשובים לגבי איומי הסייבר בעידן של בינת סייבר, דרכים בהן Microsoft משתמשת בבינה מלאכותית לצורך אבטחה משופרת, ומה ארגונים יכולים לעשות כדי לעזור לחזק הגנות.
נוף איומי הסייבר הפך ליותר ויותר מאתגר מאחר שהמוטיבציה של התוקפים גדלה, הם הופכי למתוחכמים יותר ומחזיקים במקורות טובים יותר. גורמי איום ומגינים כאחד מביטים על בינה מלאכותית, לרבות מודלי שפה גדולים, לשיפור הפרודוקטיביות שלהם ולשיפור של פלטפורמות נגישות שיכולות להתאים למטרות ולטכניקות התקיפה שלהם.
בהינתן ההתפתחות המהירה של נוף האיומים, אנחנו מכריזים היום על עקרונות של Microsoft שמנחים את הפעולות שלנו שמצמצמות את הסיכון של גורמי איום, כולל איומים מתקדמים עקביים (APT), גרמי מניפולציה מתקדמים עקביים (APM) ואיגודים של פושעי סייבר, שמשתמשים בפלטפורמות וממשקי API. עקרונות אלה כוללים זיהוי ופעולה נגד שימוש של גורם איום זדוני בבינה מלאכותית, התראה לספקי אחרים של שירות בינה מלאכותית, שיתוף פעולה עם בעלי עניין אחרים ושקיפות.
על אף שהמניעים והתחכום של גורמי איום משתנים, הם חולקים משימות משותפות בעת פריסת מתקפות. משימות אלה כוללות סיור היכרות, כגון ביצוע מחקר על תעשיות של קרבנות פוטנציאליים, מיקומים ומערכות יחסים; קידוד, כולל שיפור קבצי Script של תוכנה ופיתוח תוכנה זדונית; וסיוע בלידה באמצעות שפות אנושיות ושפות מחשב כאחד.
בשיתוף פעולה עם OpenAI, אנחנו חולקים בינת איומים שמציגה יריבים שזוהו שמשויכים למדינה ונעשה אחריהם מעקב - כגון Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Typhoon ו- Salmon Typhoon - באמצעות מודולי שפה גדולים כדי להרחיב פעולות סייבר.
המטרה של שותפות המחקר של Microsoft עם OpenAI היא לוודא שימוש בטוח ואחראי בטכנולוגיות בינה מלאכותית כגון ChatGPT, אשר מחזיקות בסטנדרטים הגבוהים ביותר של אפליקציה אתית כדי להגן על הקהילה מפני שימוש לרעה פוטנציאלי.
השימוש של Emerald Sleet במודולי שפה גדולים מערב מחקר לתוך צוותי חשיבה ומומחים בקוריאה הצפונית, וכן ייצור תוכן שככל הנראה ישמש בקמפיינים של דיוג ממוקד. Emerald Sleet יצרה אינטראקציה עם מודולי שפה גדולים גם כדי להבין פגיעויות מוכרות ברמה ציבורית, לפתור בעיות טכניות ולצורך סיוע עם שימוש בטכנולוגיות אינטרנט.
קפוצה אחרת שמגובה על-ידי סין, Salmon Typhoon, העריכה את היעילות של שימוש במודלי שפה גדולים לאורך 2023 כדי לשאוב מידע לגבי נושאים בעלי פוטנציאל להיות רגישים, אנשים בפרופיל גבוה, גאופוליטיקות אזוריות, ההשפעה של ארה”ב ועניינים פנימיים. מעורבות טנטטיבית זו עם מודלי שפה גדולים יכולה לשקף הם התרחבות של ערכת הכלים שלהם לאיסוף מודיעין ושלב ניסויי בהערכת היכולות של טכנולוגיות חדשות.
נקטנו באמצעים עדי לשבש נכסים וחשבונות שמשויכים לגורמי איום ועיצבנו מעקה ביטחון ומנגנוני בטיחות סביב המודלים שלנו.
הונאה מבוססת על בינה מלאכותית היא דאגה קריטית נוספת. סינתוז קול הוא דוגמה לכך, שדגימת קול של שלוש שניות יכול לאמת מודל להישמע כמו כל אחד. אפילו משהו תמים כמו הודעת הפתיחה בדואר הקולי שלך יכולה לשמש לקבל דגימה מספקת.
הרבה מהדרך שבה אנחנו יוצאים אינטראקציה זה עם זה ומבצעים עסקים, מסתמכת על הוכחת זהות, כגון זיהוי קול, פנים, כתובת דואר אלקטרוני או סגנון כתיבה של אדם.
ההבנה שלנו לגבי האופן שבו גורמים זדוניים משתמשים בבינה מלאכותית כדי לערער מערכות הוכחת זהות ותיקות היא קריטית, כדי שנוכל להתמודד עם מקרי הונאה מורכבים ועם איומי הנדסה חברתית חדשים אחרים שמערפלים זהויות.
ניתן להשתמש בבינה מלאכותית גם כדי לעזור לחברות לשבש ניסיונות הונאה. על אף ש- Microsoft הפסיקה את המעורבות שלנו עם החברה בברזיל, מערכות הבינה המלאכותית שלנו מזהות את הניסיונות שלה לשקם את עצמה כדי להיכנס מחדש לאקוסיסטמה שלנו.
הקבוצה מנסה ללא הרף להאפיל את המידע שלה, להסתיר מקורות בעלות ולהיכנס מחדש, אך אמצעי זיהוי הבינה המלאכותית שלנו השתמשו בכמעט עשרה אותות סיכון כדי לסמן בדגל את חברה ההונאה ולשייך אותה להתנהגות שזוהתה בעבר כחשודה, ובכך חסמנו את הניסיונות שלה.
Microsoft מחויבת לבינה מלאכותית אחראית בהובלה אנושית שמציגה פרטיות ואבטחה עם בני אדם שמספקים פיקוח, ערעורי הערכה ומדיניות ותקנות מפורשות.
Microsoft מזהה כמות עצומה של תעבורה זדונית - מעל 65 טריליון אותו אבטחת סייבר ליום. בינה מלאכותית מחזקת את היכולת שלנו לנתח מידע זה ולוודא שהתובנות בעלות הערך הרב ביותר צפות על-פני השטח כדי לעזור לעצור איומים. אנחנו גם משתמשים במודיעין אותות כדי לחזק בינה מלאכותית יצרנית עבור הגנה מתקדמת מפני איומים, אבטחת נתונים ואבטחת זהות כדי לעזור למכינים לתפוס את מה שאחרים מחמיצים.
Microsoft משתמשים במספר שיטות כדי להגן על עצמה ועל הלקוחות שלה מפני איומי סייבר, לרבות זיהוי איומים תואם לבינה מלאכותית כדי לאתר שינויים באופן השימוש במשאבים או תעבורה ברשת; ניתוחים התנהגותיים כדי לזהות כניסות מסוכנות והתנהגות חריגה; מודלים של למידת מכונה (ML) כדי לזהות כניסות מסוכנות ותוכנה זדונית; מודלים של ’אפס אמון’ שבהם על בקשת גישה חייבת להיות מאומתת באופן מלא, להיות מאושרת ומוצפנת; ואימות תקינות מכשירים לפני שמכשיר יוכל להתחבר לרשת ארגונית.
מאחר שגורמי איום מבינים ש- Microsoft משתמשת באימות רב-גורמי (MFA) בקפידה כדי להגן על עצמה - על העובדים שלנו מוגדים להגנת MFA או ללא סיסמה - ראינו תוקפים שנשענים על הנדסה חברתית מתוך ניסיון לחשוף לסכנה את העובדים שלנו.
נקודות מגע עבור זה כוללים תחומים שבהם דברים בעלי ערך מועברים, כגון גרסאות ניסיון או תמחור לקידום מכירות של שירותים או מוצרים. בתחומים אלה, גניבה של מינוי אחד בכל פעם אינה רווחית עבור תוקפים, לכן הם מנסים להגדיר פעולות אלה באמצעות פעולות ולשנות את קנה המידה שלהן מבלי שיזהו אותם.
באופן טבעי, אנו בונים מודלי בינה מלאכותית שיזהו תוקפים אלה עבור Microsoft והלקוחות שלה. אנו מזהים חשבונות מזויפים של תלמידים ובתי ספר, חברות או ארגונים מזויפים ששינו את הנתונים הביוגרפיים של החברה שלהם או מסתירים זהויות אמתיות כדי לחמוק מסנקציות, להערים על בקרות או להסתיר עבירות מוסריות פליליות מהעבר כמו הרשאות בתחום השחיתות, ניסיונות גניבה וכן הלאה.
השימוש ב- GitHub Copilot, Microsoft Security Copilot ותכונות צ'אט אחרות של Copilot בתוך ההנדסה הפנימית ותשתית הפעולות שלנו עוזר למנוע תקריות שישפיעו על פעולות.
כדי לטפל באיומים על דואר אלקטרוני, Microsoft משפרת את היכולות שלה לאסוף אותות מעבר לקומפוזיציה של דוא"ל כדי להבין אם היא זדוניים. באמצעות בינה מלאכותית בידיים של גורמי איום, היה זרם של הודעות דוא"ל כתובות בצורה מושלמת שמשתפרות בשפה הברורה ושגיאות דקדוקיות אשר לעתים קרובות חושפות ניסיונות דיוג, מה שהופך את הזיהוישל ניסיונות לקשה יותר.
חינוך עובדים מתמשך וקמפיינים של מודעות ציבורית נחוצים כדי לעזור להיאבק בהנדסה חברתית, שהיא אחד המנופים שמסתמכים על 100% שגיאות אנושיות. ההיסטוריה לימדה אותנו שקמפיינים יעילים של מודעות ציבורית פועלים לשינוי התנהגות.
Microsoft מצפה שבינה מלאכותית תפתח טקטיקות של הנדסה חברתית, אשר יוצרות מתקפות מתוחכמות יותר כולל פעולות דיפ-פייק ושכפול קול, במיוחד אם התוקפים מאתרים טכנולוגיות בינה מלאכותית שפועלות ללא נהלים אחראים ובקרות אבטחה מוכללות.
מניעה היא גורם חשוב במאבק בכל איומי הסייבר, בין אם מדובר באיומים מסורתיים או תואמים לבינה מלאכותית.
קבל תובנות נוספות בנושא בינה מלאכותית מהומה הייטאייפר, מנהלת נתונים ניהוליים ומדע מוחל, מנהלת ניתוחי זיהוי.
כלים מסורתיים לא שומרים עוד על הקצב עם האיומים שפושעי סייבר מציבים. המהירות, קנה המידה והתחכום של מתקפות סייבר אחרונות, שהולכים וגדלים, דורשים גישה חדשה לאבטחה. בנוסף, בהינתן המחסור בכוח עבודה בתחום אבטחת הסייבר ועם עליית התדירות ומידת החומרה של איומי סייבר, גישור על פער זה במיומנות הוא צורך דחוף.
בינה מלאכותית יכול להטות את המאזניים עבור מגינים. מחקר אחרון אחד של Microsoft Security Copilot (נכון לעכשיו בשלב בדיקת תצוגה מקדימה ללקוחות) מראה מהירות מוגברת בניתוח אבטחה ודיוק, ללא קשר לרמת המומחיות שלהם, בין משימות נפוצות כגון זיהוי קבצי Script שתוקפים משתמשים בהם, יצירת דוחות תקרית וזיהוי שלבים מתאימים לתיקון.1
עקוב אחר 'האבטחה של Microsoft'