Numéro 6 de Cyber Signals
Chaque jour, plus de 2,5 milliards de détections basées sur le cloud et pilotées par l'IA protègent les clients de Microsoft.
Chaque jour, plus de 2,5 milliards de détections basées sur le cloud et pilotées par l'IA protègent les clients de Microsoft.
Aujourd'hui, le monde de la cybersécurité est en pleine transformation. L'intelligence artificielle est à la tête de cette évolution, constituant à la fois une menace et une opportunité. Si l'IA peut permettre aux organisations de déjouer les cyberattaques à la vitesse de la machine et favoriser l'innovation, l'efficacité de la détection des menaces, le repérage et la réponse aux incidents. Les adversaires peuvent eux aussi l'utiliser pour exploiter les failles. Il n'a jamais été aussi essentiel pour nous de concevoir, de déployer et d'utiliser l'IA en toute sécurité.
Chez Microsoft, nous exploitons le potentiel de l'IA pour renforcer nos mesures de sécurité, débloquer des protections nouvelles et avancées, ainsi que pour créer de meilleurs logiciels. Grâce à l'IA, nous avons le pouvoir de nous adapter à l'évolution des menaces, de détecter instantanément les anomalies, de réagir rapidement pour neutraliser les risques et d'adapter les défenses aux besoins d'une organisation.
L'IA peut également nous aider à relever un autre des plus grands défis du secteur. Face à la pénurie mondiale de main-d’œuvre dans le domaine de la cybersécurité, avec environ 4 millions de professionnels de la cybersécurité nécessaires dans le monde, l’IA a le potentiel d’être un outil essentiel pour combler le manque de personnel et aider les défenseurs à être plus productifs.
Nous avons déjà vu dans une étude comment Microsoft Security Copilot peut aider les analystes en sécurité, quel que soit leur niveau d’expertise. Pour toutes les tâches, les participants étaient 44 % plus précis et 26 % plus rapides.
Alors que nous cherchons à sécuriser l’avenir, nous devons veiller à trouver un équilibre entre être préparé à l’IA et exploiter ses avantages, car l’IA a le pouvoir d’élever le potentiel humain et de résoudre certains de nos défis les plus importants.
Un avenir plus sûr grâce à l'IA nécessite des avancées fondamentales dans le domaine du génie logiciel. Cela nous oblige à comprendre et à contrer les menaces que représente l'IA en tant qu'éléments essentiels de toute stratégie de sécurité. Nous devons travailler ensemble pour mettre en place une collaboration et des partenariats approfondis entre les secteurs public et privé afin de lutter contre les personnes malveillantes.
Dans le cadre de cet effort et de notre propre initiative Secure Future, OpenAI et Microsoft publient aujourd'hui de nouveaux renseignements détaillant les tentatives des acteurs de la menace de tester et d'explorer l'utilité des grands modèles de langage (LLM) dans les techniques d'attaque.
Nous œuvrons tous pour construire un avenir plus sûr, c’est pour cela que nous espérons que ces informations seront utiles à tous les secteurs d'activité. Parce qu'en fin de compte, nous souhaitons tous nous défendre.
Regardez le briefing numérique de Cyber Signals où Vasu Jakkal, vice-présidente de l’Entreprise Sécurité Microsoft, interroge les principaux experts en veille des cybermenaces à l’ère de l’IA sur les façons dont Microsoft utilise l’IA pour améliorer la sécurité, et ce que les organisations peuvent faire pour aider à renforcer la défense.
La cybermenace est un domaine de plus en plus offensif, les attaquants étant de plus en plus motivés, de plus en plus sophistiqués et disposant de ressources de plus en plus performantes. Les acteurs de la menace, tout comme les défenseurs, se tournent vers l'IA, y compris les grands modèles de langage, pour améliorer leur productivité et tirer parti de plateformes accessibles qui pourraient correspondre à leurs objectifs et à leurs techniques d'attaque.
Compte tenu de l'évolution rapide des menaces, nous annonçons aujourd'hui les principes de Microsoft qui guident nos actions visant à atténuer le risque que les acteurs de la menace, y compris les menaces avancées persistantes (APT), les manipulateurs avancés persistants (APM) et les syndicats de cybercriminels, utilisent des plateformes d'IA et des API. Ces principes comprennent l'identification et la lutte contre l'utilisation de l'IA par des acteurs de la menace malveillants, la notification à d'autres fournisseurs de services d'IA, la collaboration avec d'autres parties prenantes et la transparence.
Bien que les motivations et la sophistication des acteurs de la menace varient, ils ont des tâches communes lorsqu'ils déploient des attaques. Il s'agit notamment de la reconnaissance, comme la recherche des secteurs d'activité, des lieux et des relations des victimes potentielles, mais aussi du codage, y compris l'amélioration des scripts logiciels et le développement de logiciels malveillants, et enfin de l'aide à l'apprentissage et à l'utilisation des langages humains et des langages machine.
En collaboration avec OpenAI, nous partageons des renseignements sur les menaces qui montrent que des adversaires affiliés à l'État ont été détectés, sous les noms de Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Typhoon et Salmon Typhoon, et qu'ils utilisent des grands modèles de langage pour renforcer les cyber-opérations.
L'objectif du partenariat de recherche de Microsoft avec OpenAI est de garantir une utilisation sûre et responsable des technologies d'IA comme ChatGPT, en respectant les normes les plus strictes en matière d'application éthique afin de protéger la communauté d'une éventuelle utilisation abusive.
L'utilisation de grands modèles de langage par Emerald Sleet impliquait des recherches sur les groupes de réflexion et les experts de la Corée du Nord, ainsi que la génération de contenu susceptible d'être utilisé dans des campagnes d’harponnage. Emerald Sleet a également interagi avec les grands modèles de langage pour comprendre les vulnérabilités connues du public, résoudre les problèmes techniques et obtenir de l'aide pour l'utilisation de diverses technologies web.
Un autre groupe soutenu par la Chine, Salmon Typhoon, a évalué l'efficacité de l'utilisation des grands modèles de langage tout au long de l'année 2023 pour obtenir des informations sur des sujets potentiellement sensibles, des particuliers prestigieux, la géopolitique régionale, l'influence des États-Unis et les affaires internes. Cet engagement provisoire avec les grands modèles de langage pourrait refléter à la fois un élargissement de sa panoplie d'outils de collecte de renseignements et une phase expérimentale d'évaluation des capacités des technologies émergentes.
Nous avons pris des mesures pour perturber les ressources et les comptes associés à ces acteurs de la menace et façonner les garde-fous et les mécanismes de sécurité autour de nos modèles.
La fraude par IA est une autre préoccupation essentielle. La synthèse vocale en est un exemple : un échantillon de voix de trois secondes permet d'entraîner un modèle à avoir la voix de n'importe qui. Même quelque chose d'aussi anodin que le message d'accueil de votre boîte vocale peut être utilisé pour obtenir un échantillon suffisant.
Une grande partie de nos interactions et de nos relations commerciales reposent sur la vérification d'identité, comme la reconnaissance de la voix, du visage, de l'adresse e-mail ou du style d'écriture d'une personne.
Il est essentiel que nous comprenions comment les acteurs malveillants utilisent l'IA pour compromettre les systèmes de vérification d'identité en place depuis longtemps, afin que nous puissions lutter contre les fraudes complexes et à d'autres menaces émergentes de piratage psychologique qui obscurcissent les identités.
L'IA peut également être utilisée pour aider les entreprises à déjouer les tentatives de fraude. Bien que Microsoft ait mis fin à notre engagement avec une entreprise brésilienne, nos systèmes d'IA ont détecté ses tentatives de reconstitution pour réintégrer notre écosystème.
Le groupe a continuellement tenté d'obfusquer ses informations, de dissimuler ses propriétés et de se réinscrire, mais nos détections d'IA ont utilisé près d'une douzaine de signaux de risque pour marquer l'entreprise frauduleuse et l'associer à un comportement suspect précédemment reconnu, bloquant ainsi ses tentatives.
Microsoft s'est engagée à faire en sorte que l' IA dirigée par des êtres humains soit responsable et que la protection de la vie privée et la sécurité soient assurées par des êtres humains qui supervisent, évaluent les recours et interprètent les politiques et les réglementations.
Microsoft détecte un volume considérable de trafic malveillant : plus de 65 000 milliards de signaux de cybersécurité par jour. L'IA renforce notre capacité à analyser ces informations et à veiller à ce que les informations les plus précieuses soient mises en évidence pour aider à stopper les menaces. Nous utilisons également cette veille du signal pour alimenter l'IA générative pour la protection contre les menaces avancées, la sécurité des données et la sécurité des identités afin d'aider les défenseurs à détecter ce que les autres ne voient pas.
Microsoft utilise plusieurs méthodes pour se protéger et protéger ses clients contre les cybermenaces, notamment : la détection des menaces basée sur l'IA pour repérer les changements dans la manière dont les ressources ou le trafic sur le réseau sont utilisés, l'analyse comportementale pour détecter les connexions à risque et les comportements anormaux, les modèles d'apprentissage automatique (ML) pour détecter les connexions à risque et les logiciels malveillants, les modèles Confiance Zéro dans lesquels chaque demande d'accès doit être entièrement authentifiée, autorisée et chiffrée, et enfin, la vérification de l’intégrité de l’appareil avant qu'il puisse se connecter à un réseau d'entreprise.
Parce que les acteurs de la menace comprennent que Microsoft utilise rigoureusement l'authentification multifacteur (MFA) pour se protéger, l’authentification multifacteur ou la protection sans mot de passe sont configurés pour tous nos employés. Nous avons remarqué que les attaquants s'appuyer sur le piratage psychologique pour tenter de compromettre nos employés.
Les zones réactives sont les domaines où des éléments de valeur sont véhiculés, comme les essais gratuits ou les promotions sur les prix de services ou de produits. Dans ces domaines, il n'est pas rentable pour les attaquants de voler un seul abonnement à la fois, et ils tentent donc d'opérationnaliser et d'étendre ces attaques sans être détectés.
Naturellement, nous construisons des modèles d'IA afin de détecter ces attaques pour Microsoft et nos clients. Nous détectons les faux comptes d’étudiants et d’écoles, les fausses entreprises ou organisations qui ont modifié leurs données firmographiques ou dissimulé leur véritable identité afin d’échapper aux sanctions, de contourner les contrôles ou de cacher des transgressions criminelles antérieures telles que des condamnations pour corruption, des tentatives de vol, etc.
L’utilisation de GitHub Copilot, Microsoft Security Copilot et d’autres fonctionnalités de chat Copilot à notre infrastructure interne d’ingénierie et d’exploitation permet de prévenir les incidents susceptibles d’avoir un impact sur les opérations.
Pour faire face aux menaces liées aux e-mails, Microsoft améliore ses capacités à recueillir des signaux en plus de la composition d'un e-mail afin de déterminer s'il est malveillant. Avec l'IA entre les mains des acteurs de la menace, il y a eu un afflux d’e-mails parfaitement écrits qui améliorent les erreurs linguistiques et grammaticales évidentes qui révèlent souvent les tentatives d'hameçonnage, rendant les tentatives d'hameçonnage plus difficiles à détecter.
La formation continue des employés et les campagnes de sensibilisation du public sont nécessaires pour aider à lutter contre le piratage psychologique, le seul qui repose à 100 % sur l'erreur humaine. L'histoire nous a appris que les campagnes de sensibilisation efficaces permettent de modifier les comportements.
Microsoft prévoit que l'IA fera évoluer les tactiques de piratage psychologique, créant des attaques plus sophistiquées, y compris les deepfakes et le clonage vocal, en particulier si les attaquants trouvent des technologies d'IA fonctionnant sans pratiques responsables et contrôles de sécurité intégrés.
La prévention est la clé de la lutte contre toutes les cybermenaces, qu'elles soient traditionnelles ou liées à l'IA.
Pour en savoir plus sur l'IA, contactez Homa Hayatafar, responsable principal des données et des sciences appliquées, responsable de l’analyse de la détection.
Les outils traditionnels ne sont plus à la hauteur des menaces liées aux cybercriminels. La rapidité, l'ampleur et la sophistication croissantes des cyberattaques récentes exigent une nouvelle approche de la sécurité. En outre, compte tenu de la pénurie de main-d’œuvre dans le domaine de la cybersécurité et de l’augmentation de la fréquence et de la gravité des cybermenaces, il est urgent de combler ce manque.
L’IA peut faire pencher la balance du côté des défenseurs. Une étude récente de Microsoft Security Copilot (actuellement en phase d’aperçu client) a montré une augmentation de la vitesse et de la précision des analystes de sécurité, quel que soit leur niveau d’expertise, pour des tâches courantes telles que l’identification des scripts utilisés par les attaquants, la création de rapports d’incidents et l’identification des mesures correctives appropriées.1
Suivez la Sécurité Microsoft