This is the Trace Id: e628c1ae07d16539efd82e9a58cbd6c6

 

Cyber Pulse: En AI-sikkerhedsrapport

Ny telemetri og forskning fra Microsoft viser, at mange organisationer allerede har taget AI-agenter i brug. Det er nu, ledere skal handle og implementere overvågning, styring og sikkerhed.

Udgave 1: Introduktion

Frontløberorganisationer omdefinerer arbejdsprocesser, hvor mennesker og agenter arbejder side om side for at løfte menneskelig ambition. Nye Microsoft-data viser, at disse menneske-agent-teams vokser og bliver taget i brug globalt.

AI-agenter vokser hurtigere, end mange virksomheder kan følge med, og dette synlighedsgab udgør en betydelig forretningsrisiko. Organisationer har akut behov for effektiv styring og sikkerhed for sikkert at kunne implementere agenter, fremme innovation og minimere risici. Ligesom menneskelige brugere kræver AI-agenter beskyttelse gennem overvågning, styring og robust sikkerhed baseret på Zero Trust-principper. De virksomheder, der lykkes med næste fase af ibrugtagning af kunstig intelligens, er dem, der handler hurtigt og samler forretning, it, sikkerhed og udvikling for sammen at overvåge, styre og sikre deres AI-transformation.

På tværs af Microsofts økosystem bygger og implementerer kunder nu agenter på alle større platforme – fra Fabric og Foundry til Copilot Studio og Agentgenerator – hvilket afspejler et bredt skifte mod AI-drevet automatisering i arbejdsprocesserne.

Agentudvikling er ikke længere forbeholdt tekniske roller. I dag skaber og anvender medarbejdere på tværs af funktioner agenter i deres daglige arbejde. Microsoft-data viser faktisk, at over 80 % af Fortune 500-virksomhederne aktivt implementerer agenter bygget med low-code-/no-code-værktøjer.1 Med agenternes voksende udbredelse og de mange muligheder for transformation er det nu afgørende at etablere de grundlæggende kontrolmekanismer.

Ligesom for mennesker betyder Zero Trust for agenter :
 

  • Adgang med minimale rettigheder: Giv hver bruger, AI-agent eller system kun den adgang, der er absolut nødvendig – ikke mere.

  • Eksplicit bekræftelse: Bekræft altid, hvem eller hvad der anmoder om adgang, baseret på identitet, enhedens tilstand, placering og risikoniveau.

  • Antag, at kompromittering kan ske: Design systemer med forventning om, at angribere kan trænge ind.

Grafik, der viser, at over 80 % af Fortune 500-virksomheder anvender aktive low-code-agentværktøjer – Spørg Copilot

AI-agenter vokser hurtigt – på tværs af alle områder og brancher

Ibrugtagning af agenter tager fart globalt – fra EMEA til Nord- og Sydamerika og Asien.2
 Søjlediagram, der illustrerer den regionale fordeling: EMEA 42 %, USA 29 %, Asien 19 % og Amerika 10 %.
Microsoft oplever vækst i agentbrug på tværs af alle brancher. Finansielle tjenester, produktion og detailhandel fører an i ibrugtagning af agenter. Finansielle tjenester – herunder bankvæsen, kapitalmarkeder og forsikring – udgør nu cirka 11 % af alle aktive agenter globalt.2 Fremstillingsindustrien står for 13 % af den globale agentbrug og viser bred ibrugtagning i fabrikker, forsyningskæder og energidrift.2 Detailhandel udgør 9 %, hvor agenter anvendes til at forbedre kundeoplevelsen, lagerstyring og frontlinjeprocesser.2

Udfordringen: Nogle af disse agenter er godkendt af it-afdelingen – andre er ikke. Nogle af disse agenter er sikre – andre er ikke.
Overlappende cirkler, der illustrerer branchefordelingen: Software og teknologi 16 %, produktion 13 %, finansielle tjenester 11 % og detailhandel 9 %.

Risikoen ved dobbeltagenter

Den hurtige udrulning af agenter kan overhale sikkerheds- og overholdelseskontroller og øge risikoen for skygge-AI. Ondsindede aktører kan udnytte agenters adgang og rettigheder og gøre dem til utilsigtede "dobbeltagenter". Ligesom mennesker kan en agent med for meget adgang eller forkerte instruktioner blive en sårbarhed.

Truslen om, at dobbeltagenter udnyttes, hvis de ikke styres korrekt, får forkerte tilladelser eller manipuleres af utroværdige input, er ikke blot en teoretisk risiko. For nylig identificerede Microsofts Defender-team en svindelkampagne, hvor flere aktører udnyttede en AI-angrebsteknik kendt som "memory poisoning" til at manipulere AI-assistenters hukommelse på en vedvarende måde, hvilket stille og roligt styrer fremtidige svar og svækker tilliden til systemets nøjagtighed.

I uafhængig, sikker testbed-forskning udført af Microsofts eget AI Red Teamdokumenterede forskere, hvordan agenter blev vildledt af bedrageriske grænsefladeelementer, som at følge skadelige instruktioner indlejret i hverdagsindhold. Red Team opdagede også, hvordan agenters ræsonnement kunne blive subtilt omdirigeret gennem manipuleret opgaveformulering. Disse fund understreger, hvorfor det er afgørende for virksomheder at have fuld overvågning af og kontrol med alle agenter, der interagerer med virksomheden, så kontroller kan håndhæves centralt, og risici kan håndteres samlet i en integreret tilgang.
29 procent af medarbejderne anvender uautoriserede AI-agenter til arbejdsopgaver, viser en undersøgelse fra 2025
Ifølge Microsofts Data Security Index rapporterer kun 47 % af organisationer på tværs af brancher, at de har implementeret specifikke GenAI-sikkerhedskontroller,3 hvilket understreger en mulighed for, at organisationer kan få den tydelige synlighed, der er nødvendig for sikker ibrugtagning af kunstig intelligens. Endnu vigtigere viser en multinational undersøgelse blandt over 1.700 datasikkerhedseksperter, bestilt af Microsoft og udført af Hypothesis Group, at 29 % af medarbejderne allerede anvender ikke-godkendte AI-agenter til arbejdsopgaver.4
Cirkeldiagram, der viser, at kun 47 % af organisationerne har implementeret sikkerhedskontroller for brugen af generativ AI.

Når ibrugtagning tager fart, hvor mange ledere er så egentlig bevidste om de underliggende risici? Hvor mange ledere har egentlig overblik over deres agentpopulation? Uovervågede eller ikke-styrede AI-agenter kan forstærke virksomhedens risici – true sikkerhed, forretningskontinuitet og omdømme, og det ender altid hos CISO'en og ledelsen. Dette er kernen i et komplekst cyberrisikodilemma. AI-agenter åbner nye muligheder på arbejdspladsen og bliver en integreret del af intern drift. Men en agents risikable adfærd kan forstærke interne trusler og skabe nye fejlscenarier for organisationer, der ikke er forberedt på at håndtere dem.

 

Den dobbelte natur ved kunstig intelligens har vist sig: banebrydende innovation kombineret med hidtil usete risici.

Få mest muligt ud af dine AI-agenter

Frontløbervirksomheder udnytter AI-bølgen til at modernisere styring, minimere unødvendig dataeksponering og implementere virksomhedsomfattende kontroller. Samtidig finder et kulturelt skifte sted: Forretningsledere ejer AI-strategien, mens it- og sikkerhedsteams nu er ægte partnere i overvågning, styring og sikker eksperimentering. For disse organisationer er sikring af AI-agenter ikke en begrænsning, men en konkurrencefordel – baseret på at behandle AI-agenter som mennesker og anvende de samme Zero Trust-principper.

Det starter med overvågning – du kan ikke beskytte det, du ikke kan se, og du kan ikke styre det, du ikke forstår. Observerbarhed betyder at have en samlet kontrolflade på tværs af alle lag i organisationen (it, sikkerhed, udviklere og AI-teams) for at forstå:

  • Hvilke agenter der findes
     

  • Hvem der ejer dem
     

  • Hvilke systemer og data de har adgang til
     

  • Hvordan de opfører sig


 

Observabilitet omfatter fem kerneområder:

  • Et centraliseret register fungerer som en enkelt sandhedskilde for alle agenter i organisationen – godkendte, tredjeparts- og skjulte agenter. Dette register hjælper med at forhindre ukontrolleret spredning af agenter, sikrer ansvarlighed og understøtter opdagelse, samtidig med at ikke-godkendte agenter kan begrænses eller isoleres efter behov.
  • Hver agent styres med de samme identitets- og politikbaserede adgangskontroller som for menneskelige brugere og programmer. Minimale tilladelser, håndhævet konsekvent, sikrer, at agenter kun får adgang til de data, systemer og arbejdsprocesser, der er nødvendige for deres formål – ikke mere, ikke mindre.
  • Dashboards og telemetri i realtid giver indsigt i, hvordan agenter interagerer med mennesker, data og systemer. Ledere kan se, hvor agenter opererer, forstå afhængigheder og overvåge adfærd og påvirkning – hvilket muliggør hurtigere opdagelse af misbrug, afvigelser eller nye risici.
  • Agenter fungerer på Microsoft-platforme, open source-strukturer og tredjepartsøkosystemer under en ensartet styringsmodel. Denne interoperabilitet gør det muligt for agenter at samarbejde med mennesker og andre agenter på tværs af arbejdsprocesser, samtidig med at de forbliver administreret under de samme virksomhedskontroller.
  • Indbyggede beskyttelser sikrer agenter mod intern misbrug og eksterne trusler. Sikkerhedssignaler, politikhåndhævelse og integrerede værktøjer hjælper organisationer med tidligt at opdage kompromitterede eller fejljusterede agenter og reagere hurtigt, inden problemer udvikler sig til forretningsmæssige, regulatoriske eller omdømmemæssige skader.

Luk sikkerhedsgabet: Tjekliste for AI-styring og sikkerhed

Vejen til at håndtere AI-risici er klar: Behandl AI-agenter med samme stringens som enhver medarbejder eller softwarekonto. Her er syv punkter til din tjekliste.
  • Dokumentér formålet med hver AI-agent, og giv kun adgang til det, den har brug for. Ingen brede rettigheder.
  • Anvend databeskyttelsesregler på AI-kanaler. Oprethold revisionsspor, og mærk AI-genereret indhold.
  • Tilbyd sikre alternativer for at begrænse skygge-AI. Bloker uautoriserede apps.
  • Opdater beredskabsplaner for forretningskontinuitet med AI-scenarier. Afhold øvelser, og følg observerbarhedsmålinger på tværs af identitets-, data- og trusselsområder.
  • Opbyg AI-styring, og foretag selvregulering nu – dokumentér træningsdata, vurder bias og etabler menneskelig overvågning inden for jura, data og sikkerhed, så overholdelse af regler er integreret fra starten og ikke blot tilføjes senere.
  • Løft AI-risiko til virksomhedsniveau – skab ledelsesansvar, målbare KPI’er og synlighed på bestyrelsesniveau sammen med finansielle og driftsmæssige risici.
  • Uddan medarbejdere i sikker brug af AI. Tilskynd til gennemsigtighed og samarbejde.

De organisationer, der lykkes med AI-agenter, er dem, der prioriterer overvågning, styring og sikkerhed. Det kræver tværgående samarbejde og overvågning af AI-agenter på alle niveauer i organisationen: it-fagfolk, sikkerhedsteams, AI-teams og udviklere – alt sammen styret og overvåget via en samlet, central kontrolplatform.

Agent 365 er Microsofts samlede kontrolplatform til styring af AI-agenter på tværs af organisationen. Den tilbyder et centralt system i virksomhedsklasse til registrering, styring, sikring, overvågning og drift af AI-agenter – uanset om de er baseret på Microsoft-platforme, open source-strukturer eller trejdepartssystemer. Du kan finde flere oplysninger om Microsoft-produkter og -tjenester, der hjælper med at sikre kunstig intelligens og agenter, her.
Microsoft Security-ressourcekort med vejledninger til AI-programmer, AI-styring og AI-overholdelse på blå baggrund
Vejledninger til sikring af AI

Microsoft-vejledninger til sikring af den AI-drevne virksomhed

Få vejledning til at bygge et solidt fundament for kunstig intelligens, herunder hvordan du styrer og sikrer AI-programmer samt opretholder overholdelse.

Flere ressourcer

En person arbejder på en bærbar computer ved et fælles arbejdsbord, mens vedkommende tjekker oplysninger på en smartphone

Microsoft Data Security Index

Få indsigt i, hvordan generativ AI omformer datasikkerhed.
En præsentationsvært står på en scene med skærmtekst om at forstå risici, implementere de rette kontroller samt måle og overvåge

Sætter skub i mulighederne med pålidelig AI

Hør Microsoft-ledere dele konkrete metoder til at opbygge tillid gennem hele din AI-rejse.
Et blåt og hvidt ikon, der viser en kuvert med teksten Ny.

Hent CISO Digest

Hold dig på forkant med ekspertviden, branchetendenser og sikkerhedsforskning i denne halvårlige mailserie.
  1. [1]
    Baseret på Microsofts egen telemetri, der måler agenter udviklet med Microsoft Copilot Studio eller Microsoft Agentgenerator, som var aktive i de sidste 28 dage af november 2025.
  2. [2]
    Branchens og regionale agentmålinger blev oprettet med Microsofts egen telemetri, der måler agenter udviklet med Microsoft Copilot Studio eller Microsoft Agentgenerator, som var aktive i de sidste 28 dage af november 2025.
  3. [3]
    Juli 2025: Multinational undersøgelse blandt over 1.700 datasikkerhedseksperter, bestilt af Microsoft via Hypothesis Group
  4. [4]

    Microsoft Data Security Index 2026: Sammenføring af databeskyttelse og AI-innovation, Microsoft Security, 2026

     

    Metodologi:

     

    Branchens og regionale agentmålinger blev oprettet med Microsofts egen telemetri, der måler agenter udviklet med Microsoft Copilot Studio eller Microsoft Agentgenerator, som var aktive i de sidste 28 dage af november 2025.

     

    2026 Data Security Index:

     

    En 25-minutters multinational onlineundersøgelse blev gennemført fra 16. juli til 11. august 2025 blandt 1.725 ledere inden for datasikkerhed.

     

    Spørgsmålene fokuserede på datasikkerhedslandskabet, datasikkerhedshændelser, sikring af medarbejderes brug af GenAI samt anvendelsen af GenAI i datasikkerhedsprogrammer for at fremhæve sammenligninger med 2024.

     

    Der blev gennemført én time lange dybdegående interviews med 10 ledere inden for datasikkerhed i USA og Storbritannien om deres tilgang til datasikkerhed i deres organisationer.

     

    Definitioner:

     

    Aktive agenter er 1) udrullet i produktion og 2) har haft "reel aktivitet" i forbindelse med dem i de sidste 28 dage.

     

    "Reel aktivitet" defineres som mindst 1 interaktion med en bruger (assisterende agenter) ELLER mindst 1 autonom kørsel (autonome agenter).

Følg Microsoft Security