This is the Trace Id: 258a3d95cc452f318543293e6213f393

 

Cyber Pulse: Ein KI-Sicherheitsbericht

Aktuelle Telemetriedaten und Forschungsergebnisse von Microsoft zeigen, dass viele Organisationen aktiv KI-Agenten einsetzen. Jetzt ist der Moment für Führungskräfte, Observability, Governance und Sicherheit konsequent zu etablieren.

Ausgabe 1: Einleitung

Innovative Unternehmen gestalten die Arbeitswelt neu: Menschen und Agenten agieren Seite an Seite, um menschliche Ambitionen auf ein neues Level zu heben. Aktuelle Microsoft-Daten zeigen, dass diese Mensch-Agenten-Teams weltweit zunehmen und immer breiter eingesetzt werden.

KI-Agenten verbreiten sich schneller, als manche Unternehmen sie erkennen können. Diese Wahrnehmungslücke birgt ein erhebliches Geschäftsrisiko. Um Agenten sicher zu integrieren, Innovationen zu fördern und Risiken zu minimieren, benötigen Organisationen dringend wirksame Governance und Sicherheit. Wie menschliche Nutzer benötigen auch KI-Agenten umfassenden Schutz durch Observability, Governance und hohe Sicherheit auf der Grundlage von Zero Trust-Prinzipien. In der nächsten Phase der KI-Einführung werden diejenigen Unternehmen erfolgreich sein, die schnell handeln und ihre Geschäfts-, IT-, Sicherheits- sowie Entwicklerteams zusammenbringen, um ihre KI-Transformation zu überwachen, zu steuern und abzusichern.

Heute erstellen und implementieren Kunden im gesamten Microsoft-Ökosystem Agenten auf allen wichtigen Plattformen – von Fabric und Foundry bis hin zu Copilot Studio und Agent Builder. Dies spiegelt den umfassenden Wandel hin zu KI-gestützter Automatisierung im Arbeitsalltag wider.

Die Erstellung von Agenten ist heute nicht mehr auf technische Rollen beschränkt – Mitarbeitende aus den unterschiedlichsten Bereichen erstellen und nutzen sie im täglichen Geschäft. Microsoft-Daten belegen, dass über 80 % der Fortune-500-Unternehmen aktive Agenten einsetzen, die mit Low-Code/No-Code-Tools entwickelt wurden.1 Angesichts der zunehmenden Nutzung von Agenten und der sich vervielfachenden Transformationsmöglichkeiten ist jetzt der richtige Zeitpunkt, um grundlegende Kontrollmechanismen zu etablieren.

Wie bei menschlichen Mitarbeitenden bedeutet Zero Trust für Agenten:
 

  • Zugriff mit geringstmöglichen Rechten: Jeder Nutzer, KI-Agent oder jedes System erhält nur die Zugriffsrechte, die unbedingt erforderlich sind – nicht mehr.

  • Explizite Verifizierung: Überprüfen Sie stets, wer oder was Zugriff anfordert anhand von Identität, Geräteintegrität, Standort und Risikostufe.

  • Von einer Kompromittierung als Möglichkeit ausgehen: Entwerfen Sie Systeme unter der Annahme, dass Angreifer eindringen werden.

Grafik zeigt: Über 80 % der Fortune-500-Unternehmen setzen aktiv Low-Code-Agenten-Tools wie Ask Copilot ein

KI-Agenten nehmen rasant zu, quer durch alle Regionen und Branchen

Der Einsatz von Agenten beschleunigt sich weltweit in allen Regionen – von EMEA-Ländern über Nord-, Mittel- und Südamerika bis hin zu Asien.2
 Balkendiagramm zur regionalen Verteilung: EMEA 42 %, USA 29 %, Asien 19 %, Amerika 10 %.
Microsoft beobachtet eine branchenübergreifende Zunahme von Agenten. Finanzdienstleistungen, Fertigung und Einzelhandel führen bei der Agentennutzung. Weltweit gesehen werden im Bereich der Finanzdienstleistungen – einschließlich Banken, Kapitalmärkte und Versicherungen – etwa 11 % aller aktiven Agenten verwendet.2 Die Fertigung macht 13 % der globalen Agentennutzung aus und zeigt einen breiten Einsatz in Fabriken, Lieferketten und Energieanlagen.2 Der Einzelhandel macht 9 % aus. Hier werden Agenten zur Verbesserung der Kundenerfahrung, der Bestandsverwaltung und von Abläufen in Service und Produktion eingesetzt.2

Der Haken: Einige dieser Agenten wurden von der IT-Abteilung genehmigt, andere hingegen nicht. Einige dieser Agenten sind sicher, andere nicht.
Überlappende Kreise veranschaulichen die Branchenverteilung: Software und Technologie 16 %, Fertigung 13 %, Finanzdienstleistungen 11 %, Einzelhandel 9 %.

Das Risiko von Doppelagenten

Die schnelle Bereitstellung von Agenten kann Sicherheits- und Compliance-Kontrollen unterlaufen und das Risiko von Schatten-KI erhöhen. Böswillige Akteure könnten den Zugriff und die Rechte von Agenten ausnutzen, wodurch diese zu unbeabsichtigten „Doppelagenten“ werden können. Wie menschliche Mitarbeitende kann auch ein Agent durch zu breiten Zugriff oder falsche Anweisungen zur Schwachstelle werden.

Die Gefahr, dass Doppelagenten ausgenutzt werden könnten, wenn sie nicht kontrolliert werden, falsche Zugriffsrechte haben oder durch nicht vertrauenswürdige Eingaben manipuliert werden, ist real, keine Theorie. Kürzlich entdeckte das Microsoft-Defender-Team eine Betrugskampagne, bei der mehrere Akteure eine KI-Angriffstechnik namens „Memory Poisoning“ nutzten, um das Gedächtnis von KI-Assistenten dauerhaft zu manipulieren und so zukünftige Antworten unauffällig zu steuern und das Vertrauen in die Systemgenauigkeit zu untergraben.

Im Rahmen einer unabhängigen Untersuchung in einer sicheren Testumgebung, durchgeführt vom AI Red Team von Microsoft, dokumentierten Forschende, wie Agenten durch irreführende Elemente der Benutzeroberfläche getäuscht wurden. So folgten sie beispielsweise schädlichen Anweisungen, die in alltäglichen Inhalten verborgen waren. Das Red Team entdeckte zudem, wie die Entscheidungsfindung von Agenten subtil durch manipulierte Aufgabenstellungen beeinflusst werden kann. Diese Erkenntnisse verdeutlichen, wie entscheidend es für Unternehmen ist, eine lückenlose Observability und Steuerung aller Agenten zu gewährleisten, die mit ihrer Organisation in Berührung kommen. Nur so können Kontrollen zentral durchgesetzt und Risiken in einem integrierten Ansatz zentral verwaltet werden.
Laut einer Umfrage aus dem Jahr 2025 setzen 29 % der Mitarbeitenden nicht autorisierte KI-Agenten für ihre Arbeitsaufgaben ein.
Laut dem Microsoft Data Security Index geben branchenübergreifend nur 47 % der Organisationen an, spezifische GenAI-Sicherheitskontrollen einzuführen,3 was eine klare Gelegenheit aufzeigt, die notwendige Transparenz für eine sichere KI-Einführung zu schaffen. Noch wichtiger: Laut einer multinationalen Umfrage unter mehr als 1.700 Datensicherheitsexperten, die Microsoft bei der Hypothesis Group in Auftrag gegeben hat, nutzen bereits 29 % der Mitarbeitenden unautorisierte KI-Agenten für ihre Arbeit.4
Das Kreisdiagramm zeigt, dass lediglich 47 Prozent der Organisationen Sicherheitskontrollen für den Einsatz generativer KI implementiert haben.

Wie viele Führungskräfte sind sich der Risiken bewusst, die der rasant steigenden Nutzung von KI zugrunde liegen? Wie viele Führungskräfte haben einen umfassenden Überblick über die in ihrem Unternehmen eingesetzten Agenten? Unkontrollierte oder unbeaufsichtigte KI-Agenten können Risiken im Unternehmen verstärken und damit dessen Sicherheit, Geschäftskontinuität und Reputation gefährden, wofür letztlich die Informationssicherheitsbeauftragten und die Geschäftsführung verantwortlich gemacht werden. Das ist der Kern eines Cyberrisiko-Dilemmas. KI-Agenten eröffnen neue Chancen am Arbeitsplatz und werden zunehmend in interne Abläufe integriert. Risikoreiches Verhalten von Agenten kann für unvorbereitete Organisationen jedoch Bedrohungen von innen verstärken und neue Fehlerquellen schaffen.

 

Die doppelte Natur der KI hat Einzug gehalten: außergewöhnliche Innovation gepaart mit nie dagewesenen Risiken.

Wie Sie das volle Potenzial Ihrer KI-Agenten ausschöpfen

Vorreiterunternehmen nutzen die KI-Welle, um ihre Governance zu modernisieren, die unnötige Zugänglichkeit von Daten zu minimieren und unternehmensweite Kontrollen zu implementieren. Dabei findet auch ein kultureller Wandel statt: Die Geschäftsleitungen steuern zwar die KI-Strategie, doch bei Beobachtung, Governance und sicherem Experimentieren agieren die IT- und Sicherheitsteams jetzt als gleichberechtigte Partner. Für diese Unternehmen ist die Absicherung von Agenten kein Hindernis, sondern ein Wettbewerbsvorteil, der darauf basiert, KI-Agenten wie Menschen zu betrachten und dieselben Zero-Trust-Prinzipien auf sie anzuwenden.

Der Ausgangspunkt ist die Observability: Sie können nur schützen, was Sie sehen, und nur steuern, was Sie verstehen. Observability bedeutet, eine Steuerungsebene über alle Organisationsebenen (IT, Sicherheit, Entwickler und KI-Teams) hinweg zu schaffen, um ein besseres Verständnis der folgenden Aspekte zu erlangen:

  • Welche Agenten vorhanden sind
     

  • Wer für sie verantwortlich ist
     

  • Mit welchen Systemen und Daten sie in Berührung kommen
     

  • Wie sie sich verhalten


 

Observability umfasst fünf Kernbereiche:

  • Ein zentrales Register fungiert als einzelne, verlässliche Quelle für alle Agenten im Unternehmen – genehmigte, Drittanbieter- sowie aufkommende Schattenagenten. Dieses Inventar verhindert eine Agentenflut, sorgt für Transparenz und stellt Verantwortlichkeiten klar und ermöglicht es, nicht genehmigte Agenten bei Bedarf einzuschränken oder zu isolieren.
  • Jeder Agent wird über dieselben identitäts- und richtlinienbasierten Zugriffskontrollen verwaltet wie dies bei menschlichen Nutzern und Anwendungen der Fall ist. Durch einheitlich durchgesetzte Zugriffsrechte mit dem geringstmöglichen Berechtigungsumfang wird sichergestellt, dass Agenten nur auf die Daten, Systeme und Arbeitsabläufe zugreifen können, die sie für ihre Aufgabe benötigen – nicht mehr und nicht weniger.
  • Echtzeit-Dashboards und Telemetriedaten liefern Einblicke in die Art und Weise, wie Agenten mit Menschen, Daten und Systemen interagieren. Führungskräfte gewinnen Transparenz darüber, wo Agenten aktiv sind, können Abhängigkeiten nachvollziehen und Verhalten sowie Auswirkungen überwachen. Dadurch können Missbrauch, Abweichungen oder neue Risiken schneller erkannt werden.
  • Agenten agieren über Microsoft-Plattformen, Open-Source-Frameworks und Drittanbieter-Ökosysteme hinweg unter einem einheitlichen Governance-Modell. Diese Interoperabilität ermöglicht es Agenten, nahtlos mit Menschen und anderen Agenten in Arbeitsabläufen zusammenzuarbeiten, während sie weiterhin unternehmensinternen Kontrollmechanismen unterliegen.
  • Integrierte Schutzmechanismen schützen Agenten vor internem Missbrauch und externen Bedrohungen. Sicherheitsmeldungen, Richtlinienerzwingung und integrierte Tools helfen Organisationen, kompromittierte oder fehlausgerichtete Agenten frühzeitig zu erkennen und schnell zu reagieren, bevor aus einem Problem geschäftliche, regulatorische oder imagebezogene Schäden entstehen.

Die Lücke schließen: Checkliste für KI-Governance und -Sicherheit

Der Ansatz zur Kontrolle von KI-Risiken ist klar: Behandeln Sie KI-Agenten mit derselben Konsequenz wie Mitarbeitende oder Software-Servicekonten. Die folgenden sieben Punkte gehören auf Ihre Checkliste.
  • Dokumentieren Sie den Zweck jedes KI-Agenten und gewähren Sie ihm nur die unbedingt notwendigen Zugriffsrechte. Keine weitreichenden Berechtigungen.
  • Wenden Sie Datenschutzrichtlinien konsequent auf KI-Kanäle an. Führen Sie lückenlose Prüfprotokolle und kennzeichnen Sie KI-generierte Inhalte als solche.
  • Bieten Sie sichere Alternativen an, um Schatten-KI effektiv einzudämmen. Blockieren Sie unautorisierte Anwendungen.
  • Aktualisieren Sie Ihre Notfallpläne zur Geschäftskontinuität um KI-spezifische Szenarien. Führen Sie Simulationen durch und überwachen Sie Observability-Kennzahlen in den Bereichen Identität, Daten und Bedrohungen.
  • Bauen Sie jetzt eine umfassende KI-Governance auf: Dokumentieren Sie Trainingsdaten, bewerten Sie Verzerrungen und etablieren Sie eine menschliche Aufsicht in den Bereichen Recht, Daten und Sicherheit. So ist regulatorische Compliance von Anfang an integriert, statt nachträglich angehängt.
  • Gehen Sie KI-Risiken auf das gesamte Unternehme bezogen an – mit klaren Verantwortlichkeiten auf Führungsebene, messbaren KPIs und Transparenz auf Vorstandsebene neben finanziellen und operativen Risiken.
  • Schulen Sie Mitarbeitende im sicheren Umgang mit KI. Fördern Sie Transparenz und Zusammenarbeit.

Organisationen, die KI-Agenten erfolgreich nutzen, setzen auf umfassende Observability, Governance und Sicherheit. Das gelingt nur durch teamübergreifende Zusammenarbeit und lückenlose Observability von KI-Agenten auf allen Organisationsebenen: IT-Abteilung, Sicherheitsteams, KI-Teams und Entwickler – zentral verwaltet und überwacht über eine vereinheitlichte Kontrollplattform.

Agent 365 ist Microsofts zentrale Steuerungsebene zur Verwaltung von KI-Agenten im gesamten Unternehmen. Die Lösung bietet ein zentrales System der Enterprise-Klasse für Registrierung, Steuerung, Absicherung, Überwachung und Betrieb von KI-Agenten, unabhängig davon, ob sie auf Microsoft-Plattformen, Open-Source-Frameworks oder Drittanbieterlösungen basieren. Weitere Informationen zu Microsoft-Produkten und -Diensten zur Absicherung von KI und Agenten finden Sie hier.
Microsoft Security-Ressourcenkarten mit Leitfäden zu KI-Anwendungen, Governance und Compliance auf blauem Hintergrund
Leitfäden zur Absicherung von KI

Microsoft-Leitfäden zur Absicherung des KI-gestützten Unternehmens

Nutzen Sie unsere praxisorientierten Leitfäden zum Aufbau einer soliden KI-Grundlage, einschließlich Aspekten wie Governance, Sicherheit von KI-Anwendungen und Umsetzung von Compliance.

Weitere Ressourcen

Eine Person arbeitet an einem Laptop in einem gemeinsamen Arbeitsbereich und prüft Informationen auf dem Smartphone.

Microsoft Data Security Index

Erhalten Sie wertvolle Einblicke darüber, wie generative KI die Datensicherheit revolutioniert.
Eine Sprecherin auf einer Bühne mit Einblendungen mit folgenden Texten: Risiken verstehen, passende Kontrollen implementieren, Messung und Überwachung

Mehr Chancen durch vertrauenswürdige KI

Erfahren Sie von Microsoft-Experten, wie Sie Vertrauen in jede Phase der KI-Nutzung aufbauen können.
Ein blau-weißes Symbol zeigt ein Blatt Papier in einem Briefumschlag mit dem Text „Neu“.

CISO-Digest abonnieren

Bleiben Sie mit dieser zweiwöchentlichen E-Mail-Serie über Experteneinsichten, Branchentrends und Sicherheitsforschung auf dem Laufenden.
  1. [1]
    Basierend auf Microsoft-eigener Telemetriedaten zu Agenten, die mit Microsoft Copilot Studio oder Microsoft Agent Builder erstellt und in den letzten 28 Tagen im November 2025 aktiv genutzt wurden.
  2. [2]
    Branchenbezogene und regionale Agentenmetriken wurden auf der Grundlage Microsoft-eigener Telemetriedaten zu Agenten erstellt, die mit Microsoft Copilot Studio oder Microsoft Agent Builder erstellt und in den letzten 28 Tagen im November 2025 aktiv genutzt wurden.
  3. [3]
    Multinationale Umfrage im Juli 2025 unter über 1.700 Datensicherheitsfachleuten, von Microsoft bei Hypothesis Group in Auftrag gegeben.
  4. [4]

    Microsoft Data Security Index 2026: Unifying Data Protection and AI Innovation, Microsoft Security, 2026

     

    Methodik:

     

    Branchenbezogene und regionale Agentenmetriken wurden auf der Grundlage Microsoft-eigener Telemetriedaten zu Agenten erstellt, die mit Microsoft Copilot Studio oder Microsoft Agent Builder erstellt und in den letzten 28 Tagen im November 2025 aktiv genutzt wurden.

     

    2026 Data Security Index:

     

    Vom 16. Juli bis 11. August 2025 wurde eine 25-minütige, multinationale Online-Umfrage unter 1.725 Führungskräften im Bereich Datensicherheit durchgeführt.

     

    Die Fragen drehten sich hauptsächlich um die Datensicherheitslandschaft, Vorfälle im Bereich der Datensicherheit, die Nutzung von GenAI durch Mitarbeitende und den Einsatz von GenAI in Datensicherheitsprogrammen, um Vergleiche mit dem Jahr 2024 zu ermöglichen.

     

    Einstündige, detaillierte Interviews mit zehn Führungskräften im Bereich Sicherheit aus den USA und dem Vereinigten Königreich lieferten wertvolle Einblicke in ihre Herangehensweise an die Datensicherheit.

     

    Begriffsdefinitionen:

     

    Aktive Agenten sind 1) in der Produktion im Einsatz und 2) weisen in den letzten 28 Tagen „echte Aktivitäten“ in Verbindung mit ihnen auf.

     

    „Echte Aktivität“ bedeutet mindestens eine Nutzerinteraktion (assistive Agenten) ODER mindestens eine autonome Ausführung (autonome Agenten).

Microsoft Security folgen