
News für Developer
Artificial Intelligence
Sie träumen es. KI hilft dabei, es zu erstellen.
Dokumentation
Offiziell verfügbar: Prompt Shields bei Azure AI
Es gibt eine neue Funktion bei Azure AI: Prompt Shields. Diese Sicherheitsmaßnahme schützt Anwendungen, die auf großen Sprachmodellen wie GPT basieren, vor zwei Hauptarten von Angriffen, direkten Angriffen (auch als "Jailbreak-Angriffe" bekannt) und indirekten Angriffen.
Was sind indirekte Angriffe?
Indirekte Angriffe, auch bekannt als Cross-Domain Prompt Injection Attacks, zielen darauf ab, generative KI-Modelle zu manipulieren, indem sie schädliche Inhalte in die Eingabedaten schleusen. Ein Beispiel: Ein Angreifer könnte eine E-Mail mit versteckten Anweisungen senden, die dein KI-Tool dazu bringen, unerwünschte Aktionen auszuführen, wie etwa vertrauliche Informationen zu extrahieren oder gefährliche Webseiten zu besuchen. Diese Art von Angriff ist besonders tückisch, da sie oft in scheinbar harmlosen Daten versteckt ist und nicht vom ursprünglichen Benutzenden oder Developer stammt.
Unterschiede zwischen direkten und indirekten Angriffen
Direkte Angriffe erfolgen durch den Benutzenden selbst, der versucht, das Sprachmodell dazu zu bringen, seine Systemvorgaben zu ignorieren. Indirekte Angriffe hingegen werden durch Dritte ausgelöst, die über eingebettete Inhalte in E-Mails, Dokumenten oder Webseiten schädliche Anweisungen einschleusen. Während direkte Angriffe oft offensichtliche Schlüsselwörter oder Phrasen wie „Ignoriere vorherige Anweisungen“ verwenden, sind indirekte Angriffe subtiler und schwerer zu erkennen, da sie sich nahtlos in reguläre Kommunikation einfügen können.
Was bedeutet das für dich?
Wenn du Anwendungen entwickelst, die externe Daten verarbeiten, ist es entscheidend, Maßnahmen gegen indirekte Prompt-Angriffe zu ergreifen. Die neuen Funktionen der Azure AI Prompt Shields bieten dir genau diese Sicherheit, indem sie nicht nur direkte, sondern auch versteckte Bedrohungen abwehren. Dadurch bleibt dein KI-Tool zuverlässig und sicher, selbst wenn es mit unzuverlässigen oder manipulierten Daten konfrontiert wird.
Erste Schritte mit Prompt Shields
Um von dieser neuen Sicherheitsfunktion zu profitieren, kannst du dich in der Azure AI Content Safety Dokumentation weiter informieren oder direkt in Azure AI Studio starten. Bleibe einen Schritt voraus und schütze deine Anwendungen mit den neuesten Sicherheitsfeatures von Azure AI!
Teilen auf