In den Azure AI Content Safety-Diensten von Microsoft wurden erhebliche Schwachstellen entdeckt. Diese Schwachstellen ermöglichen es Angreifern, Sicherheitsvorkehrungen zu umgehen und schädliche KI-generierte Inhalte zu verbreiten. Lesen Sie diesen Cybersecurity Threat Advisory weiter, um zu erfahren, welche Auswirkungen diese Schwachstellen haben und welche Sicherheitsmaßnahmen Sie zum Schutz Ihres Unternehmens ergreifen sollten.
Welcher Art ist die Bedrohung?
Angreifer nutzen Techniken wie die Zeicheninjektion und die Umgehung des maschinellen Lernens, um die Azure AI Content Safety-Dienste auszunutzen.
- Zeicheninjektion: Eine Technik, bei der Text durch das Einfügen oder Ersetzen von Zeichen durch bestimmte Symbole oder Sequenzen verändert wird, wie z.B. diakritische Zeichen, Homoglyphen, numerische Ersetzungen, Leerzeichen oder Zeichen mit Null-Breite. Daher können diese subtilen Änderungen das Modell dazu verleiten, Inhalte falsch zu klassifizieren, sodass Angreifer die Interpretation des Modells beeinflussen und die Analyse beeinträchtigen können. Ziel ist es, die Leitplanke zu umgehen, indem Inhalte falsch klassifiziert werden.
- Adversarial Machine Learning (AML): Dabei werden die Eingabedaten mithilfe bestimmter Techniken verändert, um die Vorhersagen des Modells zu fälschen. Zu diesen Techniken gehören Störungen, Wortersetzungen, Rechtschreibfehler und andere Manipulationen. Durch die sorgfältige Auswahl und Änderung von Wörtern können Angreifer das Modell dazu bringen, die beabsichtigte Bedeutung der Eingabe falsch zu interpretieren.
Sobald der Angreifer sowohl die KI-Textmoderation als auch den Prompt-Schutzschild umgeht, kann er schädliche Inhalte einschleusen, die Antworten des Modells manipulieren oder sensible Daten kompromittieren. Dieser Einblick stellt unsere Vorstellung davon in Frage, was für die Schaffung wirksamer KI-Leitplanken erforderlich ist.
Warum ist dies bemerkenswert?
Azure AI Content Safety ist ein Cloud-basierter Service, der Entwicklern bei der Einrichtung von Sicherheitsleitplanken für KI-Anwendungen hilft, indem er ungeeignete Inhalte festellt und verwaltet. Es werden fortschrittliche Techniken eingesetzt, um schädliches Material, einschließlich Hassreden und explizite oder anstößige Inhalte, herauszufiltern. Azure OpenAI nutzt ein großes Sprachmodell (LLM), das mit Prompt Shield und KI-Textmoderationsleitplanken ausgestattet ist, um Eingaben und KI-generierte Inhalte zu validieren. Viele Menschen verlassen sich auf den Azure AI Content Safety-Dienst von Microsoft, um verantwortungsvolles KI-Verhalten zu gewährleisten.
Die beiden Sicherheitslücken in diesen Leitplanken, die KI-Modelle vor Jailbreaks und Prompt-Injection-Angriffen schützen sollen, bedeuten jedoch, dass Angreifer sowohl die Leitplanken für die KI-Textmoderation als auch für den Prompt-Schutz umgehen können, so dass sie schädliche Inhalte einspeisen, die Antworten des Modells manipulieren oder sogar sensible Informationen kompromittieren können.
Wie hoch ist Risiko einer Exposition?
Diese Schwachstellen führen dazu, dass Entwickler und Benutzer bei den von der KI generierten Ausgaben stärker auf schädliche, unangemessene oder manipulierte Inhalte achten müssen.
Welche Empfehlungen haben Sie?
Barracuda empfiehlt die folgenden Maßnahmen, um Ihre Umgebung vor diesen Schwachstellen zu schützen:
- Überprüfen Sie regelmäßig die von KI-Modellen retournierten Daten, um Risiken im Zusammenhang mit böswilligen oder unvorhersehbaren Benutzeraufforderungen zu erkennen und zu mindern.
- Richten Sie unternehmensweite Überprüfungsmechanismen ein, um sicherzustellen, dass alle verwendeten KI-Modelle legitim und sicher sind.
- Verwenden Sie ein KI-Gateway, um eine konsistente Sicherheit für KI-Workloads zu gewährleisten.
Referenzen
Ausführlichere Informationen zu den Empfehlungen finden Sie unter den folgenden Links:
- https://hackread.com/azure-ai-vulnerabilities-bypass-moderation-safeguards/
- https://www.secureblink.com/cyber-security-news/azure-ai-vulnerability-exposes-guardrail-flaws-how-safe-are-ai-moderation-tools
Dieser Bedrohungshinweis wurde ursprünglich auf SmarterMSP.com veröffentlicht.

Der Ransomware Insights Bericht 2025
Wichtige Erkenntnisse über die Erfahrungen und Auswirkungen von Ransomware auf Unternehmen weltweit
Abonnieren Sie den Barracuda-Blog.
Melden Sie sich an, um aktuelle Bedrohungsinformationen, Branchenkommentare und mehr zu erhalten.

Managed Vulnerability Security: Schnellere Behebung von Schwachstellen, weniger Risiken, einfachere Compliance
Erfahren Sie, wie einfach es sein kann, die von Cyberkriminellen bevorzugte Schwachstellen zu finden.