
KI-Sicherheitsbedenken rücken in den Vordergrund
Normalerweise dauert es bei großen technologischen Fortschritten immer seine Zeit, bis alle Auswirkungen auf die Cybersecurity vollständig erkannt werden. Mit dem Aufstieg großer Sprachmodelle (LLMs) wird jedoch die Security einer künstlichen Intelligenz (AI), die erreicht und aufrechterhalten werden kann, schnell zu einem wichtigen Unterscheidungsmerkmal zwischen den einzelnen Diensten.
Beispielseweise lädt Anthropic jetzt Forscher ein, ein KI-Sicherheitssystem zu knacken, das als Constitutional Classifiers bezeichnet wird und eine Reihe von Prinzipien bereitstellt, denen jede Instanz seines KI-Modells folgen muss. Das Unternehmen bietet jedem Forscher, der diese Sicherheitsvorkehrungen umgehen kann, 20.000 USD an.
Dieses Angebot folgt auf die Kontroverse um die Veröffentlichung von DeepSeek, einem Open-Source-KI-Modell, das in China angeblich für einen Bruchteil der Kosten anderer ähnlicher KI-Modelle entwickelt wurde. Das einzige Problem ist, dass das DeepSeek-KI-Modell mit Sicherheitslücken gespickt ist, die seine Anwendbarkeit in einer Unternehmens-IT-Umgebung verdächtig machen.
Man könnte argumentieren, dass die intensive Debatte um DeepSeek für Cybersecurity-Teams ein Segen ist. Die Wahrheit ist, dass die KI-Sicherheits- und Cybersecurity-Protokolle, die Unternehmen eingeführt haben, von nicht vorhanden bis nachlässig reichen. In Ermangelung einer formellen Richtlinie geben viele Endbenutzer sensible Daten an Anbieter von KI-Modellen weiter, ohne sich darüber im Klaren zu sein, wie diese Daten eines Tages zum Trainieren der nächsten Generation eines Modells verwendet werden könnten, das wahrscheinlich in der Lage sein wird, diese Daten an jeden auszugeben, der die richtige Eingabeaufforderung erstellt. Am anderen Ende des Spektrums verbieten einige Unternehmen die Verwendung von KI-Modellen, ohne die Möglichkeit zu haben, diese Richtlinien durchzusetzen. Für viele Endanwender sind KI-Modelle nur ein weiterer Schatten-IT-Service, der heimlich nach eigenem Ermessen eingesetzt werden kann.
Es bleibt zu hoffen, dass mehr Unternehmen in Absprache mit ihren Cybersecurity-Teams bald die notwendigen Kontrollen einführen, um den von ihnen definierten Richtlinien mehr Durchsetzungskraft zu verleihen. In der Zwischenzeit müssen sich die Cybersicherheitsteams die erforderliche Zeit nehmen, um genau zu verstehen, wie die KI-Dienste die Daten nutzen, auf die sie Zugriff haben, beginnend mit der Verpflichtung, sicherzustellen, dass Kundendaten nicht zum Trainieren eines KI-Modells verwendet werden. Das Problem besteht darin, dass die Verpflichtung möglicherweise nur für Daten gilt, die der Endbenutzer durch Ankreuzen eines Kästchens ausdrücklich von einer Standardeinstellung ausgenommen hat, die kein Endbenutzer in den Hunderten von Seiten einer Softwarelizenzvereinbarung wahrscheinlich finden wird.
Bereits jetzt ist ein recht erfahrener Anwalt erforderlich, um die Bedingungen der meisten bestehenden Softwarelizenzverträge zu verstehen. Da im Zeitalter der KI immer mehr Vorbehalte hinzukommen, steigt die Wahrscheinlichkeit, dass Endbenutzer die Auswirkungen der Datenweitergabe an einen externen KI-Dienst nicht verstehen.
In der Zwischenzeit verfeinern Cyberkriminelle ihre Fähigkeiten im KI-Jailbreaking, auch bekannt als Nutzung von Prompt-Engineering, um Ausgaben zu erzeugen, die die KI-Schutzmaßnahmen umgehen, die verhindern sollen, dass Ausgaben mit sensiblen Daten überhaupt erstellt werden.
Letztendlich ist es weniger eine Frage, ob es größere Cybersecurity-Vorfälle mit KI geben wird, sondern vielmehr, wann und in welchem Ausmaß. Das Einzige, was nicht annähernd so sicher ist, ist die Frage, wie Unternehmen reagieren werden, wenn diese Verstöße, sofern sie noch nicht geschehen sind, bald unausweichlich auftreten.

Der Ransomware Insights Bericht 2025
Wichtige Erkenntnisse über die Erfahrungen und Auswirkungen von Ransomware auf Unternehmen weltweit
Abonnieren Sie den Barracuda-Blog.
Melden Sie sich an, um aktuelle Bedrohungsinformationen, Branchenkommentare und mehr zu erhalten.

Managed Vulnerability Security: Schnellere Behebung von Schwachstellen, weniger Risiken, einfachere Compliance
Erfahren Sie, wie einfach es sein kann, die von Cyberkriminellen bevorzugte Schwachstellen zu finden.