
Die dunkle Seite von GenAI: Strategische Implikationen für die Cyberabwehr
Der Aufstieg bösartiger generativer KI-Tools wie Evil-GPT, WolfGPT, DarkBard und PoisonGPT stellt Unternehmen vor erhebliche strategische Herausforderungen. Da Cyberkriminelle verstärkt KI als Copilot bei ihren Vorhaben einsetzen, müssen Chief Information Security Officers (CISOs) und Security Leader mit einer sich schnell entwickelnden Bedrohungslandschaft zurechtkommen. Hier sind die wichtigsten Auswirkungen, die Unternehmen berücksichtigen müssen:
1. Volumen und Geschwindigkeit der Angriffe
Generative KI versetzt Bedrohungsakteure in die Lage, ihren Betrieb dramatisch zu skalieren. Phishing-Kampagnen, die früher Tage zur Erstellung benötigten, können jetzt massenhaft und in Minutenschnelle generiert werden, wobei jede E-Mail individuell auf das Opfer zugeschnitten ist. Traditionelle Verteidigungsmechanismen können von dieser Automatisierung überfordert sein, und von KI verfasste Phishing-E-Mails enthalten oft nicht die gängigen verräterischen Merkmale wie Grammatikfehler, d. h. sie sind viel schwieriger zu identifizieren. Security-Teams sollten sich auf eine durch die Geschwindigkeit der KI bedingte höhere Angriffshäufigkeit einstellen, sowie eine Zunahme von Phishing-E-Mails und bösartigen Codevarianten.
2. Raffinierte, überzeugende Köder
Auch die Raffinesse der Angriffe wird voraussichtlich zunehmen. Tools wie DarkBard können Echtzeitnachrichten oder aus dem Internet abgerufene persönliche Daten in Phishing-Nachrichten integrieren und sie dadurch überzeugender machen. Die Integration der Deepfake-Technologie, die mit DarkBard beworben und bei verschiedenen Betrugsversuchen beobachtet wurde, bedeutet, dass Voice-Phishing und gefälschte Videos Unternehmen mit täuschender Echtheit angreifen könnten. Unternehmen müssen die Nutzer darüber informieren, dass typische Merkmale des Phishings, wie schlechtes Englisch oder unpersönliche Begrüßungen, möglicherweise nicht unbedingt mehr zutreffen, da die Grenze zwischen legitimer Kommunikation und KI-generierten Inhalten verschwimmt.
3. Anpassung und Umgehung von Malware
Auf Seiten der Malware können WolfGPT zufolge KI-Tools im Handumdrehen polymorphen oder verschleierten Code erzeugen. Diese Fähigkeit führt zur Entstehung von mehr Zero-Day-Malware – nicht im Sinne der Ausnutzung unbekannter Schwachstellen, sondern in der Erstellung von Signaturen und Mustern, die Security-Produkten zuvor noch nicht untergekommen sind. Herkömmliche signaturbasierte Antivirus-Lösungen werden Schwierigkeiten haben, Schritt zu halten, da jede bösartige Nutzlast leicht von KI verändert werden kann, um die Erkennung zu umgehen. Folglich werden Endpoint Detection and Response (EDR) und verhaltensbasierte Erkennungsmethoden noch wichtiger, um Bedrohungen aufzuspüren, die eine statische Analyse möglicherweise übersehen könnte.
4. Niedrigere Einstiegsschwelle
Eine der bedeutendsten Veränderungen in der Cyber-Bedrohungslandschaft ist die Demokratisierung von Tools, die Cyberkriminelle nutzen können. Möchtegern-Cyberkriminelle benötigen keine fortgeschrittenen Fähigkeiten mehr, um glaubwürdige Angriffe zu starten; sie können einfach Zugang zu bösartiger KI mieten. Dieser Trend könnte zu einem Zustrom von weniger erfahrenen Bedrohungsakteuren führen, die Angriffe durchführen, die für ihr Qualifikationsniveau unverhältnismäßig effektiv sind. Infolgedessen erweitert sich der Pool potenzieller Gegner über das organisierte Verbrechen und Nationalstaaten hinaus, sondern umfasst nun auch Amateure, die KI-as-a-Service nutzen.
5. KI-gestütztes Social Engineering
Neben digitalen Angriffen kann bösartige KI auch Social-Engineering-Taktiken gegen Unternehmen verstärken. Frühe Beispiele für das Klonen von Stimmen durch KI wurden bereits in Fraud-Schemata beobachtet, wie z. B. bei Vishing-Betrug, bei denen eine KI-generierte Stimme einen CEO nachahmt. Mit der zunehmenden Verbreitung dieser Tools lässt sich alles automatisieren, vom Telefonbetrug bis hin zu gefälschten Kundendienst-Chats. Security-Teams sollten sich auf neuartige Angriffsvektoren vorbereiten, wie KI-gesteuerte Chatbots, die versuchen, Helpdesk-Mitarbeiter durch Social Engineering dazu zu bringen, Passwörter zurückzusetzen oder massenhaft Voice-Phishing-Anrufe zu tätigen.
6. Fehlinformationen und Unternehmensreputation
Die Auswirkungen von Tools wie PoisonGPT erstrecken sich auf Desinformationskampagnen, die auf Unternehmen abzielen. KI-generierte Fake News oder Deepfake-Videos könnten genutzt werden, um Aktienkurse zu manipulieren, den Ruf einer Marke zu schädigen oder die öffentliche Meinung gegen eine Organisation zu beeinflussen. Dies verwischt die Grenze zwischen Cybersecurity und traditioneller Öffentlichkeitsarbeit oder dem Krisenmanagement. CISOs müssen möglicherweise gemeinsam mit den Kommunikationsteams diese Bedrohungen verfolgen und darauf reagieren, da sie eine weitere Form des Angriffs auf das Unternehmen darstellen, wenn auch über Informationskanäle.
7. Defensive KI und KI kontra KI
Positiv ist zu vermerken, dass der Anstieg bösartiger KI parallele Anstrengungen im Bereich defensiver KI nach sich zieht. Security-Anbieter entwickeln KI-gesteuerte Filter, die in der Lage sind, KI-generierte Phishing-E-Mails oder bösartige Codemuster zu identifizieren. Zum Beispiel verwenden fortschrittliche E-Mail Security Gateways jetzt maschinelle Lernmodelle, die darauf trainiert sind, die subtilen Signaturen von KI-geschriebenem Text zu erkennen, wie übermäßig geschliffene Sprache oder bestimmte Formatierungszeichen, um diese Nachrichten zu blockieren. Ebenso untersuchen Code-Security-Tools Möglichkeiten, um Code zu kennzeichnen, der KI-generiert erscheint oder bekannten KI-Ausgabemustern entspricht. Dies führt zu einem Wettrüsten zwischen KI und KI: Während Angreifer KI nutzen, um ihre Angriffe zu verbessern, setzen Verteidiger KI ein, um Anomalien zu erkennen und sich schnell anzupassen. Dies bringt jedoch seine eigenen Herausforderungen mit sich, darunter Falschmeldungen und den Bedarf an qualifizierten Analysten, um KI-gesteuerte Warnungen zu interpretieren.
Fazit
Zusammenfassend lässt sich sagen, dass das Auftauchen bösartiger generativer KI den Angriffszyklus beschleunigt und seinen Umfang erweitert hat, sodass Unternehmen mit einer größeren Anzahl ausgefeilterer Bedrohungen konfrontiert sind. Unternehmen müssen ihre Technologie- und Trainingsstrategien anpassen, um sich auf KI-gerüstete Gegner einzustellen.
Die Voraussetzungen zwischen Angreifern und Verteidigern verschieben sich, weshalb Security-Verantwortliche ihre Strategien unbedingt anpassen und sich proaktiv gegen diese sich entwickelnden Bedrohungen verteidigen müssen. Es liegt auf der Hand, dass das Verständnis dieser Tools und ihrer Auswirkungen für den Schutz vor der steigenden Flut von KI-gesteuerter Cyberkriminalität unerlässlich ist. In unserem nächsten und letzten Blogbeitrag dieser Serie geben wir Empfehlungen, wie Security-Verantwortliche einen mehrgleisigen Ansatz zur Abwehr dieser Art von Bedrohung entwickeln können.

Der Ransomware Insights Bericht 2025
Wichtige Erkenntnisse über die Erfahrungen und Auswirkungen von Ransomware auf Unternehmen weltweit
Abonnieren Sie den Barracuda-Blog.
Melden Sie sich an, um aktuelle Bedrohungsinformationen, Branchenkommentare und mehr zu erhalten.

Managed Vulnerability Security: Schnellere Behebung von Schwachstellen, weniger Risiken, einfachere Compliance
Erfahren Sie, wie einfach es sein kann, die von Cyberkriminellen bevorzugte Schwachstellen zu finden.