
Die dunkle Seite der generativen KI: Enthüllung der KI-Bedrohungslandschaft
Generative KI hat eine neue Bedrohungslandschaft für Cyberkriminalität entfesselt. Große Sprachmodelle (LLMs), die früher hauptsächlich für legitime Zwecke verwendet wurden, werden heute von Bedrohungsakteuren als Waffe eingesetzt. In Untergrundforen und Dark-Web-Marktplätzen wimmelt es von „Dark LLMs“ – benutzerdefinierten oder gejailbreakten KI-Chatbots, die speziell für bösartige Aktivitäten entwickelt wurden. Tatsächlich stieg die Zahl der Erwähnungen dieser bösartigen KI-Tools in Cyberkriminellenforen im Jahr 2024 um über 219 % sprunghaft an, was auf eine deutliche Veränderung der von Cyberkriminellen angewandten Taktiken hindeutet.
Tools wie WormGPT (ein unzensierter ChatGPT-Klon) wurden schnell angenommen und halfen Kriminellen, Phishing- und Business Email Compromise (BEC)-Angriffe zu automatisieren. Bis Ende 2024 hatte der Telegram-Bot von WormGPT Berichten zufolge fast 3.000 Nutzer erreicht (darunter Hunderte von zahlenden Abonnenten), was die wachsende Nachfrage nach KI-gesteuerter Crimeware verdeutlicht. Diese bösartigen generativen KI-Tools können überzeugende Phishing-Köder schreiben, unentdeckbaren Malware-Code generieren, gefälschte Identitäten erstellen und sogar in großem Umfang Desinformation verbreiten.
In dieser Blog-Serie werde ich tiefer in die dunkle Seite der generativen KI eintauchen und vier prominente Beispiele für bösartige KI-Tools untersuchen: Evil-GPT, WolfGPT, DarkBard und PoisonGPT. In jedem Beitrag wird detailliert erläutert, wie diese Tools funktionieren und wie sie in echten Cybercrime-Operationen eingesetzt werden. Ich gebe einen Überblick über ihre Fähigkeiten (von der Phishing-Generierung und Malware-Automatisierung bis hin zur Propaganda-Erstellung), ihre Werbekanäle (von Dark-Web-Foren bis hin zu Telegram-Gruppen) und dokumentierte Beweise für ihren Einsatz im vergangenen Jahr. Abschließend werde ich die strategischen Auswirkungen auf die Verteidigung von Unternehmen erörtern und Empfehlungen für CISOs und Security-Teams anbieten, um dieser aufkommenden Bedrohung entgegenzuwirken.
Die doppelte Nutzung von generativer KI
Generative KI ist ein zweischneidiges Schwert: Dieselbe Technologie, die Ihre E-Mails verfassen oder Softwarecode schreiben kann, kann auch für bösartige Zwecke missbraucht werden. Moderne LLMs wie GPT-3.5/4 von OpenAI oder Bard von Google sind leistungsstarke Assistenten mit integrierten ethischen Schutzmechanismen. Jedoch haben Kriminelle Wege gefunden, diese Sicherheitsmaßnahmen zu umgehen – entweder indem sie öffentliche Modelle „jailbreaken“ oder indem sie Open-Source-Modelle verwenden, um ihre eigenen uneingeschränkten KI zu erstellen. Das Ergebnis ist eine Welle bösartiger GPT-Systeme, die speziell für Cyberkriminalität entwickelt wurden. Diese bösartigen KI können bei Bedarf Malware-Code, Exploit-Skripte, Phishing-Inhalte und vieles mehr generieren, ohne die üblichen Inhaltsfilter oder Einschränkungen.
Mehrere Faktoren machen dies möglich. Erstens bietet der Boom der Open-Source-LLM frei verfügbare Modelle wie GPT-J und LLaMA, die jeder mit genügend Fachwissen auf bösartige Daten abstimmen kann. Darüber hinaus teilen Bedrohungsakteure Jailbreak-Techniken, um legitime KI-Chatbots zu manipulieren, damit sie schädliche Ergebnisse produzieren.
Es hat sich zudem ein florierender Untergrundmarkt entwickelt, der illegale KI-als-Service anbietet. Hier bieten geschäftstüchtige Cyberkriminelle abonnementbasierte „böse KI“-Bots an, die „ohne Grenzen“ versprechen – KI, die bereitwillig Phishing-E-Mails, Malware, Fake News oder andere illegale Inhalte erstellt, die ein Käufer wünscht. Diese Kommerzialisierung der generativen KI senkt die Hemmschwelle für Cyberkriminalität: Selbst Angreifer mit begrenzten Fähigkeiten können KI nutzen, um die Skalierung und die Raffinesse ihrer Kampagnen erheblich zu steigern. Im Wesentlichen hat generative KI ein Problem mit der dualen Nutzung, und die Sicherheitsgemeinschaft beschäftigt sich derzeit mit den Folgen ihres böswilligen Missbrauchs.
Was steht als Nächstes an?
In den kommenden Beiträgen dieser Blogserie werde ich jedes der vier bösartigen KI-Tools im Detail beleuchten:
- Evil-GPT: Ich werde die Fähigkeiten, Werbestrategien und realen Cyberkriminalitätsanwendungen dieses Tools untersuchen, das als „Feind von ChatGPT“ bezeichnet wird.
- WolfGPT: Diese „aufgerüstete“ dunkle KI konzentriert sich auf die Erstellung von Malware. Ich werde ihre Funktionen und die potenziellen Risiken analysieren, die es für die Cybersecurity darstellt.
- DarkBard: Ich werde die einzigartigen Fähigkeiten dieses Tools erforschen, das als „bösartiger Zwilling“ von Google Bard bekannt ist, und wie es für die Verbreitung von Echtzeit-Desinformation genutzt werden kann.
- PoisonGPT: Dieses Tool ist ein Beispiel für die dunklere Anwendung generativer KI zur Desinformation. Ich werde seine Auswirkungen und die Risiken im Zusammenhang mit KI-Angriffen auf die Lieferkette erörtern.
Abschließend werde ich die strategischen Auswirkungen auf die Unternehmensverteidigung erörtern und umsetzbare Empfehlungen für CISOs und Security-Teams geben, um diesen aufkommenden Bedrohungen entgegenzuwirken.
Bleiben Sie dran, während ich die Komplexität der KI-Bedrohungslandschaft erkunde und die Herausforderungen und Strategien aufdecke, die im Kampf gegen bösartige generative KI vor uns liegen.

Der Ransomware Insights Bericht 2025
Wichtige Erkenntnisse über die Erfahrungen und Auswirkungen von Ransomware auf Unternehmen weltweit
Abonnieren Sie den Barracuda-Blog.
Melden Sie sich an, um aktuelle Bedrohungsinformationen, Branchenkommentare und mehr zu erhalten.

Managed Vulnerability Security: Schnellere Behebung von Schwachstellen, weniger Risiken, einfachere Compliance
Erfahren Sie, wie einfach es sein kann, die von Cyberkriminellen bevorzugte Schwachstellen zu finden.