Künstliche Intelligenz (KI) ist angekommen. Laut einem aktuellen Deloitte-Bericht planen 78 % der Unternehmen, ihre KI-Ausgaben in diesem Jahr zu erhöhen, wobei 74 % angeben, dass Initiativen für generative KI (GenAI) die Erwartungen erfüllt oder übertroffen haben.
Zugänglichkeit ist der Grundstein für den Erfolg von KI. Ob groß oder klein, digital oder stationär, jedes Unternehmen kann von intelligenten Werkzeugen profitieren. Aber diese Zugänglichkeit ist nicht von Natur aus ethisch. Bösartige Akteure verzeichnen ähnliche Erfolge mit KI, indem sie große Sprachmodelle (LLMs) nutzen, um neue Angriffsvektoren zu schaffen und zu betreiben.
Wenn diese sogenannten „dark LLMs“ (dunkle LLMs) nicht kontrolliert werden, stellen sie ein erhebliches Risiko für Unternehmen dar. Hier erfahren Sie, was Unternehmen über die Navigation im neuen Zustand der KI-Sicherheit wissen müssen und wie sie das Risiko von dark LLMs mindern können.
Was ist ein dark LLM?
Dark LLMs sind LLMs, bei denen die Sicherheitsmechanismen entfernt wurden.
Große Sprachmodelle bilden die Grundlage von generativen KI-Tools. Sie werden mit riesigen Datenmengen trainiert. Im Laufe der Zeit können sie natürliche Sprache sowohl verstehen als auch erzeugen, und sie verbessern dieses Verständnis kontinuierlich. Dadurch eignen sich LLMs ideal zum Beantworten von Fragen und zum Ausführen von Aufgaben, da Nutzer mit KI-Schnittstellen genauso sprechen können wie mit Menschen.
LLMs unterstützen generative KI-Tools wie ChatGPT von OpenAI, die PaLM-Modelle von Google und watsonx von IBM. Es gibt auch eine Vielzahl von Open-Source-LLMs, die Unternehmen für den Aufbau interner Lösungen nutzen können.
Neben ihrer Fähigkeit, natürliche Sprachen zu verstehen, teilen LLMs ein weiteres gemeinsames Merkmal: Sicherheitsvorkehrungen. Diese Sicherheitsvorkehrungen verhindern, dass LLMs alles tun, was ein Nutzer von ihnen verlangt, wie z. B. geschützte Informationen bereitzustellen oder Code zu erstellen, der ihnen das Einhacken in ein Netzwerk ermöglicht. Es ist erwähnenswert, dass diese Sicherheitsvorkehrungen nicht perfekt sind – bestimmte Eingabeaufforderungen können diese Schutzmechanismen umgehen und es Benutzern ermöglichen, bösartige Inhalte zu generieren. Beispielsweise ergab eine Untersuchung, dass der ChatGPT-Konkurrent DeepSeek keinen einzigen von 50 bösartigen „Jailbreak“-Prompts stoppen konnte.
Dark LLMs entfernen die Sicherheitsvorkehrungen vollständig. Diese großen Sprachmodelle, die in der Regel auf Open-Source-Plattformen entwickelt werden, werden mit böswilliger Absicht erstellt. Dark LLMs werden häufig im Dark Web als kostenlose oder kostenpflichtige Dienste gehostet und können Angreifern helfen, Sicherheitslücken zu identifizieren, Code für Systemangriffe zu erstellen oder effektivere Versionen von Phishing- oder Social-Engineering-Angriffen zu entwerfen.
Welche dunklen LLMs sind am beliebtesten?
Mithilfe frei verfügbarer Tools und moderatem Technologiewissen können Angreifer ihr eigenes LLM erstellen. Diese Modelle sind jedoch nicht alle gleich geschaffen – genau wie ihre legitimen Gegenstücke beeinflussen die Menge und Qualität der für das Training verwendeten Daten erheblich die Genauigkeit und Effektivität ihrer Ergebnisse.
Zu den beliebten dark LLMs zählen:
- WormGPT – WormGPT ist ein Open-Source-LLM mit sechs Milliarden Parametern. Es befindet sich hinter einer Paywall im Dark-Web und ermöglicht es den Nutzern das Jailbreaking von ChatGPT. Dieses dark LLM kann verwendet werden, um Business Email Compromise (BEC)-Angriffe zu planen und durchzuführen.
- FraudGPT – FraudGPT kann Code schreiben, gefälschte Webseiten erstellen und Schwachstellen entdecken. Es ist sowohl im Darknet als auch über Dienste wie Telegram verfügbar.
- DarkBard – Basierend auf Googles KI-Chatbot Bard bietet dieses Dark LLM ähnliche Funktionen wie FraudGPT.
- WolfGPT – Als relativ neuer Akteur im Bereich der dunklen LLMs ist WolfGPT in Python programmiert und wird als Alternative zu ChatGPT ohne Sicherheitsvorkehrungen beworben.
Diese vier sind nur eine Auswahl der verfügbaren dark LLMs. Normalerweise zahlen böswillige Nutzer für den Zugriff auf diese Tools über das Darknet. Sie werden wahrscheinlich als Ausgangspunkte für Netzwerkangriffe verwendet – böswillige Akteure könnten diese LLMs bitten, Schwachstellen in der Cybersecurity zu entdecken oder qualitativ hochwertige Phishing-E-Mails zu verfassen, die für das Personal schwer zu erkennen sind.
Wie können Unternehmen die Risiken von Dark LLM mindern?
Dunkle LLMs liefern gute Antworten auf schlechte Fragen und verschaffen Angreifern einen Vorteil beim Erstellen von bösartigem Code und dem Auffinden von Software-Schwachstellen. Darüber hinaus kann fast jedes LLM mit dem richtigen Jailbreak-Prompt auf „dark“ umgestellt werden.
Alles in allem klingt das ziemlich düster, nicht wahr? Nicht ganz.
Das liegt daran, dass LLMs hervorragend darin sind, den Code zu verbessern und neue Angriffswege vorzuschlagen, aber sie schneiden in der realen Welt nicht so gut ab, wenn sie sich selbst überlassen werden. Zum Beispiel hat die Chicago Sun-Times kürzlich eine Liste mit Büchern veröffentlicht, die man im Sommer unbedingt lesen sollte. Der Haken an der Sache? Die Liste wurde von einer KI erstellt, und die meisten Bücher darin gibt es gar nicht. Der Fast-Food-Riese McDonald's hat unterdessen KI auf Drive-Thru-Bestellungen losgelassen, wobei die Lösung Schwierigkeiten hatte, zu verstehen, was die Leute sagten, oder die richtigen Artikel zu ihrer Bestellung hinzuzufügen. In einem Fall fügte die Schnittstelle 260 (unerwünschte) Chicken Nuggets hinzu. Die gleichen Einschränkungen gelten für dunkle LLMs. Obwohl sie dabei helfen können, bessere Tools zu entwickeln, sind diese Werkzeuge in den Händen von Menschen am effektivsten.
Das ist eine gute Nachricht für Unternehmen. Auch wenn die Bedrohung durch dark LLMs weiterhin Anlass zur Sorge gibt, werden dieselben Praktiken, die heute für die Datensicherheit sorgen, auch dazu beitragen, Vermögenswerte vor LLM-gesteuerten Angriffen zu verteidigen. Zu den Best Practices gehören:
1) Wenn Sie etwas sehen, melden Sie es
Menschen bleiben eine Schlüsselkomponente einer effektiven Verteidigung. Denken Sie an Phishing-E-Mails. Egal wie gut sie gestaltet sind, sie erfordern menschliches Handeln, um erfolgreich zu sein. Durch die Schulung des Personals, die Merkmale von Phishing-Versuchen zu erkennen – und noch wichtiger, etwas zu sagen, wenn ihnen etwas auffällt – können Unternehmen ihr Risiko erheblich reduzieren.
2) Zurück zu den Grundlagen
Im Zweifelsfall kehren Sie zu den Grundlagen zurück. Grundlegende Security-Praktiken wie starke Verschlüsselung, robuste Authentifizierung und Zero Trust sind gegen KI-gesteuerte Angriffe genauso wirksam wie gegen häufigere Bedrohungsvektoren.
3) Bleiben Sie Bedrohungen einen Schritt voraus
KI-Tools helfen Cyberkriminellen, besseren Code zu entwickeln und überzeugendere Fälschungen zu erzeugen. Aber das macht sie nicht unsichtbar. Durch den Einsatz fortschrittlicher Tools zur Bedrohungserkennung und -abwehr sind Unternehmen besser gerüstet, um Bedrohungen frühzeitig zu erkennen und zu stoppen. Unternehmen können auch die Leistungsfähigkeit der KI-gestützten Security nutzen, um bösartige Intelligenz zu überlisten.
Das Fazit? KI ist für Unternehmen sowohl Segen als auch Fluch. Für jede ethische Verwendung gibt es ein bösartiges Gegenstück, und dunkle LLMs sind einfach die neueste Iteration. Sie geben zwar Anlass zur Sorge, sind jedoch nicht unaufhaltsam. Durch die Kombination von menschlicher Aufsicht mit solider Security-Hygiene und fortschrittlichen Erkennungstools können Unternehmen Licht auf die Bemühungen der Angreifer werfen und die dunklen Bestrebungen in Schach halten.

Der Ransomware Insights Bericht 2025
Wichtige Erkenntnisse über die Erfahrungen und Auswirkungen von Ransomware auf Unternehmen weltweit
Abonnieren Sie den Barracuda-Blog.
Melden Sie sich an, um aktuelle Bedrohungsinformationen, Branchenkommentare und mehr zu erhalten.

Managed Vulnerability Security: Schnellere Behebung von Schwachstellen, weniger Risiken, einfachere Compliance
Erfahren Sie, wie einfach es sein kann, die von Cyberkriminellen bevorzugte Schwachstellen zu finden.