
Die dunkle Seite von GenAI konfrontieren: Empfehlungen für Unternehmensleiter, CISOs und Sicherheitsteams
Während sich die Bedrohungslandschaft mit dem Aufkommen bösartiger generativer KI-Tools wie Evil-GPT, WolfGPT, DarkBard und PoisonGPT weiterentwickelt, müssen Organisationen einen mehrgleisigen Ansatz verfolgen, um KI-gestützten Bedrohungen zu begegnen. Hier sind strategische Empfehlungen, die Security-Verantwortliche in Betracht ziehen sollten:
1. Bedrohungsaufklärung und Überwachung
Es ist entscheidend, über die neuesten bösartigen KI-Tools und -Taktiken informiert zu bleiben. Abonnieren Sie Bedrohungs-Intelligence-Feeds oder -Dienste, die Gespräche im Dark Web über KI verfolgen, wie die von Kela und Flashpoint angebotenen. Angesichts des Anstiegs der Diskussionen über diese Tools um 219 % im Jahr 2024 ist Einblick in diesen Untergrundtrend unerlässlich. Security-Teams sollten in Bedrohungs-Intelligence-Plattformen auf Schlüsselwörter im Zusammenhang mit diesen Tools (z. B. „GPT“-Varianten, „Jailbreak-Aufforderungen“) achten. Implementieren Sie außerdem eine Überwachung des Dark Webs für die Erwähnungen Ihres Unternehmens – wenn Kriminelle KI anpassen, um Ihr Unternehmen oder Ihre Branche ins Visier zu nehmen, sollten Sie dies frühzeitig wissen.
2. Verbessern Sie die E-Mail- und Inhalts-Security
Da Phishing ein primärer Anwendungsfall für bösartige KI ist, ist es entscheidend, Ihren E-Mail-Sicherheits-Stack zu verstärken. Führen Sie ein Upgrade auf fortschrittliche Filter durch, die KI und maschinelles Lernen nutzen, um Phishing-Versuche zu erkennen, da ältere regelbasierte Systeme KI-erstellte Nachrichten möglicherweise übersehen. Einige Lösungen behaupten jetzt ausdrücklich, KI-generierten Text durch die Analyse linguistischer Muster zu erkennen. Obwohl nicht narrensicher, fügen diese Maßnahmen eine wichtige Verteidigungsschicht hinzu. Ermutigen Sie Ihre sicheren E-Mail-Gateways (oder programmieren Sie sie sogar), E-Mails mit verdächtig gut formuliertem Inhalt oder einem Kontext, der nicht den historischen Normen des Absenders entspricht, zu kennzeichnen. Das Training Ihrer vorhandenen Spamfilter mit bekannten, von KI generierten Phishing-E-Mails kann ebenfalls die Erkennung verbessern. Schließlich sollten Sie erwägen, KI-gestützte Anti-Phishing-Tools einzusetzen, die in der Lage sind, Inhaltsanalysen und URL-Scans in Echtzeit durchzuführen, da KI-Phishing oft mit neuartigen URLs oder leichten Identitätsmissbrauch einhergeht, die automatisierte Tools schneller erkennen können als vielbeschäftigte Mitarbeiter.
3. Umfassende Mitarbeiterschulung – Legen Sie Wert auf den Inhalt statt auf die Form
Aktualisieren Sie Ihre Schulung zur Stärkung des Risikobewusstseins, um der neuen Realität von KI-Betrug Rechnung zu tragen. Mitarbeitern sollten Beispiele für Phishing-E-Mails gezeigt werden, die grammatikalisch perfekt und kontextuell relevant sind, damit sie sich nicht auf veraltete Hinweise verlassen. Betonen Sie die Bedeutung der Überprüfung der Legitimität von Anfragen über sekundäre Kanäle. Wenn beispielsweise ein „leitender Angestellter“ eine dringende Anfrage für eine Überweisung per E-Mail stellt, verifizieren Sie dies telefonisch. Schulen Sie Ihre Mitarbeiter, wachsam gegenüber subtilen Anzeichen von Automatisierung zu sein, wie ungewöhnliche Formulierungen oder Inkonsistenzen, die einer KI entgehen könnten (wie ein seltsames Datumsformat oder irrelevante Details). Integrieren Sie Szenarien mit Deepfake-Stimmen oder -Videos in die Risikoschulung für Führungskräfte, um Mitarbeiter auf potenzielle Bedrohungen vorzubereiten. Führen Sie beispielsweise eine Übung durch, bei der ein Deepfake-„CEO“ eine Voicemail mit Anweisungen hinterlässt, und testen Sie, ob die Verfahren befolgt werden. Das Ziel ist es, die Organisation dagegen zu immunisieren, der Kommunikation zu vertrauen, nur weil sie professionell klingt.
4. Modell- und API-Security
Wenn Organisationen KI in ihre Abläufe integrieren, ist es unerlässlich, Kontrollen zu implementieren, um Missbrauch und Manipulation der Modelle zu verhindern. Wenn Ihr Unternehmen KI-Modelle (Chatbots, Assistenten usw.) verwendet, richten Sie eine strenge Zugriffskontrolle und Überwachung dieser Systeme ein, um Missbrauch zu erkennen, z. B. verdächtig strukturierte Anfragen, die auf Versuche der Prompt-Injektion oder Datenexfiltration hindeuten können. Überprüfen Sie die Quelle und Integrität aller von Ihnen verwendeten KI-Modelle oder Datensätze von Drittanbietern. Verwenden Sie beispielsweise Prüfsummen oder Signaturen für Modelle und bevorzugen Sie Modelle aus offiziellen Repositories. Erwägen Sie den Einsatz neuer Tools für die Modellprovenienz (wie die AICert-Initiative oder andere Security-Frameworks für die KI-Lieferkette), um zu überprüfen, ob ein Modell nicht manipuliert wurde. Implementieren Sie intern eine Ratenbegrenzung und Anomalieerkennung für Ihre KI-APIs, um ungewöhnliche Aktivitäten zu erkennen. Wenn ein Konto plötzlich anfängt, Tausende von Abfragen zu stellen, die Daten produzieren (was darauf hindeuten könnte, dass ein Angreifer Ihre KI umfunktioniert), sollten Sie das bemerken. Im Grunde sollten Sie Ihre KI-Dienste mit der gleichen Security-Mentalität behandeln wie eine kritische Datenbank oder einen Server, da Angreifer sie entweder missbrauchen oder manipulieren könnten.
5. Technische Kontrollen für Malware und Bots
Stärken Sie Ihre Endpunkt- und Netzwerkschutzmaßnahmen, um KI-generierte Malware zu bewältigen. Verwenden Sie Endpoint Detection and Response (EDR)-Lösungen, die sich auf das Verhalten konzentrieren und die Erkennung von Prozessen ermöglichen, die versuchen, auf verdächtige Weise auf Nutzerdaten zuzugreifen, z. B. zu erkennen, ob ein Prozess versucht, auf Nutzerdaten zuzugreifen und sie zu komprimieren. EDR kann das Verhalten auch dann erkennen, wenn die Codesignatur neu ist. Nutzen Sie Bedrohungsinformationen, um Indikatoren für eine Kompromittierung (IoCs) schnell zu aktualisieren, wenn neue KI-generierte Malware-Stämme entdeckt werden. Setzen Sie auf der Netzwerkseite Anomalieerkennung ein, um Muster zu identifizieren, die auf KI-generierte Angriffe hinweisen. Viele KI-generierte Angriffe könnten weiterhin maschinenähnliche Muster aufweisen, wie etwa eine plötzliche Flut von Phishing-E-Mails, die sich jeweils leicht unterscheiden, oder ein ungewöhnliches Muster ausgehender Verbindungen, wenn Malware Daten exfiltriert. Berücksichtigen Sie auch KI-gestützte Security-Tools, die Ihr Basisnetzwerkverhalten erlernen und bei Abweichungen Alarm schlagen. Und natürlich sollten Sie mit dem Patchen und der grundlegenden Cyber-Hygiene Schritt halten. KI-gestützte Angreifer werden weiterhin ungepatchte Systeme und schwache Zugangsdaten als leicht erreichbare Ziele ins Visier nehmen.
6. Bereitschaft für die Reaktion auf Vorfälle
Aktualisieren Sie Ihre Incident-Response-Pläne, um KI-Elemente zu berücksichtigen. Entwickeln Sie Playbooks für die Reaktion auf Deepfake- oder Desinformationsvorfälle, um sicherzustellen, dass Ihr Team weiß, wer den Wahrheitsgehalt gefälschter Inhalte, wie z. B. eines gefälschten Videos Ihres CEOs, beurteilt und wie die Stakeholder schnell informiert werden können. Seien Sie bei Phishing-Vorfällen darauf vorbereitet, dass, wenn ein Mitarbeiter durch eine KI-Phishing-E-Mail kompromittiert wird, die nächste Phishing-Welle anders sein könnte, da KI den Inhalt verändern kann. Stellen Sie sicher, dass Ihr Incident-Response-Team Zugriff auf Ressourcen zur Analyse verdächtiger Inhalte hat, wie ein KI-Textdetektionstool oder Beziehungen zu KI-Experten. Der Austausch von Informationen ist von entscheidender Bedeutung. Sollten Sie von einem Angriff mit einem bösartigen KI-Tool betroffen sein, ziehen Sie in Betracht, anonymisierte Informationen mit Branchen-ISACs oder CERTs zu teilen, um die kollektive Verteidigung zu stärken. Je schneller die Community von einer neuen Taktik erfährt (z. B. „Diese Phishing-Kampagne scheint von WormGPT mit bestimmten stilistischen Merkmalen geschrieben worden zu sein“), desto schneller können sich die kollektiven Abwehrmechanismen anpassen.
7. Richtlinien- und Lieferantenmanagement
Aus einer Governance-Perspektive sollten Sie klare Richtlinien für die Nutzung von KI in Ihrem Unternehmen implementieren. Gehen Sie die Risiken im Zusammenhang mit „Schatten-KI“ an, bei der Mitarbeiter nicht genehmigte KI-Tools verwenden. Schatten-KI kann Risiken bergen, wie jüngste Fälle von Datenlecks und sogar bösartige Tools, die sich als legitime KI-Apps ausgeben, verdeutlichen. Kommunizieren Sie klar, welche KI-Tools genehmigt sind, und untersagen Sie die Nutzung von nicht genehmigter KI, insbesondere bei sensiblen Daten. Fordern Sie Anbieter und Drittanbieter auf, sich an KI-Security-Praktiken zu halten und sicherzustellen, dass sie ihre KI-Tools vor Missbrauch schützen. Wenn Sie beispielsweise den KI-Chatbot eines Anbieters in Ihrem Kundensupport verwenden, fragen Sie, wie er gegen Missbrauch abgesichert ist und ob seine Modelle auf Manipulationen überprüft werden. Auch Bedrohungen durch Fehlinformationen sollten in die Planung zur Geschäftskontinuität oder zum Krisenmanagement einbezogen werden. Dies könnte PR-Teams einbeziehen, aber der Beitrag des Security-Teams ist entscheidend für die technischen Aspekte der Zuordnung und der Entfernung (wie die Koordination mit Plattformen zur Entfernung von Deepfake-Inhalten usw.).
8. Setzen Sie auf defensive KI
Erwägen Sie schließlich den Einsatz von KI zur Verteidigung. Genauso wie Angreifer KI verwenden, können Verteidiger KI und maschinelles Lernen einsetzen, um die Bedrohungssuche, die Analyse des Nutzerverhaltens und die automatisierte Reaktion zu verbessern. Viele Security Operations Center sind von Warnmeldungen überfordert. KI kann helfen, Signale zu korrelieren, die auf einen KI-generierten Angriff hinweisen, was eine schnellere Identifizierung und Reaktion ermöglicht. Zum Beispiel könnten mehrere Phishing-Warnungen mit geringem Vertrauen, die subtile Ähnlichkeiten aufweisen, von einer KI zusammengefügt werden, um eine weitreichende Kampagne aufzudecken. KI kann auch beim Schutz vor digitalen Risiken helfen, indem sie das Internet nach betrügerischen Inhalten wie Spoofing-Websites oder falschen Nachrichten über Ihr Unternehmen durchsucht. Einige fortschrittliche Systeme nutzen Natural Language Processing (NLP), um soziale Medien oder das Dark Web auf frühe Anzeichen gezielter Fehlinformationen oder Phishing-Themen zu überwachen. Durch die Nutzung dieser Tools können Organisationen das Blatt wenden und KI zu einer Stärke in ihrer Security machen, anstatt nur zu einer Bedrohung.
Fazit
Der Aufstieg bösartiger generativer KI-Tools markiert ein neues Kapitel in der Cybersecurity und befähigt Bedrohungsakteure, häufiger, raffinierter und täuschender als je zuvor anzugreifen. Für CISOs und Security-Teams ist das Gebot klar: Sie müssen sich schnell anpassen. Indem sie diese Tools verstehen, ihre Verteidigungsmaßnahmen verstärken und eine Kultur der Wachsamkeit fördern – ergänzt durch defensive KI – können Unternehmen Risiken mindern. Die Bedrohungslandschaft entwickelt sich weiter, aber mit fundierten Strategien und Vorbereitungen können sich auch die Abwehrmaßnahmen weiterentwickeln. In diesem KI-getriebenen Wettrüsten werden Wissen und Agilität Ihre größten Stärken sein. Bleiben Sie informiert, bleiben Sie vorbereitet und begegnen Sie jeder verdächtigen E-Mail oder seltsamen Modellausgabe mit der gesunden Skepsis, die diese neue Ära verlangt.

Der Ransomware Insights Bericht 2025
Wichtige Erkenntnisse über die Erfahrungen und Auswirkungen von Ransomware auf Unternehmen weltweit
Abonnieren Sie den Barracuda-Blog.
Melden Sie sich an, um aktuelle Bedrohungsinformationen, Branchenkommentare und mehr zu erhalten.

Managed Vulnerability Security: Schnellere Behebung von Schwachstellen, weniger Risiken, einfachere Compliance
Erfahren Sie, wie einfach es sein kann, die von Cyberkriminellen bevorzugte Schwachstellen zu finden.