Sicherheitsprognosen an vorderster Front 2026: Der Kampf um Realität und Kontrolle in einer Welt der agentenbasierten KI
Ein Blick darauf, wie agentenbasierte KI im Jahr 2026 Cyber-Bedrohungen und Abwehrmaßnahmen verändern wird
Die wichtigsten Erkenntnisse
- Wie agentenbasierte KI die Entwicklung der Bedrohungslandschaft prägt
- Wie sich Organisationen gegen Bedrohungen durch agentenbasierte KI verteidigen können
- Strategien zum Schutz von Implementierungen agentenbasierter KI
- Wie agentenbasierte KI zur Verbesserung der Security beitragen wird
Die Kraft und das Potenzial der agentenbasierten KI – adaptiv, automatisiert und unabhängig – dominierten die Gespräche zur Security im Jahr 2025. Barracuda hat vier Kollegen aus den Bereichen Cyberbedrohung und Security auf der ganzen Welt gefragt, was sie 2026 von agentenbasierter KI erwarten und was das für die Cybersecurity bedeutet.
Gemeinsam erwarten sie eine Zukunft, in der:
- Ein agentengesteuerter KI-Operator führt Cyberangriffe von Anfang bis Ende durch. Er sammelt, was er braucht, stellt überzeugende Köder her, probiert einen Weg aus, beobachtet, wie der Schutz oder die Verteidigung des Ziels reagiert, und ändert dann in aller Ruhe Taktik und Timing, bis er bekommt, was er will. Die Verteidiger sollten mit neuen Angriffsarten und Taktiken rechnen, die ihnen völlig unbekannt sind und die sich im Nachhinein nur schwer erklären lassen. (Yaz Bekkar)
- Agentenbasierte KI wird riesige Datenmengen analysieren, um Schwachstellen in Echtzeit zu identifizieren, sodass Angreifer die Ausnutzung von Schwachstellen effektiver automatisieren können. (Jesus Cordero-Guzman)
- KI wird Gespräche mit Menschen führen, sowohl über Sprache als auch über Nachrichten, und zwar auf einem Niveau, das es den Menschen fast unmöglich macht, zu erkennen, dass sie nicht mit einer echten Person kommunizieren. (Eric Russo)
- Mehrere KI-Agenten werden gemeinsam an Aktionen arbeiten, um ein bestimmtes Ziel zu erreichen, mit minimaler oder gar keiner menschlichen Aufsicht. Dies eröffnet die Möglichkeit, die Interaktionen zwischen Agenten zu kapern oder zu vergiften, indem angreifergesteuerte Daten verwendet werden, um die koordinierten Aktionen zu manipulieren. Das Fehlen menschlicher Beteiligung könnte die Erkennung und Eindämmung noch mehr verzögern. (Rohit Aradhya)
- Die Führungsrolle in der Cybersecurity wird sich um die Leitung von KI-Agenten sowie um Menschen drehen. Die neue Generation von Managern wird lernen müssen, wie sie KI-Agenten in ihre Teams einbinden und verwalten, um die Produktivität und die Entscheidungsfindung zu verbessern. (Jesus Cordero-Guzman)
Was bedeutet agentenbasierte KI für die Entwicklung der Bedrohungslandschaft im Jahr 2026 und darüber hinaus?
Yaz Bekkar, leitender beratender Architekt für XDR, EMEA. Im nächsten Jahr werden Angriffe nicht nur mit KI durchgeführt, sondern die KI wird sich wie ein unabhängiger Operator verhalten, der in Echtzeit Entscheidungen trifft, um das Angriffsziel zu erreichen. Wir sehen bereits, wie KI Teile der Angriffskette automatisiert, wie zum Beispiel Aufklärung, Phishing und die Umgehung grundlegender Verteidigungsstrategien. Ich glaube, dass der Wandel im Jahr 2026 hin zu Systemen gehen wird, die Schritte planen, in Echtzeit aus Abwehrmaßnahmen lernen und ohne menschliche Steuerung umleiten.
Der KI-Operator leitet die Show von Anfang bis Ende. Er sammelt, was er braucht, stellt überzeugende Köder her, probiert einen Weg aus, beobachtet, wie Ihr Schutz oder Ihre Verteidigung reagiert, und ändert dann in aller Ruhe Taktik und Timing, bis er bekommt, was er will. Diese fortschrittlichen Hacking-Tools werden sich wie ein koordiniertes Gehirn darstellen, das Schritte aneinanderreiht, aus jedem Hindernis lernt und in normale Aktivitäten übergeht.
Die Verteidiger sollten mit neuen Angriffsarten und Taktiken rechnen, die ihnen völlig unbekannt sind und die sich im Nachhinein nur schwer erklären lassen. Die Angriffsfläche vergrößert sich ständig und schafft sowohl bekannte als auch unbekannte Sicherheitslücken, wodurch Zero-Day-Exploits zunehmen werden.
Eric Russo, Direktor für defensive Security im SOC. KI hat sich so rasant weiterentwickelt, dass sie Gespräche mit Menschen – sowohl per Sprache als auch per Nachricht – auf einem Niveau führen kann, das es Menschen nahezu unmöglich macht zu erkennen, dass sie nicht mit einer echten Person kommunizieren. Android-Nutzer können beispielsweise schon jetzt die KI-Funktionen von Google nutzen, um Anrufe von unbekannten Nummern entgegenzunehmen, Fragen zu stellen, ein Gespräch zu führen und festzustellen, ob der Anruf legitim ist. Die Technologie ist äußerst beeindruckend – aber stellen Sie sich nun vor, ein Bedrohungsakteur würde dieselbe Technologie einsetzen.
Es kann agentenbasierte KI eingesetzt werden, um traditionelle Angriffsansätze zu transformieren. Zum Beispiel bei einem Social-Engineering-Angriff gegen ein Mitglied des Finanzteams, um Firmenkontonummern zu erhalten. Oder es könnten komplexere Ziele verfolgt werden, wie zum Beispiel die Verwendung von Deepfake-Identitätsmissbrauch, um einen Helpdesk-Administrator zu täuschen und ihn dazu zu bringen, die Multi-Faktor-Authentifizierung (MFA) zurückzusetzen. Dadurch erhält ein Bedrohungsakteur Zugriff auf IT-Systeme und kann einen aufwändigeren Angriff durchführen.
Jesus Cordero-Guzman, Direktor, Lösungsarchitekten für Anwendungs-, Netzwerk-Security und XDR, EMEA. Autonome KI ist bereits Realität und wird sich als Bedrohung schnell weiterentwickeln. Sie wird riesige Datenmengen analysieren, um Schwachstellen in Echtzeit zu identifizieren, sodass Angreifer die Ausnutzung von Schwachstellen effektiver automatisieren können. Xanthorox, eine eigens dafür entwickelte, selbstgehostete Plattform für künstliche Intelligenz, die von Grund auf zur Erleichterung von Cyberkriminalität konzipiert wurde, kam Anfang 2025 auf den Markt. Es gibt auch HexStrike und die noch fortschrittlichere Venice.AI. Agentenbasierte KI kann auch als Waffe für automatisierte Phishing-Angriffe, Echtzeitüberwachung von Verteidigungssystemen und sogar zum Knacken von CAPTCHAs eingesetzt werden, um unberechtigten Zugang zu erhalten.
Rohit Aradhya, Vice President und Managing Director, App Security Engineering. Die Entwicklung agentenbasierter KI wird zu einem Anstieg adaptiver polymorpher Malware führen – Malware, die die Umgebung und die Security-Tools der Opfer analysieren und ihren eigenen Code und ihr Verhalten autonom umschreiben oder verändern kann, um signaturbasierte und verhaltensbasierte Abwehrmechanismen in Echtzeit zu umgehen.
Wir werden sehen, wie mehrere KI-Agenten gemeinsam an Aktionen arbeiten, um ein bestimmtes Ziel zu erreichen, mit minimaler oder gar keiner menschlichen Aufsicht. Das eröffnet die Möglichkeit, die Interaktionen zwischen Agenten zu kapern oder zu vergiften, indem angreifergesteuerte Daten verwendet werden, um die koordinierten Aktionen zu manipulieren. Das Fehlen menschlicher Beteiligung könnte die Erkennung und Eindämmung noch mehr verzögern.
Wir werden auch einen deutlichen Anstieg des Missbrauchs von öffentlich zugänglichen Anwendungsprogrammierschnittstellen (APIs), API-Gateways, agentenbasierten Service-APIs und Chatbot-basierten Nutzerschnittstellen erleben. Für das API-Lebenszyklus-Management wird es entscheidend sein, mit der dynamischen API-Verwaltung umzugehen, da agentenbasierte Tools API-Schnittstellen zwischen Agenten und Nutzern dynamisch erstellen und zerstören, um Dienste bereitzustellen und zu nutzen.
Wie können Organisationen sich gegen agentenbasierte KI-Bedrohungen verteidigen und ihre eigenen agentenbasierten KI-Systeme schützen?
Yaz Bekkar. Die meisten Unternehmen sehen agentenbasierte KI noch nicht kommen. Das verhält sich wie Schrödingers Katze: Die IT-Umgebung wird sich gleichzeitig „sicher“ und „kompromittiert“ anfühlen, ohne dass die Verteidiger klare Anhaltspunkte erhalten.
Die einzig realistische Verteidigung besteht in einer verhaltensbasierten Erkennung durch KI, die auf Ihre Umgebung abgestimmt ist, und nicht in einem Tool, das man kauft und mit den Standardeinstellungen belässt, während man hofft, dass es funktioniert. Wählen Sie die richtige Lösung, implementieren Sie sie gut und verfeinern Sie sie kontinuierlich. Echte Widerstandsfähigkeit entsteht durch die Kombination aus leistungsstarker Technologie und hochkarätigen Experten, die diese täglich bedienen.
Unternehmen müssen von isolierten Einzellösungen zu einer Plattform mit echter durchgängiger Sichtbarkeit übergehen. Dazu gehören Identitäten, Endpunkte, SaaS, Cloud, E-Mail und Netzwerkverkehr. Außerdem müssen Sie sich auf eine verhaltensgesteuerte Analyse-KI stützen, die lernt, was für Sie normal ist, und Anomalien und Zero-Day-Muster erkennen kann, ohne auf Signaturen zu warten. Die Menschen müssen stets auf dem Laufenden gehalten werden.
Jesus Cordero-Guzman. Traditionelle Verteidigungsmechanismen können mit der Geschwindigkeit und Anpassungsfähigkeit von KI-gesteuerten Bedrohungen nur schwer Schritt halten. Organisationen müssen in fortschrittliche Sicherheitslösungen investieren, die KI für die Erkennung und Abwehr von Bedrohungen einbeziehen, um sicherzustellen, dass sie diesen sich entwickelnden Bedrohungen effektiv entgegenwirken können.
Was sollten Organisationen tun, um ihre eigenen agentenbasierten KI-Implementierungen zu schützen?
Jesus Cordero-Guzman. Die Führungsrolle in der Cybersecurity wird sich um die Leitung von KI-Agenten sowie um Menschen drehen. Die neue Generation von Managern wird lernen müssen, wie sie KI-Agenten in ihre Teams einbinden und verwalten, um die Produktivität und die Entscheidungsfindung zu verbessern.
Wir müssen mehr über technische Kompetenz, Verarbeitung natürlicher Sprache und Datenanalyse lernen, um KI-Agenten den für das organisatorische Geschäftsmodell erforderlichen „Charakter“ zu verleihen. Dies ist nicht nur eine operative, sondern auch eine ethische Herausforderung. Wir müssen sicherstellen, dass integrierte KI-Agenten verantwortungsvoll eingesetzt werden und dass die von diesen Systemen getroffenen Entscheidungen mit den Werten der Organisation und gesellschaftlichen Normen übereinstimmen. Mit der Weiterentwicklung der KI wird auch die Rolle der Führungskräfte bei der Navigation durch diese dynamische Landschaft der Cybersecurity immer wichtiger.
Rohit Aradhya. Wenn Organisationen die erste agentenbasierte KI implementieren, müssen verschiedene KI-spezifische Sicherheitskontrollen folgen. Dazu gehören robustes Identitäts- und Zugriffsmanagement (IAM) für KI-Agenten. Jeder Agent sollte als eigenständige Einheit mit zugehörigen Benutzern, Gruppen und Ressourcenzugriffsrechten behandelt werden. Unternehmen müssen ihr Zero-Trust-Framework auf KI-Agenten und -Tools ausdehnen, um jede Anfrage und Aktion, die ein Agent versucht, zu verifizieren und zu validieren, unabhängig von seinem bisherigen Verhalten. Sie müssen den Fokus verstärkt auf die Überwachung des Betriebsverhaltens der Systeme richten, damit Abweichungen schnell erkannt werden können. Die Kommunikation zwischen Agenten muss gesichert, ordnungsgemäß authentifiziert, verschlüsselt und protokolliert werden, um die Rückverfolgbarkeit und Erklärbarkeit zu gewährleisten und um sich vor der Art von Angriffen zu schützen, die darauf ausgelegt sind, die Kommunikation zu vergiften. Zu guter Letzt müssen Organisationen sicherstellen, dass sie Standards wie den NIST KI Risk Management Framework verstehen und einhalten.
Abgesehen vom Risiko: Wie kann agentenbasierte KI zur Verbesserung der Security beitragen?
Eric Russo. Agentenbasierte KI wird ein leistungsstarkes Werkzeug für SOC-Teams sein. Es bietet die Möglichkeit, die Belastung durch reaktive Arbeit für SOC-Teams zu verringern und die Ressourcenkapazität für proaktivere Security-Initiativen wie Bedrohungsforschung, Erkennungstechnik usw. zu erhöhen. Beispielsweise können viele Aufgaben im Zusammenhang mit dem administrativen Management von Security-Systemen von agentenbasierter KI übernommen werden. Nehmen Sie nun die Zeit, die ein SOC-Analyst oder Ingenieur traditionell benötigt hätte, um diese Aufgabe manuell zu erledigen, und lassen Sie diese Person stattdessen auf eine aufkommende Bedrohung konzentrieren.
Ein weiterer Anwendungsfall für KI in der Security-Abwehr ist die Erweiterung des maschinellen Lernens bei der Bedrohungserkennung. Traditionelle Erkennungsmechanismen sind von Natur aus statischer. Die Entwicklung von ML-Algorithmen, die Baselines für das Nutzerverhalten, den Netzwerkverkehr usw. festlegen und anschließend Kriterien für die Anomaliebewertung definieren können, damit die Systeme entscheiden können, wann eine Security-Warnung ausgegeben werden soll, ist jedoch ein sehr effektiver Ansatz zur Erkennung raffinierter Bedrohungsakteure. Dieser Ansatz hat auch den Vorteil, dass die Alarmierung mit höherer Zuverlässigkeit erfolgt, was die Alarmmüdigkeit und Fehlalarme reduziert.
Der Ransomware Insights Bericht 2025
Wichtige Erkenntnisse über die Erfahrungen und Auswirkungen von Ransomware auf Unternehmen weltweit
Abonnieren Sie den Barracuda-Blog.
Melden Sie sich an, um aktuelle Bedrohungsinformationen, Branchenkommentare und mehr zu erhalten.
Managed Vulnerability Security: Schnellere Behebung von Schwachstellen, weniger Risiken, einfachere Compliance
Erfahren Sie, wie einfach es sein kann, die von Cyberkriminellen bevorzugte Schwachstellen zu finden.