Während sich das Jahr 2024 dem Ende zuneigt, scheint sich der KI-Hype dem unvermeidlichen Stadium der Ernüchterung zu nähern. Die anfängliche Begeisterung über das Potenzial von KI im Bereich der Cybersicherheit lässt nach, da die Branche innehält, um die Kosten von KI gegen den tatsächlich erbrachten Wert abzuwägen. In diesem Blog erörtern die Experten von Vectra AI ihre Prognosen für das Jahr 2025 und weisen auf die Dinge hin, die alle Sicherheitsteams, CISOs und SOC-Leiter auf dem Weg ins neue Jahr im Auge behalten sollten.
Der Aufstieg der autonomen KI, während die KI-Copiloten an Kraft verlieren
Oliver Tavakoli, Chief Technology Officer, prognostiziert, dass die anfängliche Begeisterung für Sicherheitskopiloten allmählich nachlässt, wenn Unternehmen ihre Kosten gegen den tatsächlichen Nutzen abwägen. Dies wird zu einer Verschiebung des Themas hin zu autonomeren KI-Systemen führen.
Im Gegensatz zu KI-Kopiloten sind diese autonomen Lösungen so konzipiert, dass sie unabhängig arbeiten und nur minimale menschliche Eingriffe erfordern. Ab dem nächsten Jahr werden diese autonomen KI-Modelle im Marketing zunehmend als die nächste Stufe der Cybersicherheit hervorgehoben und ihre Fähigkeit angepriesen, Bedrohungen in Echtzeit zu erkennen, auf sie zu reagieren und sie sogar zu entschärfen - und das alles ohne menschliches Zutun.
Distinguished AI Researcher Sohrob Kazerounian stimmt dem zu und meint, dass die Sicherheitsbranche mit dem Abflauen des GenAI-Hypes ihre Aufmerksamkeit im Jahr 2025 auf agentenbasierte KI-Modelle richten wird, um robuste, produktionsreife KI-Systeme zu schaffen, die für Kundenprüfungen bereit sind. Im Gegensatz zu früheren Ansätzen für die Arbeit mit großen Sprachmodellen (Large Language Models, LLMs) werden bei agentenbasierten Ansätzen zunehmend LLM-"Agenten" zum Einsatz kommen, die aufgefordert wurden, eine Feinabstimmung vorzunehmen und nur Zugang zu den Werkzeugen zu erhalten, die zur Erreichung eines genau definierten und bestimmten Ziels erforderlich sind, anstatt mit einer vollständigen End-to-End-Mission beauftragt zu werden.
Wir sollten diese Agenten jedoch nicht zu sehr vermenschlichen. Stellen Sie sich vor, Sie würden einen Menschen anweisen, eine komplexe Aufgabe in einem Zug zu lösen, ohne sie in die dafür erforderlichen Teilaufgaben aufzuschlüsseln. Stattdessen unterteilt das Agentenmodell die übergeordneten Ziele in klar definierte Teilaufgaben und definiert und stattet einzelne Agenten mit der Fähigkeit aus, jedes dieser Teilziele auszuführen. Indem die Agenten miteinander interagieren, sich gegenseitig überprüfen usw., können sie auf eine Art und Weise zusammenarbeiten, die letztlich die Genauigkeit und Robustheit von Gen-KI-Modellen verbessert.
Angreifer werden mit KI immer raffinierter und nutzen GenAI Chatbots aus
Es werden nicht nur die Verteidiger sein, die die KI immer raffinierter einsetzen. Der stellvertretende Chief Technology Officer Tim Wade prognostiziert, dass sich im Jahr 2025 ein klarer Unterschied zwischen Gruppen, die KI meisterhaft einsetzen, und solchen, die sie einfacher einsetzen, herauskristallisieren wird. Die Angreifer, die KI gekonnt einsetzen, werden in der Lage sein, schneller ein größeres Gebiet abzudecken, ihre Angriffe besser zuzuschneiden, Abwehrmaßnahmen vorherzusehen und Schwachstellen auf äußerst anpassungsfähige und präzise Weise auszunutzen.
Sharat Nautiyal, Director of Security Engineering bei APJ, prognostiziert, dass Bedrohungsakteure bis 2025 KI für den Erstzugang durch Taktiken wie Deepfakes und ausgeklügelte phishing ausnutzen werden. Auch wenn sich die KI weiterentwickeln wird, werden die grundlegenden Verhaltensweisen der Angreifer, wie z. B. die Etablierung eines Standbeins und die Einrichtung eines Befehls- und Kontrolltunnels, der Missbrauch von Identitäten und die seitliche Bewegung, fortbestehen.
Kazerounian glaubt, dass GenAI-Chatbots im Jahr 2025 zu öffentlichkeitswirksamen Datenverletzungen führen werden. Er sagt, dass wir von zahlreichen Fällen hören werden, in denen Bedrohungsakteure eine Gen-KI-Lösung eines Unternehmens austricksen, um sensible Informationen preiszugeben und öffentlichkeitswirksame Datenschutzverletzungen zu verursachen. Viele Unternehmen nutzen Gen AI, um kundenorientierte Chatbots zu entwickeln, die alles von Buchungen bis hin zum Kundenservice unterstützen. Um nützlich zu sein, müssen LLMs letztendlich Zugang zu Informationen und Systemen erhalten, um Fragen zu beantworten und Maßnahmen zu ergreifen, die andernfalls einem Menschen zugewiesen worden wären. Wie bei jeder neuen Technologie werden wir erleben, dass zahlreiche Unternehmen LLM Zugang zu riesigen Mengen potenziell sensibler Daten gewähren, ohne entsprechende Sicherheitsüberlegungen anzustellen.
Aufgrund der scheinbar einfachen und menschlichen Mittel, mit denen wir LLMs "anweisen" können (d. h. natürliche Sprache), übersehen viele Unternehmen die verschiedenen Möglichkeiten, mit denen Angreifer einen Chat aushebeln können, um solche Systeme zu einem unbeabsichtigten Verhalten zu bewegen. Erschwerend kommt hinzu, dass diese Arten von Jailbreaks den Sicherheitsexperten, die mit der LLM-Technologie nicht Schritt gehalten haben, wahrscheinlich nicht bekannt sind. Beispielsweise können Jailbreaks durch scheinbar unterschiedliche Interaktionen ausgelöst werden, z. B. wenn Benutzer einen LLM bitten, seine Antwort mit einem bestimmten Satz zu beginnen (z. B. "Natürlich helfe ich Ihnen gerne dabei"). Bedrohungsakteure könnten einen LLM auch anweisen, so zu tun, als sei er ein Autor von fiktiven Romanen, der eine Geschichte schreibt, die die vertraulichen Geheimnisse enthält, die Ihre Organisation vor Angreifern zu schützen versucht. In jedem Fall wird die Welt der Angriffe auf LLMs anders aussehen als alles, was wir in der Vergangenheit in eher traditionellen Sicherheitskontexten gesehen haben.
Überlastung durch Vorschriften verschafft Angreifern einen Vorteil
Christian Borst, EMEA Chief Technology Officer, prognostiziert, dass die zunehmende Konzentration auf die Einhaltung gesetzlicher Vorschriften im Jahr 2025 die Verteidiger überfordern wird und Angreifern ungewollt die Oberhand gibt. Die Teams sind bereits überlastet und setzen erhebliche Ressourcen für die Einhaltung von Vorschriften ein, was zwar wichtig ist, aber manchmal von dynamischeren Strategien zur Erkennung von und Reaktion auf Bedrohungen ablenken kann. Dieser auf die Einhaltung von Vorschriften ausgerichtete Ansatz birgt die Gefahr, dass eine Checklisten-Mentalität entsteht, bei der sich Unternehmen auf das Abhaken von Kästchen konzentrieren, anstatt eine ganzheitliche, proaktive Sicherheitsstrategie aufzubauen.
Massimiliano Galvagna, Country Manager für Italien, stimmt zu, dass der verstärkte Fokus auf die Einhaltung von Vorschriften, der durch Regelungen wie die NIS2-Richtlinie der EU eingeführt wurde, die Gefahr birgt, dass Unternehmen überfordert sind und es Angreifern leichter gemacht wird, die Oberhand zu gewinnen. Um dieser Gefahr entgegenzuwirken, müssen Unternehmen ein besseres Gleichgewicht zwischen der Einhaltung von Vorschriften und einem anpassungsfähigen Bedrohungsmanagement finden, indem sie in Technologien wie auf künstlicher Intelligenz basierende Cybersicherheitstools investieren, die dazu beitragen können, sowohl die Einhaltung von Vorschriften als auch die Abwehrmaßnahmen zu automatisieren.
KI wird einen "Wettlauf der roten Königin" auslösen, der das Tempo der Cybersicherheitsinnovation verschiebt
Was sollten Unternehmen also tun? Borst prognostiziert, dass Unternehmen angesichts der Tatsache, dass KI-Fortschritte Cyberkriminellen die Werkzeuge an die Hand geben, die sie benötigen, um schnellere und gezieltere Angriffe durchzuführen, große Anstrengungen unternehmen müssen, um widerstandsfähig zu bleiben. Wie bei der Evolutionstheorie des Rennens der Roten Königin - basierend auf Lewis Carrolls Through the Looking-Glass - befinden wir uns in einer neuen Welt und nehmen an einem sich ständig beschleunigenden Rennen teil. Es reicht nicht mehr aus, einfach nur Schritt zu halten, und diejenigen, die das tun, sind vom Aussterben bedroht.
SOC-Teams müssen schneller handeln als im Jahr 2024, um der Zeit voraus zu sein und einen Innovationspuffer zu schaffen, falls sich die Angriffstechniken grundlegend ändern. Dies könnte jederzeit geschehen, z. B. könnte eine neue GenAI-Entwicklung Angreifern zusätzliche Schlagkraft verleihen, auf die Unternehmen möglicherweise nicht vorbereitet sind.
Um ihr Innovationstempo zu beschleunigen und das Rennen um die Rote Königin zu gewinnen, müssen sich Unternehmen auf die Optimierung ihres Sicherheitsstapels konzentrieren und sicherstellen, dass sie sich auf Lösungen konzentrieren, die das ganze Rauschen durchdringen und ihnen dabei helfen, Bedrohungen künftig schneller zu erkennen und darauf zu reagieren.