Vorhersagen für 2024: Die Rolle der generativen KI in der Cybersecurity  

30. November 2023
Vectra AI Team für Sicherheitsforschung
Cybersecurity
Vorhersagen für 2024: Die Rolle der generativen KI in der Cybersecurity  

Im Jahr 2023 hat generative KI den Mainstream erreicht, und immer mehr Menschen in verschiedenen Regionen, Branchen und Senioritätsstufen nutzen die Technologie. In der McKinsey-Studie "The state of AI in 2023: Generative AI's breakout year" geben 79 % der Befragten an, dass sie entweder beruflich oder außerhalb der Arbeit mit generativer KI in Berührung gekommen sind, und 22 % geben an, dass sie sie regelmäßig bei ihrer eigenen Arbeit einsetzen. 

Während die Akzeptanz und die Investitionen in generative KI zunehmen, zeigt der Bericht von McKinsey, dass viele Unternehmen die potenziellen Risiken generativer KI nicht berücksichtigen. Weniger als ein Drittel der Befragten gab an, dass sie Maßnahmen ergriffen haben, um den Einsatz fortschrittlicher KI-Technologien zu reduzieren und so die Risiken für die Cybersicherheit zu mindern. 

Der Aufstieg der generativen KI in Wirtschaft und Cybersicherheit

Für das Jahr 2024 wird prognostiziert, dass generative KI eine noch zentralere Rolle in Wirtschaft und Gesellschaft spielen wird. Jüngsten Studien zufolge wird der Einsatz generativer KI exponentiell zunehmen, mit einem prognostizierten Anstieg der Nutzung um 30 % in verschiedenen Branchen. In dem Maße, wie diese intelligenten KI- und maschinellen Lernsysteme in unseren Alltag Einzug halten, steht die Cybersicherheitslandschaft sowohl vor Herausforderungen als auch vor Innovationen.

Nachfolgend haben die Experten von Vectra AI ihre generativen KI-bezogenen Vorhersagen für die Cybersicherheit im Jahr 2024 zusammengestellt. Sie weisen auf die Dinge hin, die alle Sicherheitsteams, CISOs und SOC-Leiter auf dem Weg ins neue Jahr im Auge behalten sollten. 

Generative KI: Ein Werkzeug für Innovation und eine Herausforderung für die Cybersicherheit

Vorbereiten auf die Zukunft: Cybersecurity-Strategien in der KI-Ära

Oliver Tavakoli, Chief Technology Officer, sagt voraus, dass generative KI die Wirksamkeit der E-Mail-Sicherheit untergraben wird. "Darüber hinaus wird der Einsatz von generativer KI bei Social-Engineering-Angriffen als Weckruf dienen, dass die derzeitigen Verteidigungslinien unzureichend sind. Daher erwarte ich, dass sich Unternehmen auf nachgelagerte Sicherheitsansätze wie Zero Trust, Mikrosegmentierung sowie Erkennungs- und Reaktionsmechanismen verlegen werden."

Politische Implikationen: Die Rolle der KI bei Wahlen und Informationsintegrität 

Sohrob Kazerounian, Distinguished AI Researcher glaubt im Vorfeld der Wahlen 2024, dass generative KI das Misstrauen und die Desinformation bei Wahlen beeinflussen wird." Die breite Verfügbarkeit generativer KI-Modelle und ihre relative Benutzerfreundlichkeit werden weitreichende Auswirkungen haben, da sich die USA derzeit in einem Wahljahr befinden. Desinformation in großem Maßstab mit qualitativ hochwertigen Inhalten (z. B. gefälschte Audio- und Videoaufnahmen von Kandidaten, massenproduzierte Fiktion, die sich als Nachrichten tarnt, usw.) wird einfacher als je zuvor. Die Unfähigkeit, unseren Sinnen zu vertrauen, könnte zu Misstrauen und Paranoia führen und die sozialen und politischen Beziehungen zwischen den Menschen weiter zerstören."

Verschiebung der KI-Trends: LLMs gehen zurück, Deep Fakes nehmen zu

Christian Borst, EMEA CTO, glaubt, dass die weit verbreitete LLM-Nutzung verschwinden wird, aber Deep Fakes in die Höhe schnellen werden." Viele Unternehmen suchen nach Möglichkeiten, Large Language Models (LLMs) nach der ersten Welle des Hypes in diesem Jahr zu verwenden. Aber wenn man unter der Oberfläche kratzt, ist klar, dass sich der Neuigkeitsfaktor bald in Luft auflösen wird. LLMs sind in der Regel recht schwierig zu verwenden, da sie nicht in der Lage sind, den Kontext zu verstehen oder zuverlässige Ergebnisse zu liefern, so dass der breitere praktische Einsatz von LLMs eingeschränkt ist. Im nächsten Jahr werden Unternehmen daher den Einsatz von LLMs reduzieren, da sie darauf warten, dass diese Tools funktionaler und benutzerfreundlicher werden. 

"Bedrohungsakteure werden mit den gleichen Problemen bei der Verwendung von LLMs konfrontiert sein, so dass wir wahrscheinlich nicht viele komplexe Aktivitäten wie KI sehen werden, die bösartigen Code generiert. Wir können jedoch davon ausgehen, dass Cyberkriminelle generative KI nutzen werden, um realistischere und ausgefeiltere Deep Fakes zu erstellen. Dadurch haben sie eine bessere Chance, Benutzer durch überzeugendere akustische oder visuelle Phishing-Köder dazu zu bringen, sensible Daten preiszugeben oder auf etwas Bösartiges zu klicken."

Regulierungslandschaft: Balance zwischen KI-Innovation und Kontrolle

Und wenn es um generative KI (und KI im Allgemeinen) geht, werden Regulierung und Politik im Jahr 2024 eine große Rolle spielen. Laut Hitesh Sheth Vectra AI CEO, die Zukunft der KI wird von regulatorischen Entscheidungen abhängen. "Ich prognostiziere, dass wir im Jahr 2024 monumentale Fortschritte bei der Regulierung und Politik von KI erleben werden. Aufbauend auf der Durchführungsverordnung von Präsident Biden zur künstlichen Intelligenz werden Entscheidungsträger in allen Regierungsbehörden konkretere Vorschriften bewerten und einführen, um das Risiko der KI einzudämmen und ihre Vorteile zu nutzen. Da sich die KI ständig weiterentwickelt, wird es für diese sich entwickelnden Vorschriften wichtig sein, ein Gleichgewicht zwischen dem Eintreten für Transparenz und der Förderung der kontinuierlichen Innovation zu finden, die in rasantem Tempo stattfindet."  

Sohrob Kazerounian, Distinguished AI Researcher, stimmt zu und prognostiziert , dass die ethischen, rechtlichen und politischen Dilemmata der KI zu Rechtsstreitigkeiten führen werden." Ethische, rechtliche und gesellschaftspolitische Fragen in Bezug auf KI werden nur noch heikler. Angesichts der allgemeinen politischen Lähmung in den USA ist es unwahrscheinlich, dass robuste regulatorische und rechtliche Rahmenbedingungen zur Regulierung von KI so schnell entstehen werden, wie sie benötigt werden. Klagen über urheberrechtlich geschütztes Material, das zum Trainieren generativer KI-Modelle verwendet wird, werden zunehmen."

Schlussfolgerung: KI mit Bedacht und Verantwortung einsetzen

Es besteht kein Zweifel daran, dass generative KI die Cybersicherheitslandschaft in erheblichem Maße verändern wird. Und sie hat das Potenzial, Sicherheitstools zu verbessern, Bedrohungsdaten zu erfassen und Sicherheitszentren umzugestalten. Während wir diese Möglichkeiten nutzen, sollten wir vorsichtig vorgehen, bewaffnet mit Wissen, Widerstandsfähigkeit und dem Engagement, in diesem komplizierten Tanz einen Schritt voraus zu sein

Generative KI bietet eine neue und aufregende Möglichkeit, Technologie zur Bekämpfung von Cyberangriffen einzusetzen, was die Gründungsaufgabe von Vectra AIist. Wenn Sie mehr über die KI hinter Vectra Attack Signal Intelligence erfahren möchten, laden Sie noch heute unser aktuelles Whitepaper herunter.