Im Jahr 2023 hat generative KI den Mainstream erreicht, und immer mehr Menschen in verschiedenen Regionen, Branchen und Senioritätsstufen nutzen die Technologie. In der McKinsey-Studie "The state of AI in 2023: Generative AI's breakout year" geben 79 % der Befragten an, dass sie entweder beruflich oder außerhalb der Arbeit mit generativer KI in Berührung gekommen sind, und 22 % geben an, dass sie sie regelmäßig bei ihrer eigenen Arbeit einsetzen.
Während die Akzeptanz und die Investitionen in generative KI zunehmen, zeigt der Bericht von McKinsey, dass viele Unternehmen die potenziellen Risiken generativer KI nicht berücksichtigen. Weniger als ein Drittel der Befragten gab an, dass sie Maßnahmen ergriffen haben, um den Einsatz fortschrittlicher KI-Technologien zu reduzieren und so die Risiken für die Cybersicherheit zu mindern.
Der Aufstieg der generativen KI in Wirtschaft und Cybersicherheit
Für das Jahr 2024 wird prognostiziert, dass generative KI eine noch zentralere Rolle in Wirtschaft und Gesellschaft spielen wird. Jüngsten Studien zufolge wird der Einsatz generativer KI exponentiell zunehmen, mit einem prognostizierten Anstieg der Nutzung um 30 % in verschiedenen Branchen. In dem Maße, wie diese intelligenten KI- und maschinellen Lernsysteme in unseren Alltag Einzug halten, steht die Cybersicherheitslandschaft sowohl vor Herausforderungen als auch vor Innovationen.
Nachfolgend haben die Experten von Vectra AI ihre generativen KI-bezogenen Vorhersagen für die Cybersicherheit im Jahr 2024 zusammengestellt. Sie weisen auf die Dinge hin, die alle Sicherheitsteams, CISOs und SOC-Leiter auf dem Weg ins neue Jahr im Auge behalten sollten.
Generative KI: Ein Werkzeug für Innovation und eine Herausforderung für die Cybersicherheit
Vorbereiten auf die Zukunft: Cybersecurity-Strategien in der KI-Ära
Oliver Tavakoli, Chief Technology Officer, sagt voraus, dass generative KI die Wirksamkeit der E-Mail-Sicherheit untergraben wird. "Darüber hinaus wird der Einsatz von generativer KI bei Social-Engineering-Angriffen als Weckruf dienen, dass die derzeitigen Verteidigungsmechanismen unzureichend sind. Folglich erwarte ich, dass sich Unternehmen auf nachgelagerte Sicherheitsansätze konzentrieren werden, wie z. B. Zero TrustMikro-Segmentierung sowie Erkennungs- und Reaktionsmechanismen".
Politische Implikationen: Die Rolle der KI bei Wahlen und Informationsintegrität
Sohrob Kazerounian, Distinguished AI Researcher glaubt im Vorfeld der Wahlen 2024, dass generative KI das Misstrauen und die Desinformation bei Wahlen beeinflussen wird." Die breite Verfügbarkeit generativer KI-Modelle und ihre relative Benutzerfreundlichkeit werden weitreichende Auswirkungen haben, da sich die USA derzeit in einem Wahljahr befinden. Desinformation in großem Maßstab mit qualitativ hochwertigen Inhalten (z. B. gefälschte Audio- und Videoaufnahmen von Kandidaten, massenproduzierte Fiktion, die sich als Nachrichten tarnt, usw.) wird einfacher als je zuvor. Die Unfähigkeit, unseren Sinnen zu vertrauen, könnte zu Misstrauen und Paranoia führen und die sozialen und politischen Beziehungen zwischen den Menschen weiter zerstören."
Verschiebung der KI-Trends: LLMs gehen zurück, Deep Fakes nehmen zu
Christian Borst, EMEA CTO, glaubt, dass die weit verbreitete LLM-Nutzung verschwinden wird, aber Deep Fakes in die Höhe schnellen werden." Viele Unternehmen suchen nach Möglichkeiten, Large Language Models (LLMs) nach der ersten Welle des Hypes in diesem Jahr zu verwenden. Aber wenn man unter der Oberfläche kratzt, ist klar, dass sich der Neuigkeitsfaktor bald in Luft auflösen wird. LLMs sind in der Regel recht schwierig zu verwenden, da sie nicht in der Lage sind, den Kontext zu verstehen oder zuverlässige Ergebnisse zu liefern, so dass der breitere praktische Einsatz von LLMs eingeschränkt ist. Im nächsten Jahr werden Unternehmen daher den Einsatz von LLMs reduzieren, da sie darauf warten, dass diese Tools funktionaler und benutzerfreundlicher werden.
"cybercriminels wird mit den gleichen Problemen bei der Verwendung von LLMs konfrontiert sein, so dass wir wahrscheinlich nicht viele komplexe Aktivitäten wie die Generierung von bösartigem Code durch KI sehen werden. Wir können jedoch davon ausgehen, dass Cyberkriminelle generative KI nutzen werden, um realistischere und ausgefeiltere Fälschungen zu erstellen. Dadurch haben sie eine bessere Chance, Nutzer durch überzeugendere akustische oder visuelle phishing Köder dazu zu bringen, sensible Daten preiszugeben oder auf etwas Bösartiges zu klicken."
Regulierungslandschaft: Balance zwischen KI-Innovation und Kontrolle
Und wenn es um generative KI (und KI im Allgemeinen) geht, werden Regulierung und Politik im Jahr 2024 eine große Rolle spielen. Laut Hitesh Sheth, Vectra AI CEO, wird die Zukunft der KI von regulatorischen Entscheidungen abhängen. "Ich sage voraus, dass wir im Jahr 2024 monumentale Fortschritte in der KI-Regulierung und -Politik erleben werden. Aufbauend auf Präsident Bidens Durchführungsverordnung zur künstlichen Intelligenz werden Entscheidungsträger in allen Regierungsstellen konkretere Vorschriften bewerten und einführen, um die Risiken der KI zu begrenzen und ihre Vorteile zu nutzen. Da sich KI weiter entwickelt, wird es wichtig sein, dass diese sich entwickelnden Vorschriften ein Gleichgewicht zwischen dem Eintreten für Transparenz und der Förderung der fortlaufenden Innovation, die sich in einem rasanten Tempo vollzieht, finden.
Sohrob Kazerounian, Distinguished AI Researcher, stimmt zu und prognostiziert , dass die ethischen, rechtlichen und politischen Dilemmata der KI zu Rechtsstreitigkeiten führen werden." Ethische, rechtliche und gesellschaftspolitische Fragen in Bezug auf KI werden nur noch heikler. Angesichts der allgemeinen politischen Lähmung in den USA ist es unwahrscheinlich, dass robuste regulatorische und rechtliche Rahmenbedingungen zur Regulierung von KI so schnell entstehen werden, wie sie benötigt werden. Klagen über urheberrechtlich geschütztes Material, das zum Trainieren generativer KI-Modelle verwendet wird, werden zunehmen."
Schlussfolgerung: KI mit Bedacht und Verantwortung einsetzen
Es besteht kein Zweifel daran, dass generative KI die Cybersicherheitslandschaft in erheblichem Maße verändern wird. Und sie hat das Potenzial, Sicherheitstools zu verbessern, Bedrohungsdaten zu erfassen und Sicherheitszentren umzugestalten. Während wir diese Möglichkeiten nutzen, sollten wir vorsichtig vorgehen, bewaffnet mit Wissen, Widerstandsfähigkeit und dem Engagement, in diesem komplizierten Tanz einen Schritt voraus zu sein
Generative KI bietet eine neue und aufregende Möglichkeit, Technologie zur Bekämpfung von Cyberangriffen einzusetzen, was die Gründungsaufgabe von Vectra AIist. Wenn Sie mehr über die KI hinter Vectra Attack Signal Intelligence erfahren möchten, laden Sie noch heute unser aktuelles Whitepaper herunter.