Woran man erkennt, ob ein KI-Cybersicherheitsanspruch gerechtfertigt ist

4. September 2023
Willem Hendrickx
Chief Revenue Officer
Woran man erkennt, ob ein KI-Cybersicherheitsanspruch gerechtfertigt ist

Das Problem mit KI in der Cybersicherheit

AI hat ein PR-Problem - eigentlich zwei. Vectra und ich sind hier, um beide anzusprechen.

Erstes Problem: Der Begriff KI wird überstrapaziert

Der Begriff KI - künstliche Intelligenz - wird auf dem heutigen Markt überstrapaziert, bis hin zu echter Nachlässigkeit - insbesondere im Bereich der Cybersicherheit. Tatsächlich wird der Begriff KI so oft und so beiläufig verwendet, dass er seine Bedeutung verliert. KI ist en vogue, und so findet man Verweise auf "KI-verstärkte" oder "KI-gesteuerte" Sicherheitslösungen, die streng genommen gar keine KI-Implementierungen sind. Oft handelt es sich lediglich um regelbasierte Systeme: Workflows nach dem Motto "Wenn dies, dann das".

Zweites Problem: Die Öffentlichkeit versteht KI nicht

Ein Großteil der Öffentlichkeit versteht KI nicht, was sie zu einem gefundenen Fressen für Sensationsmeldungen in der Mainstream-Presse macht. Ein Google-Ingenieur, Blake Lemoine, erregte beispielsweise vor kurzem weltweites Aufsehen, als er behauptete, ein internes Chatbot-generierendes System habe Gefühle entwickelt. Er behauptete, es habe eine "Persönlichkeit" und habe freiwillig Ängste über seine eigene Sterblichkeit geäußert.[1]

Google hat Lemoines Behauptung schnell entlarvt. Aber für Nicht-Experten weckte diese Geschichte Visionen aus der Science-Fiction, in denen bösartige Computer rebellieren, Kriege beginnen oder Astronauten aus ihren Raumschiffen aussperren. Diese Art von Geschichte hinterlässt einen Eindruck.

Die Macht der KI-Bedrohungserkennung

Im Bereich der Cybersicherheit ist die reale KI sicherlich nicht dafür vorgesehen, abtrünnig zu werden. Aber sie bietet einen weitaus größeren Nutzen als ein einfacher regelbasierter digitaler Wächter. Letzterer meldet reflexartig Anomalien ohne Kontext. Es gibt kein Bewusstsein für Präzedenzfälle oder parallel laufende Ereignisse und nichts, was die Bedrohungsjagd rationalisiert oder die menschliche Intelligenz stärkt.

Heute brauchen wir Fähigkeiten zur Erkennung von Bedrohungen, die über einen engen Fokus auf bekannte Angriffe hinausgehen. Sicherheitsanalysten brauchen KI und maschinelles Lernen, die wie ein Angreifer denken und noch unbekannte Formen von Cyberangriffen vorhersehen können. Bei Vectra AI nennen wir dies Attack Signal Intelligence™. Nach mehr als einem Jahrzehnt der Entwicklung ist es ein unverzichtbares Verteidigungsinstrument im heutigen Werkzeugkasten für Bedrohungen und ein Grundpfeiler der Vectra AI Plattform.

Vectra AI nutzt Algorithmen des maschinellen Lernens und fortschrittliche Analyseverfahren, um echte Angriffe und nicht nur Anomalien zu erkennen. Unser integriertes Signal erkennt Verhaltensweisen und Muster von Angreifern im historischen Kontext der lokalen Umgebung - und in Hunderten weiterer Clouds und Netzwerkdomänen, die wir schützen. Wir klassifizieren Cyber-Bedrohungen nach ihrem Schweregrad, erkennen echte Angriffe in Echtzeit und stellen Tools und Daten zur Verfügung, die eine schnelle Abhilfe ermöglichen.

Vier Fragen, um die Qualität eines KI-Angebots zu ermitteln 

Wenn also nicht alle KI gleich ist - und einige andere Angebote weniger gut sind, als es den Anschein hat - wie kann Ihr Sicherheitsteam dann den Unterschied erkennen? Stellen Sie diese vier Fragen. Die Antworten können Aufschluss darüber geben, wie realistisch ein KI-Angebot wirklich ist.

1. Konzentriert sich ihr KI-Angebot auf das, was seltsam ist, oder auf das vorliegende Sicherheitsproblem?

Ein Produkt, das eine allgemeine Anomalieerkennung durchführt, besteht diesen Test nicht: Nicht jede Anomalie ist eine Bedrohung. Außerdem gibt sich nicht jede echte Bedrohung als Anomalie zu erkennen. Die Vectra AI Plattform konzentriert sich darauf, die Handlungen von Angreifern hervorzuheben und Fehlalarme zu eliminieren, indem sie Datenmengen in Echtzeit in umsetzbare Warnungen verwandelt.

2. Wie und wo setzt ein Anbieter KI ein?

Einige nutzen KI, um periphere Probleme zu lösen, sind aber weiterhin auf alte Technologien angewiesen, wenn es um die zentralen Herausforderungen bei der Ausführung geht. Je zentraler die Rolle der KI ist, desto mehr Wert kann sie bieten. Unsere KI-gesteuerte Attack Signal Intelligence ist das Herzstück der Vectra AI Plattform - um das Verhalten des Angreifers zu finden, mehrstufige Angriffe zu priorisieren und das System zu verwalten.

3. Wie sieht es mit einem ergänzenden menschlichen Faktor aus?

KI ist nur so gut wie ihre Schöpfer. Sie kann menschliche Schwachstellen, Vorurteile oder andere Einschränkungen widerspiegeln. Leistungsstarke Teams mit herausragenden Visionen und Fähigkeiten sind für die Entwicklung von KI unerlässlich. Die Datenwissenschaftler und Sicherheitsforschungsspezialisten von Vectra AI bringen vielfältige Fähigkeiten in die KI ein, von den Neurowissenschaften bis zur Physik und von der Reaktion auf physikalische Vorfälle bis zum Reverse Engineering. Ihr tiefes Wissen in ihren jeweiligen Bereichen und ihre kombinierte Erfahrung heben Vectra AI vom Rest der Branche ab.

Der menschliche Faktor spielt auch eine Rolle, wenn KI für Kunden eingesetzt wird. Vectra AI Analystenteams unterstützen und leiten den Sicherheitsbetrieb rund um die Uhr. Wie mein Vectra AI Kollege Christian Borst, Field CTO für EMEA, sagt: "Wir sollten KI immer nur als Hilfsmittel und Leitfaden betrachten - die fundierte Entscheidung liegt in vielen Bereichen immer noch beim Menschen."

4. Wird KI als Allheilmittel dargestellt?

‍AlsAllzweck-Antibiotikum für alle Infektionen im Cyberspace? Echte KI funktioniert nicht auf diese Weise. Die sich verändernde, wogende Topografie von Netzwerkdomänen - beispielsweise durch neue hybride cloud Strategien und den Aufstieg von SaaS- und PaaS-Anbietern - stellt regelmäßig einzigartige Herausforderungen dar. Seien Sie misstrauisch gegenüber Anbietern, die möglicherweise zu viel versprechen.

Außerdem ist die Form zukünftiger Cyber-Bedrohungen unbekannt. Die beste Verteidigung gegen das Unbekannte liegt in der richtigen Menge an Erfahrung, Agilität und der Bereitschaft zur Iteration. In diesem Sinne wendet Vectra AI verschiedene KI-Techniken an, um Cybersicherheitslösungen zu entwickeln, und setzt sich kontinuierlich für Forschung und Innovation ein. Kein Anbieter kann behaupten, alle Antworten zu kennen.

Vectra investiert weiter in echte Cybersecurity-KI

Die Nutzung von KI und ihre Optimierung für die Zwecke der Cyberverteidigung ist eine nuanciertere, komplexere Aufgabe, als manche glauben wollen. Sie kann den menschlichen Einfallsreichtum und das menschliche Urteilsvermögen nicht ersetzen, geschweige denn ablehnen. Aber heute ist sie das beste Werkzeug, um neue, anhaltende Bedrohungsmuster zu erkennen und sie von harmlosen Anomalien zu unterscheiden. In der Zwischenzeit entwickelt sich die Messlatte für echte KI weiter, und die Angreifer gehen beim böswilligen Einsatz neuer Technologien immer neue Wege - immer mit dem Ziel, sich der Entdeckung zu entziehen. Deshalb ist es unsere Pflicht, in einen Vorsprung zu investieren.

Eines kann ich Ihnen aber versprechen: Die KI wird Sie nicht aus Ihrem Raumschiff aussperren. Wir sollten alles in unserer Macht Stehende tun, um den Menschen dabei zu helfen, ihre falschen Vorstellungen zu überwinden und zu erkennen, welchen echten Wert eine effektive KI haben kann. Auf Vectra AI setzen wir sie auf intelligente und umsichtige Weise ein, um die menschliche Arbeit zu ergänzen und uns dabei zu helfen, eine sicherere und gerechtere Welt zu schaffen, die wir verdienen.

Für einen detaillierten Einblick in das integrierte Signal, das die Vectra AI Plattform antreibt, laden Sie das Whitepaper herunter: Die KI hinter Vectra AI.

[1 ] Blake Lemoine, "Was ist LaMDA und was will es?" Medium.com, 11. Juni 2022. https://cajundiscordian.medium.com/what-is-lamda-and-what-does-it-want-688632134489