Unternehmen, die künstliche Intelligenz einsetzen, sehen sich mit einer neuen Dimension von Sicherheitsbedrohungen konfrontiert, für deren Abwehr herkömmliche Sicherheitskonzepte nie ausgelegt waren. Laut Branchenstudien zu Bedrohungsinformationen stiegen die Angriffe durch KI-gestützte Angreifer im Vergleich zu den Vorjahren um 89 % – ein Anstieg gegenüber den im Jahr 2025 gemeldeten 72 %. Diese Eskalation erfordert einen strukturierten Ansatz, um bedrohliche Angriffe auf KI-Systeme zu verstehen und abzuwehren. Hier kommt MITRE ATLAS ins Spiel – die „Adversarial Threat Landscape for Artificial-Intelligence Systems“ – eine umfassende Wissensdatenbank zu Angriffen auf maschinelles Lernen, die speziell dafür entwickelt wurde, zu katalogisieren, wie Angreifer maschinelle Lern- und KI-Systeme ins Visier nehmen.
Für Sicherheitsteams, die bereits mit MITRE ATT&CKvertraut sind, bietet ATLAS (in Suchmaschinen manchmal als Atlas MITRE bezeichnet) eine natürliche Erweiterung in den Bereich der KI-Sicherheit. Dieser Leitfaden enthält alles, was Sicherheitsanalysten, SOC-Leiter und KI-Ingenieure benötigen, um ATLAS gegen feindliche KI-Angriffe einzusetzen – von den Grundlagen des Frameworks bis hin zu praktischen Erkennungsstrategien.
MITRE ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems) ist eine weltweit zugängliche Wissensdatenbank für adversariales maschinelles Lernen, die Taktiken, Techniken und Vorgehensweisen (TTPs) von Angreifern dokumentiert, die speziell auf Systeme der künstlichen Intelligenz und des maschinellen Lernens abzielen. Diese Wissensdatenbank für adversariales KI-Lernen, die sich am weit verbreiteten MITRE ATT&CK orientiert, bietet Sicherheitsteams einen strukturierten Ansatz zum Verständnis, zur Erkennung und zur Abwehr von KI-spezifischen Bedrohungen. Das MITRE ATLAS-Framework dient als das maßgebliche Sicherheitsframework für maschinelles Lernen im Bereich der KI-Bedrohungsmodellierung.
Laut dem offiziellen MITRE ATLAS CHANGELOG umfasst das Framework ab Version 5.1.0 (November 2025) 16 Taktiken, 84 Techniken, 56 Untertechniken, 32 Abwehrmaßnahmen und 42 Fallstudien aus der Praxis – ein Anstieg gegenüber den 15 Taktiken und 66 Techniken im Oktober 2025. Das Update vom Februar 2026 (v5.4.0) fügte weitere agentenorientierte Techniken hinzu. Dieses rasante Wachstum spiegelt die sich beschleunigende Entwicklung von KI-Bedrohungen wider.
Adversarial Machine Learning – die Untersuchung von Angriffen auf maschinelle Lernsysteme und Abwehrmaßnahmen dagegen – umfasst laut NIST vier Hauptkategorien von Angriffen: Umgehungs-, Vergiftungs-, Datenschutz- und Missbrauchsangriffe. ATLAS organisiert diese Angriffsmuster in einer Matrixstruktur, die Sicherheitsexperten sofort nutzen können.
MITRE hat ATLAS entwickelt, um eine kritische Lücke in der Sicherheitslandschaft zu schließen. ATT&CK katalogisiert zwar effektiv Bedrohungen für traditionelle IT- und OT-Infrastrukturen, deckt jedoch keine Angriffe ab, die die besonderen Eigenschaften von Machine-Learning-Systemen ausnutzen. ATLAS füllt diese Lücke, indem es denselben rigorosen, von der Community validierten Ansatz für KI-Bedrohungsinformationen bietet.
Das Framework ist auch mit MITRE D3FEND, das defensive Gegenmaßnahmen bereitstellt, die Unternehmen gegen ATLAS-Techniken einsetzen können.
Das Verständnis des Unterschieds zwischen ATLAS und ATT&CK hilft Sicherheitsteams dabei, zu entscheiden, wann welches Framework anzuwenden ist.
Tabelle: Vergleich der Frameworks MITRE ATT&CK MITRE ATLAS
ATLAS übernimmt 13 Taktiken aus ATT&CK – darunter Aufklärung, Erstzugriff, Ausführung und Exfiltration –, wendet diese jedoch speziell auf KI-Kontexte an. Die beiden KI-spezifischen Taktiken, die es nur bei ATLAS gibt, sind:
AML.0004): Beschreibt, wie Angreifer über Inferenz-APIs oder direkten Zugriff auf Artefakte Zugriff auf Ziel-ML-Modelle erhalten.AML.0012): Behandelt, wie Angreifer Angriffe auf ML-Modelle vorbereiten, einschließlich der Vergiftung von Trainingsdaten und Hintertür EinfügungSicherheitsteams sollten beide Frameworks zusammen verwenden, um eine umfassende Abdeckung zu gewährleisten – ATT&CK für traditionelle Infrastrukturbedrohungen und ATLAS für KI-spezifische Angriffsvektoren.
Die offizielle Wissensdatenbank MITRE ATLAS organisiert Bedrohungsinformationen anhand derselben Matrixstruktur, die auch ATT&CK so erfolgreich gemacht hat. Das Verständnis dieser Struktur ermöglicht eine effektive Erkennung von Bedrohungen und die Erstellung von KI-basierten Bedrohungsmodellen.
Die MITRE-ATLAS-Matrix (manchmal auch als MITRE-Framework-Matrix für KI oder KI-Bedrohungsmatrix bezeichnet) stellt Taktiken in Spalten und Techniken in Zeilen dar. Jede Zelle steht für eine bestimmte Methode, die Angreifer anwenden, um taktische Ziele gegen KI-Systeme zu erreichen. Diese visuelle Darstellung ermöglicht es Sicherheitsteams, Lücken in der Abdeckung schnell zu erkennen und Abwehrmaßnahmen zu priorisieren.
Die Framework-Komponenten arbeiten zusammen:
ATLAS-Daten sind im STIX 2.1-Format verfügbar, was eine maschinenlesbare Integration mit Sicherheitstools und -plattformen ermöglicht. Dieses standardisierte Format unterstützt die automatisierte Einbindung in Threat-Intelligence-Plattformen und SIEM-Systeme.
Das Framework wird durch Beiträge der Community und die laufenden Forschungsarbeiten von MITRE regelmäßig aktualisiert. Das Update vom Oktober 2025, das in Zusammenarbeit mit Zenity Labs erfolgte, fügte 14 neue agentenorientierte Techniken hinzu, gefolgt von der Version 5.1.0 vom November 2025, die das Framework auf 16 Taktiken mit 84 Techniken erweiterte. Das Update 5.4.0 vom Februar 2026 fügte weitere Techniken hinzu, darunter „Publish Poisoned AI Agent Tool“ und „Escape to Host“, was die aktive Weiterentwicklung des Frameworks verdeutlicht.
Taktiken, Techniken und Verfahren (TTPs) bilden das Kernvokabular der bedrohungsorientierten Verteidigung. In ATLAS:
AML.TXXXX.AML.0051) umfasst Untertechniken für direkte und indirekte Einspritzverfahren.Diese Hierarchie ermöglicht eine zunehmend detaillierte Bedrohungsmodellierung. Teams können mit einer Analyse auf Taktikebene beginnen und dann je nach Gefährdung ihres KI-Systems einen Drilldown zu bestimmten Techniken durchführen.
ATLAS umfasst 84 Techniken, die sich auf 16 Taktiken verteilen und den gesamten Lebenszyklus von Angriffen abdecken – eine Steigerung gegenüber den 15 Taktiken und 66 Techniken im Oktober 2025. Diese umfassende Aufschlüsselung schließt eine erhebliche inhaltliche Lücke, die bei der Analyse der Konkurrenz festgestellt wurde: Kein bisheriger Leitfaden deckt alle Taktiken mit einem Schwerpunkt auf der Erkennung ab.
Tabelle: MITRE ATLAS-Taktiken mit den wichtigsten Techniken
Mit der Version 5.1.0 vom November 2025 wurde eine 16. Taktik hinzugefügt – Command and ControlAML.0015) – zusammen mit 18 neuen Techniken und 6 neuen Abwehrmaßnahmen, die sich auf Sicherheitskontrollen für KI-Agenten konzentrieren. Damit stieg die Gesamtzahl der Techniken von 66 auf 84 und die der Fallstudien von 33 auf 42.
Der Angriffszyklus beginnt mit der Aufklärung, bei der Angreifer Informationen über die ML-Zielsysteme sammeln. Zu den wichtigsten Techniken gehören:
AML.0051): Gegner erstellen bösartige Eingaben, um das Verhalten von LLM zu manipulieren – dies entspricht OWASP LLM01.Diese KI-spezifischen Taktiken beschreiben, wie Angreifer mit ML-Modellen interagieren und diese ausnutzen:
Bedrohungsakteure erhalten sich den Zugriff und vermeiden die Entdeckung durch:
Taktiken in späteren Phasen konzentrieren sich auf das Erreichen der Ziele des Gegners:
AML.0020): Datenvergiftung verfälscht Trainingsdaten, um das Modellverhalten zu manipulieren – ein kritischer Datenexfiltration VektorDas Verständnis lateraler Bewegungsmuster hilft Sicherheitsteams dabei, die Vorgehensweise von Angreifern bei der Umsetzung dieser Taktiken nachzuvollziehen.
ATLAS bietet kostenlose, praktische Tools, die das Framework von einer Dokumentation in umsetzbare Sicherheitsfunktionen verwandeln. Dieses Tool-Ökosystem schließt eine große Lücke – nur wenige Mitbewerber decken diese Ressourcen umfassend ab.
Tabelle: Offizielles Tool-Ökosystem von MITRE ATLAS
Der ATLAS Navigator bietet eine interaktive Webschnittstelle zur Visualisierung der Framework-Matrix. Sicherheitsteams nutzen den Navigator für folgende Zwecke:
Navigator lässt sich in den ATT&CK Navigator integrieren und ermöglicht so eine einheitliche Ansicht beider Frameworks. Teams, die bereits den ATT&CK Navigator verwenden, werden sich sofort mit der ATLAS-Oberfläche vertraut fühlen.
Im März 2023 gaben Microsoft und MITRE ihre Zusammenarbeit an Arsenal bekannt – einem CALDERA-Plugin, das eine automatisierte Emulation von Angreifern gegen KI-Systeme ermöglicht. Arsenal implementiert ATLAS-Techniken, ohne dass dafür fundierte Kenntnisse im Bereich Deep Learning erforderlich sind.
Zu den wichtigsten Funktionen gehören:
Arsenal unterstützt threat hunting , indem es die Erkennungsreichweite anhand realistischer Angriffssimulationen validiert. Für Incident-Response-Teams hilft Arsenal dabei, die Fähigkeiten von Angreifern zu verstehen und Reaktionsverfahren zu testen.
Die AI Incident Sharing Initiative ermöglicht es Organisationen, Informationen über Sicherheitsvorfälle im Zusammenhang mit KI auszutauschen und daraus zu lernen. Diese gemeinschaftsorientierte Plattform bietet:
Diese Informationen fließen direkt in die ATLAS-Updates ein, sodass das Framework aktuelle Bedrohungsmuster widerspiegelt.
Sicherheitsteams fragen oft, welches KI-Sicherheitsframework sie einsetzen sollen. Die Antwort: Verwenden Sie alle drei, um sich gegenseitig zu ergänzen. Dieser Vergleich hilft Teams zu verstehen, wann sie welches Framework anwenden sollten, und beantwortet damit eine häufig gestellte Frage zu PAA.
Tabelle: Vergleich von KI-Sicherheitsrahmenwerken: ATLAS vs. OWASP vs. NIST AI RMF
Laut der Rahmenanalyse von Cloudsine dienen diese Rahmenwerke verschiedenen Phasen des KI-Sicherheitslebenszyklus:
Tabelle: Rahmenwerk-Crosswalk für häufige KI-Schwachstellen
Das Verständnis der Schwachstellen in allen drei Frameworks ermöglicht eine umfassende Abdeckung. Teams sollten ihre KI-Ressourcen den relevanten Techniken in jedem Framework zuordnen.
Die Integration von ATLAS in Sicherheitsabläufe erfordert die Zuordnung von Techniken zu Erkennungsfunktionen und Arbeitsabläufen. Laut dem SOC-Integrationsleitfaden von ThreatConnect lassen sich etwa 70 % der ATLAS-Abhilfemaßnahmen bestehenden Sicherheitskontrollen zuordnen. Die restlichen 30 % erfordern neue KI-spezifische Kontrollen.
Schritte zur SOC-Integration:
Eine effektive Erkennung erfordert die Zuordnung von ATLAS-Techniken zu bestimmten Protokollquellen und Erkennungslogiken.
Tabelle: Beispiel für die Zuordnung von Erkennungsmerkmalen für vorrangige ATLAS-Techniken
Netzwerkerkennungs- und Reaktionsfunktionen ergänzen die Erkennung auf Anwendungsebene. Die Analyse des Benutzer- und Entitätsverhaltens (UEBA) hilft dabei, anomale Zugriffsmuster auf KI-Systeme zu identifizieren.
Verfolgen Sie diese Kennzahlen, um die Operationalisierung von ATLAS zu messen:
Vierteljährliche Überprüfungen des Bedrohungsmodells stellen sicher, dass der Schutz mit den Aktualisierungen des Frameworks und neuen Bedrohungen Schritt hält.
ATLAS umfasst 42 Fallstudien, die reale Angriffe auf KI-Systeme dokumentieren – ein Anstieg gegenüber den 33 Fällen im Oktober 2025. Die Analyse dieser Vorfälle liefert umsetzbare Erkenntnisse für die Verteidigung, die über die theoretische Bedrohungsmodellierung hinausgehen.
Im November 2025 veröffentlichte MITRE ATLAS eine Fallstudie, in der Deepfake-Angriffe auf mobile KYC-Lebenszeichen-Erkennungssysteme (Know Your Customer) dokumentiert wurden. Laut einem Bericht von Mobile ID World richtete sich dieser Angriff gegen Banken, Finanzdienstleister und Kryptowährungsplattformen.
Verlauf der Angriffskette:
Aufklärung -> Ressourcenentwicklung -> Erster Zugriff -> Umgehung der Verteidigung -> Auswirkung
Defensive Empfehlungen:
Diese Fallstudie zeigt, wie Angreifer Social Engineering mit KI-Tools kombinieren, um Sicherheitskontrollen zu umgehen, was möglicherweise zu Datenverletzungen führen kann.
Die SesameOp-Fallstudie, die Ende 2025 in ATLAS aufgenommen wurde, dokumentiert eine neuartige Backdoor-Technik, bei der KI-Assistenten-APIs für die Befehls- und Kontrollfunktionen genutzt werden. Anstatt eine herkömmliche C2-Infrastruktur aufzubauen, nutzten die Angreifer legitime Agent-Service-APIs als verdeckte Kontrollkanäle – und integrierten so böswillige Aktivitäten in normale KI-Arbeitsabläufe. Dieses Angriffsmuster entspricht der neuen „AI Service API“-Technik (AML.0096) und zeigt, wie eine agentenbasierte KI-Infrastruktur Befehl und Kontrolle Kanäle, die der herkömmlichen Netzwerkerkennung entgehen.
Zwischen Oktober 2025 und Februar 2026 wurde die Zahl der Fallstudien im Rahmen von ATLAS von 33 auf 42 erweitert. Zu den nennenswerten Neuzugängen zählen:
Die HiddenLayer-Analyse der ATLAS-Fallstudie AML.CS0003 dokumentiert, wie Forscher ein ML-basiertes endpoint umgangen haben:
Sicherheitsbedrohungen durch KI erfordern spezielle Erkennungsansätze, die über herkömmliche Sicherheitsmaßnahmen hinausgehen. Angesichts eines Anstiegs der KI-gestützten Angriffe um 89 % im Vergleich zu den Vorjahren – gegenüber einem Anstieg von 72 % im Jahr 2025 – benötigen Unternehmen proaktive Verteidigungsstrategien.
Checkliste für die Sicherheit von KI:
Unternehmen sollten ihre Investitionen in KI-Sicherheit sowohl auf phishing (durch KI generiertes phishing rapide zu) als auch auf ransomware (KI ermöglicht komplexere Angriffe) abstimmen.
AML.0051)Prompt injection die bekannteste ATLAS-Technik und wird wie folgt bezeichnet: AML.0051 im Rahmen der „Initial Access“-Taktik. Große Sprachmodelle sind mit besonderen Angriffsvektoren konfrontiert, denen herkömmliche Sicherheitsmaßnahmen nicht gewachsen sind, und ATLAS erfasst diese Bedrohungen systematisch.
Tabelle: LLM-Bedrohungstypen mit ATLAS-Zuordnung und Erkennungsmethoden
Aktuelle CVEs zeigen diese Bedrohungen in der Praxis:
Funktionen zur Erkennung und Reaktion auf Identitätsbedrohungen helfen dabei, Versuche des Diebstahls von Anmeldedaten durch Ausnutzung von LLM zu erkennen.
Das ATLAS-Update vom Oktober 2025 befasst sich speziell mit autonomen KI-Agenten – Systemen, die Aktionen ausführen, auf Tools zugreifen und den Kontext über mehrere Sitzungen hinweg beibehalten können. Zu den neuen Techniken gehören:
AML.0058 KI-Agent-Kontextvergiftung: Einschleusen von schädlichen Inhalten in den Speicher oder Thread-Kontext des AgentenAML.0059 Aktivierungsauslöser: Einbettung von Triggern, die unter bestimmten Bedingungen aktiviert werdenAML.0060 Daten aus KI-Diensten: Extraktion von Informationen durch Abruf aus der RAG-DatenbankAML.0061 KI-Agent-Tools: Missbrauch des Zugriffs auf Agent-Tools für böswillige ZweckeAML.0062 Exfiltration über AI Agent Tool Invocation: Verwendung legitimer Tool-Aufrufe zum Extrahieren von DatenSicherheitsgrundsätze für KI-Agenten:
Gemäß den AI/OT-Leitlinien der CISA vom Dezember 2025 sollten Unternehmen Überwachungs- und Ausfallsicherungen für alle KI-Systeme einbauen, die in kritischen Umgebungen betrieben werden.
Das Model Context Protocol (MCP) – ein offener Standard für die Anbindung von KI-Agenten an externe Tools und Datenquellen – schafft Angriffsflächen, denen ATLAS nun gezielt entgegenwirkt. Durch MCP-Exploits können Angreifer die Tool-Aufrufebene zwischen KI-Agenten und Unternehmenssystemen manipulieren und so herkömmliche Sicherheitskontrollen umgehen.
Zu den für die MCP-Sicherheit relevanten ATLAS-Techniken gehören:
AML.0061): Angreifer nutzen MCP-Serverkonfigurationen aus, um unbefugte Tool-Aktionen auszulösen oder auf geschützte Daten zuzugreifenAML.0062): Angreifer nutzen legitime MCP-Tool-Aufrufe, um sensible Daten über autorisierte Kanäle abzugreifenAML.0096(hinzugefügt 2026): Nutzung von KI-Orchestrierungs-APIs für verdeckte Befehls- und KontrollfunktionenDas ATLAS-Update vom Januar 2026 (v5.3.0) enthielt drei neue Fallstudien, die sich speziell mit Kompromittierungen von MCP-Servern sowie der indirekten prompt injection über MCP-Kanäle sowie den Einsatz bösartiger KI-Agenten. Sicherheitsteams sollten alle MCP-Serverkonfigurationen überprüfen, die Berechtigungen für Tools auf das Mindestmaß beschränken und die Aufrufmuster der Tools auf Anomalien überwachen.
Die KI-Sicherheitslandschaft entwickelt sich rasant weiter, wobei regulatorischer Druck und die Zusammenarbeit der Branche die Einführung von Rahmenwerken vorantreiben. Unternehmen müssen sich sowohl auf neue Bedrohungen als auch auf Compliance-Anforderungen vorbereiten.
Das MITRE Secure AI Program, das von 16 Mitgliedsorganisationen – darunter Microsoft und JPMorgan Chase – unterstützt wird, konzentriert sich darauf, ATLAS um Beobachtungen aus der Praxis zu erweitern und den Austausch von Informationen zu KI-Vorfällen zu beschleunigen.
Regulatorische Entwicklungen:
Die Sicherheitsbedrohungen durch KI nehmen weiter zu: Laut einer Branchenstudie geben 87 % der Unternehmen an, dass sie Cyberangriffen durch KI ausgesetzt sind, und 92 % äußern Bedenken hinsichtlich der Sicherheitsrisiken durch autonome KI.
Attack Signal Intelligence Vectra AI wendet verhaltensbasierte Erkennungsprinzipien an, die mit den Zielen des ATLAS-Frameworks im Einklang stehen. Indem sie sich auf das Verhalten von Angreifern statt auf statische Signaturen konzentrieren, können Unternehmen die in ATLAS katalogisierten Techniken – von prompt injection bis hin zur Datenexfiltration über Inferenz-APIs – in hybriden cloud erkennen.
Dieser Ansatz ermöglicht es Sicherheitsteams, echte KI-bezogene Bedrohungen zu identifizieren und zu priorisieren und gleichzeitig die Anzahl der Fehlalarme zu reduzieren. Die Kombination aus Netzwerküberwachung und -reaktion mit der Erkennung von Identitätsbedrohungen sorgt für Transparenz über die gesamte Angriffsfläche, auf die KI-Bedrohungen heute abzielen.
MITRE ATLAS bietet den strukturierten Ansatz, den Unternehmen benötigen, um KI-Systeme gegen raffinierte Angreifer zu schützen. Mit 16 Taktiken, 84 Techniken und kontinuierlichen Aktualisierungen, die neue Bedrohungen wie Angriffe durch agentische KI und MCP-Exploits berücksichtigen, liefert das Framework umsetzbare Erkenntnisse für Sicherheitsteams.
Die rasante Erweiterung von 15 Taktiken im Oktober 2025 auf 16 Taktiken und 84 Techniken bis Februar 2026 verdeutlicht das Engagement von ATLAS, mit der Entwicklung der KI Schritt zu halten. Angesichts der weiter zunehmenden Zahl KI-gestützter Angriffe und des Inkrafttretens regulatorischer Anforderungen wie des EU-KI-Gesetzes können es sich Unternehmen nicht leisten, die KI-Sicherheit als Nebensache zu betrachten.
Beginnen Sie mit diesen Sofortmaßnahmen:
Für Unternehmen, die über die bloße Einführung von Frameworks hinaus eine umfassende KI-Sicherheit anstreben, Attack Signal Intelligence Vectra AI eine verhaltensbasierte Erkennung, die die von ATLAS katalogisierten Angreifertechniken identifiziert – so können Sicherheitsteams KI-Bedrohungen in hybriden Umgebungen aufspüren und abwehren.
MITRE ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems) ist eine weltweit zugängliche Wissensdatenbank, die Taktiken, Techniken und Fallstudien von Angreifern katalogisiert, die speziell auf KI- und maschinelle Lernsysteme abzielen. Nach dem Vorbild von MITRE ATT&CK bietet ATLAS einen strukturierten Rahmen zum Verständnis von KI-spezifischen Bedrohungen. Stand Februar 2026 umfasst es 16 Taktiken, 84 Techniken, 56 Untertechniken, 32 Abwehrmaßnahmen und 42 Fallstudien aus der Praxis. Sicherheitsteams nutzen ATLAS für die Bedrohungsmodellierung, die Entwicklung von Erkennungsmechanismen und Red-Teaming-Aktivitäten bei KI-Systemen. Das Rahmenwerk ist unter atlas.mitre.org frei verfügbar.
Während ATT&CK sich auf traditionelle IT/OT-Bedrohungen konzentriert, befasst sich ATLAS speziell mit Angriffen auf KI- und maschinelle Lernsysteme. ATLAS umfasst zwei einzigartige Taktiken, die in ATT&CK nicht zu finden sind: ML Model Access (AML.0004) und ML-Angriffsstaging (AML.0012). Beide Frameworks verwenden dieselbe Matrixstruktur und TTP-Methodik, wodurch ATLAS für Sicherheitsteams, die bereits mit ATT&CK vertraut sind, zugänglich ist. Unternehmen sollten beide Frameworks gemeinsam nutzen – ATT&CK für Infrastrukturbedrohungen und ATLAS für KI-spezifische Angriffsvektoren. Die Frameworks haben gemeinsame Taktiken, wenden diese jedoch auf unterschiedliche technologische Kontexte an.
Stand Februar 2026 (v5.4.0) umfasst MITRE ATLAS 16 Taktiken, 84 Techniken und 56 Untertechniken, gegenüber 15 Taktiken und 66 Techniken im Oktober 2025. Das Update v5.1.0 vom November 2025 fügte eine 16. Taktik hinzu und erweiterte den Umfang auf 84 Techniken, 32 Abwehrmaßnahmen und 42 Fallstudien. Das Update v5.4.0 vom Februar 2026 fügte weitere agentenorientierte Techniken hinzu, darunter „Publish Poisoned AI Agent Tool“ und „Escape to Host“. Dies stellt einen deutlichen Zuwachs gegenüber früheren Versionen dar – einige ältere Quellen nennen 56 oder 66 Techniken, was den Stand vor November 2025 widerspiegelt. Beziehen Sie sich für aktuelle Statistiken stets auf das offizielle ATLAS-CHANGELOG.
Prompt injectionAML.0051) ist eine Initial-Access-Technik, bei der Angreifer bösartige Eingaben erstellen, um das Verhalten von LLMs zu manipulieren. ATLAS unterscheidet zwischen direkter prompt injection bösartige Inhalte in der Benutzereingabe) und indirekter prompt injection bösartige Inhalte, die in externen Datenquellen eingebettet sind, die das LLM verarbeitet). Diese Technik entspricht OWASP LLM01 und stellt einen der häufigsten Angriffsvektoren gegen LLM-Anwendungen dar. Die Erkennung konzentriert sich auf die Analyse von Eingabemustern und die Überwachung des Ausgabeverhaltens. Aktuelle CVEs, darunter CVE-2025-32711 (EchoLeak), belegen die Ausnutzung dieser Schwachstelle in der Praxis.
Verwenden Sie ATLAS Navigator, um das Framework zu visualisieren und benutzerdefinierte Ebenen zu erstellen, die Ihre KI-Ressourcen den relevanten Techniken zuordnen. Beginnen Sie mit einer Bestandsaufnahme aller ML-Modelle, Trainingspipelines und KI-fähigen Anwendungen. Identifizieren Sie anhand der Systemarchitektur, welche Taktiken für Ihre ML-Pipeline-Phasen gelten. Priorisieren Sie Techniken anhand ihrer Exposition und Wahrscheinlichkeit. Ordnen Sie Erkennungsfunktionen zu, um Visualisierungen der Abdeckung zu erstellen. Integrieren Sie ATLAS in bestehende Methoden zur Bedrohungsmodellierung wie STRIDE und ATT&CK, um eine umfassende Abdeckung zu erzielen. Überprüfen und aktualisieren Sie die Bedrohungsmodelle vierteljährlich, während sich das Framework weiterentwickelt.
ATLAS bietet mehrere kostenlose Tools an. Navigator ermöglicht eine webbasierte Matrixvisualisierung für die Bedrohungsmodellierung und die Erfassung der Abdeckung und bietet Exportfunktionen in den Formaten JSON, Excel und SVG. Arsenal ist ein CALDERA-Plugin für automatisiertes AI-Red-Teaming, das in Zusammenarbeit mit Microsoft entwickelt wurde. Die AI Incident Sharing Initiative ermöglicht den Austausch von Bedrohungsinformationen innerhalb der Community durch anonymisierte Vorfallberichte. Die AI Risk Database bietet durchsuchbare Informationen zu Vorfällen und Schwachstellen. Alle Tools sind unter atlas.mitre.org und über die GitHub-Repositorys von MITRE zugänglich. Diese Tools verwandeln ATLAS von einer Dokumentation in umsetzbare Sicherheitsfunktionen.
ATLAS und die OWASP LLM Top 10 verfolgen komplementäre Ziele. ATLAS bietet ein angreiferorientiertes TTP-Framework für die Bedrohungsmodellierung und -erkennung, während OWASP eine entwicklerorientierte Liste von Schwachstellen für die sichere Entwicklung bereitstellt. Setzen Sie OWASP während der Entwicklungs- und Code-Review-Phasen ein; nutzen Sie ATLAS für die Betriebssicherheit, die Bedrohungsmodellierung und die Entwicklung von Erkennungsmechanismen. Viele Schwachstellen tauchen in beiden Frameworks aus unterschiedlichen Perspektiven auf – beispielsweise prompt injection eine ATLAS-Technik. AML.0051 und OWASP LLM01. Der beste Ansatz kombiniert beide Frameworks mit NIST AI RMF für die Governance.
Die MITRE ATLAS-Wissensdatenbank für adversariales maschinelles Lernen ist ein strukturiertes Repository mit Taktiken, Techniken, Untertechniken, Abwehrmaßnahmen und Fallstudien aus der Praxis, das sich auf Angriffe auf KI- und maschinelle Lernsysteme konzentriert. Stand Februar 2026 (v5.4.0) enthält die Wissensdatenbank 16 Taktiken, 84 Techniken, 56 Untertechniken, 32 Abwehrmaßnahmen und 42 Fallstudien. Sie ist unter atlas.mitre.org frei zugänglich und ihre Daten stehen im STIX 2.1-Format zur maschinenlesbaren Integration in Sicherheitstools und Threat-Intelligence-Plattformen zur Verfügung.
Die Fallstudien von MITRE ATLAS sind dokumentierte Vorfälle aus der Praxis, bei denen Angreifer KI- und Machine-Learning-Systeme ins Visier nahmen und die bestimmten ATLAS-Taktiken und -Techniken zugeordnet sind. Stand Februar 2026 umfasst ATLAS 42 Fallstudien, die Angriffe abdecken, die von Deepfake-basierten KYC-Umgehungen und der Umgehung von ML-Modellen bis hin zu Hintertüren in KI-Agenten und der Entführung von Finanztransaktionen durch KI-Assistenten reichen. Zu den bemerkenswerten Beispielen zählen die iProov-Deepfake-Fallstudie, die sich gegen Mobile Banking richtete, die SesameOp-KI-Agenten-Hintertür (AML.CS0042) sowie Szenarien zur Kompromittierung von MCP-Servern. Sicherheitsteams nutzen diese Fallstudien, um reale Angriffsketten zu verstehen und die Erfassungsreichweite ihrer Erkennungsmaßnahmen zu validieren.
ATLAS Navigator bietet unter atlas.mitre.org eine interaktive Weboberfläche zur Visualisierung der ATLAS-Matrix. Um Abdeckungs-Ebenen zu exportieren, erstellen Sie eine benutzerdefinierte Ebene, indem Sie relevante Techniken auswählen und auf der Grundlage Ihrer Erkennungsabdeckung Bewertungen zuweisen. Navigieren Sie zu den Ebenen-Einstellungen und exportieren Sie die Daten im JSON-Format für die programmgesteuerte Nutzung, im Excel-Format zur Überprüfung durch Analysten oder im SVG-Format für die visuelle Berichterstellung. Teams können mehrere Ebenen mithilfe von Bewertungsausdrücken kombinieren (z. B. durch Summierung zweier Ebenen), um sich überschneidende Abdeckungen oder Lücken zu visualisieren. Der Navigator ist in den ATT&CK Navigator integriert und ermöglicht so einheitliche Ansichten über traditionelle und KI-spezifische Bedrohungs-Frameworks hinweg.