Die Regeln zur phishing haben sich grundlegend geändert. Jahrzehntelang schulten Sicherheitsteams Mitarbeiter darin, grammatikalische Fehler, verdächtige Formatierungen und allgemeine Anreden als verräterische Anzeichen für bösartige E-Mails zu erkennen. Diese Signale sind nun überholt. Künstliche Intelligenz ermöglicht es Angreifern, makellose, hyper-personalisierte Nachrichten zu verfassen, die sowohl die menschliche Intuition als auch herkömmliche Sicherheitskontrollen umgehen.
Laut einer Studie von IBM X-Force können Angreifer nun effektive phishing Kampagnen erstellen – ein Prozess, der zuvor 16 Stunden menschlicher Arbeit erforderte. Das Ergebnis ist eine Bedrohungslandschaft, in der KI-generiertes phishing laut einer Studie von Brightside AI aus dem Jahr 2025 eine Klickrate von 54 % phishing , verglichen mit 12 % bei herkömmlichen Kampagnen. Für Sicherheitsanalysten, SOC-Leiter und CISOs ist es unerlässlich, diese Veränderung zu verstehen, um moderne Unternehmen vor dem häufigsten Angriffsvektor des Jahres 2026 zu schützen.
phishing eine Form des Social-Engineering-Angriff Angriff, bei dem Technologien der künstlichen Intelligenz – darunter große Sprachmodelle, Deepfake-Generierung und Automatisierungssysteme – eingesetzt werden, um in großem Umfang äußerst überzeugende, personalisierte phishing zu erstellen. Im Gegensatz phishing herkömmlichen phishing auf massenhaft produzierten Vorlagen mit offensichtlichen Mängeln basiert, phishing grammatikalisch perfekte, kontextbezogene Nachrichten, die sich anhand gesammelter persönlicher und beruflicher Daten an einzelne Ziele anpassen.
Die Bedrohung hat ein kritisches Ausmaß erreicht. Laut dem Bericht „2025 Phishing Trends Report” von KnowBe4 enthalten mittlerweile 82,6 % aller phishing KI-generierte Inhalte, was einem Anstieg der KI-bezogenen Angriffe um 1.265 % seit 2023 entspricht. Der „Global Cybersecurity Outlook 2026” des Weltwirtschaftsforums hat Cyberbetrug – vor allem durch phishing zur größten Sorge für Unternehmen erhoben und damit Ransomware überholt. ransomware .
Was phishing anders macht, ist die Eliminierung traditioneller Erkennungssignale. In Programmen zur Sensibilisierung für Sicherheitsfragen wird Mitarbeitern seit langem beigebracht, phishing Rechtschreibfehlern, umständlichen Formulierungen und allgemeinen Anreden zu erkennen. KI beseitigt diese Indikatoren vollständig und fügt gleichzeitig Funktionen hinzu, die Menschen in diesem Umfang nicht bieten können: Echtzeit-Personalisierung unter Verwendung von aus sozialen Medien gesammelten Daten, dynamische Inhaltsanpassung, die signaturbasierte Erkennung umgeht, und die Fähigkeit, Tausende einzigartiger Varianten aus einer einzigen Kampagne zu generieren.
Das X-Force-Team von IBM demonstrierte diesen Wandel anhand seiner „5/5-Regel“ – es zeigte, dass fünf Eingaben in fünf Minuten phishing hervorbringen können, deren Wirksamkeit denen von manuell erstellten Kampagnen entspricht oder diese sogar übertrifft. Dies bedeutet eine Reduzierung der Kosten für Angreifer um 95 % bei gleichbleibender Erfolgsquote, was die Wirtschaftlichkeit von phishing grundlegend verändert.
Der Kontrast zwischen herkömmlichen und KI-gestützten phishing , warum Sicherheitsteams ihre Verteidigungsstrategien aktualisieren müssen.
Tabelle 1: Vergleich der Fähigkeiten zwischen herkömmlichen und KI-gestützten phishing
phishing folgen einem strukturierten Lebenszyklus, bei dem in jeder Phase künstliche Intelligenz zum Einsatz kommt. Das Verständnis dieses Prozesses hilft Sicherheitsteams dabei, Interventionspunkte zu identifizieren und wirksame Gegenmaßnahmen zu entwickeln.
Ein typischer phishing verläuft in sechs verschiedenen Phasen, die jeweils durch künstliche Intelligenz unterstützt werden.
Laut Branchenstudien kann dieser gesamte Zyklus innerhalb von 14 Minuten vom Diebstahl der Anmeldedaten bis zur aktiven Ausnutzung abgeschlossen sein – viel schneller, als die meisten Sicherheitsteams dies erkennen und darauf reagieren können.
Es ist ein wachsendes Ökosystem speziell entwickelter bösartiger KI-Tools entstanden, die phishing unterstützen. Diese Tools beseitigen die technischen Hindernisse, die zuvor nur erfahrenen Angreifern die Durchführung komplexer Angriffe ermöglichten.
WormGPT fungiert als unzensierte Alternative zu legitimen Sprachmodellen und wurde speziell für die Generierung bösartiger Inhalte entwickelt. Die Abonnements reichen von 60 US-Dollar pro Monat bis zu 550 US-Dollar pro Jahr, wobei die erweiterten Anpassungsoptionen für die Variante v2 bis zu 5.000 US-Dollar kosten. Das Tool hat Ableger hervorgebracht, darunter Keanu-WormGPT (basierend auf Grok von xAI) und xzin0vich-WormGPT (basierend auf Mistral).
FraudGPT bietet ähnliche Funktionen für 200 US-Dollar pro Monat oder 1.700 US-Dollar pro Jahr und richtet sich damit an erstmalige Betrüger mit minimalen technischen Anforderungen. Beide Tools werden über Telegram-Kanäle und Dark-Web-Foren vertrieben und schaffen so ein phishing, das legitime SaaS-Geschäftsmodelle widerspiegelt.
Über spezielle Tools hinaus setzen Angreifer zunehmend Jailbreak-Techniken gegen gängige Modelle ein. Die Netcraft-Analyse der phishing Darcula dokumentierte, wie die Integration von KI es Betreibern ermöglicht, mit minimalem Aufwand phishing in jeder Sprache und für jede Marke zu erstellen.
Das Aufkommen von „Vibe Hacking“ – einer Philosophie, bei der Angreifer auf das Erlernen traditioneller Fähigkeiten verzichten und stattdessen auf KI-Abkürzungen setzen – hat komplexe Angriffe weiter demokratisiert. Diese Veränderung bedeutet, dass Unternehmen nun mit einer dramatisch gewachsenen Zahl von Angreifern konfrontiert sind, die nun Kampagnen durchführen können, für die zuvor umfangreiches Fachwissen erforderlich war.
Die Verbesserung der KI hat zu unterschiedlichen Angriffskategorien geführt, die jeweils verschiedene Vertrauenssignale und Kommunikationskanäle ausnutzen. Eine moderne Angriffsflächenabdeckung muss alle Varianten berücksichtigen.
Tabelle 2: Arten phishing und ihre besonderen Merkmale
Die Deepfake-Technologie hat sich von der Erkennung gefälschter Bilder weiterentwickelt und ermöglicht nun auch die Echtzeit-Videofälschung während Live-Anrufen. Der bedeutendste dokumentierte Fall ereignete sich Anfang 2024 bei dem multinationalen Ingenieurbüro Arup. Ein Mitarbeiter der Finanzabteilung erhielt eine Nachricht von einer Person, die angeblich der in Großbritannien ansässige CFO war und ihn um die Teilnahme an einer vertraulichen Transaktionsbesprechung bat. Während des Videoanrufs erschienen mehrere Führungskräfte auf dem Bildschirm – allesamt KI-generierte Deepfakes, die aus öffentlich zugänglichem Filmmaterial erstellt worden waren. Der Mitarbeiter überwies 25 Millionen Dollar, bevor der Betrug entdeckt wurde.
Dieser Vorfall hat gezeigt, dass Videoanrufe, die bislang als zuverlässige Authentifizierungsmethode galten, ohne zusätzliche Überprüfung nicht mehr vertrauenswürdig sind. Deepfake-Vorfälle nahmen im Jahr 2025 im Vergleich zum Vorjahr um 680 % zu, wobei allein im ersten Quartal 2025 179 Vorfälle verzeichnet wurden – laut Branchenstatistik 19 % mehr als im gesamten Jahr 2024.
KI-gestütztes Stimmklonen hat die Hürde für überzeugende Stimmimitationen drastisch gesenkt. Moderne Systeme benötigen nur fünf Minuten aufgezeichnetes Audiomaterial – das leicht aus Gewinnbekanntgaben, Konferenzpräsentationen oder sozialen Medien gewonnen werden kann –, um eine überzeugende Nachbildung jeder beliebigen Stimme zu erzeugen.
Laut einer Studie von DeepStrike nahmen Vishing-Angriffe, die diese Technologie nutzen, im Jahr 2025 um 442 % zu. In einem früh dokumentierten Fall ahmten Angreifer die Stimme eines deutschen CEOs so genau nach, dass sie einen britischen Manager dazu verleiten konnten, 243.000 Dollar zu überweisen. Das Opfer berichtete, dass die synthetisierte Stimme den Akzent, den Tonfall und die Sprachmuster des Managers genau wiedergegeben habe.
Die Kombination aus Stimmklonen und KI-generierten Skripten führt zu Vishing-Angriffen, die absolut authentisch wirken. Angreifer können Echtzeitgespräche führen, natürlich auf Fragen und Einwände reagieren und dabei die vorgetäuschte Identität aufrechterhalten.
phishing Quishing – hat sich zu einem bedeutenden Angriffsvektor entwickelt, da QR-Codes die herkömmliche Überprüfung von E-Mail-Links umgehen. Laut einer Studie von Kaspersky hat sich die Zahl der bösartigen QR-Codes zwischen August und November 2025 verfünffacht, wobei 1,7 Millionen einzigartige bösartige Codes entdeckt wurden.
Etwa 25 % aller phishing nutzen phishing QR-Codes als primären Angriffsmechanismus, wobei 89,3 % der Vorfälle auf den Diebstahl von Anmeldedaten abzielen. Die Codes leiten die Opfer in der Regel auf überzeugende Nachbildungen von Anmeldeseiten für Microsoft 365, Unternehmens-VPNs oder Finanzanwendungen weiter.
KI verbessert Quishing-Angriffe durch optimierte Platzierung, Kontexterzeugung und Personalisierung der Landing Page. Geografische Ausrichtung zeigt, dass 76 % der phishing auf US-Organisationen ausgerichtet sind und in erster Linie auf Microsoft 365-Anmeldedaten abzielen, um anschließend Identitätsbedrohungen zu erkennen und Reaktionen zu umgehen.
Die finanziellen und betrieblichen Auswirkungen von phishing ein Ausmaß erreicht, das Unternehmen gefährdet. Unternehmen aller Branchen sehen sich mit steigenden Verlusten konfrontiert, da die Raffinesse der Angriffe die Abwehrfähigkeiten übertrifft.
Die dokumentierten Fälle veranschaulichen Angriffsmuster, die Sicherheitsteams erkennen und auf die sie sich vorbereiten sollten.
Der Deepfake-Vorfall bei Arup (25 Millionen Dollar, 2024) zeigte die Raffinesse von Multi-Channel-Angriffen. Die Angreifer kombinierten einen ersten E-Mail-Kontakt mit einem Echtzeit-Deepfake-Video, um einen Angriff zu starten, der alle herkömmlichen Verifizierungsmethoden umging. Der Fall machte deutlich, dass selbst sicherheitsbewusste Unternehmen in hochentwickelten Branchen anfällig bleiben, wenn Angreifer KI einsetzen, um das Vertrauen in die Videokommunikation auszunutzen.
Der deutsche Energie-Sektor-Stimmklon (243.000 US-Dollar, erstmals dokumentiert 2019, Technik verbreitet 2024–2025) etablierte die Stimme als unzuverlässigen Authentifizierungsfaktor. Der Angriff war erfolgreich, weil Unternehmen bei sensiblen Anfragen traditionell auf die Stimmverifizierung vertrauten.
Der IBM Healthcare A/B-Test (2024) lieferte kontrollierte Forschungsdaten phishing . Tests mit über 800 Mitarbeitern im Gesundheitswesen zeigten, dass KI-generiertes phishing nur fünf Minuten zur Erstellung phishing , während menschliche Teams 16 Stunden benötigten, wobei vergleichbare Klickraten erzielt wurden. Diese Forschung bewies, dass phishing die Barriere der Kosteneffizienz phishing , die zuvor ausgeklügeltes phishing hochwertige Ziele beschränkte.
Verschiedene Branchen sind aufgrund der Sensibilität ihrer Daten, regulatorischer Risiken und der Präferenzen von Angreifern mit unterschiedlichen Risikoprofilen konfrontiert.
Tabelle 3: Branchenrisikomatrix für phishing
Laut dem IBM-Bericht „Cost of a Data Breach 2024” ist das Gesundheitswesen bereits das 14. Jahr in Folge die am stärksten betroffene Branche. Die Anfälligkeitsrate von 41,9 % in diesem Sektor spiegelt die Kombination aus hochwertigen Daten, komplexen Umgebungen und Mitarbeitern mit unterschiedlichem Sicherheitsbewusstsein wider.
Finanzdienstleister sind phishing besonders hohen phishing ausgesetzt. 60 % der Institutionen meldeten im vergangenen Jahr KI-gestützte Angriffe, und die Zahl der KI-gestützten Betrugsversuche stieg um 400 %. Der FBI IC3 2024-Bericht dokumentierte BEC-Verluste in Höhe von 2,77 Milliarden US-Dollar aus 21.442 Beschwerden – laut einer Studie der VIPRE Security Group werden mittlerweile 40 % der BEC-E-Mails durch KI generiert.
Insgesamt ergab der Ausblick des Weltwirtschaftsforums für 2026, dass 73 % der Unternehmen im Jahr 2025 von Cyberbetrug betroffen waren, wodurch sich KI-gestütztes phishing dominierende Bedrohung für die Sicherheitsteams von Unternehmen etablierte.
Eine wirksame Abwehr von phishing die Abkehr von veralteten Erkennungsmethoden und die Implementierung von Kontrollmechanismen, die auf die besonderen Merkmale von KI-generierten Angriffen zugeschnitten sind.
Wenn herkömmliche Signale versagen, müssen sich Sicherheitsteams auf Verhaltensauffälligkeiten und kontextbezogene Unregelmäßigkeiten konzentrieren.
Abweichungen im Kommunikationsmuster:
Technische Indikatoren:
Verhaltensauffälligkeiten:
Laut einer Studie von DeepStrike geben 68 % der Cyber-Bedrohungsanalysten an, dass KI-generiertes phishing im Jahr 2025 schwieriger zu erkennen phishing als in den Vorjahren. Diese Erkenntnis unterstreicht, warum sich die Erkennung von der Inhaltsprüfung zur Verhaltensanalyse verlagern muss.
Sicherheitsbewusstseinstrainings müssen sich über jährliche Compliance-Maßnahmen hinaus zu kontinuierlichen, anpassungsfähigen Programmen entwickeln, die der Raffinesse der Angreifer gerecht werden.
Moderne Ausbildungsanforderungen:
Das 5-Punkte-Verteidigungsframework von IBM X-Force betont, dass grammatikbasiertes Erkennungstraining mittlerweile kontraproduktiv ist – es schafft ein falsches Gefühl der Sicherheit, während raffinierte Angriffe übersehen werden. Das Training sollte stattdessen den Schwerpunkt auf Verifizierungsmaßnahmen legen: Rückrufprotokolle, Out-of-Band-Bestätigung und gesunde Skepsis gegenüber ungewöhnlichen Anfragen, unabhängig davon, wie legitim diese erscheinen mögen.
Wenn es zu phishing kommt, müssen die Verfahren zur Reaktion auf Vorfälle angreifspezifische Indikatoren und eine mögliche Koordination über mehrere Kanäle berücksichtigen.
Erkennungs- und Triagephase:
Eindämmungsphase:
Erholungsphase:
Organisationen, die Netzwerküberwachungs- und Reaktionsfunktionen implementieren, erhalten Einblick in Aktivitäten nach einer Kompromittierung, den E-Mail-Sicherheit allein nicht bieten kann. Dadurch können laterale Bewegungen von phishing Konten schneller identifiziert werden.
Der Wechsel von der inhaltsbasierten zur verhaltensbasierten Erkennung erfordert eine Aktualisierung der Abwehrmaßnahmen auf mehreren Ebenen.
Tabelle 4: Verteidigungsrahmen zum Vergleich traditioneller Ansätze und Ansätze im Zeitalter der KI
Phishing MFA ist die wirksamste Einzelmaßnahme. FIDO2- und WebAuthn-Authentifikatoren sind kryptografisch an bestimmte Domänen gebunden und verhindern so den Diebstahl von Anmeldedaten, selbst wenn Benutzer mit überzeugenden phishing interagieren. Die Empfehlungen der Operation Winter SHIELD des FBI betonen ausdrücklich, dass diese Maßnahme für Unternehmen, die mit ausgeklügelten phishing konfrontiert sind, unerlässlich ist.
Das Verständnis, wie phishing auf etablierte Frameworks phishing , hilft Sicherheitsteams dabei, Risiken zu kommunizieren, Investitionen zu rechtfertigen und die Erkennungstechnik an Branchenstandards anzupassen.
KI-gestützte phishing stimmen mit mehreren MITRE ATT&CK -Framework-Komponenten und bieten einen strukturierten Ansatz für die Entwicklung von Bedrohungsmodellen und Erkennungsmechanismen.
Tabelle 5: MITRE ATT&CK für KI phishing
Das NIST Cybersecurity Framework 2.0 befasst sich phishing mehreren Funktionen, wobei der Schwerpunkt auf PROTECT (PR.AT für Sensibilisierungsschulungen, PR.AA für Zugriffskontrolle) und DETECT (DE.CM für kontinuierliche Überwachung, DE.AE für die Analyse unerwünschter Ereignisse) liegt. Organisationen, die Compliance-Anforderungen unterliegen, sollten ihre phishing diesen Rahmenkategorien zuordnen.
Regulatorische Rahmenbedingungen wie die Meldepflicht bei Verstößen gegen die DSGVO (72-Stunden-Frist), die HIPAA-Sicherheitsvorschriften und die PCI DSS 4.0-Anforderungen haben alle Auswirkungen auf phishing im Zusammenhang mit KI. Das HHS HC3 AI Phishing White Paper enthält spezifische Leitlinien für Organisationen im Gesundheitswesen, die mit diesen Bedrohungen konfrontiert sind.
Die Branche hat erkannt, dass herkömmliche E-Mail-Sicherheitslösungen den durch KI verstärkten Bedrohungen nicht mehr gewachsen sind. Moderne Verteidigungsarchitekturen kombinieren mehrere Erkennungsansätze mit identitätsorientierten Sicherheitsmaßnahmen.
AI-native E-Mail-Sicherheitslösungen setzen Machine-Learning-Modelle ein, die speziell auf die Merkmale von KI-generierten Inhalten trainiert sind. Diese Lösungen analysieren Verhaltensmuster, Kommunikationsbeziehungen und Anomalien in Anfragen anstelle von Inhaltssignaturen. Laut der Prognose des Weltwirtschaftsforums für 2026 setzen mittlerweile 77 % der Unternehmen KI für die Cybersicherheit ein, wobei 52 % KI speziell für phishing einsetzen.
Die Konvergenz von Netzwerkerkennung und -reaktion, Identitätsbedrohungserkennung und E-Mail-Sicherheit spiegelt die Erkenntnis wider, dass phishing die erste Zugriffsphase umfassenderer Angriffe phishing . Eine wirksame Abwehr erfordert die Korrelation von Signalen über diese Bereiche hinweg, um sowohl den phishing als auch die nachfolgenden Aktivitäten des Angreifers zu erkennen.
Zero trust -Prinzipien auf die Kommunikation angewendet werden, bedeutet, dass keine Anfrage – unabhängig von ihrer scheinbaren Quelle – implizit vertraut wird. Unternehmen, die diesen Ansatz umsetzen, verlangen eine Überprüfung aller sensiblen Anfragen und beseitigen damit die Vertrauensvoraussetzungen, die phishing .
Der Ansatz Vectra AI zur phishing basiert auf dem Grundsatz, dass die Überprüfung von Inhalten ein aussichtsloser Kampf ist. Angreifer werden ihre Inhaltsgenerierung immer schneller verbessern können, als Verteidiger ihre Erkennungsregeln aktualisieren können.
Attack Signal Intelligence konzentriert sich stattdessen auf Verhaltenssignale, die unabhängig vom Inhalt der Nachricht bestehen bleiben. Wenn Angreifer durch phishing Zugangsdaten kompromittieren, erzeugen ihre nachfolgenden Aktionen – Aufklärung, Privilegienerweiterung, laterale Bewegung, Datenzugriff – erkennbare Muster, die durch KI-generierte Inhalte nicht verschleiert werden können.
Dieser identitätsorientierte Ansatz korreliert Signale über Netzwerk-, cloud und Identitätsebenen hinweg, um Angriffe aufzudecken, die durch E-Mail-Sicherheit allein übersehen würden. Anstatt zu versuchen, jede phishing zu erkennen, liegt der Schwerpunkt darauf, Angreifer zu erkennen und zu stoppen, die die ersten Verteidigungslinien erfolgreich umgehen – ein Ansatz, der mit der „Assume Compromise”-Philosophie übereinstimmt, die davon ausgeht, dass raffinierte Angreifer unweigerlich einen ersten Zugriff erlangen werden.
Die phishing entwickelt sich weiterhin rasant, wobei mehrere Entwicklungen die Bedrohungslage in den nächsten 12 bis 24 Monaten prägen dürften.
Autonome phishing stellen die nächste Entwicklungsstufe nach den aktuellen LLM-basierten Angriffen dar. Diese Systeme werden gesamte Angriffskampagnen selbstständig durchführen – Ziele auswählen, Inhalte generieren, sich an Reaktionen anpassen und sich je nach Erfolgsquote neu ausrichten. Erste Anzeichen für diesen Trend zeigen sich in der Ausgereiftheit der aktuellen phishing.
Multimodale Angriffe werden zunehmend E-Mail, Sprache, Video und Messaging in koordinierten Kampagnen kombinieren. Der Vorfall bei Arup demonstrierte diesen Ansatz mit einer E-Mail, gefolgt von einem Deepfake-Video. Zukünftige Angriffe werden diese Kanäle wahrscheinlich in Echtzeit orchestrieren, wobei KI-Systeme die Nachrichtenübermittlung plattformübergreifend auf der Grundlage der Reaktionen der Opfer anpassen.
Die Kompromittierung von KI-Agenten stellt eine neue Angriffsfläche dar, da Unternehmen zunehmend autonome KI-Systeme einsetzen. Angreifer suchen nach Techniken, um KI-Agenten durch Prompt-Injection und Social-Engineering-Ansätze zu manipulieren, die auf maschinelle Ziele zugeschnitten sind. Unternehmen, die KI-Agenten einsetzen, sollten mit phishing Angriffen auf diese Systeme rechnen.
Die regulatorische Entwicklung schreitet weiter voran, da Regierungen die durch KI verstärkten Bedrohungen erkennen. Die öffentliche Kommentierungsfrist für das AI Cybersecurity Framework Profile (IR 8596) des NIST endet am 30. Januar 2026, die Fertigstellung wird für das zweite Quartal 2026 erwartet. Das Framework wird spezifische Leitlinien zur Abwehr von KI-gestützten Cyberangriffen, einschließlich phishing, enthalten.
Laut dem Weltwirtschaftsforum erwarten 94 % der Sicherheitsverantwortlichen, dass KI die Cybersicherheitslandschaft im Jahr 2026 maßgeblich prägen wird. Unternehmen sollten der Einführung phishing Authentifizierungsverfahren, Verhaltenserkennungsfunktionen und kontinuierlichen Schulungsprogrammen, die dem Ausmaß der Raffinesse der Angreifer gerecht werden, Priorität einräumen. Investitionen in identitätsbezogene Erkennungssysteme, die E-Mail-, Netzwerk- und cloud umfassen, werden sich als unerlässlich erweisen, da Angriffe über verschiedene Kanäle hinweg immer besser koordiniert werden.
Traditionelles phishing auf vorgefertigten Nachrichten mit häufigen Grammatikfehlern, generischer Zielausrichtung und Massenversand identischer Inhalte. Diese Merkmale machten die Erkennung relativ einfach – Sicherheitsteams schulten Mitarbeiter darin, Rechtschreibfehler, ungeschickte Formulierungen und verdächtige Formatierungen als Warnzeichen zu erkennen.
phishing diese Signale vollständig. Große Sprachmodelle generieren grammatikalisch einwandfreie, kontextbezogene Inhalte, die sich an einzelne Ziele anpassen. Laut einer Studie von IBM X-Force reduziert KI die Erstellung phishing von 16 Stunden auf fünf Minuten und erzielt dabei Klickraten von 54 % im Vergleich zu 12 % bei herkömmlichen Kampagnen. Die Kostensenkung um 95 % bedeutet, dass Angreifer nun gleichzeitig ausgeklügeltes phishing Tausende von Zielen einsetzen können, was zuvor ohne erhebliche personelle Ressourcen unmöglich war.
Angreifer nutzen drei Hauptansätze, um KI-Fähigkeiten für phishing zu erlangen. Erstens umgehen jailbroken Versionen legitimer Sprachmodelle Inhaltsbeschränkungen durch sich ständig weiterentwickelnde Prompt-Engineering-Techniken. Zweitens arbeiten speziell entwickelte bösartige Tools wie WormGPT (60 bis 550 US-Dollar pro Jahr) und FraudGPT (200 US-Dollar pro Monat) ohne ethische Leitplanken und zielen speziell auf phishing ab. Drittens integrieren phishing-Plattformen wie Darcula KI-Fähigkeiten direkt in ihre Infrastruktur.
Diese Tools werden über Telegram-Kanäle und Dark-Web-Foren verbreitet und richten sich oft an Ersttäter mit minimalen technischen Anforderungen. Das Geschäftsmodell spiegelt das legitime SaaS wider – Abonnementpreise, Funktionsstufen und Kundensupport – und senkt damit die Hürden für ausgeklügelte Angriffe erheblich.
Ja. Durch KI generiertes phishing grammatikalische Fehler, Formatierungsinkonsistenzen und verdächtige Muster, die von herkömmlichen E-Mail-Gateways erkannt werden. Untersuchungen zeigen, dass 76 % der phishing im Jahr 2024 polymorphe Funktionen enthielten, die den Inhalt dynamisch an den jeweiligen Empfänger anpassen und so die signaturbasierte Erkennung vollständig umgehen.
Über die Umgehung von Inhalten hinaus ermöglicht KI Angriffe, die das Vertrauen ausnutzen, wie es beim Scannen von E-Mails nicht möglich ist. Deepfake-Videoanrufe, Stimmklonen und phishing umgehen phishing e-mailzentrierte Sicherheitsmodelle. Eine wirksame Verteidigung erfordert nun Verhaltensanalysen, Identitätskorrelationen und Erkennungsfunktionen, die über das E-Mail-Gateway hinausgehen.
phishing das implizite Vertrauen phishing , das Menschen in die Videokommunikation setzen. Wenn Menschen jemanden sehen und hören, den sie kennen, sinken die psychologischen Barrieren gegenüber verdächtigem Verhalten drastisch. Der Vorfall bei Arup im Jahr 2024 hat diese Schwachstelle aufgezeigt, als Finanzmitarbeiter 25 Millionen Dollar überwiesen, nachdem sie an einem Videoanruf mit KI-generierten Deepfakes mehrerer Führungskräfte des Unternehmens teilgenommen hatten.
Moderne Deepfake-Technologie kann während Live-Videoanrufen in Echtzeit eingesetzt werden, reagiert natürlich auf Fragen und sorgt für eine konsistente Imitation während längerer Interaktionen. Für das Klonen von Stimmen sind lediglich fünf Minuten Audioaufzeichnung erforderlich, um überzeugende Nachbildungen zu erstellen. Diese Fähigkeiten bedeuten, dass weder Sprach- noch Videoüberprüfungen ohne zusätzliche Out-of-Band-Bestätigung als zuverlässige Authentifizierungsfaktoren dienen können.
Die Erkennung muss sich von der Inhaltsanalyse hin zu Verhaltensindikatoren verlagern. Zu den wichtigsten Signalen zählen Anomalien im Kommunikationsmuster, wie ungewöhnliche Zeitpunkte für Anfragen, aus dem Zusammenhang gerissene finanzielle Forderungen oder eine Dringlichkeit, die nicht zum typischen Stil des Absenders passt. Zu den technischen Indikatoren zählen E-Mail-Authentifizierungsfehler trotz überzeugendem Inhalt, Unstimmigkeiten bei der Antwortadresse und kürzlich registrierte Domains.
Unternehmen sollten KI-native E-Mail-Sicherheitslösungen einsetzen, die Verhaltensmuster und Kommunikationsbeziehungen analysieren, anstatt sich auf Inhaltssignaturen zu stützen. Phishing MFA (FIDO2/WebAuthn) bietet Schutz auch dann, wenn die Erkennung versagt, indem sie die Authentifizierung kryptografisch an bestimmte Domänen bindet und den Diebstahl von Anmeldedaten durch überzeugende phishing verhindert.
Das NIST Cybersecurity Framework 2.0 behandelt phishing den PROTECT-Funktionen (PR.AT für Sensibilisierungsschulungen, PR.AA für Zugriffskontrolle) und den DETECT-Funktionen (DE.CM für kontinuierliche Überwachung, DE.AE für die Analyse unerwünschter Ereignisse). MITRE ATT&CK phishing T1566 (Phishing) zu, wobei der Erwerb von KI-Fähigkeiten unter T1588.007 aufgeführt ist.
Das NIST finalisiert derzeit das AI Cybersecurity Framework Profile (IR 8596), dessen Fertigstellung für das zweite Quartal 2026 erwartet wird und das spezifische Leitlinien zu KI-gestützten Cyberangriffen, einschließlich phishing, enthält. Organisationen im Gesundheitswesen sollten das HHS HC3 AI Phishing White Paper branchenspezifische Leitlinie heranziehen. Weitere regulatorische Rahmenbedingungen sind die Meldepflichten gemäß DSGVO, die HIPAA-Sicherheitsvorschriften und die Bestimmungen des PCI DSS 4.0.
Business Email Compromise ist eine bestimmte Art von Angriff, die durch KI erheblich verbessert wird, aber sie sind nicht gleichbedeutend. Bei BEC werden traditionell Führungskräfte oder Geschäftspartner imitiert, um betrügerische Transaktionen zu autorisieren. KI ermöglicht BEC in einem noch nie dagewesenen Ausmaß, indem sie die Imitation von Führungskräften automatisiert, kontextbezogene Anfragen generiert und grammatikalische und stilistische Unstimmigkeiten beseitigt, die zuvor zur Identifizierung betrügerischer Kommunikation beigetragen haben.
Laut einer Studie der VIPRE Security Group werden mittlerweile 40 % aller BEC-E-Mails durch KI generiert. Das FBI IC3 dokumentierte im Jahr 2024 Verluste in Höhe von 2,77 Milliarden US-Dollar aufgrund von 21.442 Beschwerden im Zusammenhang mit BEC, was diese zu einer der finanziell schädlichsten Anwendungen von phishing macht. Unternehmen sollten KI-gestütztes BEC als eine spezifische Bedrohung mit hoher Priorität innerhalb der breiteren phishing betrachten.