Video

GenAI Teil 4: Wie Angreifer LLMs verwenden

Willkommen zur vierten Folge unserer fortlaufenden Serie über Large Language Models (LLMs), mit Oliver Tavakoli, CTO bei Vectra AI, und Sohrob Kazerounian, Distinguished AI Researcher. In dieser Folge tauchen wir in die dunkle Seite der LLMs ein und untersuchen, wie Angreifer diese fortschrittlichen Tools ausnutzen, um ihre bösartigen Aktivitäten zu verstärken.

GenAI Teil 4: Wie Angreifer LLMs verwenden
Sprache zum Herunterladen auswählen
Zugang
Video
Sie können das Formular nicht sehen?

Wir haben festgestellt, dass Sie unser Formular möglicherweise nicht sehen können. Dies geschieht, wenn Datenschutz-Tools (die wir voll unterstützen) Skripte von Dritten blockieren.

Firefox-Benutzer:

Klicken Sie auf das Schildsymbol in Ihrer Adressleiste → "Tracking-Schutz für diese Website deaktivieren".

Chrome mit Datenschutzerweiterungen:

Lassen Sie diese Website vorübergehend in den Einstellungen Ihres Werbeblockers oder Ihrer Datenschutzerweiterung zu

Möchten Sie die Einstellungen nicht ändern?

Senden Sie uns direkt eine E-Mail an support@vectra.ai oder info@vectra.ai


Wir verwenden HubSpot-Formulare für die Funktionalität, nicht für die Nachverfolgung. Ihre Privatsphäre ist uns wichtig - deshalb bieten wir Ihnen diese Optionen an.

Weltweites Vertrauen bei Experten und Unternehmen

Häufig gestellte Fragen