KI revolutioniert unsere Welt – doch unsichere LLM-Integrationen sind ein leichtes Ziel für Hacker. Erfahren Sie, wie Sie sich wirksam schützen.
Während Unternehmen sich beeilen, Large Language Models (LLMs) in ihren Anwendungen einzusetzen, sind Angreifer oft noch schneller. In diesem Live-Webinar berichten wir über unsere Erfahrungen aus Penetrationstests bei LLM-Implementierungen unserer Kunden und diskutieren grundlegende Methoden des LLM-Security-Testings.
Wir stellen eine bahnbrechende Technik zur Prompt-Extraktion vor – inklusive einer Live-Demonstration – die die bisherigen Sicherheitsannahmen über LLMs auf den Kopf stellt. Sie sehen, wie echte Angreifer allein anhand von Modellausgaben vertrauliche Informationen preisgeben können – trotz etablierter Sicherheitsmaßnahmen. Basierend auf neuesten Forschungsergebnissen zeigen wir, warum aktuelle Tools nicht mithalten können, wie diese Methoden entdeckt wurden und was Sie tun können, um Angreifern einen Schritt voraus zu bleiben.
Informationen zum Webinar
Agenda
- Begrüßung & Einführung
- Erkenntnisse aus Pentests mit LLMs
- Methoden & Vorgehen beim Testen
- Neueste Forschungsergebnisse
- Live-Demo
- Fragen & Antworten (Q&A)
Zielgruppe
- Security-Leads und Security-Teams
- KI/ML-Engineers
- AppSec-Fachkräfte
- DevOps-Engineers
- CISOs
- Verantwortliche für Produktsicherheit
- Technische Entscheider, die LLM-basierte Systeme entwickeln oder schützen
Was Sie im Webinar erwartet
Insights:
Sicherheitsrisiken, die wir bei echten LLM-Deployments entdecken – direkt von Claranet Pentestern
Know-how:
Wie man Sicherheitstests von LLMs im Vergleich zu herkömmlichen Penetrationstests durchführt
Forschungsergebnisse:
Was die neueste Forschung über Schwachstellen in generativer KI aufdeckt
Live-Demo
Wie sich System-Prompts aus Modellausgaben extrahieren lassen – inklusive Live-Demo eines neuen Angriffs
➡ Ideal für alle, die ihre LLM-Integrationen sicher und zukunftsfähig gestalten möchten.
Speaker
Sie möchten tiefer einsteigen?
Dieses Webinar bietet einen ersten Einblick in Inhalte unseres zweitägigen Trainings Mastering LLM Integration Security: Offensive & Defensive Tactics. Dort lernen Sie praxisnah, wie Sie LLM-basierte Systeme ganzheitlich absichern und Angriffe selbstständig erkennen und abwehren.
