WEBINAR

Hacking LLM Applications - Erfahrungen & Einblicke aus unseren Pentests

18. Februar 2026 | 10-11 Uhr | Online

Sprache: Englisch

Jetzt kostenfrei anmelden

KI revolutioniert unsere Welt – doch unsichere LLM-Integrationen sind ein leichtes Ziel für Hacker. Erfahren Sie, wie Sie sich wirksam schützen.

Während Unternehmen sich beeilen, Large Language Models (LLMs) in ihren Anwendungen einzusetzen, sind Angreifer oft noch schneller. In diesem Live-Webinar berichten wir über unsere Erfahrungen aus Penetrationstests bei LLM-Implementierungen unserer Kunden und diskutieren grundlegende Methoden des LLM-Security-Testings.

Wir stellen eine bahnbrechende Technik zur Prompt-Extraktion vor – inklusive einer Live-Demonstration – die die bisherigen Sicherheitsannahmen über LLMs auf den Kopf stellt. Sie sehen, wie echte Angreifer allein anhand von Modellausgaben vertrauliche Informationen preisgeben können – trotz etablierter Sicherheitsmaßnahmen. Basierend auf neuesten Forschungsergebnissen zeigen wir, warum aktuelle Tools nicht mithalten können, wie diese Methoden entdeckt wurden und was Sie tun können, um Angreifern einen Schritt voraus zu bleiben.

Informationen zum Webinar

Agenda

  • Begrüßung & Einführung
  • Erkenntnisse aus Pentests mit LLMs
  • Methoden & Vorgehen beim Testen
  • Neueste Forschungsergebnisse
  • Live-Demo
  • Fragen & Antworten (Q&A)

Zielgruppe

  • Security-Leads und Security-Teams
  • KI/ML-Engineers
  • AppSec-Fachkräfte
  • DevOps-Engineers
  • CISOs
  • Verantwortliche für Produktsicherheit
  • Technische Entscheider, die LLM-basierte Systeme entwickeln oder schützen

Was Sie im Webinar erwartet

Insights:

Sicherheitsrisiken, die wir bei echten LLM-Deployments entdecken – direkt von Claranet Pentestern

Know-how:

Wie man Sicherheitstests von LLMs im Vergleich zu herkömmlichen Penetrationstests durchführt

Forschungsergebnisse:

Was die neueste Forschung über Schwachstellen in generativer KI aufdeckt

Live-Demo

Wie sich System-Prompts aus Modellausgaben extrahieren lassen – inklusive Live-Demo eines neuen Angriffs

Ideal für alle, die ihre LLM-Integrationen sicher und zukunftsfähig gestalten möchten.

It was a very practical and hands-on experience, full of realistic pentesting exercises, exploring how attackers can exploit AI integrations and how to defend against them effectively.

Teilnehmer, Mastering LLM Security - November

The content and the labs were all phenomenal. I would without a doubt, definitely recommend this course to anyone interested in AI/LLM security.

Teilnehmer, Mastering LLM Security - November

Speaker

Warren Atkinson, Security Consultant & Trainer

Unser Experte Warren Atkinson ist spezialisiert auf Windows-Exploits, Reverse Engineering und Python-basierte Offensive Tools und betreibt tiefgehenden Forschung im Bereich LLM-Security. Warren hat den neuen „Hacking LLM“-Schulungskurs entwickelt und führt viele der Cloud-, Web- und Infrastruktur-Hacking-Kurse von NotSoSecure durch. Er trainiert regelmäßig auf internationalen Events wie Black Hat und anderen führenden globalen Sicherheitsveranstaltungen.

Sie möchten tiefer einsteigen?

Dieses Webinar bietet einen ersten Einblick in Inhalte unseres zweitägigen Trainings Mastering LLM Integration Security: Offensive & Defensive Tactics. Dort lernen Sie praxisnah, wie Sie LLM-basierte Systeme ganzheitlich absichern und Angriffe selbstständig erkennen und abwehren.

 

Mehr erfahren

Kostenlose Anmeldung

Loading...