Wie sicher kann man KI-Produkte entwickeln? Wie sicher sind KI-Development-Tools? Darum geht es auf der heise devSec KI und Security. Online. Am 8. April.

Threats, Laws, and Defenses: Ein praktischer Leitfaden zur KI-Sicherheit

Künstliche Intelligenz (KI) revolutioniert zahlreiche Branchen, doch ihre Sicherheit wird zunehmend durch eine komplexe Bedrohungslandschaft herausgefordert.

In diesem Talk beleuchten wir die aktuellen Gefahren, denen KI-Systeme ausgesetzt sind, von Data Poisoning bis Evasion Attacks.

Anhand realer Beispiele werden wir zeigen, wie solche Angriffe funktionieren, und aufzeigen, welche Verteidigungsmaßnahmen derzeit verfügbar sind. Darüber hinaus stellen wir die regulatorischen Anforderungen an KI-Sicherheit vor. Wir ziehen Parallelen zu weiteren internationalen Rechtsrahmen und zeigen auf, wie Bedrohungen und Abwehrmaßnahmen mit den Vorgaben des EU AI Acts verknüpft werden können.

Ziel ist es, den Teilnehmern praktische Handlungsempfehlungen an die Hand zu geben, um KI-Systeme sicherer zu gestalten und Compliance zu gewährleisten. Der Vortrag richtet sich an alle, die KI sicher einsetzen oder absichern möchten.

Lernziele

  • Verständnis der Bedrohungslandschaft in der KI-Sicherheit
  • Verknüpfung von Bedrohungen mit praktischen Verteidigungsstrategien
  • Umsetzung von Sicherheitsmaßnahmen im Kontext regulatorischer Rahmenwerke

Speaker

 

Niklas Bunzel
Niklas Bunzel ist wissenschaftlicher Mitarbeiter am Fraunhofer SIT, ATHENE und Doktorand an der TU-Darmstadt. Er konzentriert sich auf KI und IT-Sicherheit und ist spezialisiert auf adversariales ML, Deepfake-Erkennung und Robustheit in KI-Systemen. Mit seinem Team entwickelt er Proof-of-Concepts für sichere und vertrauenswürdige KI. Er ist ein Kernmitglied und Autor des OWASP AI Exchange, wo er zu KI-Sicherheitsstandards und -vorschriften wie dem EU AI Act Sicherheitsstandard und ISO 27090 beiträgt.

heise-devSec-Newsletter

Ihr möchtet über die heise devSec
auf dem Laufenden gehalten werden?

 

Anmelden