KI als Angriffsvektor – Sicherheitsrisiken und Best Practices bei der Integration von LLMs
Viele Produkte integrieren mittlerweile Chatbots und LLMs in eigene Anwendungen, um deren Funktionsvielfalt zu steigern. So kann dann beispielsweise eine Mail-App passende Antworten autonom formulieren und senden. Fragt man Entwickler nach Angriffsszenarien, sind häufige Antworten Prompt-Hacking oder Jailbreaking – doch es gibt noch mehr zu beachten!
In unserem Vortrag geben wir eine Übersicht, wie integrierte KIs neue Angriffsvektoren in Ihren Anwendungen öffnen. Wir führen in das Prompt-Hacking und Jailbreaking ein und beleuchten komplexere Angriffe wie den Wurm Morris II, der KIs in Mailing-Apps angreift.
Abschließend gehen wir auf Best Practices für eine sichere Integration von KIs ein.
Vorkenntnisse
Dieser Vortrag ist an Softwareentwickler:innen und Systemarchitekten:innen gerichtet, die KI-Dienste in ihre eigenen Anwendungen integrieren wollen. Tiefere Kenntnisse bzgl. der genauen Funktionsweise von KI-Modellen sind jedoch nicht erforderlich. Die Teilnehmenden sollten mit dem Konzept eines Injection-Angriffs vertraut sein.
Lernziele
Die Teilnehmenden lernen neue Bedrohungen kennen, die sie erwarten müssen, wenn sie KI-Dienste in ihre eigenen Anwendungen integrieren, und sie erhalten ein tieferes Verständnis der besprochenen Angriffe. Darüber hinaus lernen sie, welche Gegenmaßnahmen möglich sind und wie sich diese effektiv in den Arbeitsalltag einsetzen lassen.