Wie gefährlich Angriffe auf LLM sind und wie sie sich vermeiden lassen
KI steigt in der Popularität. Damit werden auch die Angriffsmuster auf ihre Anwendungen immer raffinierter. Besonders die großen Sprachmodelle (Large Language Models, LLMs) sind betroffen und zwar durch die Hintertür. Hierbei nutzen Hacker die Fähigkeit von LMM zum Generieren von Sourcecode und verschaffen sich Zugriff auf Trainingsdaten oder den Trainingsprozess. Ist das Modell erst einmal mit einer Hintertür versehen, lässt sich diese auf allen Systemen aktivieren, deren Anwendungen auf dem manipulierten LLM basieren.
Eine Variante des Backdooring ist das Data Poisoning. Es betrifft KI-Modelle, die in einem offenen oder kollaborativen Prozess entwickelt werden. Mit vergifteten Daten lassen sich Klassifikationen für Bilder und Texte manipulieren und letztlich Schadelemente in die ausgegebenen Daten persistent integrieren. Derart eingepflanzte Backdoors bleiben auch nach weiteren Trainingszyklen im Modell bestehen und lassen sich in späteren Versionen eines Modells aktivieren.
Der Vortrag zeigt, wie sich diese Angriffe mit Review-, Zertifikats- oder anderen Verfahren verhindern lassen.
Vorkenntnisse
- Grundprinzipien bei der Konzeption und Anwendung von Sytemen des maschinellen Lernens.
- Der Vortrag richtet sich an Systemdesiger, Architekten und Entwickler.
Lernziele
Teilnehmende haben einen Überblick auf die aktuellen Sicherheitsprobleme bei Systemen für maschinelles Lernen. Sie nehmen praktische Tipps mit, um Sicherheits-Fallstricke in der Konzeption und Umsetzung von Systemen vermeiden zu können. Ihnen sind Maßnahmen zur Risikominimierung von Angriffen auf maschinelles Lernen bekannt.