Jetzt vormerken: heise devSec 2025 am 30. September und 1. Oktober in Regensburg

Wie gefährlich Angriffe auf LLM sind und wie sie sich vermeiden lassen

KI steigt in der Popularität. Damit werden auch die Angriffsmuster auf ihre Anwendungen immer raffinierter. Besonders die großen Sprachmodelle (Large Language Models, LLMs) sind betroffen und zwar durch die Hintertür. Hierbei nutzen Hacker die Fähigkeit von LMM zum Generieren von Sourcecode und verschaffen sich Zugriff auf Trainingsdaten oder den Trainingsprozess. Ist das Modell erst einmal mit einer Hintertür versehen, lässt sich diese auf allen Systemen aktivieren, deren Anwendungen auf dem manipulierten LLM basieren.

Eine Variante des Backdooring ist das Data Poisoning. Es betrifft KI-Modelle, die in einem offenen oder kollaborativen Prozess entwickelt werden. Mit vergifteten Daten lassen sich Klassifikationen für Bilder und Texte manipulieren und letztlich Schadelemente in die ausgegebenen Daten persistent integrieren. Derart eingepflanzte Backdoors bleiben auch nach weiteren Trainingszyklen im Modell bestehen und lassen sich in späteren Versionen eines Modells aktivieren.

Der Vortrag zeigt, wie sich diese Angriffe mit Review-, Zertifikats- oder anderen Verfahren verhindern lassen.

Vorkenntnisse

  • Grundprinzipien bei der Konzeption und Anwendung von Sytemen des maschinellen Lernens.
  • Der Vortrag richtet sich an Systemdesiger, Architekten und Entwickler.

Lernziele

Teilnehmende haben einen Überblick auf die aktuellen Sicherheitsprobleme bei Systemen für maschinelles Lernen. Sie nehmen praktische Tipps mit, um Sicherheits-Fallstricke in der Konzeption und Umsetzung von Systemen vermeiden zu können. Ihnen sind Maßnahmen zur Risikominimierung von Angriffen auf maschinelles Lernen bekannt.

Speaker

 

Mirko Ross
Mirko Ross hat die Hintergründe, um Cybersicherheits-Faktoren richtig einzuschätzen. Als Unternehmer, Politik-Berater, OT/IT-Spezialist und KI-Experte kennt er Treiber und Hürden bei der digitalen Transformation und beim Risikomanagement. Seine Vorträge und Empfehlungen führen bei Data Scientists und Entscheidern zur richtigen Strategie beim Einsatz von Software für Risikoanalyse und Big Data-Evaluation/KI.

heise-devSec-Newsletter

Ihr möchtet über die heise devSec
auf dem Laufenden gehalten werden?

 

Anmelden