Zur Startseite
Zur Startseite

01661 Datenverarbeitung durch KI – Herausforderungen

Dieser Beitrag beleuchtet die Herausforderungen und Risiken der Datenverarbeitung in der Ära der Künstlichen Intelligenz (KI). Besonders die Intransparenz von generativen KI-Systemen birgt große Gefahren. Die neuen Angriffsvektoren wie Evasion-Attacks und Data Poisoning werden fachkundig erklärt. Sie erfahren, warum technische und organisatorische Maßnahmen dringend ergriffen werden sollten, um Datenschutz und Sicherheit zu gewährleisten.
von:

1 Grundsätzliches zum Datenschutz und KI

Bei KI und dem KI-Einsatz gilt es je nach eingenommener „Rolle” bei der Verarbeitung, mannigfaltige rechtliche und insbesondere auch technische/organisatorische Herausforderungen zu meistern. Die größten datenschutzrechtlichen Herausforderungen resultieren, jedenfalls bei generativer KI (Deep Learning), aus der mangelnden Transparenz der Datenverarbeitung. Das macht es wiederum für einen Verantwortlichen, wie ein Unternehmen, das „KI” einsetzen oder entwickeln will, sehr anspruchsvoll, die obliegenden datenschutzrechtlichen Pflichten vollumfänglich zu erfüllen.
Risiko steigt durch Intransparenz
Es gilt der Grundsatz, dass je höher der Digitalisierungsgrad (Komplexität) der Anwendung ist, umso größer wird die Intransparenz der Verarbeitung. Mit dem Ansteigen der Intransparenz wachsen automatisch die Risiken für den Betroffenen, insbesondere die Möglichkeit zur Durchsetzung seiner Rechte. Je größer die Risiken sind, umso höher müssen daher Anforderungen sein, die ein Verantwortlicher beim Einsatz von KI zu erfüllen hat, um die Risiken in einem vertretbaren Rahmen zu halten. Dies wird auch sehr deutlich im Positionspapier der DSK zu empfohlenen technischen und organisatorischen Maßnahmen bei der Entwicklung und dem Betrieb von KI-Systemen herausgehoben [1].
KI übernimmt Kontrolle?
Zugegebenermaßen erscheinen die Forderungen der DSK auf den ersten Blick komplett übertrieben und oftmals auch realitätsfern. Diese vermeintlich übertrieben erscheinenden Anforderungen werden jedoch schnell nachvollziehbar, wenn man die Risiken betrachtet für die von der Datenverarbeitung betroffenen Menschen, also uns selbst und unser Leben. Dabei gilt es, sich offen und ehrlich damit auseinanderzusetzen, dass eine Kunstintelligenz durch den stetig zunehmenden Einsatz von KI in allen Lebensbereichen, immer mehr die Kontrolle über eine natürliche Intelligenz (uns) erhalten soll. Diese „KI” soll dann immer mehr über diese natürliche Intelligenz entscheiden und diese gegebenenfalls sogar steuern, damit alles im „korrekten, klar vorgegebenen Rahmen” abläuft. Damit besteht die Gefahr, dass der oft so hoch gepriesene freie Wille der Menschen und die Übernahme der Selbstverantwortung komplett durch Entscheidungen einer Kunstintelligenz ersetzt werden.
Schutz der Menschlichkeit
Gerade weil damit, auch wenn es ein wenig „platt” klingen mag, der „Tod” (die Kunstintelligenz) über das Leben bestimmen soll, ist es notwendig, dass dies in einem stark regulierten Umfang erfolgen muss. Der Betroffene, was ja auch das Bundesverfassungsgericht immer wieder eindringlich betont hat, darf nicht zum „dinglichen Objekt” beziehungsweise zur „Sache” degradiert werden. Es ist daher faktisch verboten, ihn wie eine Sache zu behandeln und somit den Entscheidungen einer KI schutzlos auszuliefern. Mithin gilt es beim KI-Einsatz den Menschen und das Menschsein zu schützen. Das wird jedoch zunehmend schwieriger, insbesondere aufgrund der absoluten Intransparenz der Datenverarbeitung. Denn man muss ehrlicherweise sagen, dass angesichts
des „Dschungels” an bereits eingesetzten KI-Systemen/-Modellen (LLM),
der nicht mehr zu stoppenden Entwicklungsdynamik,
der absoluten Intransparenz der Datenverarbeitung,
sowie dem Einsatz von bereits vortrainierten KI-Lösungen,
das Thema praktisch nicht mehr handhabbar ist.
Das von der DSK veröffentlichte Dokument stammt aus dem Jahr 2019 und damit aus einer Zeit, in der der KI-Einsatz offiziell noch nicht so stark verbreitet war. Damit erschien das Thema damals noch scheinbar halbwegs rechtskonform abbildbar, was heute jedoch immer illusorischer erscheint.
Nachweis der Sorgfalt
Um jedoch nicht gleich die Flinte ins Korn zu werfen und dem Datenschutz beim KI-Einsatz im gebotenen Umfang Genüge zu tun, sollte ein Verantwortlicher darauf achten, dass er jedenfalls „auf dem Papier” noch entsprechende Informationen erhält, um nachweisen zu können, dass er bei der Auswahl der Lösung die datenschutzrechtlichen Prinzipien beachtet und den KI-Anbieter auch entsprechend sorgfältig ausgewählt hat. Er sollte daher demonstrieren können, dass er sich der besonderen Herausforderungen des KI-Einsatzes bewusst war und dies sich auch in der Auswahl des Anbieters sowie der von ihm getroffenen technischen und organisatorischen Maßnahmen widerspiegelt.
Verantwortung der KI-Anbieter
Gerade aufgrund der bei einer generativen KI systemimmanenten Intransparenz steht ein KI-Anbieter, der auch die KI designt und vortrainiert hat, besonders in der Pflicht nachzuweisen, dass er das Vertrauen des Nutzenden (z. Β. eines Unternehmens oder Verbrauchers) auch verdient und seine „KI” die Daten der Betroffenen „fair” verarbeitet. Insbesondere beim Einsatz von KI in hochsensiblen Bereichen wie etwa im Gesundheitswesen, ist es unbedingt notwendig, auf die jeweilige Verarbeitung passende beziehungsweise zugeschnittene Verträge abzuschließen, die insbesondere auch die Verantwortlichkeiten ausreichend berücksichtigen.
Loading...