Lesedauer ca. 6 Minuten

Das Kompetenzzentrum KARL ist der zentrale Anlaufpunkt für Unternehmen, die Künstliche Intelligenz (KI) in ihre Arbeitsprozesse integrieren möchten – und dabei höchsten Datenschutzanforderungen gerecht werden wollen. Mit einem klaren Fokus auf datenschutzfreundlichen KI-Systemen unterstützt KARL Unternehmen dabei, innovative Lösungen zu entwickeln, die Arbeits- und Lernprozesse effizienter gestalten, ohne dabei die Rechte der Betroffenen zu vernachlässigen. Durch praxisnahe Workshops, Forschung und Pilotprojekte bietet KARL Unternehmen wertvolle Leitlinien, um den Einsatz von KI nachhaltig und DSGVO-konform zu gestalten. In enger Zusammenarbeit mit regionalen Akteuren und Fachkräften schafft KARL so einen zukunftssicheren Rahmen für KI-gestützte Arbeitswelten.

Im Interview mit Ariane Lindemann spricht Pascal Birnstill, Senior Scientist beim Fraunhofer IOSB und zuständig für den Bereich KI und Daten bei KARL, über die Herausforderungen und Chancen beim Einsatz von KI in datenschutzsensiblen Bereichen.

Was sind die größten Herausforderungen bei der Verarbeitung personenbezogener Daten in KI-basierten Arbeits- und Lernsystemen?

KI-basierte Arbeits- und Lernsysteme müssen die Datenschutzregeln genauso einhalten wie andere Systeme. Mit der Europäischen KI-Verordnung kommen jedoch neue Vorschriften hinzu, vor allem für sogenannte Hochrisiko-Systeme. Dazu zählen zum Beispiel KI-Systeme, die in Arbeits- oder Lernumgebungen genutzt werden. Diese Systeme brauchen besonders hochwertige Daten, damit sie richtig funktionieren. Wenn sie personenbezogene Daten verarbeiten, etwa von Mitarbeitenden oder Schüler:innen, ist meist eine Einwilligung der Betroffenen oder eine Betriebsvereinbarung erforderlich. Unternehmen sind dann dafür verantwortlich, diese Daten zu schützen, etwa durch technische Sicherheitsmaßnahmen. Bei KI-Systemen, die durch maschinelles Lernen funktionieren, müssen bereits in der Entwicklungsphase viele Daten gesammelt werden, um die Modelle zu trainieren. Anfangs werden oft mehr Daten erhoben, um zu verstehen, welche Informationen wichtig sind. Im laufenden Betrieb wird dann darauf geachtet, dass das System nur noch die wirklich nötigen personenbezogenen Daten verarbeitet, um den Datenschutz zu wahren.

Welche Rolle spielt der Datenschutz bei der Entwicklung von KI-Systemen innerhalb des KARL-Projekts?

Der Datenschutz spielt eine zentrale Rolle im KARL-Projekt. Wir verfolgen den Ansatz, unsere Systeme so datensparsam wie möglich zu gestalten. Natürlich benötigen KI-Methoden immer Trainingsdaten, aber während des Betriebs lässt sich der Einsatz personenbezogener Daten oft auf ein Minimum reduzieren. Wenn das System keine kontinuierliche Anpassung an die Nutzenden benötigt, können wir es so betreiben, dass keine Daten dauerhaft gespeichert werden. Das minimiert potenzielle Datenschutzprobleme und sorgt dafür, dass die Betroffenen eher bereit sind, ihre Daten zur Verfügung zu stellen, weil ihre Privatsphäre besser geschützt ist.

Wie unterstützt KARL Unternehmen bei der Einhaltung der DSGVO und dem Schutz der Rechte der Betroffenen, z.B. Arbeitnehmer:innen, bei der Nutzung von KI-Systemen?

KARL bietet umfassende Unterstützung für Unternehmen, um sicherzustellen, dass KI-Systeme datenschutzkonform implementiert werden. Dies geschieht insbesondere durch Workshops, in denen Unternehmen praxisnahe Einführungen in Datenschutz und Informationssicherheit erhalten und ihre eigenen Use-Cases diskutieren können. Ein zentrales Element dabei ist der Schutz der Rechte der betroffenen Personen, wie das Auskunfts- oder Löschungsrecht. Wir legen großen Wert darauf, dass alle Stakeholder – einschließlich Arbeitnehmer:innen oder deren Vertreter:innen – frühzeitig in den Prozess einbezogen werden. Auf diese Weise können menschenzentrierte Lösungen entwickelt werden, die datenschutzrechtlichen Vorgaben entsprechen und die Rechte der Betroffenen respektieren.

Inwiefern beeinflussen neue gesetzliche Regelungen, wie die zukünftige Europäische KI-Verordnung, die Umsetzung von KI-Systemen im KARL-Projekt?

Die Europäische KI-Verordnung stellt insbesondere zusätzliche Anforderungen an sogenannte Hochrisiko-KI-Systeme. Im Kontext von Arbeits- und Lernsystemen wären Beispiele dafür z.B. KI-Systeme, die automatisiert Leistungen von Schüler:innen und Arbeitnehmer:innen bewerten, die Bewerber:innen beurteilen oder auch Beantragende von Krediten oder Versicherungen. Solche Systeme stehen allerdings auch aus ethischer Sicht in der Diskussion. In den Use-Cases im KARL-Projekt geht es dagegen eher um Assistenzsysteme, die bei der Arbeit unterstützen, und dabei über Entscheidungen informieren diese aber nicht beeinflussen sollen. Der aktive Part bleibt bei den menschlichen Nutzenden.

Wie können technische Lösungen den Datenschutz und die Datensicherheit in KI-basierten Arbeits- und Lernsystemen unterstützen?

Neben den klassischen Anforderungen an die Informationssicherheit, die auch für nicht KI-basierte Systeme gelten, gibt es spezielle Technologien, die den Datenschutz bei KI-Systemen verbessern können. Dazu gehören beispielsweise Trusted-Execution-Environments (TEEs) und Privacy-Enhancing-Technologies (PETs). TEEs bieten eine sichere Hardware-Umgebung, in der sensible Daten verarbeitet werden können, ohne dass sie von unbefugten Dritten eingesehen oder manipuliert werden können. PETs, wie verteiltes Lernen oder Differentially-Private Machine-Learning, ermöglichen es, Modelle zu trainieren, ohne dass die Rohdaten an einer zentralen Stelle verarbeitet werden müssen, bzw. so, dass keine Informationen über die Rohdaten aus Modellen zurückgewonnen werden können. Diese Technologien minimieren die verarbeiteten personenbezogenen Daten und schützen die Privatsphäre der Nutzenden.

Wie profitieren Unternehmen in der Region Karlsruhe von den Datenschutz-Workshops und Handreichungen des KARL-Projekts? 

Wir bieten Unternehmen in der Region verschiedene Unterstützungsmöglichkeiten an. Dazu gehören vor allem Workshops, in denen wir praxisnahes Wissen zu Datenschutz und Informationssicherheit vermitteln. Unternehmen haben dabei die Möglichkeit, ihre eigenen Use-Cases einzubringen und konkrete Fragen zu besprechen. Außerdem stellen wir rechtliche und technische Leitfäden bereit, die über unsere Webseite abgerufen werden können. Diese Handreichungen helfen Unternehmen dabei, KI-Systeme datenschutzfreundlich zu gestalten und die DSGVO einzuhalten.

Welche Rolle spielt Transparenz in der Datenverarbeitung bei KI-basierten Systemen, und wie wird diese in den Pilotprojekten des KARL-Kompetenzzentrums umgesetzt?

Transparenz gehört zu den Datenschutz-Grundsätzen und spielt auch eine wichtige Rolle in der KI-Verordnung. Informationspflichten der verantwortlichen Stellen und die Betroffenenreche, insbesondere das Recht auf Auskunft, gehören hier zu den zentralen Instrumenten. KARL geht in den Pilotprojekten allerdings noch weiter und versucht, die Transparenz von KI-basierten Systemen mit Methoden der sogenannten „Erklärbaren KI“ zu erhöhen. Das ist in KARL ein eigener Forschungsbereich, der es sich zum Ziel gemacht hat, Methoden der erklärbaren KI auch für Endnutzende zugänglich zu machen. Auch wenn wir in KARL eher Assistenzsysteme betrachten, ist es wichtig, dass diese ihre Vorschläge bei Bedarf zielgruppengerecht erläutern können.

Wie kann der Datenschutz zu einem europäischen Standortvorteil werden, insbesondere im Hinblick auf KI-gestützte Arbeits- und Lernsysteme?

Datenschutzfreundliche KI-Lösungen können ein Wettbewerbsvorteil sein, besonders in Europa, wo die DSGVO hohe Anforderungen stellt. Unternehmen, die datenschutzfreundliche KI-Systeme entwickeln, können sich als vertrauenswürdige Akteure positionieren. Allerdings darf man nicht vergessen, dass auch internationale Anbieter wie Microsoft angeben, dass ihre OpenAI-Dienste in der Azure-Cloud datenschutzkonform genutzt werden können. Laut Studien von 2021 sahen viele deutsche Unternehmen den Datenschutz jedoch noch nicht als klaren Standortvorteil. Mit der wachsenden Bedeutung von KI-Anwendungen, die stark auf Daten angewiesen sind, könnte sich dieses Bild jedoch ändern. Datenschutz könnte zunehmend als Qualitätsmerkmal für europäische Lösungen wahrgenommen werden – und somit als klarer Wettbewerbsvorteil dienen.

Über KARL

Ziel von KARL ist es, KI-unterstützte Arbeits- und Lernsysteme menschzentriert, transparent und lernförderlich zu gestalten und in konkreten Praxisanwendungen demonstrierbar zu machen. Das Projekt richtet sich an Unternehmen, Beschäftigte und Interessierte in der Region Karlsruhe, die KI-unterstützte Arbeits- und Lernsysteme einsetzen, sich damit auseinandersetzen oder diese besser verstehen wollen. KARL ist eines von derzeit 13 regionalen Kompetenzzentren, die sich mit den Auswirkungen von Künstlicher Intelligenz (KI) auf die Lern- und Arbeitswelt beschäftigen.

Das CyberForum ist Teil des Projektkonsortiums und hauptsächlich mit der Öffentlichkeitsarbeit, dem Community-Management sowie dem Nachhaltigkeitskonzept betraut. Konsortialführer ist die Hochschule Karlsruhe. Projektpartner sind neben sieben Forschungs- bzw. Transferpartnern auch zehn regionale Unternehmen.