Lesedauer ca. 11 Minuten

Jede*r von uns nutzt KI. Die Möglichkeiten werden immer vielfältiger und ihr Einfluss im Alltag und bei der Arbeit wächst. Doch woher wissen wir, dass die Verwendung von Daten in KI-Systemen ethisch verantwortungsvoll gestaltet wird? Hier fehlt es bislang an Transparenz. Deshalb müssen wir alle die ethische Dimension von KI ernsthaft beleuchten und aktiv gestalten. Ob wir ChatGPT nutzen oder komplexe KI-Systeme in Unternehmen. Dafür sind ethische Standards und Regularien unumgänglich. Aber sie müssen schnell kommen, damit die Entwicklung und Anwendung von KI verantwortungsbewusst erfolgt.

Wir sprechen mit Dr. Bettina-Johanna Krings vom Kompetenzzentrum KARL über die Möglichkeiten, eine Balance zwischen Innovation und Verantwortung zu finden.

Von Ariane Lindemann

Welche ethischen Herausforderungen ergeben sich aus der Nutzung von Künstlicher Intelligenz in Arbeitsbereichen?

Eine der wichtigsten unmittelbaren Herausforderungen ist der Schutz der Daten im Rahmen der Privatsphäre. Das reicht von der lebensweltlichen Nutzung von KI bis hin zur beruflichen Nutzung von Daten auf vielen unterschiedlichen Ebenen im Beruf. Datenschutz im Beruf ist in Deutschland weitgehend über das Betriebsverfassungsgesetz geregelt. In vielen anderen Ländern hingegen nicht, was häufig zu Ungunsten der Arbeitnehmer*innen ausfällt. Weniger unmittelbare Herausforderungen im beruflichen Kontext der KI können Auswirkungen auf viele Aspekte wie beispielsweise organisationale Veränderungen und auf Kontrollinstrumente haben. Direkte Kontrollmechanismen, von denen wir hier zum Glück noch verschont sind, werden in der öffentlichen Debatte sehr kontrovers diskutiert. Die EU hat auf diese Herausforderungen mit Regularien (z.B. Datenschutzgrundverordnung) reagiert, die in der Wissenschaft und in der Politik sehr gut bewertet sind. Letzten Endes muss man jedoch die einzelnen Kontexte betrachten, in denen KI eingesetzt wird und dort die ethische Dimension jeweils dezidiert herausarbeiten.

KI und Automatisierung können zu einer Verdrängung von Arbeitskräften führen. Die Diskussion ‚menschliches Handeln vs. KI‘ hat seit einigen Jahren wieder an Fahrt aufgenommen …

In unterschiedlichen Arbeitsbereichen steht KI für die Vision einer fortgeführten Automatisierung – und das ist ja auch gewünscht. Diese Automatisierung kann natürlich auch zu Arbeitsplatzverlusten führen. Allerdings hat die Debatte um „job losses“ eine interessante Wendung genommen. Der Verlust von einer hohen Zahl an Arbeitsplätzen durch die Substitution von KI-Systemen wird in der Wissenschaft, Politik und Öffentlichkeit als unethisch diskutiert, beziehungsweise man ist sehr versucht, hervorzuheben, dass dies nicht der Fall sein soll. Hier hat ganz klar ein Perspektivenwechsel stattgefunden. Im Rahmen der Technisierungsprozesse von Arbeit scheint es – im Sinne des Erhalts von Arbeitsplätzen – wichtig zu betonen, dass sich die Arbeitsprofile zwar verändern können, die Arbeit jedoch gesichert bleibt. Die reine Lehre der Effizienzsteigerung um jeden Preis wird mindestens ergänzt um die Schaffung attraktiver Arbeitsumgebungen. Ob dies dann auch so gelingt, sei dahingestellt.

Ich denke, die Debatte um ethische Dimensionen in der Gestaltung von Arbeit (was ist „gute“ Arbeit?) ist eine wichtige Debatte, die alte Diskursmodelle von Arbeit positiv ergänzen können. Hier scheint es unbedingt notwendig, ethische Regelwerke im politischen Raum und auf Unternehmensebene einzubringen, um Jobverluste zu vermeiden und zu eruieren, inwieweit wir die Arbeit mittels tatsächlich KI verbessern können.

Wenn Arbeitsbereiche wegfallen, tun sich auf der anderen Seite neue auf. Man kann das auch als Chance sehen …

Die öffentlichen Diskussionen sind hier leider häufig nicht ausdifferenziert. Es wird in den Medien teilweise versucht, Chancen und Risiken der KI ausbalanciert darzustellen. Ich sehe das eher skeptisch, diese Fragen von einer allgemeinen Warte zu beantworten. Denn es geht meines Erachtens immer darum, welche Perspektive ich hier einnehme.
In den 1980er Jahren gab es in Deutschland ähnliche Entwicklungen, da in vielen Sektoren und Branchen Industriearbeitsplätze durch Rationalisierungsmaßnahmen verlorengingen und viele Beschäftigte in die Arbeitslosigkeit oder Frührente entlassen wurden. Auf der anderen Seite und parallel dazu entstand der Ausbau des Dienstleistungsbereichs, später des industrienahen Dienstleistungsbereichs, wo tausende von Jobs geschaffen wurden. Wissenschaftlich war dies eine sehr interessante Zeit mit neuen theoretischen Ergebnissen und Paradigmenwechsel. Es gab neue Arbeitskonzepte und der Ausbau des Dienstleistungsbereichs hat dazu geführt, dass man nicht mehr von „Industriegesellschaften“ sprach, sondern völlig neue Begriffe etabliert hat.

Also könnte man aufgrund dieser Erfahrungen ähnlich optimistisch sein?

Durchaus. Denn wo Jobs wegfallen, entstehen gleichzeitig und in anderen Bereichen auch wieder neue. Die Erfahrungen mit KI in der Industrie zeigen beispielsweise, dass in vielen Bereichen die Arbeitsprofile qualitativ anspruchsvoller werden. In einigen Bereichen ist jedoch das Gegenteil der Fall. Wir sollten nicht von einer Linearität ausgehen oder von einem Naturgesetz. Es braucht politische, betriebliche Anstrengungen, dass die Kompensation in neue und anspruchsvolle Arbeitsumgebungen gelingen kann. Das sollten wir nicht aus den Augen verlieren. Darüber hinaus brauchen wir auch den europäischen und globalen Blick. Die Schaffung hoch qualifizierter Jobs über KI auf der einen und das Wegrationalisieren von Stellen auf der anderen Seite des Globus – ist häufig ein Trade Off, den wir uns bewusst machen und daher viele Seiten ernsthaft beleuchten sollten.

Um sicherzustellen, dass KI-Entscheidungen transparent und erklärbar sind, braucht es schnell Regularien. Welche große Gefahr besteht momentan?

Hier möchte ich gerne den Mitbegründer und Leiter des Forum Soziale Technikgestaltung beim DGB, Welf Schröter zitieren, der im Kompetenzzentrum KARL wichtige Impulse beisteuert. Er hat sehr auf Regularien gedrängt. Schröter unterscheidet im Rahmen der KI zwischen sogenannten Assistenztechnologien, also Technologien, die unterstützen und die kontrollierbar und beherrschbar sind und den sogenannten Delegationstechnologien, die selbstständig Prozesse koordinieren, programmieren und Entscheidungen treffen. Die Grenzen sind hier fließend. Wir sind oft noch in der Vorstellung verhaftet, dass es sich bei KI um eine Assistenztechnologie handelt, während längst der Shift zur Delegationstechnologie erfolgt ist. Bei KARL haben wir herausgearbeitet, dass sich in der Regel sehr wenige Menschen die Mühe machen, Schritt für Schritt nachzuvollziehen, was eigentlich genau passiert, wenn man KI-Systeme einsetzt. Wo und wie finden Veränderungen der Arbeitsprozesse statt? Wie verändert sich die Mensch-Maschine-Interaktion im Arbeitsprozess? Wie verändert sich die Arbeitsteilung in dieser Interaktion? Welche Auswirkungen hat dies auf die Verteilung des Wissens in der Interaktion, beziehungsweise in den organisationalen Strukturen? Sind diese Veränderungen gewünscht? Von wem und mit welchem Ziel? Hier stehen wir erst am Anfang der Entwicklung.

Können Sie ein Beispiel nennen?

In einem bei KARL angesiedelten Forschungsprojekt geht es um einen sehr interessanten Case, bei dem die Organisation der wöchentlichen Schichtpläne über ein KI-System automatisiert werden. Das ist grundsätzlich eine sehr gute Idee. Denn was vorher der Schichtmeister gemacht hat, war sehr zeitintensiv und führte nicht selten zu Konflikten bei den Mitarbeitenden oder mit ihm und den Mitarbeitenden. Die Idee ist, sämtliche Variablen über ein KI-System einzuspeisen, um zu einer gerechten Lösung für alle in der Schichtplanung zu kommen. Allerdings fallen damit Verhandlungsprozesse weg; die Kommunikation zwischen Schichtmeister und Team. Das ist eigentlich auch der Kitt von Arbeitsbeziehungen, wo Kommunikation stattfindet, wo Ansprüche, Erwartungen, Regelwerke ausgehandelt werden. Die ethische Dimension der Gerechtigkeit wird jedoch zunächst an die Maschine delegiert. Ob das dann auch wirklich zu mehr Zufriedenheit führt, bleibt zunächst offen. Wichtig ist auch hier, sich bewusst zu machen, worin die Veränderungen bestehen, welche Ebenen angesprochen werden und wie und für wen die Ziele formuliert werden.

Was soll, was darf also automatisiert werden, wenn es in die Beziehungsebene geht …

In der Tat muss man sich fragen, was und welche Beziehungsqualität (Mensch-Maschine und Mensch-Mensch) verlorengeht, wenn man einen solchen Prozess der KI überlässt. Das kann, wie gesagt, einerseits ganz neue soziale und ethische Dimensionen in Arbeitsbereichen hervorrufen und sehr befruchtend in die Debatte hineinwirken. Andererseits sollte immer hinterfragt werden, inwieweit eine Assistenz- zur Delegationstechnologie in bestimmten Kontexten wird. Hier sollten, und das ist eine Forderung in KARL, Unternehmen und Organisationen nach der Einführung von KI mindestens ein halbes Jahr lang die Auswirkungen dieser KI-Systeme untersuchen und sehr intensiv diskutieren, ob diese erstrebenswert sind und zu den Zielen des Unternehmens (Code of Conduct) passen. Das wird jedoch in der Regel nicht gemacht.

ChatGPT ist ein beliebtes Inspirationstool. Könnte das auch ausufern?

Das ist eine spannende Frage, die ja in der öffentlichen Debatte sehr intensiv diskutiert wird. Es gibt unzählige Beispiele, wo der Einsatz von ChatGPT praktisch sein kann. Ich hatte kürzlich mit meinem Kollegen von der RHTW Aachen einen Call vorbereitet, der auf Englisch erscheinen soll. Zeitlich war alles sehr eng, so dass wir die Übersetzung über ChatGPT laufen ließen. Es dauerte keine zehn Minuten. Manche Passagen waren ein wenig holprig formuliert, aber alles in allem hat es uns das System sehr viel Zeit erspart.

Auf der anderen Seite gibt es viele Fälle, wo ich sehe, dass Reflexionsprozesse, Denkprozesse und kreative Prozesse verlorengehen. Zum Beispiel, wenn Hausarbeiten mit ChatGPT oder mit einer anderen Unterstützung geschrieben oder Vorlesungen und Seminare damit vorbereitet und strukturiert werden. Manchmal braucht es doch genau diese Prozesse, wo man vor einem leeren Blatt sitzt und nachdenkt, oder nicht? Der Griff zu einer technischen Unterstützung wie Chat GPT geht meistens schnell und dann kommt der Gewöhnungseffekt, den wir von anderen Technologien kennen. Das ist alles nachvollziehbar, aber gleichzeitig gehen Kompetenzen verloren. Ein schönes Beispiel ist das Navigationssystem beispielsweise im Auto. Man macht sich heute keine Mühe mehr, eine Karte anzuschauen, die Region, die Stadt zu verorten, bevor man sich auf den Weg macht oder Informationen einzuholen. KI könnte unseren geistigen und mentalen Radius, was kreative oder auch Koordinationsprozesse anbelangt, auch ein Stückchen verkleinern. Gleichzeitig entstehen neue Entwicklungen im Rahmen der Mensch-Maschine-Interaktion.

Verkümmern dann Talente?

Meine ehemalige Kollegin, die Philosophin Judith Simon, hat sich sehr intensiv mit KI beschäftigt. Sie sagt, es gibt viele Fähigkeiten und Kompetenzen, die man durch KI verlernt. Dafür gibt es jedoch auch wieder neue, die dazukommen und sei es eben, dass wir technischer ausgerichtet sind, also dass wir uns noch mehr in eine technische Kultur, in eine technisch ausgerichtete Seinsweise hineinbewegen. Das kann ich mir auch sehr gut vorstellen und ich denke, das zeichnet sich gerade sehr stark ab.

Das heißt, wir müssen uns alle mit den Folgen von KI auseinandersetzen?

Ja. Das finde ich unglaublich wichtig. Und wir müssen finanzielle, sachliche und zeitliche Ressourcen, vor allem im Bildungsbereich schaffen. Wir müssen uns auch Wissen aneignen, um die Folgen besser abschätzen zu können und um uns Expertenrat holen zu können, den wir dann auch verstehen. Vor allem beim Thema Deep Fakes im Netz, wo Reden oder Bilder gezeigt werden, die gefälscht, bzw. manipuliert sind, sollten Kompetenzen entwickelt werden, um diese richtig einschätzen zu können. Das Niveau der Manipulation im Internet ist wahrlich nicht zu unterschätzen. Ich denke in Sachen Medienkompetenz sind wir noch sehr hintendran. Hier sollten dringend Anstrengungen gefördert werden, dass wir lernen, kritisch und differenziert mit diesen Technologien umzugehen.

Nicht umsonst gibt es vielfache Verlautbarungen und Entwicklungen, sei es auf Ebene der EU und der UN, die jetzt eine Expertengruppe einrichten wollen, um den Blick auf die Risiken der KI zu werfen – und zwar global und weltweit. Die Vertreter*innen dort sind der Ansicht, dass es nicht sein kann, dass die Big Five, die großen Internet-Unternehmen, diese KI-Modelle entwickeln und die Politik mit ihren Entwicklungen weit hinterherhinkt.

Welche Rolle spielen die Regierungen und internationale Organisationen bei der Festlegung von   ethischen Standards?

Eine ganz große Rolle. Die Regierungen haben mittlerweile viele ethische Gremien eingesetzt. Der Deutsche Ethikrat macht hier zum Beispiel eine hervorragende Arbeit in Sachen KI. Er versucht auch, relevante Themen für die Politik zu identifizieren. Zum Beispiel im Bereich Medizin, wo die Entwicklung rasant voranschreitet, oder auch im industriellen Bereich. Das sehe ich als einen schon großen Fortschritt. Hier sollte die Politik nicht nachlassen für Aufklärung zu sorgen. Allerdings sollte sie hier auch die gesellschaftliche Umsetzung dieser Ergebnisse aktiver angehen. Da könnte ich mir unterschiedliche Formate vorstellen. Also der Ethikrat ist eines, aber man könnte auch Bürgerforen einrichten, wo man Diskussionsrunden schafft oder zum Beispiel in der Jugendarbeit und in Schulen mehr Aufklärung im Themenfeld KI vorantreiben.

Passiert da noch zu wenig? 

Ja, leider wird viel zu wenig bis gar keine Medienkompetenz in Bildungseinrichtungen vermittelt. Das ist erschreckend. Hierkönnte und sollte man aus der politischen Perspektive deutlich mehr machen, vor allem dann, wenn die Digitalisierung solch ein relevantes Thema in fast allen politischen Programmen einnimmt. Darüber hinaus sollte hier auf ethische Dimensionen aufmerksam gemacht werden, um die Menschen für einen guten Umgang mit Digitalisierung und KI zu befähigen. 

Welche Aufgaben haben Unternehmen?

Unternehmen tragen eine große Verantwortung bei der Entwicklung und Implementierung von KI-Systemen, wobei man sie vielerorts dafür sensibilisieren muss. Fest steht: Wenn sie KI einsetzen wollen, dann müssen sie den sogenannten KI-Readiness-Check bestanden haben.

Wann sind sie KI-Ready? 

Mit KI-Readiness wird zunächst eine technische Komponente angesprochen, die als Voraussetzung für die Einführung KI-basierter Themen gelten kann. KI-Systeme können nur dann eingeführt werden, wenn die Unternehmen ihre Prozessketten und ihre Arbeitsprozesse komplett digitalisiert haben. KI-Systeme basieren auf Daten und diese müssen erhoben werden. Ohne Daten geht es gar nicht. Allerdings, wenn die Unternehmen „ready“ sind, wenn die KI Entscheidungen eigenständig trifft und eine Planung oder Koordination übernimmt, ist das in der Tat ein evolutionärer Schritt. Viele Firmen haben zwar Einzelbereiche digitalisiert, aber längst nicht komplett – geschweige denn ganze Prozessketten. Das ist eine riesengroße Nachholarbeit, die die Unternehmen machen müssen, wenn sie KI-Systeme einsetzen möchten. Allerdings kann dies auch in einzelnen Abteilungen passieren.
Das ist auch eine Aufgabe von KARL, in den Unternehmen das Wissen zu vermitteln, wie und mit welchen Möglichkeiten solche Prozesse aufgesetzt werden können.

Kompetenzzentrum KARL

Mit KARL wurde in Karlsruhe eines von acht regionalen Kompetenzzentren geschaffen, um die Auswirkungen von KI auf die Themen Arbeit und Lernen mit und über KI zu untersuchen. Ziel von KARL ist es, diese Auswirkungen greifbar zu machen. Dafür werden reale Orte des Erlebens, Ausprobierens und Erlernens errichtet und miteinander vernetzt. Gleichzeitig dienen Pilotprojekte von Unternehmen, die wissenschaftlich begleitet werden, als Inspirationsquelle für Interessierte. Die Ergebnisse werden in den Demonstrationszentren vorgestellt, in spezifischen Fortbildungen für Fach- und Führungskräfte angeboten sowie in die relevanten Studiengänge der beteiligten Hochschulen integriert. Bei allen Arbeiten in KARL steht der Mensch im Mittelpunkt. So soll ein breiter gesellschaftlicher Diskurs angestoßen werden. Die Region Karlsruhe mit dem nationalen Digital Hub für angewandte KI und dem führenden IT-Cluster in Europa bietet dafür beste Voraussetzungen. Im Rahmen von KARL erhalten neun Forschungs- bzw. Transferpartner und elf regionale Unternehmen bis 2025 vom Bundesministerium für Bildung und Forschung (BMBF) knapp acht Millionen Euro Förderung.

Dr. Bettina-Johanna Krings

Ist Soziologin und Senior Researcher am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) am Karlsruher Institut für Technologie (KIT). Von 2009-2019 war sie in der Ko-Leitung des Forschungsbereichs Wissensgesellschaft und Wissenspolitik am ITAS.  Seit 2019 koordiniert sie die Lehre der TA am KIT und forscht seit vielen Jahren zu Themen im Bereich: Technik & Arbeit, Mensch-Maschine-Interaktionen, Methoden und Theorien der TA. Sie engagiert sich im Kompetenzzentrum KARL – Künstliche Intelligenz für Arbeit und Lernen in der Region Karlsruhe im Bereich „KI & Ethik“. Hier werden unter anderem ethische, rechtliche und soziale Aspekte beim Einsatz von KI aus verschiedenen Perspektiven untersucht.