Lesedauer ca. 3 Minuten

Am 28. Februar 2020 – noch vor den Kontaktbeschränkungen des Coronavirus – trafen sich Mitglieder des Ethikverbands der Deutschen Wirtschaft e.V. (EVW) und Interessierte zu einer konstituierenden Sitzung einer Taskforce „Künstliche Intelligenz“ im Rahmen des EVW. Dabei diskutierten der Moralphilosoph und Vizepräsident des EVW Prof. Dr. Klaus-Jürgen Grün mit Dr. Jochen Biedermann, Gründer und CEO von Blockchain (Asia) Ltd., Dr. Lothar Weniger von der University of Maryland, dem Kommunikationsberater Dr. Matthias Wühle und Harald Vajkonny, Direktor des Frankfurt Free Software and Culture Institutes e.V (FFSCI). über Wunsch und Wirklichkeit des Einsatzes von Künstlicher Intelligenz. Moderiert wurde die Diskussion von Paul van de Wiel.

Im Zentrum der Diskussion stand die Frage, was man unter „Künstlicher Intelligenz“ (KI) eigentlich verstehe, denn unter diesem Schlagwort, das mehr ein Marketingbegriff ist, werden höchst verschiedene Vorstellungen subsumiert, die meist alle nicht den Kern dessen treffen, was Wissenschaft und Forschung allgemein darunter definieren. Grün sieht dieses
Definitionsproblem von KI besonders in Bezug auf dessen ethische Implikationen. Denn wer für sich den Begriff „ethisch“ verwende, wolle letzten Endes Kontrolle ausüben, so Grün.

KI-Algorithmen statt KI

Lieber würde er daher von „KI-Algorithmen“ sprechen. Und ein Algorithmus sei letzten Endes nichts weiter als ein Kochrezept. Oder noch anders ausgedrückt, eine Verwendung von Statistiken, wie Vajkonny ergänzt, der KI daher eher als „High Performance Statistics“ bezeichnen würde. So sieht es auch Weniger: alle ökonomischen Modelle basieren auf Statistik. Die Frage, die sich dabei stellt, ist jedoch, ob „High Performance Statistics“ tatsächlich alle Anwendungsbereiche erfasst. Genau das bezweifelt Biedermann. Neuronale Netzwerke seien beispielsweise weit mehr als intelligente statistische Anwendungen.

Panzer, die auf Freunde schießen

Vajkonny berichtet von Experimenten, bei denen KI massive Defizite aufgezeigt hätte.
Roboter-Schützen, die dazu trainiert wurden, freundliche von feindlichen Panzern zu
unterscheiden, zielten plötzlich ausschließlich auf freundliche Panzer, weil sie zu dem
Zeitpunkt die Sonne im Hintergrund hatten. Dass die Sonne nur eine Zufallsvariable war,
vergaßen die Programmierer mit einzukalkulieren. Biedermann berichtet von ähnlichen
Problemen bei der Bilderkennung: Rechner benötigen Millionen von Hunde- und
Katzenbildern, um mit einem geringen Fehlerquotienten Hunde von Katzen unterscheiden zu können. Lernenden Kleinkindern genügen hingegen schon wenige Hunde- und Katzenbilder, um zu weitaus besseren Ergebnissen mit geringeren Fehlerquoten zu gelangen. Bereits beim sensorischen Input der Erstverarbeitung würde man das Feld der Statistik verlassen, einweiterer Grund, warum die Bezeichnung „High Performance Statistics“ ungenügend sei.

Die semantische Repräsentanz von Sprache

Zu guten Ergebnissen sei man hingegen schon bei nichtlinearen Lernverfahren gekommen.
Biedermann zeigt dies am Beispiel des österreichischen Start-Up-Unternehmens cortical.io.
Dieses entwickelte eine semantische Repräsentanz von Sprache: Haus, Wohnung und Hütte
sind beispielsweise verwandte Begriffe, die eine simple Google-Suche nicht berücksichtigen
würde. Cortical.io wende diese semantische Suche im Recht an, in dem alle Gesetze und
Rechtstexte inklusive Kommentare nach bestimmten Begriffen semantisch untersucht
werden.

Das sei beispielsweise praktisch bei Due Diligence-Prüfungen, wenn Tausende von
Mietverträgen nach Sonderklauseln durchsucht werden müssen. Weniger kennt ähnliche KI-
Modelle aus der Finanzwirtschaft, wo sie als Sentiment-Analyse bekannt sind. Das seien
Programme, die z.B. erkennen können, welche Aktienkursbewegungen welchen Ereignissen
zugeordnet werden können.

Kann ein Rechner Regelveränderungen vornehmen?

Die Frage, die sich nun stellt, ist, ob der Rechner eigene Regelveränderungen vornehmen
kann. Hat der Roboter-Schütze, der den freundlichen Panzer abgeschossen hat, bereits eine
Regel verletzt oder hat er lediglich von einer impliziten Regel nichts gewusst? Das
Herauszufinden ist nicht trivial. Vajkonny berichtet an dieser Stelle von einem weiteren
Experiment, bei dem man mit Hilfe eines Programmes versucht hat, herauszubekommen,
welchen Einfluss Drogen auf den Schreibstil von Menschen haben können. In Wirklichkeit
hat das Programm nur den Einfluss der Konsumbedingungen wiedergegeben. Das Programm selbst hat dabei jedoch alles richtig gemacht, nur die menschliche Interpretation daran war falsch.

Warum versagen Computer in der Wüste? Haben Maschinen ein Ich-Bewusstsein?
Antworten auf diese Fragen erhalten S
ie im zweiten Teil dieser Diskussion.

 

Almut Weber
Die Politikwissenschaftlerin Almut Weber koordiniert an der IHK Darmstadt die Arbeit der überregionalen Standortinitiative PERFORM – Metropolregion FrankfurtRheinMain, unter anderem auch bei den Bestrebungen zur Entwicklung zur „Digitalen Modellregion“. Über ihre überregionale Arbeit pflegt sie auch den Austausch zur benachbarten Metropolregion Rhein-Neckar.