Warum schießen Roboter-Schützen auf freundliche Panzer? Diese und andere spannende Fragen wurden am 28. Februar 2020 auf Gründungssitzung der Taskforce „Künstliche Intelligenz“ des Ethikverbands der Deutschen Wirtschaft e.V. (EVW) diskutiert.
Moralphilosoph und EVW-Vizepräsident Prof. Dr. Klaus-Jürgen Grün ging gemeinsam mit Dr. Jochen Biedermann, Gründer und CEO von Blockchain (Asia) Ltd., Dr. Lothar Weniger von der University of Maryland, dem Kommunikationsberater Dr. Matthias Wühle und Harald Vajkonny, Direktor des Frankfurt Free Software and Culture Institutes e.V (FFSCI) unter der Moderation von Paul van de Wiel vor allem der Frage nach, ob der Roboter, der offensichtlich einem Fehler in der Programmierung unterlag, regelkonform gehandelt habe oder nicht.

Haben Maschinen ein Ich-Bewusstsein?

Funktioniert KI also nur innerhalb eines vorgegebenen Rahmens, wie es Weniger vorschlägt? Die Maschine selbst hat kein Ich-Bewusstsein. Sie kann daher nie kreativ und entdeckend sein, hält Weniger fest. Grün zufolge ist das Ich-Bewusstsein für die KI-Definition jedoch nicht hinreichend. Entscheidend sei hingegen die eigenständige Regelveränderung: Ist das System von sich aus in der Lage, das System zu verändern? Dafür benötige man nicht unbedingt ein Ich-Bewusstsein, so Grün. Die Hervorhebung des Selbstbewusstseins des Menschen sei eine typische menschliche Defensivbewegung, ergänzt Vajkonny.

Dabei sei der menschliche Körper ebenfalls nur eine Maschine. Allerdings funktionieren auch Menschen nur innerhalb eines vorgegebenen Rahmens, gibt Biedermann zu Bedenken. Dennoch haben diese sehr wohl ein Selbstbewusstsein, das Maschinen nie erreichen würden. Das selbstfahrende Tesla-Auto sei beispielsweise in der Wüste ohne jede Orientierung und würde nicht weiterfahren können. Wühle stellt fest, dass hier zwei unterschiedliche Denkschulen aufeinandertreffen: Während Vertreter eines harten Determinismus den Begriff des Selbstbewusstseins naturgemäß nicht benötigen, um KI definieren zu können, ist für Verfechter der Willensfreiheit KI gar nicht ohne ein Ich-Bewusstsein darstellbar.

Maschinen können jedoch auch auf eine ganz andere Weise Regeln verändern, so Grün. Auch menschliche Nervenzellen seien bereits chemisch reproduzierbar. In der Maschinenkommunikation entstehe eine eigene Grammatik, die wir nicht verstünden. Ohne diese Fähigkeit bliebe KI lediglich der Versuch, Intelligenz nachzuahmen. Weniger gibt sich hier skeptisch: Rechner können noch nicht einmal auf unerwartete Situationen reagieren, so Weniger. Menschen haben hingegen einen Selbsterhaltungstrieb, der sie auch in der Wüste sinnvolle Handlungen ausüben lässt. Rechner würden hier hingegen versagen. Der Selbsterhaltungstrieb sei jedoch nur durch Ich-Bewusstsein möglich. Biedermann schlägt für diese Situation den Begriff „Künstlich intelligentes Verhalten“ vor.

Gerade dieser Begriff zeige die deutliche Orientierung am Menschen, ergänzt Wühle, oder wie der Vorsokratiker Xenophanes es ausgedrückt hätte: „Wenn Pferde Götter hätten, sähen sie aus wie Pferde“. Wenn wir über KI sprechen, dann so, dass die Technologie immer am Menschen orientiert sein sollte.

Anforderungen an eine KI

Für Biedermann stellt sich die Frage, ob KI überhaupt Menschen intelligenter machen soll. Vajkonny zufolge müsse die Lösung in nicht-spontanen, standardisierten Modellen gesucht werden. Diese können jedoch nur eine Schein-Spontaneität abbilden. Und auch der Mensch selbst sei nur schein-spontan, so Vajkonny.

Während Spontaneität nicht messbar sei, sei Schein-Spontaneität hingegen sogar programmierbar. Auch hier müsse man grundsätzlich zwei Denkschulen voneinander unterscheiden, fordert Wühle, der feststellt, dass Deterministen generell zu geringe Anforderungen an die KI stellten, während diese bei Vertretern von Willensfreiheit eher zu hoch seien, so Wühle. Wer also Bedingungen der KI formulieren wolle, müsse zunächst seinen epistemologischen Ausgangspunkt finden.

Wunsch an die KI-Entwickler

Die Ausgangsfrage, „Was ist ethisch gerechtfertigt?“ könne letztlich nicht beantwortet werden, ergänzt Grün. Ethik wird lediglich dazu verwendet, um Gefahren abzuwehren. Sie basiere auf kulturell geprägten Moralbegriffen. Wir können nicht sagen, was „gut“ ist, wir können lediglich sagen, was für uns „nicht gut“ ist. Man kann aber den Wunsch an die KI-Entwickler formulieren, dass KI nicht dazu da sein könne, dass Menschen durch KI-Anwendungen mehr Macht ausüben könnten.

Inhalte nicht verfügbar.
Bitte erlauben Sie Cookies durch ein Klick auf Akzeptieren.
Almut Weber
Die Politikwissenschaftlerin Almut Weber koordiniert an der IHK Darmstadt die Arbeit der überregionalen Standortinitiative PERFORM – Metropolregion FrankfurtRheinMain, unter anderem auch bei den Bestrebungen zur Entwicklung zur „Digitalen Modellregion“. Über ihre überregionale Arbeit pflegt sie auch den Austausch zur benachbarten Metropolregion Rhein-Neckar.