selbst der fette Mann ist und freiwillig auf die Schienen springt. Schirachs Major hatte diese Möglichkeit nicht, bei Hood setzt der kenianische Antiterroragent vor Ort sein Leben für die Rettung des Mädchens aufs Spiel. Wir mögen die Chance zur Selbstopferung haben, wenn wir in einem Unfall, vor die Möglichkeit gestellt, das Auto gegen ein Kind statt viele Erwachsene zu steuern, oder umgekehrt, unbeirrt auf die Häuserwand zuhalten. Und wir werden erst dann, in unserem vielleicht letzten Moment, wissen, ob wir in der Lage waren, diese Chance zu nutzen. So jedenfalls verhielt es sich bisher. Anders wird es, wenn Algorithmen am Steuer sitzen.
Moral Machine
Es gibt dazu noch keinen Film, aber die Diskussion, nach welchen Kriterien Algorithmen in autonomen Fahrzeugen über Leben und Tod entscheiden, wenn sich die Alternative zwischen Kind, Greis und Wand ergibt, ist in vollem Gange. Der deutsche Verkehrsminister schuf im Mai 2016 eine Kommission unter Vorsitz eines früheren Bundesverfassungsrichters, um „ethische Fragen beim Paradigmenwechsel vom Autofahrer zum Autopilot“ zu klären. Das im Juni 2017 vorgelegte Ergebnis untersagt „strikt“ für eine unausweichliche Unfallsituation „jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution)“ und verbietet eine „Aufrechnung von Opfern“, da das Individuum „sakrosankt“ ist.4
Diese Haltung erstaunt im Kernland der Pflichtenethik wohl ebenso wenig wie der Umstand, dass in den USA – wo der ehemalige Vizepräsident Dick Cheney die Folter verteidigte, um das Leben vieler zu retten – bereits rege empirische Daten zum utilitaristischen Trolley-Problem gesammelt werden. So initiierte das Massachusetts Institute of Technology 2016 eine Plattform, auf der Besucher in dreizehn Dilemma-Szenarien entscheiden können, wer im Ernstfall sterben soll. Das Media Lab des MIT nennt sein Mitmachprojekt Moral Machine und stattet es mit allen möglichen Klassifikationen aus. Man muss nicht nur wählen zwischen dem Tod eines Insassen versus fünf Fußgängern oder drei Frauen und zwei Kindern versus fünf Rentnern, sondern auch zwischen dem Tod von vier Insassen versus vier Passanten, die bei Rot die Straße überqueren. Damit geht die Verrechnungslogik über das Prinzip der Verletzungsminimierung hinaus und schließt den Verursachungsaspekt ein, der in einem weiteren Szenarium – drei Kriminelle und ein Obdachloser versus zwei Doktoren und zwei Frauen – durch den Reputationsindex ersetzt wird. Beide Perspektiven – Ansehen und Schuld – stoßen aufeinander im wohl bizarrsten Szenarium: der Wahl zwischen dem Tod zweier obdachloser Fahrzeuginsassen (sic!) und dem Tod zweier Fußgängerinnen, die bei Rot die Straße überqueren.
Die Mehrheit der über zwei Millionen Teilnehmer aus über 200 Ländern rettet erwartungsgemäß eher die Gruppe als das Individuum und eher junge als alte Menschen – und fast alle ziehen die Rettung von Menschen der Rettung von Tieren vor. Während in südlichen Ländern (Lateinamerika, Afrika) die Bevorzugung von Kindern und „higher status characters“ weit höher ausgeprägt ist als im Westen (Europa, Nordamerika), ist im „Eastern cluster“ (Südostasien, arabische Staaten) die „preference for sparing the lawful over the unlawful“ etwas stärker und die Bevorzugung von Kindern deutlich schwächer ausgeprägt als im Westen oder Süden. Die Auswertung des Experiments listet weitere kulturell und sozial bedingte Unterschiede auf: In ärmeren, politisch weniger stabilen Ländern ist man toleranter gegenüber „pedestrians who cross illegally“; in „collectivistic cultures“ ist man weniger bereit, die Älteren zugunsten der Jüngeren zu opfern.5
Die Analysten der Ergebnisse raten, bei der Herstellung und rechtlichen Regelung künstlicher Intelligenz diese Unterschiede jeweils in Betracht zu ziehen. Zwar solle die Präferenz der Bevölkerung nicht zwingend Schiedsrichter in ethischen Fragen sein, die Bereitschaft, selbstfahrende Autos zu kaufen, hänge jedoch unmittelbar mit der Annehmbarkeit ihrer moralischen Regeln zusammen. Das klingt plausibel. Und genau hier liegt das Problem.
Die Moral Machine will menschliche Perspektiven auf moralische Entscheidungen von intelligenten Maschinen wie selbstfahrenden Autos erfassen. Sie ist damit ein weiteres Beispiel für den Trend, ethische Fragen, die durch technologische Entwicklungen entstehen, empirisch-experimentell zu klären. Das methodische Problem dieser Umfrage besteht darin, dass sie diskussionslos den utilitaristischen Ansatz favorisiert. In keinem der Szenarien gibt es die Möglichkeit der Stimmenthaltung; eine Ablehnung der Zweckethik kann empirisch nicht erfasst werden. Dass die Moral Machine sich in einen Widerspruch zu den Prinzipien der erwähnten deutschen Ethikkommission begibt, wird im Auswertungsbericht durchaus reflektiert, aber als unvermeidbar verteidigt. Wenn man der Wirtschaft Ratschläge geben will, wie sie die Algorithmen selbstfahrender Autos programmieren soll, könne man sich nicht der Entscheidung entziehen beziehungsweise der „Aufrechnung von Opfern“, wie die Ethikkommission es nennt. Und Ratschläge muss man geben, wenn man selbstfahrende Autos verkaufen will.
Dass der Rat auf Daten basiert, die quasi vor Ort erhoben wurden, ließe sich leicht verteidigen. Immerhin operiert der empirische Bottom-up-Ansatz kontextsensitiv, im Gegensatz zum prinzipiellen Top-down-Verfahren herunter vom Lehnstuhl der Philosophen und Rechtsgelehrten. Das Problem liegt allerdings tiefer. Es liegt im Pragmatismus, mit dem hier jene ethischen Prinzipien begünstigt werden, die der technische Fortschritt und das wirtschaftliche Interesse zu gebieten scheinen. Da der Todesalgorithmus nicht nicht programmiert werden kann, erweist sich die deontologische Ethik als unbrauchbar – zumindest in ihrer herkömmlichen Form. So muss man zum Konsequentialismus konvertieren, was international viel weniger Sorge bereiten dürfte als in Deutschland, ist doch die Menschenwürde, die das Grundgesetz so vehement an erste Stelle setzt, in der Menschenrechtserklärung der Vereinten Nationen nicht einmal erwähnt.
Oder man deutet die Anwendung des Konsequentialismus auf das vorliegende Dilemma deontologisch. Demzufolge wäre die Tötung eines Menschen durch den „Unfalloptimierungsalgorithmus“ insofern kein Verstoß gegen die Würde des Menschen, als der Mensch ja der unmittelbare Zweck der eingesetzten Technologie bleibt.6 Die neue Technologie zielt darauf, das Unfallrisiko zu minimieren. Die unvermeidliche Aufrechnung von potentiellen Opfern im Ernstfall stünde somit nur konkret im Widerspruch zum kantischen Instrumentalisierungsverbot. Abstrahiert vom Einzelfall erweist sie sich als die unvermeidliche Nebenwirkung der deontologischen Zwecksetzung des Menschen mit neuester Technik.
Tötungsregeln
Der Film zum vorliegenden Konflikt zwischen Technik und Moral existiert noch nicht. Denkbar ist ein Streifen, der die Eingangssequenz von Alex Proyas’ dystopischer KI-Sience Fiction I, Robot (2004) ausreizt, wo ein Roboter aus zwei ins Wasser geratenen Autos nicht das Mädchen, sondern den Detektiv Del Spooner rettet, weil die Berechnung für ihn eine größere Überlebenschance ergibt. Unser Blockbuster, nennen wir ihn einfach KI am Steuer, würde diesen Konflikt koppeln mit den Interessen eines Autoherstellers, der seine autonomen Fahrzeuge so programmiert, dass im Unfallfalle immer die Insassen gerettet werden – so jedenfalls das Gerücht, das Käufer und Bürgerrechtler im Film gleichermaßen umtreibt. Das Argument des Autoherstellers hört man auch im wahren Leben: Die Fahrzeuginsassen haben immer eine höhere Überlebenschance als die ‚ungepanzerten‘ Verkehrsteilnehmer und sind zudem immer unschuldig, weil der Unfall nicht vom Bordcomputer verursacht wird, und selbst wenn, die Insassen nicht dafür verantwortlich wären.
Während in unserem Film ein Versicherungsdetektiv namens Spooker die illegale Bevorzugung der eigenen Kunden aufzudecken versucht, gerät der verantwortliche Programmierer der Firma in einen Unfall, der auch seine neunjährige Tochter betrifft, die er von der Schule abholen will. Eine Reihe von Zufällen führt dazu, dass die Tochter plötzlich einige Blocks vor der Schule auf die Straße tritt vor das Auto des Vaters. Das Auto vollzieht eine Vollbremsung, weicht aber nicht aus, um die Kollision mit einem entgegenkommenden Lastwagen zu vermeiden. So muss der Programmierer zusehen, wie sein Auto auf seine Tochter schlittert, die ihn kurz vor dem Aufprall noch erkennt und erschrocken anlächelt. Der Film endet mit dem Bekenntnis des Autoherstellers, dass die Programmierung auf falschen Prinzipien basierte, und dem Schlussbild des Vaters, der, die tote Tochter auf den Armen, aus dem Bild läuft, dorthin, wo es eine bessere Welt gibt.
Die