Ethikbeauftragten ihres Wohngebiets? Wird die Programmierung des Algorithmus beim Fahrzeughersteller liegen? Wird es verschiedene Algorithmen für verschiedene Fahrzeugklassen geben? Für verschiedene Automarken? Für verschiedene Länder? Wird die Politik der Wirtschaft die Entscheidung aus der Hand nehmen und, gegebenenfalls nach einer Volksabstimmung, einen bestimmten Algorithmus anordnen? Wird es einen UN-Beschluss geben? Einen Schwarzmarkt?
Es gehört zum Wesen von Technik, Standardisierungen zu schaffen. Das drückt sich schon im begrifflichen Ursprung aus: téchne als Methode. Technik im engeren Sinne eines Apparates oder technischen Systems überführt Handlungsweisen aus dem Bereich der individuell variablen Anwendung in den Modus des Expliziten, Verbindlichen, Wiederholbaren. Diese technische Harmonisierung geschieht mehr oder weniger konsensfrei, weil die Details des Wenn-Dann-Verfahrens – wenn Metallbohrung, dann geringere Drehzahl, wenn Blech, dann Vorbohren – nicht mehr diskutiert werden, was gelegentliche Nachjustierungen und Improvisationen keineswegs ausschließt. Die Standardisierung erfolgt auch, wenn Fahrverhalten und andere Prozesse, die bisher individuell und situationsbedingt geregelt wurden, automatisiert werden. Allerdings ist sie dann keine intrinsisch technische mehr in dem Sinne, dass Richtschnur wird, was sich pragmatisch bewährt hat. Es handelt sich um eine ethische Standardisierung, in der sich weniger der Stand der Ingenieurskunst ausdrückt als das moralische Selbstverständnis der Gesellschaft. Die damit einhergehende Konsensfrage, die Frage nach den Richtlinien der Normierung stellt sich weniger dramatisch, aber gleichfalls prinzipiell, wenn etwa dem automatisierten Staubsauger gesagt werden muss, ob ein Marienkäfer oder eine Spinne als Lebewesen verschont oder als Form von ‚Dreck‘ eingesaugt werden soll. Auch wenn diese Automatisierung personalisierbar ist, sie standardisiert Situationen und überführt bisher spontane Handlungsweisen in verbindliche Vorschriften: Wenn Käfer, dann Umfahren, wenn Spinne, dann Einsaugen.
Den Todesalgorithmus für Kleinsttiere wird man den Staubsaugerbesitzern überlassen und den Tierschützern, die gegebenenfalls die Modelle mit Tötungsoption boykottieren werden. Wenn es um Menschenleben geht, ist das Prinzipielle ungleich dramatischer. Die naheliegende Ansicht besagt, dass die ethische Ausstattung eines Autos nicht dem Hersteller überlassen werden kann. Andernfalls wird dieser sich mit dem moralisch bedenklichen Versprechen, der Insassenrettung Priorität zu geben, einen Wettbewerbsvorteil zu verschaffen suchen und damit andere Hersteller zur gleichen Zusicherung drängen. Eine staatliche Regelung ist allerdings nicht weniger problematisch. Das zeigt die Warnung der erwähnten Ethikkommission vor einem „Paternalismus des Staates, bei dem eine ‚richtige‘ ethische Handlungsweise vorgegeben wird“. Aber wie soll die Regelung erfolgen, wenn sie nicht mehr, wie es das Wertebild des Humanismus vorsieht, dem Individuum überlassen werden kann? Die Antwort bleibt vorerst unklar. Empirisch belegt hingegen scheint, dass die meisten Befragten zwar dafür plädieren, im Ernstfall das Leben der Fahrzeuginsassen zu opfern, um das Leben anderer zu retten, selbst aber kein Auto kaufen würden, das Partei für die anderen ergreift.13
Opferlogik
So groß das ethische Dilemma der Todesalgorithmen auch ist: Ihnen nicht die Regie zu überlassen, wäre auch keine Lösung. Noch unmoralischer, als kühl und herzlos das Leben eines Kindes gegen das eines Rentners abzuwägen, wäre es, eine Technologie zu blockieren, die Zehntausende von Unfalltoten pro Jahr verhindern könnte. So jedenfalls die Argumentation der Befürworter des autonomen Fahrens und die Rechnung des Utilitarismus. Die Statistik ist das Totschlagargument der neuen Technologien, ganz gleich welche ethischen Dilemmata diese mit sich bringen. Selbst militärische Drohnen und autonome Waffen werden schließlich genau damit gerechtfertigt: weniger Kollateralschäden um den Preis ihrer konkreten Akzeptanz.
Die Statistik liefert zugleich das Argument dafür, im Ernstfall immer die Fahrzeuginsassen zu opfern. Zwar trifft diese die geringste Schuld an einem Unfall, wenn sie nur über den Algorithmus vermittelt am Straßenverkehr teilnehmen. Zwar werden, insofern Algorithmen verlässlicher operieren als Menschen, gerade jene die Unfälle verursachen, die nicht im Auto sitzen: das Kind, das dem Ball hinterher läuft, die Fußgängerin am Handy, der Fahrradfahrer, der das Gleichgewicht verliert. Aber es gilt zu unterscheiden zwischen der konkreten Schuld, die aus menschlichem Fehlverhalten resultiert, und jener generellen Schuld, die aus dem Technologiegebrauch folgt. Denn die eigentlichen Mobilitätsrisiken werden nicht von Fußgängern oder Fahrradfahrern erzeugt, sondern vom Autoverkehr, der schwere Gegenstände so schnell durch den Raum bewegt, dass ein Zusammenstoß damit tödlich sein kann. Auch wenn die Anzahl an Unfallopfern durch selbstfahrende Autos gesenkt wird, das Todesopfer an sich ist eine Folge des Autoverkehrs. Verlangt die neue Technologie eine Vorentscheidung zur Ausweichstrategie des Fahrzeuges im Ernstfall, wäre es also durchaus angemessen, das Opfer den Nutznießern des Mobilitätsrisikos aufzubürden.
Die Grundeinstellung der Fahrzeuginsassenopferung wäre ein symbolisches Opfer, das die Gesellschaft im Ausgleich für die Segnungen der neuen Technik all jenen abverlangt, die diese Technik nutzen. Es wäre in gewissem Sinne zugleich ein technisch basiertes Update jenes wirkmächtigen Konzepts, wonach das Individuum erst dann zu sich selbst findet, wenn es freiwillig für das Vaterland – als das Höhere, in das der Einzelne aufgeht – in den Krieg zieht. Der Unterschied: Man verschreibt sich nun nicht einem Mechanismus, der auf Zerstörung aus ist, sondern einer Technologie, die auf Kollisionsvermeidung zielt, was das Risiko, tatsächlich ein Opfer bringen zu müssen, auf eine akzeptable Höhe senkt. Die Vorbereitung der Gesellschaft auf diese Opferbereitschaft wird im Kontext einer anderen, ebenfalls mehr Sicherheit versprechenden und ebenfalls nicht unfallfreien Technologie erfolgen, die viel näher als das völlig autonome Auto vor ihrer generellen Einführung steht: die flächendeckende automatisierte Gesichtserkennung an öffentlichen Plätzen zur Bekämpfung von Kriminalität und Terrorismus. Auch bei sinkender Fehlerquote werden dieser Technologie Unschuldige zum Opfer fallen, was insgesamt aber selbst diese nicht davon abbringen wird, dem Einsatz solcher Sicherungssysteme zuzustimmen.
Eine andere Lösung wäre die Abstimmung: die Behandlung des ethischen Dilemmas mit quantitativen Mitteln. Was allerdings die einen als Basisdemokratie begrüßen würden, wäre den anderen als Maximierungskalkül Objekt der Kritik. Denn schon die Abstimmung, ob das Prinzip der deontologischen Ethik zur Disposition stehen und im Ernstfall eine utilitaristische Aufrechnung von Menschenleben stattfinden sollte, würde – als quantitatives Verfahren der Entscheidungsfindung – dem Vermessungsprinzip des Utilitarismus den Vorrang geben. Gewinnen würde nicht das beste Argument, sondern die größte Zahl, das also, was am meisten Zustimmung erringt und damit, wenn nicht Glück, so doch Zufriedenheit mit dem Ergebnis maximiert. Zieht man dann noch in Betracht, dass die Algorithmen, über deren Programmierung abzustimmen ist, letztlich nichts anderes sind als komplexe Rechenoperationen, lässt sich das Ganze, systemübergreifend, als eine bizarre Rückkoppelung des Mathematischen beschreiben: Die ethischen Probleme, die aus dem Erfolg des Systems Mathematik resultieren, werden selbst wiederum in mathematischer Form gelöst.
Angesichts der nicht nur durch die Moral Machine bestätigten regionalen Unterschiede liegt es freilich nahe, die Algorithmen unterschiedlich zu programmieren und die Entscheidung oder eben Abstimmung dazu regional vorzunehmen. In der Folge könnten, je nach moralischem Selbstverständnis und Mehrheitsentscheid, bestimmte Länder die Selbstopferung vorschreiben, andere streng utilitaristisch vorgehen und wieder andere immer der Rettung der Insassen den Vorrang geben. Natürlich ließen sich die Algorithmen per GPS leicht auf die territorial jeweils geltenden Normen rekodieren, um die unterschiedlichen Wertvorstellungen national durchzusetzen. Aber soll VW fern ab vom deontologischen Deutschland in südlichen Ländern tatsächlich autonome Autos anbieten, die vor allem das Leben von „higher status characters“ und Haustieren schützen oder das der heiligen Kuh? Das wäre so befremdend, wie wenn Google in China die Welt so darstellen würde, wie es den dortigen Machthabern genehm ist. Hieße die regionale Entscheidung nicht, den moralischen Normen den Anspruch einer universalen Geltung und damit ihre moralische Rückversicherung zu entziehen?
Angemessener erscheint da der Vorschlag, im Ernstfall einen Zufallsgenerator über die anzuwendende Norm entscheiden zu lassen. Der Verstoß gegen das Aufrechnungsverbot von Menschenleben wäre dann durch dessen Variabilität getilgt. Die Entscheidung der künstlichen Intelligenz nähert