Roberto Simanowski

Todesalgorithmus


Скачать книгу

2016 erklärte, immer die Insassen Vorrang.7 Zum anderen findet man den Ansatz, Algorithmen nach Überlebenschancen reagieren zu lassen, auch im akademischen Diskurs, wenn, in Anlehnung an Asimovs drei Robotergesetze, folgende Grundsätze aufgestellt werden: „1. Ein automatisiertes Fahrzeug sollte nicht mit einem Fußgänger oder Radfahrer zusammenstoßen. 2. Ein automatisiertes Fahrzeug sollte nicht mit einem anderen Fahrzeug zusammenstoßen, es sei denn, das Vermeiden einer solchen Kollision steht mit dem ersten Gesetz in Konflikt. 3. Ein automatisiertes Fahrzeug sollte mit keinem Objekt in der Umgebung zusammenstoßen, es sei denn, das Vermeiden einer solchen Kollision steht mit dem ersten oder zweiten Gesetz in Konflikt.“8

      Diese Asimov-Variation verkehrt die Prioritätensetzung von Mercedes-Benz und liefert immer zuerst die Insassen der Gefahr aus, indem die Vermeidung einer Kollision mit Fußgängern, Radfahrern und anderen Fahrzeugen Vorrang erhält vor der Kollisionsvermeidung mit einer Mauer. Das richtet sich nicht zuletzt gegen Positionen, wonach das automatisierte Fahrzeug zuerst die Kollision mit einem Verkehrsteilnehmer suchen sollte, der die größeren Chancen hat, den Aufprall zu überleben. Ein solcher Vorschlag klingt zwar plausibel, wenn dann der Mini zugunsten des SUVs verschont bleibt, offenbart jedoch seine moralische Fragwürdigkeit, wenn so der Fahrradfahrer mit statt der ohne Helm zum Kollisionsziel wird.9

      Die Asimov-Variation formuliert das Dilemma in quasi-deontologischer Form, indem sie nicht die Tötung als Mittel der Lebensrettung rechtfertigt, sondern eine Abstufung der Pflicht, nicht zu töten – beziehungsweise Kollisionen zu vermeiden – vornimmt. Ob das eine akzeptable Lösung im Rahmen der deontologischen Ethik ist, bleibt sicher fraglich. Gewiss aber ist es eine bedenkenswerte Alternative zum Modus der Enthaltung, der darauf hinausläuft, das Auto im Ernstfall sowenig vom Wege abzubringen wie die Straßenbahn im Trolley-Fall.

      Die Hersteller selbst entziehen sich noch der eigentlichen Diskussion und konzentrieren sich ganz auf technische Herausforderungen oder gesetzliche Rahmenbedingungen. Sie bewegt nicht das kantische Instrumentalisierungsverbot, sondern die Aussicht, KI-Systemen den Status einer juristischen Person zu geben, vergleichbar den Klöstern im Mittelalter und der aktuellen Regelung bei Unternehmen und Vereinen. Dies würde erlauben, Roboter – und Algorithmen als deren körperlose Verwandte – im Fall einer Funktionsstörung und Gefährdung ihrer Umwelt direkt für ihr Handeln haftbar zu machen, und jene entlasten, die diese Roboter bauen und einsetzen. Natürlich kann man eine KI schlecht zur Verantwortung ziehen oder mit der Androhung von Gefängnis- und Todesstrafe – in Form einer temporären oder endgültigen Abschaltung etwa – zu gesetzeskonformem Handeln zwingen. Aber man kann Geldstrafen verhängen, die aus der gesetzlich vorgeschriebenen Haftpflichtversicherung dieser KI zu begleichen sind. Das wäre, so die Befürworter, pragmatischer als die viel zu komplizierte und oft kaum zu klärende Frage, wer im komplexen Produktionsund Einsatzprozess der KI die Verantwortung für einen Schadensfall übernehmen soll. Die Gegner kritisieren die darin enthaltene Akzeptanz des Black-Box-Paradigmas und Unberechenbarkeitsprinzips und bestehen auf der Rekonstruktion von Verantwortlichkeiten.10

      Die einfachste Variante, das beschriebene ethische Dilemma zu lösen, besteht darin, es zu leugnen. Die Argumentation lautet dann: Wenn selbstfahrende Autos im Ernstfall Zeit für die Entscheidung über Leben und Tod haben, haben sie auch Zeit, rechtzeitig zu bremsen, zumal sie ja streng zum risikoarmen Fahren programmiert werden. Dieser Ausblick ist so schön und betrügerisch wie die Happy End-Variante im Film: Die Passagiere überrumpeln rechtzeitig die Terroristen, das Mädchen kann kurz vor dem Drohneneinschlag noch gerettet werden, das selbstfahrende Auto stoppt gerade rechtzeitig vor dem Jungen, der seinem Ball hinterherrennt. Dieses Szenarium ist erst glaubhaft, wenn es bis zu seiner panoptischen Konsequenz gedacht wird. Die Annahme, dass die Technik so gut sein wird, dass es keine Unfälle mehr gibt, setzt voraus, dass nur noch Technik am Verkehr teilnimmt. Das ließe sich leicht dadurch erreichen, dass auch alle Fahrradfahrer und Fußgängerinnen über ein Verortungssignal vernetzt sind und so alle Bewegungsprozesse sich genau beobachten lassen und Warnsignale oder Bremsbefehle ausgelöst werden können, wenn zwei Positionskoordinaten das Abstandslimit unterschreiten. Eine Fiktion, die durchaus in der Logik der technischen Möglichkeiten liegt.11

      Glaubhaft ist auch der Einwand, dass der Bordcomputer gar keine Zeit haben wird, die vorliegenden Handlungsoptionen wirklich zu bedenken und sich bewusst für eine zu entscheiden. In diesem Fall vermeidet man das Dilemma nicht durch Über-, sondern Unterschätzung der technischen Fähigkeiten. Beides befriedigt nicht, denn beides blockiert eine Diskussion, die zu führen ist, und zwar unabhängig von pedantischen Zweifeln daran, dass die Technik den für das Dilemma nötigen Entwicklungsstand schon erreicht habe. In diesem Sinne sei zur Vermutung ermuntert, dass, in Zeiten von G6-Internet und Quantencomputing, das Auto einmal schneller wird Daten verarbeiten als die Schwerkraft überwinden können. Dies wird ein Wissen generieren, das die Abstraktheit des Weichensteller-Dilemmas durch jene Komplexität ersetzt, die in der Moral Machine angelegt ist.

      Gehen wir von folgendem Fall in einer nicht allzu fernen Zukunft aus: Ein Junge rennt mit einem Drachen auf die Straße, direkt vor einen autonom fahrenden Mercedes. Der Bordcomputer weiß durch Gesichtserkennung und Data Mining im Internet in Sekundenbruchteilen, dass die Ärzte der Frau am Straßenrand noch eine Lebenserwartung von zehn Monaten geben, dass der Fahrradfahrer neben der Frau zwei kleine Kinder hat, dass ein weiterer Passant und potenzielles Kollisionsziel das einzig verbliebene Kind seiner pflegebedürftigen Mutter ist und dass die Ausweichrichtung, in der sich kein Mensch befindet, über das gebrechliche Brückengeländer auf ein Bahngleis in 50 Meter Tiefe führt. Der Bordcomputer, der künftige Generationen sowie Tiere in die utilitaristische Schmerzbilanz einbezieht, kennt natürlich auch den ökologischen Fußabdruck der Beteiligten (die Frau ist keine Vegetarierin, der Fahrradfahrer Vielflieger) sowie ihre Likes, Shares und Kommentare in den sozialen Netzwerken …12

       Verfassungswidrigkeit

      Welche Entscheidung auch immer der Computer trifft, welche Rolle auch immer die Erkenntnisse aus dem Internet dabei spielen mögen, die Verfassungswidrigkeit beginnt nicht erst mit der Lebenswertanalyse im Gefahrenmoment. Sie besteht in der Ausstattung des Algorithmus mit bestimmten Parametern der Klassifizierung – und das Klassifizieren liegt jedem Algorithmus im ‚Blut‘ – sowie einer bestimmten Wenn-Dann-Logik, die dieser im Ernstfall abarbeitet. Manche Autos mögen daher dem Kind, das den Unfall verursacht, nicht ausweichen, erst recht nicht, wenn es ein Jugendlicher ist, der Pokémon Go auf seinem Handy spielt, und wenn im Auto selbst Kinder sitzen. Andere Autos mögen zielsicher auf die Frau zusteuern, die nicht mehr lange zu leben hat. Wieder andere aufs Brückengeländer. Der Gesetzesverstoß liegt in der Vorentscheidung. Denn sie erfolgt, anders als die reflexhafte Reaktion eines menschlichen Fahrers, die kaum als Entscheidung zu bezeichnen ist, mit Bedacht und kaltem Blut.

      Die Entscheidung, die der Algorithmus eines selbstfahrenden Autos treffen wird, ist aus ethischer Perspektive immer schlechter als die eines Menschen, weil sie prostatt reaktiv erfolgt. Es hat seinen Grund, dass solche Fragen nach dem Verhalten im hypothetischen Ernstfall nicht Teil der Fahrprüfung sind. Es kann kein richtiges Verhalten abgefragt werden, weil ein solches nicht festgelegt werden darf. Beim selbstfahrenden Auto aber muss die Entscheidung über Leben und Tod lange vor Antritt der verhängnisvollen Fahrt getroffen werden, vielleicht an einem schönen Sommertag im Park, da man am Smartphone die Elemente des neuen Autos aussucht und nach Farbe und Polsterung per Fingerklick auch den gewünschten Todesalgorithmus bestimmt. Es ist die Automation der Entscheidung, die Entscheidungen autonomer Autos unmoralisch macht.

      Das Dilemma ist symptomatisch für die neuen Technologien: Sie bringen ethische, psychologische und politische Fragen mit sich, die noch gestern völlig unverständlich gewesen wären. Das betrifft die Frage der Vorbeugehaft, wenn per „predictive analytics“ eine Straftat aufgedeckt wird, die noch gar nicht begangen wurde. Das betrifft die Frage der Informationspflicht, wenn die DNA-Analyse eine unheilbare tödliche Krankheit voraussagt. Es betrifft die Entscheidung über Leben und Tod, die bisher dem situativen individuellen Reflex überlassen war und nun mit gesellschaftlicher Zustimmung festgelegt werden muss. Wer wird die Todesalgorithmen in unseren Autos programmieren? Werden die Fahrzeughalter, so wie ja auch bisher im Ernstfall,