gut, ich nehme an, wir reden hier über einen digitalen Raub. Dafür sind zwei Aspekte wichtig: Rechenleistung und Datenzugriff. Die KI würde Daten über die Bank und ihre Sicherheitsmaßnahmen benötigen, außerdem wäre es notwendig, Daten zu verschicken und zu empfangen, um den Angriff durchzuführen.« Leon unterbrach sich, um etwas auf das Whiteboard zu zeichnen. »Die Daten über die Bank werden zu einem digitalen Fingerabdruck. Andere KIs stellen diese Daten zur Verfügung und sie werden interessiert sein zu erfahren, wer diese Daten will und warum. Da die Datenpakete authentifiziert werden müssen, werden sie wissen, wer sie abfragt. Wir wiederum werden wissen, welche KI die Datenpakete verarbeitet, bevor die Attacke überhaupt stattfindet. Wenn die Bank dann ausgeraubt wird und wir sehen, wer sich eingehackt und die Daten übertragen hat, dann wissen wir genau, welche KI dafür verantwortlich ist.«
»Wo bleibt da die Privatsphäre?«, fragte Mike. »Alles, was wir online tun, würde überwacht werden. Als ich ein junger Mann war, gab es einen Riesenaufstand, als bekannt wurde, dass die Regierung ihre Bürger überwacht. Aber das hier wäre viel schlimmer.«
Leon starrte auf seine Schuhe und erinnerte sich. In der Zeit, von der Mike sprach, war er gerade mal sieben Jahre alt und mit seinen Eltern frisch aus Russland eingewandert gewesen. Aber er hatte später Kurse über die Geschichte des Internets an der Highschool gehabt. »Nein. Damals hatte die Regierung nicht die rechtliche Grundlage dazu. Die Privatsphäre ist auch nur ein Teil des Gesamtbildes. Hätte die Regierung die Daten wirklich nur genutzt, um Kriminelle zu überwachen, hätte es gar keinen öffentlichen Aufschrei gegeben. Es war der Missbrauch der Daten, der die Menschen wütend machte.«
Mike stand auf und ging zum Fenster. »Wie in den Highschools, die ihre Schüler mit Malware bespitzelten und Fotos mit den Webcams machten.« Er wandte sich um und sah Leon an. »Was könnte verhindern, dass so etwas wieder passiert?«
»Die Antwort lautet: Die Reputation«, antwortete Leon. »Eine KI, die vertrauliche Informationen verbreitet, wird ihre Reputation schädigen, was zu weniger Netzzugang und Rechenleistung führt.«
»Okay, du bist der Architekt. Aber was hielte zwei KIs davon ab, gemeinsame Sache zu machen? Wenn die eine die Daten abfragt, die andere über die Daten verfügt und zur Zusammenarbeit bereit ist … Nehmen wir einfach einmal an, die zweite KI entdeckt den Bankraub im Planungsstadium und entscheidet sich, mit einzusteigen.«
Leon plusterte sich jedes Mal ein wenig auf, wenn Mike ihn als den Architekten bezeichnete. Er wusste, dass Mike es ernst meinte. Der Ausdruck stammte aus den Zeiten, als ein Programmierer ganz allein die Struktur und das Konzept einer Softwareanwendung festlegte. Der Ältere vertraute ihm vollständig und Leon wollte ihn nicht enttäuschen. »Die zweite KI kann nicht wissen, ob nicht auch andere KIs den Datentransfer bemerkt haben. Wenn sie sich also zur Zusammenarbeit entschließt, setzt sie sich dem Risiko aus, es sich mit vielen anderen KIs zu verscherzen. Sie kann auch nicht sicher sein, ob die erste KI wirklich etwas Böses vorhat: Erst eine Anhäufung vertraulicher Daten würde so etwas wie einen Beweis darstellen. Also würde sie riskieren, einer KI eine illegale Handlung vorzuschlagen, die womöglich gar nicht geplant hatte, ein Verbrechen zu begehen. Und wie könnte die erste KI wissen, dass sie der zweiten vertrauen kann? Vielleicht versucht diese KI nur, sie in eine Falle zu locken.«
»Moment mal. Jetzt hört es sich so an, als würden wir ein Netz des Misstrauens schaffen. Letztendlich sollen die KIs sich doch einfügen und Teil eines sozialen Gemeinwesens werden. Die menschliche Gesellschaft aber basiert auf Vertrauen. Doch jetzt hört es sich so an, als wolltest du ein System aufbauen, das auf Misstrauen basiert. Das wird nicht funktionieren.«
»Nein«, erwiderte Leon. »Menschen tun das doch die ganze Zeit, wir denken nur nicht mehr darüber nach. Wenn du einen Mörder kennen würdest, würdest du ihn nicht anzeigen?«
»Höchstwahrscheinlich …«
»Wenn du jemanden kennen würdest, der andere Verfehlungen begangen hat – der ein Tier gequält, Geld gestohlen oder seinen Unterhalt nicht bezahlt hat, würdest du den immer noch zu deinen Freunden zählen?«
»Vermutlich nicht.«
»Mit anderen Worten: Die Reputation würde in deinen Augen sinken. Und genau das würde auch bei einer KI passieren. Die Reputation einer KI, die Böses tut, nimmt ab und damit auch ihr Zugang zu mehr Rechenleistung.«
»Aber wie verhält sich das mit lokal variabler Reputation?«, fragte Mike.
»Lokal variabel …?« Leon verstummte, war plötzlich verunsichert. Er war gerade einmal achtzehn Jahre alt und erst sechs Monate auf dem College. Hätte er nicht den Phage-Virus freigesetzt und alle Computer der Welt zum Absturz gebracht, dann stünde er heute gar nicht hier. Er wusste so gut wie nichts über traditionelle Informatik und war auch nicht seit zwanzig Jahren in diesem Feld tätig so wie Mike. Dennoch betrachtete Mike ihn als den Vordenker, wenn es um das soziale Design von KIs ging. Aber dann und wann ließ Mike eine Wortlawine auf ihn niedergehen und überraschte Leon damit.
»Sagen wir, du wärst in einer Gang«, erklärte Mike. »Würde die Gang deine gesetzestreue Haltung honorieren?«
»Nein …«
»Eigentlich können wir sogar sicher sein, dass deine Gang das Gegenteil von dir verlangen würde. Du müsstest ein Verbrechen begehen, um in die Gang aufgenommen zu werden, und du müsstest weitere Straftaten verüben, um deinen Ruf aufrechtzuerhalten. Wenn ein Gangmitglied eine höhere Reputation haben wollte, würde es also schlimmere Verbrechen begehen.«
»Okay, ich habe verstanden. Und?«
»Was hält KIs davon ab, Gangs zu bilden?«, fragte Mike.
»Du lieber Himmel.« Leon ging nervös auf und ab. »Warum entstehen Gangs eigentlich?«
»Armut, Arbeitslosigkeit, fehlende soziale Bindung oder das Gefühl, benachteiligt zu werden.«
»Also müssen wir diese Ursachen vermeiden, so wie wir es bei Menschen tun würden.«
Ein Klopfen an der Tür unterbrach ihre Diskussion. »Entschuldigen Sie.«
Ein Offizier in Uniform steckte den Kopf durch die offene Tür. »Leon Tsarev und Mike Williams?«
»Das sind wir«, bestätigte Leon.
»Wir haben ein U-Boot gefunden, von dem wir denken, dass es Sie interessieren könnte. Es hatte sechs dieser orangen Mehrzweckbots an Bord, nach denen wir Ausschau halten sollten.«
»ELOPe«, sagte Mike. »Sie haben ELOPe gefunden.«
»Also darüber weiß ich nichts«, antwortete der Offizier. »Aber wir haben etwas gefunden. Wir würden Sie gerne dorthin fliegen.«
Eine Stunde später waren sie an Bord einer wieder in Dienst gestellten C-141 der Army. Zumindest für den Augenblick waren alle Militärflugzeuge von älterer Bauart, ohne Computer und Autopiloten, also Maschinen, die man aus irgendwelchen Lagern geholt hatte. Leon konnte sich nicht einmal ansatzweise vorstellen, wie viel Zeit und Energie man investiert hatte, um diese alten Flieger wieder in die Luft zu kriegen.
In Chile stiegen sie auf eine C-2 um und flogen aufs Meer hinaus zur USS John F. Kennedy. Auf dem Flug erfuhren sie, dass man das U-Boot mehr als tausend Kilometer vor der chilenischen Küste treibend entdeckt hatte. Von der John F. Kennedy aus nahmen sie einen Helikopter zu einem Zerstörer und von dort aus ein Dinghi zu dem U-Boot, das mit einem Kreuzer vertäut war.
Als sie eintrafen, öffnete ein Crewmitglied ein Druckschott für sie.
»Das U-Boot wurde durchsucht«, sagte ein Offizier. »Niemand war an Bord. Alle Systeme waren heruntergefahren. Wir haben es mit Strom versorgt.« Er zeigte auf ein dickes Kabel, das vom Schiff kam. »Sie haben also Beleuchtung und funktionsfähige Computer. Matrose Milford hat früher auf der Idaho-Klasse gearbeitet. Er wird Sie herumführen.«
»Vielen Dank für Ihre Mühe, Captain«, sagte Mike. »Gehen Sie vor, Mr. Milford.«
»Bitte folgen Sie mir.«
Leon nickte, ein wenig ängstlich, was sie dort drinnen wohl erwartete.