beständig in Reichweite zu bringen und in einem vierfachen Sinne verfügbar zu machen: Das Unsichtbare soll sichtbar, das Unzugängliche erreichbar, das Unbeherrschbare beherrschbar und das Natürliche nutzbar werden. Beherrschen und Berechnen verwendet Rosa durchweg als Hendiadyoin: »Verfügbarmachung der Welt bedeutet, sie berechenbar und beherrschbar zu machen«.17 Die »Effekte« einer Resonanzbeziehung, für Rosa Ausdruck eines gelingenden Selbst- und Weltverhältnisses, lassen sich dagegen »weder berechnen noch beherrschen«.18 Dieselben Mittel, die der moderne Mensch einsetzt, um sich in der Welt einzurichten, verhindern daher, dass er dieses Ziel erreicht, wenn die Mittel an die Stelle der Zwecke treten.
Für Reckwitz ist die Spätmoderne durch Singularisierung charakterisiert: »Während die industrielle Moderne […] auf der Reproduktion von Standards […] basierte und man von einer ›Herrschaft des Allgemeinen‹ sprechen konnte, ist die spätmoderne Gesellschaft an der Verfertigung von Besonderheiten und Einzigartigkeiten, sie ist an der Prämierung von qualitativen Differenzen, Individualität, Partikularität und dem Außergewöhnlichen orientiert.«19 Reckwitz zeigt damit, dass nicht nur Zahlen, sondern auch Qualitätsunterschiede einen Fetischcharakter annehmen können. Man denke nur an die Bedeutung der ›feinen Unterschiede‹ (Bourdieu) von Produkten und Ereignissen, Reisen und Wohnungseinrichtungen, Ess- und Trinkgewohnheiten, Kleidungsstilen, Film- und Musikgeschmäckern und was sie über Personen aussagen, die sich darüber unterscheiden wollen, indem sie jeweils das Besondere, Einzigartige und Außergewöhnliche suchen. Nicht selten werden aber gerade auch die solcherart zu Scheinsingularitäten fetischisierten Qualitätsunterschiede in Zahlen gemessen: sei es der höhere Preis, den man für ein Tablet auszugeben bereit ist, sei es die niedrigere Zahl der Individualreisenden im Gegensatz zur Masse der Pauschaltouristen oder sei es der Unikatstatus eines maßgeschreinerten Möbelstücks.
In seiner »Theorie der digitalen Gesellschaft« (2019)20 leitet Armin Nassehi die Quantifizierung aus einer fundamentalen Digitalisierung ab. Die Digitalisierung lässt er nicht erst mit dem Einsatz von Computertechnologie beginnen: »Nicht der Computer hat die Datenverarbeitung hervorgebracht, sondern die Zentralisierung von Herrschaft in Nationalstaaten, die Stadtplanung und der Betrieb von Städten, der Bedarf für die schnelle Bereitstellung von Waren für eine abstrakte Anzahl von Betrieben, Verbrauchern und Städten/Regionen.«21 Deshalb verortet Nassehi den Beginn der Digitalisierung der Gesellschaft in der »Frühzeit der Moderne« und sieht das »Bezugsproblem für die Entstehung einer digitaltechnischen Verarbeitung von Informationen […] weniger in dem quantitativen Aspekt einer Erhöhung von Berechnungsbedarf«, sondern »eher in der qualitativen Veränderung gesellschaftlicher Komplexitätslagen«.22 Unter Komplexität versteht Nassehi »die Musterhaftigkeit des Verhältnisses von Merkmalen zueinander«.23 Moderne Gesellschaften zeichnen sich durch eine Steigerung solcher Merkmalsbeziehungen (in Wissenschaft, Kunst, Wirtschaft, Recht, Politik, Arbeit usw.) aus, deren Muster durch Digitaltechniken wie Sozialstatistik allererst freigelegt werden müssen, um sie steuern zu können.
Nassehi macht quantifizierende Verfahren von der Digitalisierung der Gesellschaft abhängig und nicht umgekehrt. »Die digitale, statistische Entdeckung der Gesellschaft findet die quantifizierbare Form der Gesellschaft nicht einfach vor, sondern muss diese Quantifizierungen durch Kategorien erst zählbar machen.«24 Für Maus Kritik am ›metrischen Wir‹ hat Nassehi folglich nicht viel übrig: »[E]s ist ein großes Missverständnis, unter der Digitalisierung schlicht nur die Zählbarkeit und die Quantifizierung des Sozialen zu verstehen.«25 Mit anderen Worten: das ›Quantifizierungsregime‹ ist selbst ein Effekt eines tieferliegenden Qualitätsunterschieds zwischen modernen, digitalen und vormodernen, analogen Gesellschaften.
Qualitätsunterschiede II
Die Differenz zwischen Quantifizierung und Digitalisierung verweist auf einen weiteren Qualitätsunterschied, der mit Blick auf die folgenden Untersuchungen begrifflich erfasst sein will. Unter Quantifizierung (von lat. quantum für ›Größe‹ und facere für ›machen‹) soll ganz allgemein das Herstellen einer zählbaren Größe verstanden werden. In einem sehr weiten Sinne kann man jeden Zählvorgang als eine Form der Quantifizierung auffassen. Es scheint jedoch etwas übertrieben, das Abzählen der im Kühlschrank befindlichen Eier als einen Akt des Quantifizierens zu beschreiben, muss hier doch die Zahlform nicht erst hergestellt werden, da jedes Ei eine von jedem anderen Ei klar abgegrenzte Einheit bildet. Etwas anderes ist es dagegen, den Wert einer Packung Eier durch ein Geldquantum, den Preis zu bestimmen. Auch die Messung einer Strecke durch die Anzahl von Schritten ist etwas anderes als die ›Messung von Wärme‹ durch die Ablesung eines Thermometers. Nicht extensive, wohl aber intensive Größen können im engeren Sinne quantifiziert werden, da für Wärme, Lautstärke, Schärfe oder Farbintensität die Zahlenförmigkeit allererst hergestellt, eben gemacht werden muss, während Ausdehnung bereits ein Quantum besitzt. Quantifizierende Handlungen verfolgen das Ziel, qualitative Unterschiede in quantitative Differenzen zu übersetzen. Es liegt hier eine echte metabasis eis allo genos, ein Übergang in eine andere Gattung vor.
Das Wort Digitalisierung leitet sich vom lateinischen digitus für ›Finger‹ ab. Die Metapher verweist auf das Abzählen diskreter Einheiten an Fingern. Kinder lernen auf diese Weise den Sinn von Zahlen kennen. Stellvertretend für unsere Finger operieren wir üblicherweise, weil es praktischer ist, mit Ziffern. Der Mathematiker Claude Shannon hat 1948 den Ausdruck binary digit eingeführt, um eine Maßeinheit für den Informationsgehalt einer Nachricht zu finden. Die kleinste Einheit ist demnach 1 Bit, das ist der elementarste Informationsgehalt, der in einem von zwei möglichen Zuständen enthalten ist, z. B. ja oder nein (siehe Kap. 3). In gewisser Hinsicht ist Digitalisierung daher die Quantifizierung von Information. Der Ursprung in der Nachrichtentechnik legt jedoch nahe, Digitalisierung als ein Phänomen sui generis zu begreifen, und dies aus mindestens zwei Gründen: Zum einen hat der Informationsbegriff im Zuge der Digitalisierung eine solche Ausdehnung erfahren, dass es nicht sinnvoll erscheint, die Reihe: intensive Größen, Wertrelationen u. dgl. einfach durch ›Information‹ zu erweitern. Vielmehr wird nun alles, das mit digitaler Technik erfasst und bearbeitet werden kann, zur Information erklärt.
Der andere Grund, Digitalisierung von Quantifizierung zu unterscheiden, liegt in der jeweiligen technischen Umsetzung. Das klassische Instrument zur Quantifizierung ist das Messgerät, in dem zuvor erwähnten Beispiel das Thermometer für die Quantifizierung von Wärme. Das Werkzeug der Digitalisierung hingegen ist der Computer, ein Hilfsmittel zur Ausführung von Berechnungen (von lat. computare für ›berechnen‹). Vereinfacht gesagt dient Quantifizieren dem Messen, während Digitalisieren dem Berechnen dient. Die Quantifizierung macht etwas (für Messungen) zählbar, die Digitalisierung berechenbar. Wenn Hannah Arendt von der »Berechenbarkeit menschlicher Angelegenheiten«26 spricht, die in der Neuzeit gestiftet wird, dann lässt sich die Herstellung dieser Berechenbarkeit daher als Digitalisierung beschreiben.
Die Idee des Computers reicht weit zurück. Bereits Gottfried Wilhelm Leibniz im 17. und Raimundus Lullus im 13. Jahrhundert formulierten Ideen für logische bzw. symbolische Maschinen, die logische Kalküle abarbeiten können. Formalisierte Anweisungen für eine endliche Abfolge von Schritten zur Lösung eines Problems, vor allem für Berechnungen, heißen Algorithmen. Der Ausdruck geht auf den latinisierten Namen des arabischen Mathematikers Al-Chwarizmi zurück, der im 8./9. Jahrhundert in Bagdad lebte. Symbolische Maschinen arbeiten mit Algorithmen. Digitalisierbar ist grundsätzlich jede Handlung, die an eine symbolische Maschine delegiert werden kann.27 Ein griffiges Beispiel dafür ist der Taschenrechner, ein Werkzeug, das so konstruiert ist, dass es menschlichen Benutzern Ergebnisse für Rechenaufgaben liefert. Computer selbst rechnen jedoch nicht. Rechnen ist ein zielgerichtetes Handeln, und Maschinen sind keine Akteure.28 Daher ist diese Bezeichnung für Maschinen irreführend, ursprünglich wurden so menschliche Rechnerinnen und Rechner (z. B. bei der NASA) genannt. Der Doppelaspekt der Formalisierung (in bloße Zeichenkombinationen) und Algorithmisierung (in programmierbare Zeichenoperationen) markiert den Eigensinn der Digitalisierung gegenüber der Quantifizierung.