mutet allerdings unser Umgang damit an. Wir verhalten uns nämlich den Resistenzen der Mikroorganismen gegenüber so, als sei der Homo sapiens nicht lernfähig.
Auf jedes Antibiotikum folgt Resistenzbildung
Als erstes Antibiotikum, damals noch »Chemotherapeuticum« genannt, wurde im Jahr 1910 das Salvarsan produziert. Man wusste bereits während dessen Erforschung über die Ausbildung von Resistenzen.7 Nach wenigen Anwendungsjahren waren dagegen zahllose Bakterien resistent geworden. 1935 wurden Sulfonamide eingeführt, im Jahr darauf gab es Resistenzen. Als 1942 Penicillin erstmals als Arzneimittel offiziell eingesetzt wurde, war bereits zwei Jahre zuvor die Penicillinase als Resistenzfaktor entdeckt worden. Streptomycin wurde entwickelt, kurz darauf gab es Resistenzen dagegen. Es kam 1947 das erste Breitbandantibiotikum, Chloramphenicol, das nicht gegen nur eine Bakterienart, sondern gegen eine Vielzahl gerichtet ist. Wenig später gab es darauf eben eine Vielzahl bakterieller Resistenzen. Im Jahr 1952 kam der als neu gepriesene Wirkstoff Erythromyzin auf den Markt, bald gefolgt von Resistenzen. 1953 wurde mit Tetracyclin wieder ein neuer Wirkstoff patentiert, kurz darauf gab es Resistenzen von 50 Prozent der wichtigsten Bakterien bis 1984. Schon längst sprach man vom Wettlauf der Antibiotika-Neuentwicklungen gegen die Resistenzbildung der Bakterien. Man ahnt, wie es weitergeht.
Vancomycin, in den fünfziger Jahren entwickelt, wurde ab 1980 als sogenanntes Reserveantibiotikum zur Bekämpfung antibiotikaresistenter Bakterien eingesetzt, wenige Jahre darauf gab es auch dagegen Resistenzen.
Dann kam Methicillin auf den Markt, das den resistent gewordenen Bakterien mit einem prägnanten Namen zur Berühmtheit verhalf:MRSA, Methicillin-resistenter Staphylococcus aureus, ist seither der menschengemachte Schrecken, der durch Krankenhäuser, Altenheime und Pflegeeinrichtungen geistert. 1976 waren 1,4 Prozent der in deutschen Krankenhäusern untersuchten Bakterien resistent, 1995 waren es 8,7 Prozent, im Jahr 2007 waren es schon 20,3 Prozent.8 Und während dieser Prozentsatz nun nicht mehr steigt, kommen weitere Antibiotika nach, und notgedrungen gesellen sich beständig neue resistent gewordene Bakterienstämme hinzu, die nicht nur Krankenhaushygieniker in Angst und Schrecken versetzen, sondern auch die inzwischen international alarmierte Politik.
Als sich im Jahr 2015 im beschaulichen bayrischen Städtchen Elmau die Staatslenker der sieben sich als führend verstehenden Länder der Welt trafen, um über die dringlichsten Fragen der gegenwärtigen Zeit zu konferieren, war das Thema »Kampf gegen die resistenten Bakterien« auch dabei. Wohlgemerkt der »Kampf gegen«, nicht etwa die Frage nach Alternativen.9
Derweil wurde nicht der Umgang mit Krankheiten, sondern der Umgang mit resistent gewordenen Bakterienstämmen zum größten Problem in den Krankenhäusern. Laut offiziellen Zahlen10 werden 400 000 bis 600 000 Menschen jährlich in deutschen Krankenhäusern und Ambulanzen mit ihnen besiedelt, geschätzte 10 000 bis 30 000 sterben daran. Schon die Schwankungsbreite der Zahlen zeigt, dass man gar nicht weiß, wie viele es wirklich sind. Zu viele in jedem Fall.
Es ist gewöhnlich eine Grundfähigkeit des Menschen, aus Erfahrung zu lernen. Wer auf eine heiße Herdplatte fasst und sich dabei schmerzlich die Finger verbrennt, hat dazugelernt und wird in Zukunft überprüfen, ob die Platte heiß ist, bevor er darauflangt. Mit der Bakterienbekämpfung scheint dies offensichtlich und aus unverständlichen Gründen nicht der Fall zu sein. Das Konzept ist von grundlegender Erfolglosigkeit begleitet und wird dennoch ständig weiterverfolgt. Im Januar 2016 hieß es, man wolle »den Vorsprung gegenüber resistenten Bakterien wahren«.11 Dabei stolpern wir den Bakterien in Wirklichkeit einige Milliarden Jahre hinterher (siehe Seite 63ff.).
Medikamentenentwicklung und Wirksamkeitsverlust aufgrund bakterieller Resistenzen folgen in schöner Regelmäßigkeit aufeinander, und was geschieht? Es wird immer lauter nach neuen Mitteln derselben Art gerufen und nach »intelligenterem« Umgang in der Anwendung der bisherigen.12 Mit der Frage, warum dies so ist, könnte man Psychologen beschäftigen. Mit der Erfahrung, dass es so ist, können wir eigentlich nur eins, nämlich damit aufhören. Und das Erfreuliche ist: Es gibt tatsächlich Alternativen.
Diese beginnen billig, gefahrlos, leicht und für jeden machbar: mit einem einfachen Umdenken. Bakterien sind keine Feinde. Wir haben ihnen das Leben auf der Erde zu verdanken, jeden Tag neu, auch das ganz persönliche. Wir brauchen sie nicht zu bekämpfen. Sobald man das Leben der Einzeller in und um sich versteht und die Erfahrung nutzt, die die Menschheit schon seit Anbeginn der Zeit mit ihnen macht, kann einem gesünderen Weg in der Medizin, auch für Infektionskrankheiten, nichts mehr entgegenstehen.
Wenn dies so einfach ist, wieso konnte es dann überhaupt erst so weit kommen? Wieso erscheint die Menschheit seit über einhundert Jahren wie mit Blindheit geschlagen? Wieso praktiziert man eine Methode, die so viele Probleme nach sich zieht, dass es die Allgemeinheit ein Vermögen und Menschen das Leben kostet und dass wir als Gesellschaft seither kränker anstatt gesünder geworden sind? Die durchschnittlich höhere Lebenserwartung, die überwiegend der besseren Säuglingshygiene und geringeren Kindersterblichkeit zu verdanken ist, bedeutet ja nicht etwa, dass wir gleichzeitig weniger krank geworden wären. Das Gegenteil ist der Fall.
Kampf als Kulturentwicklung des 19. Jahrhunderts
Um dies besser zu verstehen, hilft ein Blick in die Zeit, aus der die Idee der Bakterienbekämpfung stammt: ins 19. Jahrhundert. Damals traf einiges zusammen: Europa wurde immer wieder von Kriegen überzogen, an denen zwangsläufig auch Ärzte beteiligt waren. Die damaligen Militärkrankenhäuser waren exzellente Ausbildungsstätten für Ärzte, auch solche, die wissenschaftlich forschten. So unterstand das königliche Charité-Krankenhaus in Berlin, an dem viele Ärzte arbeiteten und forschten, dem Kultur- und dem Kriegsministerium. Kriegsdenken und kämpferische Strategien waren folglich in ihnen verinnerlichte Lebensprinzipien, und viele von ihnen dienten in den Kriegen als Soldaten an der Front. Auch die führenden Mikrobiologen von damals hatten diese Erfahrungen entweder selbst gemacht oder bei den Vätern miterlebt. Es war Teil des gesellschaftlichen Daseins. Wie tief sich dies in die Seele einschreibt, ist aus Sicht eines Menschen, der Krieg nicht erlebt hat, kaum einfühlbar.
Nicht einmal das Verhältnis der Forscher untereinander und ihrer Arbeit blieb dabei von Kampfgedanken frei. Es gab um die Entdeckung von Krankheitserregern und Heilmethoden geradezu einen Wettbewerb, weil davon Ehre und gutbezahlte Stellungen abhingen. Ironisch wurde diese Stimmung skrupellosen Strebens um Berühmtheit im Jahr 1905 vom spanischen Arzt und Nobelpreisträger Ramón y Cajal (1852–1934) mit der Erzählung Die Rache des Professors Max von Forschung literarisch aufgearbeitet.13
Obendrein sah man sich als Vertreter der Nation im Kampf um Entdeckungen. Noch bis zur Ernüchterung nach den beiden Weltkriegen las man Sätze wie: »Die beiden Männer haben einen ehrlichen Forscherkampf miteinander ausgefochten, aus dem Koch als Sieger hervorging. Dieser Kampf war im Grunde nichts anderes als der dramatische Ausbruch einer neuen Epoche unseres biologischen und ärztlichen Denkens.«14 Rückblickend sehen wir die so gepriesene Epoche allerdings als eine Sackgasse.
Charles Darwin (1809–1882) hatte darüber hinaus mit seinem »Kampf ums Dasein«15 etwas veröffentlicht, was allgemein so aufgefasst wurde, als ob Bekämpfung von Lebendigem eine Grundlage natürlicher Lebensentwicklung sei. Damit wurde das Töten quasi legitimiert. Dass das Gegenteil zutrifft, wurde übersehen und erst mithilfe der Gehirnforschung ab Ende des 20. Jahrhunderts gründlich und eindeutig widerlegt.16
Die Entfremdung der Forschung vom Leben
Überhaupt brachte das 19. Jahrhundert eine Weichenstellung in der Betrachtung des Lebens mit sich – mit zunehmender Entfremdung von ihm. Die Naturwissenschaften erhoben den Anspruch, eine »objektive« Wissenschaft zu sein, in der subjektive Erfahrungen, Intuition oder Sinneseindrücke beim forschenden Menschen keine Rolle spielen sollten. Deren Bedeutung ging verloren, und messbare Werte aus rational wiederholbaren Versuchen traten in den Vordergrund. Von Empfindungen beim Forschen wie Staunen, Ehrfurcht und Liebe, wie sie frühere Gelehrte ganz natürlich äußerten, darf seither in den Naturwissenschaften nicht mehr geredet werden, so als müsste sich selbst der Forscher auf seine Stofflichkeit reduzieren. Nicht mehr die Betrachtung, sondern die Analyse wurde zur wissenschaftlichen Methode der Wahl. Zur üblichen Forschungstechnik