Группа авторов

Qualitative Medienforschung


Скачать книгу

letzten realistischen Hoffnungen sollen vor allem mithilfe der dritten Unterstrategie getilgt werden – der Rechtfertigung der Gültigkeit von Aussagen aufgrund datengestützter Perspektivendekonstruktion. Damit ist nicht nur, aber insbesondere die Sequenzanalyse angesprochen. Allerdings muss hier auf die methodologische Rechtfertigung geachtet werden. Favorisiert man z. B. innerhalb der Objektiven Hermeneutik die Sequenzanalyse vor allem deshalb, weil sie sich vermeintlich den Sachen selbst anschmiegt (vgl. Oevermann u. a. 1979 und 200; Garz/Raven 2015, → Hagedorn, S. 580 ff.), dann zeigt sich darin eine recht beachtliche realistische Sicht von Wissenschaft. Eine reflexive Wissenssoziologie verwendet die Sequenzanalyse jedoch gerade nicht in der Hoffnung, so dem Gegenstand nahe zu kommen, weil die Sequenzanalyse den realen Prozess der Interaktion nachzeichnet. Das wäre ein grobes realistisches Missverständnis. Die Sequenzanalyse wird dagegen von Wissenssoziologen deshalb besonders gerne angewendet, weil sie ein ausgesprochen unpraktisches Verfahren ist. Die strikte Durchführung einer Sequenzanalyse (also der extensiven hermeneutischen Auslegung von Daten in ihrer Sequenzialität) kostet nicht nur immens viel Zeit, sondern sie zerstört im Prozess der systematischen und gesteigerten Sinnauslegung alle Selbstverständlichkeiten der eigenen Perspektivik und der eigenen Sprache. Strikte Sequenzanalysen führen dazu, dass alle geltenden oder für uns gültigen Vorurteile, Urteile, Meinungen und Ansichten in der Regel schnell zusammenbrechen. Die Sequenzanalyse dient also gerade nicht dazu, sich an den Gegenstand anzuschmiegen, sondern Sequenzanalyse ist nur ein Verfahren zur Zerstörung unserer gesamten sozialen Vorurteile – auch wenn dies nicht immer gelingt. Ist die Perspektivik mittels Sequenzanalyse einmal zerstört, entwirft der Forscher abduktiv Aussagen zu dem untersuchten Gegenstandsbereich (vgl. Peirce 1976; Reichertz 2013a).

      Soweit erst einmal die zweite Großstrategie der Begründung von Gültigkeit über Verfahren. Die Betrachtung der drei Unterstrategien hat gezeigt, dass die jeweils zum Einsatz gebrachten Methoden sehr unterschiedliche realistische Einfärbungen aufweisen. Aus meiner Sicht ist vor allem eine richtig verstandene Sequenzanalyse eine besonders gut geeignete Methode datengestützter Perspektivendekonstruktion und damit für Wissenssoziologen interessant.

      Das Vertrauen auf den innerwissenschaftlichen Diskurs

      Die dritte Großstrategie, die Gültigkeit von Aussagen zu fundieren, besteht darin, die Perspektivenvielfalt der Berufsgruppe zu nutzen – also auf den innerwissenschaftlichen Diskurs zu setzen, man vertraut auf ihn. Man rechtfertigt dann das, was man als gültige Erkenntnis vorstellt, nicht mehr damit, dass auf Verfahren oder die eigene Hellsichtigkeit verwiesen wird, sondern man tritt bescheiden zurück und sagt: »Ich habe meine Erkenntnisse in den wissenschaftlichen Diskurs eingespeist. Dort wurden sie durch die Mühlen des wissenschaftlichen Diskurses gedreht. Zwar weiß man nicht genau, welche Mühlen dort mahlen oder welche Körner zerkleinert werden, aber die Erkenntnis X ist dabei rausgekommen, und weil sie den Diskurs überstanden hat und übrig geblieben ist, muss sie auch gültig sein.« Hier zeigt sich das in diesem Ansatz eingelassene Vertrauen auf die soziale Kraft einer Professionsgruppe und in die in ihr eingelassene Perspektivenvielfalt. Die Macht, Gültigkeit zu verleihen, wird auf diese Weise nicht mehr an eine objektivierbare, kontrollierbare und intersubjektiv nachvollziehbare Prozedur (also an etwas Nicht-Subjektives) gebunden, sondern ausdrücklich dem Diskurs interessierter Wissenschaftler (und damit einem sozialen Prozess) überantwortet.

      Alle drei hier besprochenen Großstrategien (Begründung durch Charisma, Verfahren oder Diskurs) versuchen mit dem Problem umzugehen, dass eine über sich selbst aufgeklärte Wissenssoziologie nicht mehr problemlos von der Gültigkeit ihrer Aussagen sprechen kann, insbesondere dann nicht, wenn sie für die Gesellschaft Planungswissen zur Verfügung stellen will bzw. soll.

      Es ist nun müßig, (erneut) die Frage ernsthaft zu diskutieren, ob die o. g. Verfahren wirklich in der Lage sind, unsere Perspektivität zu beseitigen. Denn es kann keinen Zweifel daran geben, dass sie dazu nicht in der Lage sind: Keines dieser Verfahren vermag es, den Schleier von den Sachen selbst wegzuziehen, also einen Zugang zur wirklichen Wirklichkeit zu ermöglichen.

      Gibt man nun aber die Utopie einer wissenschaftlichen Aufklärung bis zur letzten Konsequenz auf und akzeptiert, dass mit einem gewissen Maß an Vagheit (auch als Wissenschaftler) durchaus gut zu leben ist, dann dreht die Methodologiedebatte nicht mehr (ohne vorwärts zu kommen) durch, sondern kann durchaus gute von weniger guten Argumenten unterscheiden. Denn es gibt nicht nur die Alternative zwischen der absoluten Aufklärung auf der einen und der Blindheit auf der anderen Seite, sondern man kann auch, wenn man nicht alles sehr klar sieht, mit entsprechenden Vorkehrungen immer noch ganz gut seinen Weg finden.

      Die entscheidende Frage, die wir uns stellen müssen, lautet deshalb, wie aus sozialwissenschaftlicher Perspektive explizite Qualitätskriterien für die Zuverlässigkeit der Datenerhebung, für die Repräsentativität der Datenauswahl und für die Gültigkeit der (generalisierten) Aussagen bestimmt und kanonisiert werden können, die jedoch nicht an den (zu Recht fragwürdigen) Idealen einer kontextfreien Sozialforschung orientiert sind, sondern z. B. auch das Wechselspiel von Forschern und Beforschten, Forschung und gesellschaftlicher Verwertung bzw. Anerkennung und auch die Besonderheiten der »social world« (Strauss 1991b, vgl. auch Strauss 1991a) der Wissenschaftler mit reflektieren.

      Welche Bedeutung haben Gütestandards?

      Angesichts einer solchen Aufgabenstellung kann man leicht mit großem Pessimismus reagieren, aber dieser Pessimismus wird erheblich verstärkt, wenn man sich auf der Suche nach Lösungen des Gültigkeitsproblems die herrschende Praxis qualitativer Forschungsarbeit, oder genauer: deren Beschreibung in Forschungsberichten ansieht. Denn ein etwas gründlicherer Überblick über die vielen Research-Reports qualitativer Forschung zeigt, dass die Anything-goes-Forschung längst Alltag qualitativen Arbeitens geworden ist: Daten werden oft zufällig eingesammelt, deren Besonderheit wird weder diskutiert noch berücksichtigt, Auswertungsverfahren werden oft ohne Rücksicht auf Gegenstand, Fragestellung und Daten fast beliebig ausgewählt (ad hoc) und aufgrund der Spezifik der Forschungssituation vor Ort reflexionsfrei modifiziert, Einzelfälle werden nicht selten ohne Angabe von Gründen zu Typen stilisiert, und immer wieder werden die Geltungskriterien für eine schillernde und kurzweilige Formulierung aufgegeben.

      Dass die Lage so ist, wie sie ist, hat nur zum Teil etwas damit zu tun, dass der kämpferische Aufbruchdrang der Qualitativen, die sich ja stets im Besitz der besseren Methoden wähnten und deshalb auch stets an deren Verbesserung gearbeitet haben, angesichts ihres Erfolgs erheblich nachgelassen hat: Heute ist nicht ein zu wenig qualitativer Sozialforschung zu verzeichnen, sondern eher ein zu viel (des Unreflektierten) – es gibt nur noch sehr wenige Wirklichkeitsbereiche, die noch nicht von (manchmal auch dilettantischen) qualitativen Untersuchungen überzogen wurden. Aber diese Allgegenwart der qualitativen Forschung spricht nur auf den ersten Blick für deren Erfolg. Auch die landesweite Normalität qualitativer Methodenunterweisung innerhalb der sozialwissenschaftlichen Hochschulausbildung, deren Absegnung durch den Berufsverband der Soziologen und die Einrichtung einer eigenen Sektion »Qualitative Methoden« in der DGS (Deutsche Gesellschaft für Soziologe) erfolgt ist, sind hierfür lediglich Indizien.

      Möglicherweise ist dieser Erfolg aber auch eine Ursache für die oft geringe Qualität qualitativer Arbeiten. Denn die sprunghafte und sehr schnelle Ausweitung der Methodenausbildung (noch vor der Entwicklung und Kanonisierung von Geltungskriterien) produziert nicht nur mehr gute Arbeiten, sondern naturgemäß noch mehr schlechte. Zudem findet allzu oft qualitative Forschung nur auf der Ebene selbst finanzierter Qualifikationsarbeiten innerhalb der Hochschulen statt. Hat sie sich jedoch den Ansprüchen von (wissenschaftlichen, politischen, privatwirtschaftlichen) Förderinstitutionen und deren Standards zu stellen, dann sind qualitative Forschungsanträge deutlich weniger erfolgreich – und das zunehmend.

      Dies liegt nun nicht daran, dass die Verfahren der Gütesicherung bei den Qualitativen weniger hart sind als bei den Quantitativen (wenn auch die Ersten wegen der etwas jüngeren Forschungstradition gewiss noch mehr Reflexions- und Verbesserungsbedarf haben) – vorausgesetzt, man berücksichtigt bei der Anlage des Forschungsdesigns die Fragen der Gütesicherung (was vielleicht manche Qualitative noch nicht ernsthaft genug tun) und immer eingedenk