Группа авторов

Handbuch der Soziologie


Скачать книгу

Analyse sozialer Problemfelder wie Erwerbslosigkeit, Armut, Kriminalität oder Segregation quantifizierende Daten von großer Bedeutung, lässt sich mit ihrer Hilfe doch erfahren, wie häufig diese Phänomene in welchen Bevölkerungsteilen auftreten. Zugleich kann erst die qualifizierende Forschung konstituierende Interaktionen und alltäglichen Deutungsmuster rekonstruieren, über die Betroffene diese Phänomene erleben. Zudem legen jüngere Entwicklungen den Verdacht nahe, dass die Projektion unabhängiger oder konkurrierender Paradigmen die tatsächliche Forschungspraxis gar nicht mehr widerspiegelt. Bereits seit den 1980er-Jahren hat sich im angelsächsischen Raum ein Feld der Sozialforschung entwickelt, auf dem die Möglichkeiten und Grenzen der Kombination quantitativer und qualitativer Methoden wieder explizit untersucht werden. In den letzten Jahren ist das Interesse daran auch in der deutschsprachigen Sozialforschung gewachsen.

      Angesichts solcher Ungereimtheiten wollen wir diesen Text zum Anlass nehmen, um noch einmal danach zu fragen, durch welche Spezifika sich die beiden Methodenstränge auszeichnen. Daran anknüpfend diskutieren wir zeitgenössische Vermittlungsversuche, die eine problemlösungsorientierte Zusammenarbeit befördern und damit den ›kalten Krieg der Paradigmen‹ überwinden helfen.

2.Der klassische Methodendualismus
2.1Methodik der quantitativen Sozialforschung
2.1.1Methodologische Grundlagen und Qualitätsstandards

      Im Zuge der Bemühungen um eine deskriptive Vermessung der hereinbrechenden Massenkollektive wird im 19. Jahrhundert die Institutionalisierung der heutigen Sozialstatistik in den englischen »Statistical Societies« und im deutschen »Verein für Sozialpolitik« maßgeblich vorangetrieben. Klassische französische Studien wie »Cours de philosophie positive« (1842) von Auguste Comte oder »Les règles de la méthode sociologique« (1894) von Émile Durkheim buchstabieren die Grundlagen ihrer Methodik aus. Die sozialwissenschaftlich interessierte Statistik orientiert sich am Vorbild der Naturwissenschaften und sucht analog dazu nach möglichst universellen Gesetzmäßigkeiten sozialer Beziehungen. Quantifizierende Untersuchungen folgen nomologisch-deduktiven Erklärungsmodellen, d. h. sie basieren auf einem System theoretischer Gesetze, aus denen sich ihre wissenschaftlichen Annahmen logisch und werturteilsfrei ableiten lassen. Deren Übereinstimmung mit beobachtbaren Merkmalen der sozialen Wirklichkeit wird dann statistisch geprüft. Schließlich begreifen sie ihren Forschungsgegenstand in aller Regel als soziale Tatsache, welche unabhängig vom Forscher und seinem Wissen existiert (Neuman 1997).

      Wissenschaftlicher Kern der quantitativen Methodik ist der empirische Test theoretisch hergeleiteter Forschungshypothesen. Dementsprechend fokussieren ihre Gütekriterien auch auf die Qualität, mit der diese Hypothesen in messbare statistische Größen übersetzt werden. Das Kriterium der Reliabilität gilt als erfüllt, wenn man das theoriegeleitet anvisierte Merkmal der sozialen Wirklichkeit stabil, präzise und in sich konsistent messen kann. Das Kriterium der [63]Validität gilt als erfüllt, wenn eine Messgröße tatsächlich auch das zugrunde liegende Konstrukt abbildet. Das Kriterium der Objektivität bzw. intersubjektiven Replizierbarkeit trägt schließlich dem Anspruch Rechnung, dass ein empirischer Befund allgemein und unabhängig vom Betrachter bzw. Forscher gelten soll und daher auch von anderen Forschern mit alternativen Messmethoden und unter anderen Rahmenbedingungen hervorgebracht werden kann (Schnell et al. 2011: 149–166).

      Eine grundlegende Herausforderung quantitativer Forschungsdesigns besteht schließlich darin, das Kausalitätsproblem angemessen zu bearbeiten. Es umfasst sowohl die wissenschaftstheoretische und gesellschaftsanalytische Frage, inwieweit die untersuchten sozialen Beziehungen analog zu Naturzusammenhängen über Kausalgesetzmäßigkeiten erfassbar sind, als auch die statistische Modellierung der untersuchten Kausalbeziehungen anhand eines geeigneten Datensatzes. Letzteres ist unter anderem mit der Anforderung verbunden, Veränderungen des als Ursache geltenden sozialen Merkmals auch tatsächlich vor den als Wirkung geltenden Veränderungen des zu erklärenden sozialen Merkmals zu messen (vgl. dazu ausführlich: Kelle 2008: 151–225).

2.1.2Grundzüge des quantitativen Forschungsprozesses

      Aus unserer Sicht sind fünf methodische Schritte dazu geeignet, die Logik des quantifizierenden Forschungsprozesses zu charakterisieren (vgl. z. B. Neuman 1997; Thome 2007; Bryman 2008; Schnell et al. 2011; Fowler 2013): a) Forschungsfrage und forschungsleitende Hypothesen formulieren, b) empirisches Design entwickeln, c) Daten erheben, d) Daten analysieren, e) theoretische Schlussfolgerungen ziehen.

      a) Problemstellung und Hypothesenentwicklung

      Die quantitative Sozialforschung begreift sich als theoriegeleitete Suche nach wissenschaftlicher Erkenntnis. Idealerweise entwickelt sie im ersten Schritt des Forschungsprozesses über das so genannte nomologisch-deduktive Formalmodell der Kausalbeziehungen ihre forschungsleitenden Hypothesen (Hempel/Oppenheim 1948). Sie bedient sich der Stochastik, um aus der bedingten Wahrscheinlichkeit, mit der empirische Messgrößen auftreten, Rückschlüsse auf die Gültigkeit dieser Hypothesen zu ziehen. Im Unterschied zur qualitativen Sozialforschung gilt somit die theoriegeleitete Datenerhebung und -analyse als Qualitätsmerkmal guter quantitativer Sozialforschung (Diekmann 2002: 122–159, Kromrey 2000: 48–58).

      Die Erklärungsmodelle beschreiben Merkmale der sozialen Wirklichkeit über eine endliche Anzahl möglicher Ausprägungen – als Variablen – und führen die Verteilung der zu erklärenden abhängigen Variable über die Annahme einer Kausalbeziehung auf die Verteilung einer oder mehrerer unabhängiger Variablen zurück. Über intervenierende Variablen und Moderatoren werden die modellierten Zusammenhänge verfeinert, um die Modelle der komplexen Wirklichkeit des untersuchten Beziehungssystems anzunähern.

      Die Forschungshypothesen postulieren also einen kausalen Effekt zwischen wenigstens zwei Variablen, sind als Vorhersage formuliert, lassen sich logisch aus dem zugrunde gelegten Erklärungsmodell herleiten und können über statistische Tests falsifiziert werden (Neuman 1997: 109). Insbesondere der letzte Aspekt spiegelt das am kritischen Rationalismus orientierte Wissenschaftsverständnis der quantitativen Sozialforschung wider. Theoretisch fundierte Forschungshypothesen lassen sich durch die empirische Prüfung nicht letztgültig beweisen – statistische Tests können aber sehr wohl die Wahrscheinlichkeit ihrer Richtigkeit testen. Indem sie in [64]ihren Studien versuchen, die Befunde anderer Forscher zu replizieren, aber auch gezielt alternative Erklärungsmodelle und widerstreitende Forschungshypothesen testen, nähern sich die Forscher eines Forschungsfeldes sukzessive der Wahrheit an.

      b) Forschungsdesign

      Im nächsten Schritt werden die Forschungshypothesen über ein geeignetes Forschungsdesign einer systematischen empirischen Prüfung zugänglich gemacht. Insbesondere folgende Fragen müssen bearbeitet werden: 1) Welche Informationen sind dazu geeignet, die Forschungshypothesen empirisch zu messen bzw. zu operationalisieren? 2) Für welche Fallauswahl sollen die Forschungshypothesen geprüft werden? 3) Ist ein Experiment oder eine Umfrage am besten dazu geeignet, die postulierten Kausalzusammenhänge zu erfassen?

      Für die Operationalisierung gilt es zunächst, zu entscheiden, ob ein Konzept ein- oder mehrdimensional erfasst werden soll und welche Variable bzw. Variablen dazu geeignet sind, die Dimension/en empirisch abzubilden, und daher als Indikatoren dienen sollen. Dazu gehört auch die Überlegung, auf welcher Ebene die Informationen erhoben werden müssen: Werden z. B. Mikroprozesse postuliert, so dass auch Individualdaten zu erheben sind, um die Gefahr eines ökologischen Fehlschlusses zu reduzieren? Daran anschließend müssen die Indikatoren quantifiziert werden. Einheitliche Richtwerte ermöglichen es dabei etwa, Veränderungen über die Zeit zu bestimmen und die Befunde unterschiedlicher Studien miteinander zu vergleichen (Neuman 1997: 113 ff.).

      Meistens können Forscher keine umfassende Fallstudie bzw. Vollerhebung aller relevanten Fälle durchführen, sondern müssen sich auf eine Fallauswahl beschränken. Um die Generalisierbarkeit der beobachteten Effekte anhand statistischer Signifikanztests prüfen zu können, muss es sich um eine Zufallsstichprobe aus der Grundgesamtheit aller Beobachtungen handeln. Jede Stichprobenziehung ist allerdings mit einem Fehler behaftet, der u. a. auf fehlende Antworten oder Messfehler zurückzuführen ist. Eine Zufallsstichprobe kann diesen Stichprobenfehler nicht vermeiden, aber verringern. Er wird auch mit der