Observer’s Paradox: the aim of linguistic research in the community must be to find out how people talk when they are not being systematically observed; yet we can only obtain these data by systematic observation. (LABOV 1972: 209)
Er schlägt vor, das Problem mit der sogenannten Todesangstfrage zu lösen. Die Feldforscher*innen sollten ihre Informant*innen fragen, ob sie jemals in einer Situation waren, in der sie in ernsthafter Gefahr schwebten, getötet zu werden. Da Labov in den 1960er Jahren über New Yorker Ghettos arbeitete, war das eine Situation, in der sich viele seiner Informant*innen tatsächlich schon einmal befunden hatten. Seine Idee war, dass die Erinnerung an diese Situation bei den Sprecher*innen die damaligen Emotionen wiederhervorrufen würde und sie damit die Kontrolle über ihr Sprechen verlieren würden („amount of attention paid to speech“ bzw. „audio-monitoring“; LABOV 1972: 208). Aus heutiger Sicht gilt eine solche Manipulation von Menschen zu Forschungszwecken allerdings als unethisch und ist daher auch nicht mehr erlaubt: Die Teilnehmer*innen müssen vor Sprachaufnahmen über die Ziele des Forschungsprojekts aufgeklärt werden und freiwillig ihre schriftliche Einwilligung geben (DFG 2013). Wenn man dem Soziologen Erving Goffman (1922–1982) folgt, dann sind Sprecher*innen sowieso nie unbeobachtet und spielen quasi immer Theater (vgl. GOFFMAN [1969] 102003). Der Soziolinguist Allan Bell (*1947) entwickelte entsprechend die Theorie des „audience design“: Wir richten unser Sprechen immer auf die Hörer*innen aus. Insofern ist es nicht mehr Ziel der Sprachwissenschaft, gänzlich unbeobachtetes Sprechen aufzunehmen, sondern die Selbstinszenierung als zentralen Faktor der Variation zu verstehen.
Die Forschung entwickelt also immer wieder neue Methoden, die alle ihre Vor- und Nachteile haben. Daher muss die Wahl der Methode bei jeder wissenschaftlichen Studie reflektiert sein. In Publikationen sollten Wissenschaftler*innen die Gründe für ihre Auswahl transparent darstellen. So können die Leser*innen die Ergebnisse besser einschätzen. Eine sinnvolle Lösung ist oft ein Methodenmix. Egal wie gut die Methodenwahl vorab durchdacht ist, man sollte sie immer in einem Pre-Test ausprobieren und danach noch einmal überarbeiten.
Was in der Forschungspraxis umsetzbar ist, ist aber immer auch eine Frage der finanziellen, personellen und zeitlichen Ressourcen: Student*innen können in einer Bachelorarbeit nicht leisten, was ein 20-köpfiges Team aus Wissenschaftler*innen in einem Sonderforschungsbereich in einem Jahrzehnt stemmt. Es gilt daher auch das Prinzip der Forschungsökonomie. Zudem müssen Forscher*innen die rechtlichen und ethischen Rahmenbedingungen respektieren (z. B. Datenschutz).
À vous !
Sie wollen untersuchen, wer mehr Schimpfwörter verwendet: Männer oder Frauen. Welche Methode wählen Sie? Vergleichen Sie die teilnehmende Beobachtung, das Interview und den Online-Fragebogen hinsichtlich der drei Gütekriterien Objektivität, Reliabilität und Validität!
Neben den Methoden der Datensammlung haben sich auch die Methoden der Datenauswertung in den vergangenen Jahrzehnten im Zuge der Digitalisierung stetig weiterentwickelt. Durch den Fortschritt in der Computertechnik haben sich nicht nur die Speicherkapazitäten, sondern auch die Rechengeschwindigkeiten enorm verbessert. Daher sind mittlerweile in vielen Subdiziplinen statistische Analysen üblich, z. B. mit Computerprogrammen wie R (www.r-project.org). Sie können explorativ eingesetzt werden, um Regelmäßigkeiten in großen Datenmengen zu entdecken (z. B. mit Entscheidungsbäumen oder Clustering-Methoden) oder testen, ob ein Unterschied signifikant ist. Dies bedeutet, dass der Unterschied zwischen zwei Gruppen (z. B. Frauen vs. Männer) wahrscheinlich nicht auf reinen Zufall zurückzuführen ist, sondern von der Stichprobe auf die Grundgesamtheit geschlossen werden kann (vgl. z. B. BAAYEN 2008, MEINDL 2011).
Theorien
Das zweite Standbein der Wissenschaft sind neben den Methoden die Theorien. Viele Menschen außerhalb der Wissenschaft halten davon jedoch nicht viel: Theorien gelten als weltfremd und nicht praxistauglich für das ‘echte Leben’ – eben ‘nur graue Theorie’. Diese Auffassung beruht jedoch auf einem Missverständnis: Wissenschaftliche Theorien sind alles andere als wilde Spekulationen. Sie basieren vielmehr auf einer großen Menge systematisch und nach transparenten Methoden gesammelten Beobachtungen in ebendiesem ‘echten Leben’ (daneben aber auch im Labor) und müssen sich an diesem auch immer wieder messen. Aus wissenschaftlichen Theorien lassen sich zudem sehr wohl Tipps für die Praxis ableiten: zur Verbesserung von Produkten, Dienstleistungen und sogar der Gesellschaft. Und die Praxis schließlich steht vor Problemen und offenen Fragen, die die Wissenschaft inspirieren können, und auf die die Wissenschaft eventuell Antworten findet. Weder Theorie und Empirie noch Theorie und Praxis stellen also einen Widerspruch dar; sie gehören vielmehr zusammen (vgl. Abb. 2.1)!
Theorie, Empirie und Praxis.
Zur wissenschaftlichen Erkenntnis gibt es unterschiedliche Wege. Vereinfacht gesprochen kann man entweder zunächst konkrete Daten untersuchen, daraus Hypothesen abstrahieren und dann eine Theorie aufbauen (bottom up) – oder aber man entwickelt aus einer Theorie Hypothesen und testet diese dann empirisch (top down). In der Realität der Forschung sind diese beiden Richtungen des Vorgehens keine Alternativen, sondern finden nacheinander oder sogar parallel statt. Selbst explorative Studien, die erste Informationen zu einem wenig bekannten Gebiet sammeln, können nicht vollkommen theoriefrei designt werden, und bei der Überprüfung von Hypothesen ergeben sich immer wieder Überraschungen.
Was ist nun eine Theorie genau? Eine Theorie besteht zunächst einmal aus Modellen, die eine Auswahl von Elementen der Welt und die Beziehungen zwischen ihnen vereinfacht darstellen. Diese Modelle braucht man für die Formulierung von Hypothesen. Ziel von Theorien ist es, die Beobachtungen in der Welt zu erklären. Die Modelle und Hypothesen können entweder sprachlich formuliert oder in Graphiken und/oder Formeln dargestellt werden. Bekannte Beispiele sind die Graphik des Bohrschen Atommodells (vgl. Abb. 2.2a) und Einsteins Formel E = mc2.
|
|
(a) Bohrsches Atommodell: Wasserstoff (H) | (b) Kugelwolkenmodell: Sauerstoff (H2O) |
Abb. 2.2:
Atommodelle.
Das Bohrsche Atommodell hat sich für die Forschung als sehr ergiebig erwiesen; allerdings gibt es auch zahlreiche Phänomene, die es nicht erklären konnte. Deswegen haben Wissenschaftler*innen weitere Modelle entwickelt, insbesondere das aus der Schule bekannte Kugelwolkenmodell (vgl. Abb. 2.2b). Modelle sind also nicht richtig oder falsch, sondern mehr oder weniger fruchtbar für bestimmte Fragestellungen.
Um über Theorien und Hypothesen zu kommunizieren, verwenden Wissenschaftler*innen natürlich auch die Sprache. Während in der Alltagssprache viele Wörter auf sehr vage Konzepte verweisen (z. B. fr. truc; vgl. Kapitel 1.1.1), ist in der Wissenschaft Präzision gefragt. Aus diesem Grund zeichnet sich die Wissenschaftssprache insbesondere durch ihre Fachterminologie aus. Dabei handelt es sich häufig um Wörter aus der Alltagssprache, die als Fachbegriffe klar definiert werden, z. B. in der Physik Energie und Masse. Besonders verbreitet sind Metaphern. So stellt man sich etwa ein Atom wie eine Frucht mit einem Kern in der Mitte vor (vgl. Abb. 2.2). In manchen Fällen schaffen Wissenschaftler*innen auch neue Wörter, sogenannte Neologismen. So hat Marie Curie beispielsweise das Element Polonium nach ihrer polnischen Heimat benannt.
Grundsätzlich ist Wissenschaftssprache natürlich keine eigene Sprache,