Claudia Schweitzer

Die Musik der Sprache


Скачать книгу

durch unterschiedliche Erwartungen oder sogar Definitionen für eine Gesangsstimme. Wir haben hier einen weiteren Beweis für die fließenden Grenzen zwischen den Gattungen.

      1.2 Das musikalische Ausdruckspotential der Sprechstimme

      Für die Wahrnehmung von Sprache und Musik mobilisiert das menschliche Gehirn ähnliche Erkennungs- und Verarbeitungsprozesse. Laut Emmanuel BigandBigand, Emmanuel und Barbara TillmannTillmann, Barbara (2020) wird Sprache vom Embryo im Mutterleib wie eine musikalische Tonfolge wahrgenommen, und Musikhören bereitet seine zukünftigen sprachlichen Kompetenzen vor. Diese Aussagen beziehen sich zunächst einmal auf die strukturellen Ähnlichkeiten von Sprache und Musik,1 denen dieselben Gliederungs- beziehungsweise Sequenzierungsmuster zugrunde liegen: Minimaleinheiten kombinieren sich in sprachlichen oder musikalischen Sequenzen, die dann durch Variationen von Dynamik, Tonhöhe, Intonation und/oder Rhythmus modelliert werden.2 Dies Phänomen spricht zu Beginn des 19. Jahrhunderts bereits der Musiktheoretiker Jérôme Joseph de MomignyMomigny, Jérôme-Joseph de (1806) an, für den die Musik aufgrund der Tatsache, dass sie ein ihr eigenes System besitzt, eine eigene Sprache darstellt.

      Neuere Untersuchungen haben gezeigt, dass Musik, ebenso wie Sprache, semantische Prozesse beeinflussen und die Bedeutung eines Wortes bestimmen kann. In einer Studie mit 122 Versuchspersonen konnten Stefan Koelsch et al. (2004) zeigen, dass die Reaktionen auf in gesprochenen Sätzen oder in Verbindung mit musikalischen Auszügen präsentierte Zielwörter weder signifikante Unterschiede im Verhalten noch in den Auswertungen der N400-Komponente des ereignisbezogenen Gehirnpotentials (ERP) aufzeigen.3

      Doch nicht nur die Kognitionswissenschaften, sondern auch Psychologen und Linguisten interessieren sich vermehrt für das Studium der Kommunikation von Emotionen durch bestimmte Verhaltensmuster, Gesten, Stimm- und Sprachmodulationen,4 von denen besonders die letzteren für diese Studie interessant sind.

      Kodifikation der Emotionen

      Häufig werden die durch Emotionen ausgelösten Stimm- und Sprechmodulationen anhand von Aufnahmen mit Schauspielern studiert.1 Damit stehen Untersuchungen wie die Studie zur Prosodie de l’émotion von Tanja Bänzinger (Bänzinger et al., 2002) in direkter Weise in der alten Tradition der Rhetoriker. Schon die antiken Autoren formulieren Regeln, nach welchen die Ausdruckskraft der Stimme geformt werden kann. Laut CiceroCicero, Marcus Tullio ist eine wohlklingende Stimme das wichtigste Instrument des Redners. Die musikalische Metapher ist bereits angelegt, wenn CiceroCicero, Marcus Tullio erklärt:

      Jede Gemütsbewegung hat von Natur ihre eigentümlichen Mienen, Töne und Gebärden, und der ganze Körper des Menschen und alle seine Mienen und Stimmen ertönen, gleich den Saiten der Lyra, so, wie sie jedes Mal von der Gemütsstimmung berührt werden. Denn die Töne sind, wie die Saiten, gespannt, so dass sie jeder Berührung entsprechen: hohe und tiefe, schnelle und langsame, starke und schwache; zwischen allen diesen liegt in jeder Art noch ein Mittelton. Und noch mehrere Unterarten sind aus diesen entstanden: der sanfte und der rauhe Ton, der gepreßte und der gedehnte, der mit gehaltenem und der mit abgestoßenem Atem hervorgestoßene, der stumpfe und der kreischende, der durch Beugung der Stimme entweder verdünnte oder angeschwellte. (CiceroCicero, Marcus Tullio [1873]: 299)

      Die Stimme als Spiegel der Gemütsbewegung wird zu einem zentralen Thema in den an Schauspieler gerichteten französischen Texten der zweiten Hälfte des 17. Jahrhunderts. Die Autoren sprechen ausführlich von den accents des passions, und jeder Emotion sind auf die Beobachtung realer Sprechsituationen zurückgehende,2 bestimmte stimmliche Attribute zugeordnet. Die Stimme des Traurigen ist sourde (dumpf, klanglos), languissante (schleppend), plaintive (klagend) und von häufigen Seufzern unterbrochen; diejenige des Zornigen ist aiguë (hoch, schrill), impétueuse (ungestüm) und violente (heftig) mit häufigen Atempausen. Freude macht die Stimme pleine (voll), gaie (munter) und coulante (fließend). Die Liste der kodifizierten Passionen kann problemlos fortgesetzt und die hier nach Le GrasLe Gras (1671) und Michel Le FaucheurLe Faucheur, Michel (1676) zitierten Attribute können mit Synonymen und ähnlichen Formulierungen anderer Autoren erweitert werden.3

      Die Analyse der vokalen Mittel, die zum ausdrucksvollen Vortrag einer bestimmten Textstelle eingesetzt werden, war früher wie heute ein Mittel, um die vokale Übermittlung von Emotionen zu stilisieren und zu kodieren. Wenn früher allein das Ohr zur Beschreibung der Stimmmodulation eingesetzt werden konnte, so existieren heute neben Aufnahme und anschließender Reproduktion zusätzliche technische Analysemittel. Die Ergebnisse der auf der Basis dieser Möglichkeiten entwickelten Methode zur Studie der emotionsmotivierten Prosodie von Bänzinger et al. (2002) können, so die Autoren, für die vokale Synthese genutzt werden können. Am Anfang steht eine akustische Analyse der segmentierten phonetischen Einheiten, gefolgt von der Berechnung der Mittelwerte der verschiedenen akustischen Parameter (die Grundfrequenzen f°, Tondauern sowie verschiedene Verteilungs- und Proportionswerte). Zur Beschreibung der Intonation werden anschließend die Konturen der Kurven der Grundfrequenzen f° und der Energie stilisiert.

      Die zur Studie der durch die Stimme ausgedrückten Emotion untersuchten Parameter entsprechen – wieder einmal – der „Musik der Sprache“, und der gewählte Ansatz erhält eine sinnvolle Begründung durch die Arbeiten im Bereich der Kognitionswissenschaft. Laut Brück et al. (2013: 265-266) scheint die Verarbeitung der emotionalen Prosodie im Gehirn einen doppelten Weg von der Signalaufnahme bis zur Verhaltenskontrolle einzuschlagen: Die explizite Sprachverarbeitung erfolgt in den frontalen Hirnregionen in drei Schritten, von denen jeder eine spezifische Aufmerksamkeitsfokussierung erfordert:

      1 Die spezifischen akustischen Merkmale der emotionalen Prosodie werden herausgefiltert,

      2 Die emotionalen Inhalte werden durch die Integration prosodischer Informationen der analysierten Aussage und anderer Kommunikationskanäle sowie durch Abgleich mit Assoziationen kompatibler Gedächtnisinhalte identifiziert,

      3 Art und Ausprägung verschiedener, im analysierten Signal enthaltener Emotionen werden evaluiert.

      Gleichzeitig werden die impliziten Signale auf einem schnelleren Weg, der Induktion emotionaler Reaktionen, in den limbischen und paralimbischen zerebralen Strukturen verarbeitet. Eine forcierte, den expliziten Sprachinhalten gewidmete Aufmerksamkeit kann allerdings die limbischen, emotionalen Strukturen hemmen „und somit zu einer Unterdrückung impliziter Verarbeitungsprozesse führen“ (Brück et al., 2013: 266). In diesem Zusammenhang ist interessant, dass das limbische System, das die impliziten Signale der emotionalen Prosodie verarbeitet, in besonderer Weise durch Musik angeregt wird. Wie Emmanuel BigandBigand, Emmanuel und Suzanne Filipic (2008) zeigen konnten, erfolgen die kognitiven Reaktionen, die emotionellen Antworten auf musikalische Ereignisse entsprechen, normalerweise unverzüglich, von der ersten Hunderstelsekunde der Wahrnehmung an, und dies bei musikalisch gebildeten oder unbedarften Versuchspersonen sowie für bekannte oder unbekannte musikalische Werke gleichermaßen.4 Die These, dass wir auf die Intonation der Sprechstimme wie auf eine fröhliche, traurige, melancholische oder anregende Melodie reagieren, und dass damit Melodien oder Intonationskurven stilisiert werden können, die automatisch und unbewusst bestimmten Emotionen zugeordnet werden, ist von Forschern wie Iván FónagyFónagy, Ivan untersucht worden.

      1.3 Notation von Prosodie und Musik

      Stilisierte Intonationskurven wie die oben von Bänzinger et al. angesprochenen, werden heute in Form von Diagrammen dargestellt. Bei diesen Autoren sind die beiden Diagrammachsen den Parametern Tonhöhe (y-Achse) und zeitlicher Verlauf (x-Achse) zugeordnet. Die einzelnen Punktwerte sind mit einer durchgängigen Linie derart verbunden, dass eine Kurve entsteht, die an eine melodische, in einer Partitur notierte melodische Linienführung erinnert (in der man sich ebenfalls die Notenköpfe durch eine Linie verbunden vorstellt), und in der die fünf Notenlinien vertikal den Tonhöhen entsprechen und horizontal den zeitlichen Verlauf wiedergeben. Dies ist nicht etwa ein ausschließlich auf moderne Gewohnheiten zurückgehender Eindruck eines Betrachters oder einer Betrachterin des 21. Jahrhunderts: Die Möglichkeiten der musikalischen Notation faszinierten die französischen Sprachtheoretiker bereits seit Langem. Besonders in den Bereichen Intonation