Neurokognition musikalischer Zeichen
Donnerstag, 12. Juli 2007In diesem Semester ist es meine Abschlußaufgabe, ein musikalisches Stück meiner Wahl nach semiotischen Gesichtspunkten zu analysieren. Wie steht es aber um die musikalische Semiotik und welche Analysemethoden sollte ich anwenden? Um dieser Frage näher zu kommen, schaute ich mir an, wie Musik im Gehirn verarbeitet wird, in der Hoffnung, dadurch mehr über die Beschaffenheit musikalischer Zeichen zu erfahren. Meine Ergebnisse habe ich in diesem Essay zusammengefaßt.
Neurokognition musikalischer Zeichen
Auf der Suche nach einer musikalischen Semiotik, also einer Theorie des Zeichensystems Musik, ging ich von einer oft gehörten Behauptung aus, nämlich der These, dass Sprache und Musik sehr viel gemeinsam haben. Aber worin bestehen diese Gemeinsamkeiten? Sprache ist ein Zeichensystem, genau wie Musik. Aber die sprachlichen Zeichen (z.B. Wörter) sind größtenteils Symbole – es gibt eine stillschweigende Übereinkunft darüber, was sie bedeuten. Dog, chien oder Hund beziehen sich alle auf ein vierbeiniges Säugetier der Familie Canidae. Aber die Wörter haben mit dem Ding an sich nichts gemein. In der Musik ist das ein bisschen anders. Zwar gibt es auch dort Symbole, aber größtenteils können wir nicht sagen, eine Tonfolge, ein Motiv oder ein Rhythmus stünde für dieses oder jenes Ding in der Welt. Dennoch schient Musik eine Bedeutung zu haben, denn sie kann verschiedene Individuen in ähnliche Stimmung versetzen oder ähnliche Assoziationen bei ihnen hervorrufen. Aber wie funktioniert diese Verbindung zwischen der Erscheinungsform eines musikalischen Zeichens und seines Bedeutungsinhaltes?
Ich dachte mir, dass mir die Kenntnis darüber, wie ein musikalisches Signal im Gehirn verarbeitet wird, vielleicht bei der Frage weiterhelfen könnte, wie musikalische Zeichen beschaffen sind. Musik ist wie Sprache ein akustisches Signal zeitlicher Dimension, das charakterisiert durch Frequenz und Rhythmus durch’s Ohr in unser Bewußtsein dringt. Lange glaubte man, bei der Verarbeitung von Musik würden exakt die Areale auf der rechten Hirnhälfte aktiv, die auf der linken Seite für die Sprachverarbeitung zuständig sind, z.B. das Broca-Areal und das Wernicke-Areal. Experimente einer Forschergruppe des Max Planck Instituts für Kognitions- und Neurowissenschaften Leipzig1 lieferten dahingehend spannende Ergebnisse. Hörer reagierten auf musikalische Inkongruenzen, wie unerwartete oder dissonante Akkorde, mit einer starken Hirnaktivität in dem dem Broca-Areal gegenüberliegenden Bereich. Auch wenn das nicht für die Theorie Sprache links und Musik rechts spricht, so spricht es doch für einen semiotischen Aspekt. Wenn das Gehirn auf der rechten Seite in gleicher Weise gegen Störakkorde protestiert, wie es auf der linken Seite gegen grammatische Störungen in der Sprache protestiert, so ist das ein Indiz für eine musikalische Grammatik, also ein Regelwerk der Formenzusammensetzung musikalischer Zeichen.
Ebenso wie mich interessiert die Forscher nun, ob es demzufolge auch eine musikalische Semantik gibt. Trotz einiger Experimente scheint dies noch immer schwer zu sagen, denn man ist sich uneins darüber, welche Merkmale überhaupt eine musikalische Semantik evozieren. Es scheint dabei um Emotionen, Affekte, aber auch Programmatik und Bekanntheit gehen. So zeigten weitere Experimente des MPI-Teams z.B., dass das Gehirn relativ schnell auf bekannte Melodien reagierte, während es über unbekannte länger nachgrübelte. Womöglich gibt es sogar eine Art Lexikon, das musikalische Phrasen speichert, aber so richtig weiter bringen, tut mich das noch nicht.
Dies Frage nach der Semantik ließ mich nicht ruhig und ich wollte weiter in die neurologischen Verarbeitungsprozesse eindringen. Auf einen interessanten Ansatz stieß ich bei Jeff Hawkins, der einst am MIT künstliche Intelligenz erforschte und in seinem Buch „On Intelligence“2 über die Funktionsweise des Kortex‘ schrieb. Die Verarbeitung von auditiven, visuellen oder somatosensorischen Sinneseindrucken erfolgt nämlich in mehreren stemmatischen angelegten Schichten, die alle gleichermaßen versuchen die Muster und Sequenzen von Signalen wiederzuerkennen und Prognosen darüber anzustellen, welches Muster als nächstes die Wahrnehmung treffen müßte. Dabei nehmen die tiefer liegenden Schichten kleinteiligere, detailliertere Muster wahr, ordnen den zusammenhängenden unter ihnen einen „Namen“ zu und geben diesen „Namen“ an die nächst höhere Schicht weiter. Die nächst höhere Schicht nimmt dann schon einen nicht mehr ganz so kleinen, weniger detaillierten Teil des Musters wahr, ordnet Zusammenhängendem wiederum einen „Namen“ zu und gibt ihn an die nächst höhere Schicht weiter, bis dann im Assoziationsfeld ein ganzheitlicher Eindruck z.B. eines Gesichtes, einer Tonfolge oder eines gefühlten Gegenstandes ankommt. Gleichzeitig gibt jede Schicht ihre Prognose darüber ab, was die Wahrnehmung als nächstes trifft, denn anhand der Namensgebung werden bekannte Sequenzen erkannt. Zu jedem reinkommenden Signal gibt es also ein Feedback. Da alle Hirnregionen mehr oder weniger eng miteinander verknüpft sind und ein großes Netzwerk bilden, kann zum Beispiel auf den Höreindruck von Schritten das visuelle Feedback erfolgen, dass demnächst eine Person in meinem Blickfeld auftaucht. Auch an den motorischen Kortex wird ein solches Feedback weitergegeben. Die Prognose ist hier eine Handlungsanweisung, z.B. sich erschreckt umzudrehen, wenn man hinter sich im dunklen Wald plötzlich ein knackendes Geräusch hört und dabei ein bisschen Adrenalin auszuschütten.
Es ist ein Verhalten, eine Erkennensreaktion, die dem graphischen Muster |HUND| im Gedächtnis die Assoziation eines zottigen Vierbeiners hervorruft. Aber auch beim Hören einer Melodie etwas zu fühlen, ist ein Verhalten, denn das Gehirn reagiert auf das Erkennen eines musikalischen Musters oder einer musikalischen Sequenz mit bestimmten elektrischen Impulsen oder der Ausschüttung bestimmter Hormone, was wir u.U. als Gefühl wahrnehmen. Was wir assoziieren, wenn wir das Wort „Hund“ lesen, klärt uns über die Semantik der Sprache auf. Was wir assoziieren, wenn wir eine Melodie, einen Rhythmus, eine Sinfonie hören, verweist uns hingegen auf die Semantik der Musik, egal ob wir es abstrakt fühlend, denkend oder vor dem inneren Auge sehend assoziieren.
Auf meiner Suche nach einer Semiotik der Musik hat mich die Betrachtung der kognitiven Verarbeitung musikalischer Signale also schon sehr viel weiter gebracht. Ich habe Argumente gefunden, die für das Vorhandensein einer musikalischen Syntax (also einer zeichentheoretischen Formebene) sprechen und gleichzeitig eine Idee davon bekommen, wo nach einer musikalischen Semantik (also einer zeichentheoretischen Bedeutungsebene) zu suchen ist. Unklar ist nachwievor, welchen Regeln die musikalische Grammatik folgt und nach welchen Kriterien die semantische Assoziation erfolgt.
Es ist naheliegend, davon ausgehen, dass es die musikalische Grammatik nicht gibt. Denn ebenso wie sich das Griechische und das Indische sprachlich unterscheiden, unterscheidet sich auch die griechische von der indischen Musik. Beide folgen einem eigenen systematischen Regelwerk. Es ist Aufgabe der Musikethnologen und -historiker, näheres darüber in Erfahrung zu bringen. Doch auch hier mag man (wie Chomsky in bezug auf die Sprache) über mögliche universelle Aspekte spekulieren. Denn immerhin sind Grammatik und Semantik auch in einem Sprachsystem nicht immer sauber zu trennen und bedeuten tun letztlich alle sprachlichen Formen Dinge in der realen Welt. Zwischen der realen Welt in Indien und der in Griechenland gibt es viele Unterschiede – aber es gibt eben auch unleugbare Gemeinsamkeiten.
Die Zuordnung sprachlicher Formen zu ihren Bedeutungen in der realen Welt basiert auf einer gesellschaftlichen Übereinkunft, einem Code. Deshalb sprechen wir bei sprachlichen Zeichen von Symbolen. Im Gegensatz dazu stehen Ikonen, wo die Relation zwischen Form und Bedeutung eines Zeichens auf Ähnlichkeit basiert, und Indices, wo die Relation auf der Kontiguität von Zeichen und Bedeutung beruht. Wir haben uns irgendwann geeinigt, dass der haarige Vierbeiner der Familie der Canidae Hund oder dog oder chien heißt; als Kinder haben wir es von unseren Eltern so gelernt. Bei der Musik ist das nicht so einfach. Es steht fest, dass das graphische Zeichen der Viertelnote das zeitliche Längenverhältnis eines Tons von 1:4 kennzeichnet, einige haben sich geeinigt, dass das „ta-ta-ta-da“ am Anfang der Fünften Sinfonie von Beethoven ein Schicksalsmotiv ist und vielleicht mögen zwei Menschen auch darin übereinkommen, dass sie ein und dasselbe Stück beide als traurig oder agressiv empfinden. Aber systematisch untersucht hat man das bisher nur wenig, undzwar weil es noch keine etablierten Analysemethoden gibt. Die Musiksemiologie versucht, solche zu finden und anzuwenden und anhand ihrer Arbeit mehr Aufschluß über das Zeichensystem Musik zu erlangen.
__________
Quellen:
1. Max Planck Institut für Kognitions- und Neurowissenschaften: Spiegelbild der Sprache – Neurokognition von Musik, Leipzig 2004
2. Jeff Hawkins, Sandra Blakeslee: On Intelligence. How a new understanding of the brain will lead to the creation of truly intelligent machines, Times Books, New York 2004
__________
Ich bitte zu beachten, dass es sich bei diesem Text um einen Teilvorentwurf zu meiner inzwischen veröffentlichten Semesterarbeit Fumeuse speculations. An Essay on Musical Semiotics and a Semiotic Analysis of the Fourteenth Century Rondeau „Fumeux fume“ [Link] im Fach Musikwissenschaft handelt.