Rhythmus in der westeuropäischen Musik
Ein signifikanter Teilbereich meiner Magisterarbeit wird sich mit der Frage, „Was ist Rhythmus?“, befassen. Ich habe dazu u.a. im Buch „Music, language and the brain“ (Oxford Univ. Press 2008) des amerikanischen Neurowissenschaftlers Aniruddh D. Patel gelesen, woraus ich hier nun einige Erkenntnisse zusammenfassen möchte. Ich halte die Ansätze der Musikkognition deshalb für interessant, weil die Struktur unseres Gehirns, unsere Wahrnehmung und damit auch unser Umgang mit Zeichensystemen (z.B. für die Aufzeichnung von musikalischem Rhythmus) in engem Zusammenhang stehen. Ich hoffe, dadurch Rückschlüsse darauf ziehen zu können, wie das „Ding ‚Rhythmus‘ in der Wirklichkeit“ beschaffen ist, auf welches ein musikalischen Zeichen verweist. Wenn ich mir anschaue, was Rhythmus eigentlich ist, d.h. sehe wieviele verschiedene Seins-Zustände er haben kann, dann verstehe ich vielleicht besser, wie dieser oder jener rhythmische Code funktioniert, was seine Nutzer sich dabei gedacht haben, ihn so oder so zu verwenden oder wie die Verwenung dieses Codes ihre Wahrnehmung und ihren Umgang mit musikalischem Rhythmus beeinflußt und verändert hat.
Für mich als Mediaevistin ist es an dieser Stelle schade, dass sich der Großteil, wenn nicht sogar die gesamte Kognitions-Forschung mit westeuropäischer Musik befaßt, wie sie seit ca. 1650 vorzufinden ist. Während im Bereich der Sprache der Rhythmus unterschiedlicher Länder und Kulturen in Betracht genommen wird, ist es im Bereich der Musik immer wieder der periodische Rhythmus der (zugegebenermaßen weit verbreiteten) westeuropäischen Musik – und das, obwohl für die Kognitionwissenschaftler insgesamt klar ist, dass Periodizität nicht das ausschlaggebende Kriterium für Rhythmus ist. Dies betont auch Patel in der Einleitung zum dritten Kapitel seines Buches über Rhythmus. Zwar bedeute der Begriff „Rhythmus“ in den meisten Kontexten Periodizität, jedoch sei es wichtig, zwischen Periodizität und Rhythmus zu unterscheiden. Obwohl alle periodischen Muster rhythmisch seien, seien nicht alle rhythmischen Muster periodisch. Periodizität ist also nur eine von vielen Arten rhythmischer Organisation.
Dieser Aspekt und daher auch meine Frage nach den anderen, nicht periodischen Arten rhythmischer Organisation in der Musik, ist für mich als Mediaevistin deshalb spannend, weil die Frage, ob musikalischer Rhythmus in der westeuropäischen Musik schon immer periodisch war, eine wichtige und nach wie vor ungeklärte Frage mediaevistischer Musikforschung ist. Ein besseres Verständnis für Organisation von musikalischem Rhythmus jenseits von Periodizität könnte unsere Sicht auf den Rhythmus mittelalterlicher Musik enorm verändern – einfach weil es uns von unserer eigenen westeuropäischen Sozialisation ein Stück weit befreien würde.
„I will define rhythm as the systematic patterning of sound in terms of timing, accent, and grouping.“ (A.D. Patel)
Obwohl Patel also explizit z.B. auf die schwebenden, freien Rhythmen der chinesischen Ch’in-Spieler, die irregulären Beat-Zyklen der Balkan-Musik oder die nicht-isochrone Polyrhythmik ghanischer Trommler hinweist, geht er im Folgenden nur tiefer auf Musik mit regulärem, in der Wahrnehmung isochronem Puls ein, wie er in der westeuropäischen Musik heute vorzufinden ist. In keiner Weise ist unser Gehirn jedoch in der Produktion und Wahrnehmung rhythmischer Muster auf diese relativ simplen, isochronen Rhythmen beschränkt. Dennoch sind rhythmische Aspekte der westeuropäischen Musik, wie regulärer Beat, Metrik und Gruppenbildung zu Phrasen, in der Musik vieler Kulturen verbreitet, weshalb man fragen könnte, ob diese Aspekte nicht generell kognitive Vorlieben des menschlichen Gehirns widerspiegeln.
Der Beat in der Musik
Für das englisch Wort „Beat“ fällt mir im Deutschen bisher keine adäquate Übersetzung ein – Schlag oder Puls könnte man substituieren. Es geht um das Phänomen stabilder mentaler Periodizität, das z.B. Ensemble-Musikern oder Tänzern als gemeinsame zeitliche Referenz dient. Die Wahrnehmung von Beats ist eng mit Bewegung, z.B. Tanz verknüpft. Bis 2008 glaubte die Kognitionsforschung, der Mensch sei das einzige Lebewesen, welches spontan tanzt, d.h. seine Bewegungen zu einem extern vorgegebenen Puls synchronisiert. Inszwischen ist bekannt, dass auch Tiere (insb. diejenigen mit der Fähigkeit, Laute nachzuahmen) tanzen können (s. dazu „Investigating the Human-Specificity of Synchronization to Music“, Patel et.al [PDF]).
Die Wahrnehmung von regulären Beats in der Musik ist ein aktiv umforschtes Feld der Musikkognition. Die meisten Forscher sind sich darüber einig, dass verschiedene Faktoren für das Erkennen des Beats eine Rolle spielen: Das Schlag-Ereignis geht mit dem Einsatz (Onset) der Note, mit längeren Notenwerten und/oder dem Beginn (Onset) von Wiederholungen musikalischer Phrasen einher, es ist regulär und richtet sich nach dem Beginn musikalischer Phrasen und/oder harmonischer Wechsel aus.
Der Mensch hat eine bevorzugte Beat-Rate. Tempi schneller als 200 ms und langsamer als 1,2 s sind nicht mehr nachvollziehbar. Das bevorzugte Tempo liegt bei Schlägen alle 500 – 700 Millisekunden. In derselben Rate liegt auch der durchschnittliche Zeitabstand zweier betonter Silben in Sprachen mit betonten und unbetonten Silben [!] und ebenfalls ist dies der Bereich, in dem Menschen Zeitdauern am genauesten abschätzen können. Obwohl Hörer meist einem bestimmten Klatsch-Tempo verhaftet bleiben, können die meisten problemlos zwischen Beatraten hin- und herspringen, die einfache Teiler (Halbe) oder Vielfache (Doppelte) ihres bevorzugten Tempos sind.
Menschen sind unterschiedlich gut darin, ihre Schläge mit vorgegebenen Beats zu synchronisieren; am besten gelingt ihnen das, wenn die vorgegebenen Beats mit ihrer spontanen Klatschgeschwindigkeit korrelieren. Was ein Hörer bei der Synchronisation mit Musik als Beat auswählt (sein persönlicher „Tactus“), ist nur ein Level innerhalb einer Hierarchie von Beats. Unsere Synchronisationsmechanismen sind aber so flexibel, dass sie mit moderaten Temposchwankungen und sogar mit Offbeats und Synkopen gut umgehen können.
Eine wichtige Erkenntnis ist aber, dass Hörer unterschiedlicher Kulturen wahrgenommene Beats in Musik unterschiedlich strukturieren. Sind sie mit der Musik kulturell vertraut, nehmen sie Beateigenschaften auf größerer Ebene wahr, als es bei unvertrauter Musik der Fall ist. Dies zeigt, dass die Wahrnehmung von Puls keine passive Antwort des auditiven Systems auf physikalische Periodizität ist, sondern dass sie unter kulturellem Einfluß steht. Sie ist außerdem antizipatorisch und nicht reaktiv. Dies haben Studien gezeigt, in denen Hörer zu vorgegebenen regelmäßigen Beats klatschen sollten. Die Schläge der Hörer kamen aber immer kurz vor den eigentlichen Beats, so dass man davon ausgehen kann, dass Beat-Wahrnehmung ein mentales Zeitmodel beinhaltet, für das Erwartungen über zeitlich-periodische Ereignisse eine zentrale Rolle spielen.
Metrik in der Musik
In der westeuropäischen Musik sind nicht alle Beats gleich, einige sind stärker als andere. Diese dienen dazu, Periodizität auf einem höheren Level zu erzeugen, wobei bestimmte Beats zu Gruppen zusammengefaßt werden. Diese Metren werden in westeuropäischer Musik als Vielfache der Zahlen 2 und 3 organisiert, d.h. die Zahlen 2 und 3 konstituieren sowohl die Anzahl der Schläge pro Grundeinheit (Takt), als auch die Anzahl der Unterteilungen pro Schlag. Jedes Metrum hat zusätzlich zur Ausbildung von Periodizität auf der Ebene über dem Beat (durch Gruppierung von starken und schwachen Beats) wenigstens eine Stufe der Unterteilung unterhalb des Beats. Diese Gliederung von verschiedenen Ebenen der Periodizität präsentiert sich als metrisches Raster (metrical grid).
Abb.: Rasternotation in einem metrischen Raster
Quelle: http://mit.edu/music21/doc/html/_images/overviewMeters-07.png
Verschiedene Ebenen von Periodizität können innerhalb des metrischen Rasters durch mehrere Reihen isochroner Punkte indiziert werden. Diese Darstellung wird Rasternotation genannt und findet auch in der metrischen Phonologie, einem Teilbereich der Linguistik, Verwendung. Zu jedem dieser isochronen Level kann man klatschen, ohne sich asynchron zur Musik zu fühlen. Für die Wahrnehmbarkeit und Synchronisation ist es wichtig, dass die oberste und unterste Ebene des Rasters innerhalb des Tempo-Rahmens für Metren liegen, d.h. die Perioden sollten nicht schneller als 200ms und nicht langsamer als 4-6 s sein.
Obwohl stärkere Beats als akzentuiert wahrgenommen werden, korreliert dieser Akzent in der Musik (anders als in der Sprache) nicht immer mit physikalischen Markern wie Intensität, Dauer oder melodischer Kontur. Die Wahrnehmung eines musikalischen Akzents scheint vielmehr aus dem Erkennen von Periodizität auf verschiedenen Ebenen zu erwachsen. Es gibt zwar physikalisch meßbare Akzente, ebenso gibt es aber strukturelle Akzente, das heißt Beats die zwar nicht physikalisch meßbar markiert sind, aber aufgrund ihrer Stellung innerhalb der musikalischen Struktur (z.B. Phrasenbeginn, Beginn eines harmonischen Wechsels, etc.) prominent erscheinen. Das Zusammenspiel dieser zwei Arten von Akzent in der Musik ist oft verantwortlich für die Komplexität musikalischer Rhythmen, z.B. im Offbeat oder der Synkope, wo physikalisch markierte Akzente gegen die strukturell prominenten Stellen im metrischen Raster verwendet werden.
Dieses metrische Raster ist also nicht einfach eine Abbildung der Akzentstruktur von Musik, sondern ein mentales Muster verschiedener Periodizitäts-Ebenen im Kopf des Zuhörers. Da eine solche mentale Projektion rhythmischer Periodizität in der Sprache fehlt, sind rhythmische Verschiebungen wie Synkopen und Offbeats selbst in metrischer Sprache nicht konstruierbar. Darin und in dem Umstand, dass Sprachrhythmus nicht zum Tanzen verführt, liegt ein wichtiger Unterschied zwischen Sprach- und Musikrhythmus.
In der Musiknotation werden die Grundmuster für Gruppierung und Akzentuierung im mentalen Raster durch die Taktart (3/4, 6/8, etc.) angezeigt. Versuche haben gezeigt, dass es einen Unterschied macht, ob ein Proband gegen ein Metronom oder gegen ein metrisches Muster klatscht. Klatscht er gegen ein metrisches Muster, so unterscheiden sich seine schweren Beats in Dauer und Intensität zwar nicht von den leichten, jedoch sind sie zeitlich präzieser mit den vorgegebenen Beats, zu denen geklatscht wird, synchronisiert. Ein anderer Versuch zeigte, dass von zwei in Intensität und Dauer identischen Tönen, die einem Probanden sukzessive vorgespielt wurden, derjenige zu vermehrter Gehirnaktivität im Beta-Frequenzband führte, der vom Probanden als schwerer Schlag imaginiert wurde.
Das Beta-Frequenzband um 20-30 Hz wird von Neurologen mit dem motorischen System assoziiert. Es ist also anzunehmen, dass es bei der Wahrnehmung musikalischer Metrik zu einer Kopplung zwischen auditivem und motorischem System kommt. Der Versuch zeigt aber auf jeden Fall, dass die Wahrnehmung von Metrik in der Musik mit einer aktiven „Bearbeitung“ der eintreffenden akustischen Signale im Sinne des mentalen Bildes periodischer Struktur, d.h. der Erwartungshaltung, stattfindet.
Gruppenbildung in der Musik
Beim Aspekt der Gruppierung (eng. grouping) geht es um die Wahrnehmung von Phrasen- oder Ereignisgrenzen, wobei die Elemente zwischen zwei Grenzen zusammengenommen einen zeitlichen Abschnitt (Phrase) bilden. Gruppierung ist von Metrik zu unterscheiden; hierbei geht es nicht um ein periodisches Raster, sondern um die mentale „Portionierung“ der Zeitwahrnehmung. Das Zusammenspiel von Metrik und Gruppierung ist verantwortlich für den rhythmischen Charakter von Musik.
In Versuchen, in denen Temposchwankungen an Phrasengrenzen erkannt werden sollen, schneiden Probanden erstaunlich schlecht ab. Dies könnte daran liegen, dass sie Temposchwankungen an diesen Stellen erwarten. Die meisten Musikinterpreten senken an Phrasenenden die Tonhöhe und drosseln das Tempo. Diese physikalische Markierung von Phrasenenden spielt auch für die Markierung von Phrasenenden in der Sprache eine wichtige Rolle. Gruppierungen können in der Musik auf verschiedene Weisen markiert werden, z.B. durch prominente Wechsel in der Intensität, der Dauer, der Tonhöhe, des Timbres. Auch die motivische Wiederholung kann eine Rolle bei der Demarkation von Phrasengrenzen spielen.
Die Moderne Kognitionswissenschaft betrachtet die Gruppierung musikalischer Elemente als hierarchisch (Motive, Phrasen, etc.), darin ähnelt die Strukturierung von Musik der prosodischen Struktur von Sprache. Die Parallelen zwischen sprachlichem und musikalischem Rhythmus sind im Bereich der Gruppierung enorm. Allerdings weist Patel darauf hin, dass prosodische Gruppierungen nicht einfach die syntaktische Struktur einer Äußerung widerspiegeln, sondern ein davon separates phonetisches Level beschreiben. Das Beispiel, das Patel allerdings zur Erläuterung dieser These anbringt, überzeugt mich nicht, da ich die von ihm als syntaktische Abschnitte markierten Satzbestandteile nicht als syntaktische Phrasen anerkennen kann. Ich würde daher die Korrelation von Phrasengrenzen in der Sprache mit der syntaktischen Struktur einer Äußerung durchaus in Betracht ziehen; zumal verschiedene syntaktische Modelle bei der syntaktischen Gliederung von Sprachäußerungen durchaus zu unterschiedlichen Ergebnissen kommen. Richtig ist aber sicherlich, dass für die Gruppierung sprachlicher Äußerungen neben der Syntax auch semantische Beziehungen zwischen einzelnen Wörtern oder das Interesse eines Sprechers, bestimmte Satzteile zu betonen, eine Rolle spielen.
Die Gruppierung von Sprachelementen ist nicht willkürlich, Psycholinguisten können anhand syntaktischer Analysen gute Prognosen über die Platzierung von prosodischen Phrasengrenzen abgeben, was meine These von der Korrelation, bzw. dem starken Einfluß von Syntax auf Gruppierung bekräftigt. Prosodische Hierarchie hat definitiv mehrere Ebenen, wobei die Ebenen ineinander verschachtelt sind und die Grenzen niederer Ebenen mit denen höherer zusammenfallen.
Abb.: Stemma syntaktischer Hierarchie
Quelle: http://www.fask.uni-mainz.de/lk/lk/abstracts/A_Z01.gif
In gesprochener Sprache werden die Abstände zwischen einzelnen Wörtern nicht als gleich empfunden, einige Wörter hängen enger aneinander, andere weiter. Versuche haben gezeigt, dass die Dehnung von Silben am Phrasenende mit der wahrgenommenen Weite des Wortabstandes korreliert: je weiter der Abstand, desto länger die Silbendehnung. Dieser Befund aus der Linguistik deckt sich mit Befunden zur Phrasierung in der Musik, wo zeitliche Ausdehnung, genau wie in der Sprache, mit Markierung der Tonhöhe und Amplitude korreliert. Gruppierung scheint ein rhythmisches Phänomen zu sein, das sowohl in der Musik, als auch in der Sprache anzutreffen ist. Musik und Sprache teilen diverse akustische Marker zur Kennzeichnung von Phrasengrenzen; diese Gemeinsamkeiten könnten Hinweise auf ähnliche kognitive Verarbeitungsprozesse rhythmischer Gruppen in Musik und Sprache sein.
Ereignisse mit zeitlicher Ausdehnung
Die drei Aspekte Beat, Metrik und Gruppierung behandeln lediglich Grenzen und prominente Punkte. Aber auch die Frage, wie die Zeit zwischen diesen Punkten gefüllt wird, ist für die Rhythmus-Forschung interessant. Eine der hierbei betrachteten Größen nennt sich IOI (interonset interval) und steht für die Dauer zwischen zwei Einsätzen (onsets) musikalischer Ereignisse.
In der westeuropäischen Musik ballen sich diese IOIs spannenderweise um zwei Zeitkategorien: kurze Intervalle von 200 – 300 ms und lange Intervalle von 450 – 900 ms, die vom Zuhörer auch unterschiedlich wahrgenommen werden. Während er lange Intervalle als separate Größen erkennt, nimmt er die kürzeren als Kollektiv einer Gruppe wahr. In der Sprache gibt es solche Zeitkategorien nicht. Zwar existieren aufgrund artikulatorischer Grenzen Minimaldauern und Silben können durch unterschiedliche Anzahl beteiligter Phoneme auch unterschiedlich lang sein, doch spiegeln die Zeitintervalle einzelner Sprachelemente eher ein Kontinuum wider.
Messungen zeigen, dass von Interpreten gespielte Zeitintervalle enorm von den notierten Tondauern abweichen und dass die gespielten Zeitintervalle ein- und derselben notierten Tondauer sehr unterschiedlich ausfallen können. Dass Interpreten an Phrasenenden gerne das Tempo drosseln, wurde bereits im Abschnitt zu Gruppierungen erwähnt. Dass sie das Tempo am Beginn der nächsten Phrase aber so anziehen, dass sich in den Dauern der IOIs eine geschmeidige Parabel ergibt, könnte ein Hinweis auf eine Analogie zwischen musikalischer und physikalischer Bewegung als ein der menschlichen Wahrnehmung innewohnendes Prinzip sein.
Fazit für die Mediaevistin
Ich fasse die für mich interessanten Erkenntnisse zusammen: Periodizität ist nur eine Form von Rhythmus, keineswegs die einzig denkbare. Die Fähigkeit zur Synchronisation mit einem vorgegebenen Puls scheint verknüpft mit der Fähigkeit, Laute nachzuahmen, die für die Adaption menschlicher Sprache erforderlich ist. Das bevorzugte Tempo aufeinanderfolgender Beats in der Musik entspricht dem durchschnittlichen Abstand zweier betonter Silben (in Sprachen mit betonten und unbetonten Silben). Musikalischer Puls scheint mit dem Phänomen der Phrasenbildung und Wiederholung einherzugehen. Teiler und Mehrfache von 2 + 3 spielen in der rhythmischen Musikorganisation eine bedeutende Rolle, außerdem besteht ein Zusammenhang zwischen der Wahrnehmung von musikalischer Metrik und Motorik, wie Tanz. Andere Aspekte musikalischen Rhythmus‘, wie Gruppierung, organisieren auch den rhythmischen Charakter von Sprache. Physikalische Marker für Phrasengrenzen, wie Dehnung der Eventdauer, Absenken der Intonation und drosseln der Lautstärke, sind in der Musik ebenso zu finden wie in der Sprache. Die IOIs in der Musik klustern sich, anders als in der Sprache, um die Kategorien „lang“ und „kurz“. Notierte Tondauern und reale Tondauern sind nicht identisch, sondern abstrahieren die realen Verhältnisse.
Für meinen diachronen Ansatz zur Betrachtung von Rhythmusnotation in der Musik des westeuropäischen Mittelalters ergeben sich daraus einige interessante Aspekte: 1.) Musikalischer Rhythmus muß nicht immer schon periodisch und von einem mentalen metrischen Raster geprägt gewesen sein. Denn das Gehirn ist fähig, andere Formen von Rhythmus wahrzunehmen und zu produzieren. 2.) Die vielversprechendsten Ansätze für Rhythmus-Theorien jenseits von Periodizität liegen in der Sprachrhythmus-Forschung (leider auch aufgrund eines Mangels an musikethnologischen Untersuchungen, die hierfür ebenfalls interessant wären). 3.) Nahezu die gesamte notierte Musik, die uns aus dem Mittelalter überliefert ist, ist Vokalmusik, d.h. Text, zu dem Melodien notiert sind.
Bei den drei Entwicklungsstufen mittelalterlicher Notation, die ich in meiner Magisterarbeit näher betrachten werde, handelt es sich um Neumen, Modal- und Mensuralnotation. Die Musik-Paläographie lehrt, dass Neumen ab ca. 900 überliefert sich, zunächst linienlos, später ermöglicht es die Notation auf Linien, exakte Tonhöhen zu fixieren. Um 1200 kommt es zu einem Zeichensystem, der Modalnotation, das sich um Notation exakter, d.h. rationaler Zeitdauern in den vokalisen Passagen der sog. Organa bemüht. Die Modalnotation kennt verschiedene, an antike, metrische Versfüße angelehnte rhythmische Formeln. Diese Formeln sind jedoch nur durch Notengruppen zu kennzeichnen, weshalb der Rhythmus syllabischer Passagen weiterhin nicht in den Notenzeichen selbst erkennbar ist. Freie, von den Formeln unabhängige, rationale Rhythmen kann erst die Mensuralnotation (lat. mensura = Maß) ab ca. 2. H. 13. Jh. notieren, der dies in syllabischen genau wie in melismatischen Passagen möglich ist. Erkennbar wichtig ist für alle drei Entwicklungsstufen das Verhältnis von Melodie und Text, Syllabik und Melismatik.
Die Kognitionsforschung bestätigt nun, dass frühe mittelalterliche Vokalmusik als frei von metrischen Rastern (d.h. rationalen, in einem meßbaren Verhältnis zueinander stehenden Tondauern) denkbar ist, ohne selbst „rhythmuslos“ gewesen sein zu müssen. Leo Treitler („The Early History of Music Writing in the West“, JAMS 35/2, 1982) und Robert Lug („Die Erfindung der modernen Notenschrift“, Signs & Time = Zeit & Zeichen, Tübingen 1998) weisen zu recht auf die graphische und funktionale Nähe der Neumen zum Inventar der Akzent- und Interpunktionszeichen hin. Interpunktion markiert prosodische Phrasengrenzen, Akzente hingegen die Ab- oder Anwesenheit von Betonung, d.h. hierdurch werden Aspekte von Sprachrhythmus und -melodie gekennzeichnet. Die Assoziation einer solchen Phrasenbildung mit den Psalmformeln ist frappierend. Zumal die Neumenzeichen selbst, die entweder für Einzeltöne oder für Tongruppen stehen, Silben zu demarkieren scheinen. Die Silbe gilt in der Sprachforschung als eine rhythmische Grundheinheit. Dass das bevorzugte Tempo des Pulses in Beatmusik mit dem durchschnittlichen Abstand betonter Silben korreliert, gibt der Frage nach einem regelmäßigen Puls in der neumatisch notierten Mittelaltermusik neue Berechtigung.
Fraglich ist aber, ob die lateinischen und bald französischen Texte überhaupt zwischen betonten und unbetonten Silben unterschieden haben. Dass die lateinische eine quantitierende, d.h. zwischen langen und kurzen Silben unterscheidende Metrik besitzt, ist bekannt. Dass dieses quantitierende System aber im Mittellateinischen keine Anwendung mehr fand, weniger. Dennoch korreliert die Feststellung zweier Zeitkategorien musikalischer IOIs (lang + kurz) mit den frühen, rationalen Notenwerten Longa und Brevis der Modalnotation, die, wie bereits erwähnt, auf Modellen antiker Metrik, d.h. regelmäßigen Abfolgen von langen und kurzen Tönen basierte. Es ist interessant, dass die Not zur Demarkation kurzer und langer Töne offenbar mit der Abwesenheit von Textsilben als primärem Organisator von Rhythmus in den vokalisen Passagen der Organa einhergeht.
Für die regelmäßige Abfolge von betonten und unbetonten Silben (wie bspw. in der deutschen Metrik) spielen die Zahlen 2 + 3 eine bedeutende Rolle. Da keine zwei betonten Silben nebeneinander stehen dürfen, bestehen regelmäßige Abfolgen aus zwei (Xx) oder drei (Xxx) Elementen. Ähnlich passiert es nun auch mit der Teilung der Tondauern von Longa und Brevis in der Mensuralnotation. Eine Longa kann entweder in drei oder in zwei Breven geteilt werden, eine Brevis in zwei oder drei Semibreven. Die Mensuralnotation erfindet auch erste Mensurzeichen (frühe Formen der Taktangabe), die die metrischen Teilungsmuster auf den verschiedenen Ebenen des Rasters vorgeben. Selbstverständlich bleibt fraglich, als wie exakt die vier Tondauern – Maxima, Longa, Brevis und Semibrevis – zu interpretieren sind, geben sie doch nur einen enorm reduzierten Ausschnitt des Spektrums real möglicher Tondauern wider. Vermutlich sind sie, genau wie unsere heutigen Zeichen, abstrakt.
Spannend ist aber vor dem Hintergrund des Einzugs des metrischen Rasters in die schriftliche Musiktradition die Entwicklung des Paartanzes und der Instrumentalmusik in Frankreich und Italien. Während die frühe mittelalterliche Vokalmusik zu prosaischen Formen neigte, entwickelte die spätmittelalterliche, weltliche Musik Freude an Wiederholung, Imitation und großformaler Geschlossenheit. Zunächst wurde der Paartanz und später auch die Instrumentalmusik zu höchstem Stil gepflegt und kultiviert.
Es ist anzunehmen, dass die kognitiven Unterschiede zwischen Sprach- und Musikrhythmus (oder besser nicht mental gerastertem und mental gerastertem) in der mittelalterlichen Musikgeschichte nachweisbar sind, nämlich immer da, wo sich die Bedeutung des Textes für die Melodie und damit sein Einfluß auf den Musikrhythmus wandelt, sei es aus funktionalen oder ästhetischen Gründen.
Januar 5th, 2012 15:39
Liebe LeV,
die Rhythmik ist ein spannendes, noch viel zu wenig untersuchtes Thema und auch in musikpädagogischer, neurologischer und therapeutischer Hinsicht sehr interessant.
In Deutschland beschäftigt sich ja der renommierte Neuropsychiater Manfred Spitzer mit der Wirkung von Musik und Rhythmen im neuronalen Netztwerk, und der Neurologe Thomas Münte an der Universität Magdeburg lässt teilgelähmte Patienten Rhythmen auf Drumpads nachspielen. Heilend wirkt dabei das Einüben komplexer Bewegungen.
Vielleicht ergeben sich während deiner Arbeit am Thema dazu Berührungspunkte; dann würde es uns freuen, wenn du das Ergebnis (in Form einer Zusammenfassung) auch als Gastbeitrag auf unserer Seite zur Musikpädagogik ( http://www.coaching-kiste.de/musik.htm ) bereitstellen könntest.
Viel Spaß und Erfolg bei der Magisterarbeit!
wf
Januar 5th, 2012 17:52
Uh, es wird vermutlich schon schwierig genug für mich, die Berührungspunkte von Neurologie und historischer Musikwissenschaft zusammenzufassen. Dass ich in Richtung Pädagogik und Therapie blicken werde, sehe ich da noch nicht. Aber vielleicht ja, wenn ich die Arbeit hinter mich gebracht habe.
Januar 7th, 2012 01:39
Ich lese diesen Blog nun schon seit Jahren. Ich fürchte mich immer etwas, wenn einer neuer Beitrag in meinem Feedreader auftaucht, denn ich weiß, die Beiträge sind selten kurz 😉
Dafür regen sie aber immer zum Denken an! Ich glaube, ich habe heute mehr über Rhythmus und dessen Aufbau gelernt, als in 12 Jahren Musikunterricht. Die Erkenntnis, dass ein Schlag prominenter wahrgenommen wird, weil er am Periodenanfang liegt, obwohl er vielleicht physikalisch weniger markiert ist als ein anderer, war ein echtes Ahaerlebnis für mich!
Dafür danke und mit der Bitte um ein Weiterso!
Januar 7th, 2012 14:38
Ja, dass die Artikel immer etwas länger sind, liegt wohl daran, dass ich diese Software nicht so verwende, wie das andernsorts im Netz vielleicht der Fall ist. Hier gibt’s nicht die neusten News der News, sondern hier fasse ich oft komplexe Sachverhalte zusammen, die mir gerade im Kopf umgehen, eben um sie auch für mich selbst zu ordnen. Das Blog ist sozusagen mein „Debugging Teddy Bear“. Das Praktische für die Leser ist vielleicht, dass die Artikel weniger schnell veralten und daher auch mal n Jahr liegen können, bevor man sie liest. Dafür schreibe ich ja auch nicht so oft.
😉