Neurokognition musikalischer Zeichen

In diesem Semester ist es meine Abschlußaufgabe, ein musikalisches Stück meiner Wahl nach semiotischen Gesichtspunkten zu analysieren. Wie steht es aber um die musikalische Semiotik und welche Analysemethoden sollte ich anwenden? Um dieser Frage näher zu kommen, schaute ich mir an, wie Musik im Gehirn verarbeitet wird, in der Hoffnung, dadurch mehr über die Beschaffenheit musikalischer Zeichen zu erfahren. Meine Ergebnisse habe ich in diesem Essay zusammengefaßt.

Neurokognition musikalischer Zeichen

Auf der Suche nach einer musikalischen Semiotik, also einer Theorie des Zeichensystems Musik, ging ich von einer oft gehörten Behauptung aus, nämlich der These, dass Sprache und Musik sehr viel gemeinsam haben. Aber worin bestehen diese Gemeinsamkeiten? Sprache ist ein Zeichensystem, genau wie Musik. Aber die sprachlichen Zeichen (z.B. Wörter) sind größtenteils Symbole – es gibt eine stillschweigende Übereinkunft darüber, was sie bedeuten. Dog, chien oder Hund beziehen sich alle auf ein vierbeiniges Säugetier der Familie Canidae. Aber die Wörter haben mit dem Ding an sich nichts gemein. In der Musik ist das ein bisschen anders. Zwar gibt es auch dort Symbole, aber größtenteils können wir nicht sagen, eine Tonfolge, ein Motiv oder ein Rhythmus stünde für dieses oder jenes Ding in der Welt. Dennoch schient Musik eine Bedeutung zu haben, denn sie kann verschiedene Individuen in ähnliche Stimmung versetzen oder ähnliche Assoziationen bei ihnen hervorrufen. Aber wie funktioniert diese Verbindung zwischen der Erscheinungsform eines musikalischen Zeichens und seines Bedeutungsinhaltes?

Ich dachte mir, dass mir die Kenntnis darüber, wie ein musikalisches Signal im Gehirn verarbeitet wird, vielleicht bei der Frage weiterhelfen könnte, wie musikalische Zeichen beschaffen sind. Musik ist wie Sprache ein akustisches Signal zeitlicher Dimension, das charakterisiert durch Frequenz und Rhythmus durch’s Ohr in unser Bewußtsein dringt. Lange glaubte man, bei der Verarbeitung von Musik würden exakt die Areale auf der rechten Hirnhälfte aktiv, die auf der linken Seite für die Sprachverarbeitung zuständig sind, z.B. das Broca-Areal und das Wernicke-Areal. Experimente einer Forschergruppe des Max Planck Instituts für Kognitions- und Neurowissenschaften Leipzig1 lieferten dahingehend spannende Ergebnisse. Hörer reagierten auf musikalische Inkongruenzen, wie unerwartete oder dissonante Akkorde, mit einer starken Hirnaktivität in dem dem Broca-Areal gegenüberliegenden Bereich. Auch wenn das nicht für die Theorie Sprache links und Musik rechts spricht, so spricht es doch für einen semiotischen Aspekt. Wenn das Gehirn auf der rechten Seite in gleicher Weise gegen Störakkorde protestiert, wie es auf der linken Seite gegen grammatische Störungen in der Sprache protestiert, so ist das ein Indiz für eine musikalische Grammatik, also ein Regelwerk der Formenzusammensetzung musikalischer Zeichen.

Ebenso wie mich interessiert die Forscher nun, ob es demzufolge auch eine musikalische Semantik gibt. Trotz einiger Experimente scheint dies noch immer schwer zu sagen, denn man ist sich uneins darüber, welche Merkmale überhaupt eine musikalische Semantik evozieren. Es scheint dabei um Emotionen, Affekte, aber auch Programmatik und Bekanntheit gehen. So zeigten weitere Experimente des MPI-Teams z.B., dass das Gehirn relativ schnell auf bekannte Melodien reagierte, während es über unbekannte länger nachgrübelte. Womöglich gibt es sogar eine Art Lexikon, das musikalische Phrasen speichert, aber so richtig weiter bringen, tut mich das noch nicht.

Dies Frage nach der Semantik ließ mich nicht ruhig und ich wollte weiter in die neurologischen Verarbeitungsprozesse eindringen. Auf einen interessanten Ansatz stieß ich bei Jeff Hawkins, der einst am MIT künstliche Intelligenz erforschte und in seinem Buch „On Intelligence“2 über die Funktionsweise des Kortex‘ schrieb. Die Verarbeitung von auditiven, visuellen oder somatosensorischen Sinneseindrucken erfolgt nämlich in mehreren stemmatischen angelegten Schichten, die alle gleichermaßen versuchen die Muster und Sequenzen von Signalen wiederzuerkennen und Prognosen darüber anzustellen, welches Muster als nächstes die Wahrnehmung treffen müßte. Dabei nehmen die tiefer liegenden Schichten kleinteiligere, detailliertere Muster wahr, ordnen den zusammenhängenden unter ihnen einen „Namen“ zu und geben diesen „Namen“ an die nächst höhere Schicht weiter. Die nächst höhere Schicht nimmt dann schon einen nicht mehr ganz so kleinen, weniger detaillierten Teil des Musters wahr, ordnet Zusammenhängendem wiederum einen „Namen“ zu und gibt ihn an die nächst höhere Schicht weiter, bis dann im Assoziationsfeld ein ganzheitlicher Eindruck z.B. eines Gesichtes, einer Tonfolge oder eines gefühlten Gegenstandes ankommt. Gleichzeitig gibt jede Schicht ihre Prognose darüber ab, was die Wahrnehmung als nächstes trifft, denn anhand der Namensgebung werden bekannte Sequenzen erkannt. Zu jedem reinkommenden Signal gibt es also ein Feedback. Da alle Hirnregionen mehr oder weniger eng miteinander verknüpft sind und ein großes Netzwerk bilden, kann zum Beispiel auf den Höreindruck von Schritten das visuelle Feedback erfolgen, dass demnächst eine Person in meinem Blickfeld auftaucht. Auch an den motorischen Kortex wird ein solches Feedback weitergegeben. Die Prognose ist hier eine Handlungsanweisung, z.B. sich erschreckt umzudrehen, wenn man hinter sich im dunklen Wald plötzlich ein knackendes Geräusch hört und dabei ein bisschen Adrenalin auszuschütten.

Es ist ein Verhalten, eine Erkennensreaktion, die dem graphischen Muster |HUND| im Gedächtnis die Assoziation eines zottigen Vierbeiners hervorruft. Aber auch beim Hören einer Melodie etwas zu fühlen, ist ein Verhalten, denn das Gehirn reagiert auf das Erkennen eines musikalischen Musters oder einer musikalischen Sequenz mit bestimmten elektrischen Impulsen oder der Ausschüttung bestimmter Hormone, was wir u.U. als Gefühl wahrnehmen. Was wir assoziieren, wenn wir das Wort „Hund“ lesen, klärt uns über die Semantik der Sprache auf. Was wir assoziieren, wenn wir eine Melodie, einen Rhythmus, eine Sinfonie hören, verweist uns hingegen auf die Semantik der Musik, egal ob wir es abstrakt fühlend, denkend oder vor dem inneren Auge sehend assoziieren.

Auf meiner Suche nach einer Semiotik der Musik hat mich die Betrachtung der kognitiven Verarbeitung musikalischer Signale also schon sehr viel weiter gebracht. Ich habe Argumente gefunden, die für das Vorhandensein einer musikalischen Syntax (also einer zeichentheoretischen Formebene) sprechen und gleichzeitig eine Idee davon bekommen, wo nach einer musikalischen Semantik (also einer zeichentheoretischen Bedeutungsebene) zu suchen ist. Unklar ist nachwievor, welchen Regeln die musikalische Grammatik folgt und nach welchen Kriterien die semantische Assoziation erfolgt.

Es ist naheliegend, davon ausgehen, dass es die musikalische Grammatik nicht gibt. Denn ebenso wie sich das Griechische und das Indische sprachlich unterscheiden, unterscheidet sich auch die griechische von der indischen Musik. Beide folgen einem eigenen systematischen Regelwerk. Es ist Aufgabe der Musikethnologen und -historiker, näheres darüber in Erfahrung zu bringen. Doch auch hier mag man (wie Chomsky in bezug auf die Sprache) über mögliche universelle Aspekte spekulieren. Denn immerhin sind Grammatik und Semantik auch in einem Sprachsystem nicht immer sauber zu trennen und bedeuten tun letztlich alle sprachlichen Formen Dinge in der realen Welt. Zwischen der realen Welt in Indien und der in Griechenland gibt es viele Unterschiede – aber es gibt eben auch unleugbare Gemeinsamkeiten.

Die Zuordnung sprachlicher Formen zu ihren Bedeutungen in der realen Welt basiert auf einer gesellschaftlichen Übereinkunft, einem Code. Deshalb sprechen wir bei sprachlichen Zeichen von Symbolen. Im Gegensatz dazu stehen Ikonen, wo die Relation zwischen Form und Bedeutung eines Zeichens auf Ähnlichkeit basiert, und Indices, wo die Relation auf der Kontiguität von Zeichen und Bedeutung beruht. Wir haben uns irgendwann geeinigt, dass der haarige Vierbeiner der Familie der Canidae Hund oder dog oder chien heißt; als Kinder haben wir es von unseren Eltern so gelernt. Bei der Musik ist das nicht so einfach. Es steht fest, dass das graphische Zeichen der Viertelnote das zeitliche Längenverhältnis eines Tons von 1:4 kennzeichnet, einige haben sich geeinigt, dass das „ta-ta-ta-da“ am Anfang der Fünften Sinfonie von Beethoven ein Schicksalsmotiv ist und vielleicht mögen zwei Menschen auch darin übereinkommen, dass sie ein und dasselbe Stück beide als traurig oder agressiv empfinden. Aber systematisch untersucht hat man das bisher nur wenig, undzwar weil es noch keine etablierten Analysemethoden gibt. Die Musiksemiologie versucht, solche zu finden und anzuwenden und anhand ihrer Arbeit mehr Aufschluß über das Zeichensystem Musik zu erlangen.
__________
Quellen:

1. Max Planck Institut für Kognitions- und Neurowissenschaften: Spiegelbild der Sprache – Neurokognition von Musik, Leipzig 2004
2. Jeff Hawkins, Sandra Blakeslee: On Intelligence. How a new understanding of the brain will lead to the creation of truly intelligent machines, Times Books, New York 2004
__________
Ich bitte zu beachten, dass es sich bei diesem Text um einen Teilvorentwurf zu meiner inzwischen veröffentlichten Semesterarbeit Fumeuse speculations. An Essay on Musical Semiotics and a Semiotic Analysis of the Fourteenth Century Rondeau „Fumeux fume“ [Link] im Fach Musikwissenschaft handelt. 😉

13 Kommentare zu “Neurokognition musikalischer Zeichen”

  1. fatcat
    Juli 20th, 2007 04:27
    1

    Hi LeV,

    über diese spannende Frage (nach der Semantik musikalischer Zeichen) hatte ich erst vor kurzem ein tief gehendes Gespräch mit einem guten Freund und Komponisten.

    [Leider wurden wir manchmal unterbrochen und ich habe auch oft Einwürfe gestartet, darum kann ich seine Ansichten dazu hier nicht gut wiedergeben und beschränke mich auf die meinen …]

    Irgendwie ist das schön, dass man auf diesem Feld überhaupt noch Ansichten, Spekulationen also, äußern kann, ohne dass die Gefahr besteht, ein Verweis auf ein wissenschaftliches Werk oder gar einen Artikel in der Wikipedia könnte die eigene Argumentation zunichte machen.

    Warum die offenkundige (nicht abzustreitende) symbolische Qualität musikalischer Vorgänge so schwer zu deuten bleibt bzw. kaum erforscht (erforschbar) geblieben ist? Ich kann mir Folgendes vorstellen:

    In den Frühzeiten des Homo Sapiens …

    [wir können auch auf frühere Homo-Arten zurück gehen, oder Menschenaffen, oder sagen wir gleich: Säugetiere mit Instrumenten nutzenden Extremitäten]

    … gab es sicher schon gewollte Klangerzeugung, angefangem beim simplen „Stock schlägt auf anderen Stock und es macht TOCK“-Prinzip.
    Ab dem Zeitpunkt, ab dem eine Verständigung innerhalb einer Gruppe nötig wurde, kann also die Verwendung musikalischer Zeichen bereits sehr dienlich gewesen sein.
    Dadurch tragen diese mus. Zeichen Inhalte, sie müssen nur verstanden werden, also vorher vereinbart.

    Nun gab es (beim Menschen) weitere Äußerungsmöglichkeiten:

    1. man nehme die Laute, die unsere Stimmbänder hervorbringen können: Nicht nahe liegend ist es, zur Verständigung anspruchsvollen Gesang zu benutzen, wo es doch nur um Verständigung geht. Viel näher liegt die Artikulation deutlich unterscheidbarer Laute.
    –> Vorzug vor der „Musik nach unserem heutigen, kulturell geprägten Verständnis“

    2. man nehme die Palette der visuell wahrnehmbaren Zeichen: Gehen wir von gering entwickelter Mimik aus, bleibt immer noch die Verständigung über Gesten, besonders der Arme, die beim Gehen nicht gebraucht werden, und über relativ große Distanz erkennbar sind, ohne z. B. hellhörige Beutetiere sofort aufzuschrecken.
    –> ebenfalls ein Vorzug gegenüber „Musik nach unserem Verständnis“

    Irgendwie erscheint mir das jedenfalls wahrscheinlicher, auch wenn ich mich natürlich nur spekulativ in einen Frühmenschen hinein versetze (vielleicht fällt mir als Mann das nicht so schwer 😉

    Aus diesen Erläuterungen wird klar, dass musikalische Produktivität (ab der Entwicklung geeigneter Instrumente, Melodien, etc. …) nicht vor allen anderen der Information diente. Als weiteres Argument führe ich an, dass musikalische Instrumente nicht ebenso dem unmittelbaren Überleben gedient haben können wie beispielhaft ein Speer, und deshalb seltener gefertigt wurden …

    (aber, vielleicht hat irgendein kreativer Frühmensch bereits mit Kurzspeeren Rhythmen getrommelt, wer weiß.)

    Auf alle Fälle war die Weiterentwicklung der Musik nicht an die Übermittlung lebenswichtiger Informationen geknüpft (der Mensch ist ein Mängelwesen und bedarf unter anderem auch des Informationsabgleichs in der Gruppe). Es gab Zeichensysteme, die dies dem Menschen besser ermöglichten. Demzufolge haben diese sich zur Erfüllung des informativen/abgleichenden –> SYMBOLISCHEN Bedarfs fortentwickelt. Musik bekam eine andere Funktion. Man stellte vermutlich schon früh fest, dass Musik Inhalte (Symbole) transportieren KANN. Anstatt aber in der informativen Richtung weiter zu arbeiten, GAB MAN DER MUSIK EINE ANDERE, grob ausgedrückt: „sinnfreie“, FUNKTION: Darunter zähle ich rituelle, religiöse Inhalte, im Vordergrund steht
    jedoch die Funktion, Menschen unter einem Gefühl oder einer Ahnung oder eines Bewusstseins etc. ZU VEREINEN. Ein Abgleich, aber nicht auf informativer Ebene.

    Was ich eben noch lieblos als „sinnfrei“ bezeichnete, ist aber natürlich auch sehr Sinn stiftend. Denn erst mit der Etablierung einer Kunst oder einer Kommunkationsform, die nicht auf das materielle Überleben abzielt, gewinnt das Leben einen höheren Sinn. Diese Funktion erfüllt die Musik, und wir haben sie dafür bestimmt.

    ich wünschte, ich hätte eine Ahnung, wann genau der von mir postulierte Zeitpunkt in der Menschheitsgeschichte war, an dem die „besseren“ Informationssysteme soweit gefestigt waren, dass Musik eigenständig und zur Kunstform werden konnte. Da fehlt mir das historische Wissen, bzw. ich war nicht dabei …

    Es hätte auch anders laufen können. Mal phantasiert: Wären die Stimmbänder beim Menschen irgendwie anders beschaffen, sodass die Kommunikation per Gesang viel eher eingesetzt hätte, als das Verabreden von Gesten, dann würden wir jetzt so alltäglich kommunzieren, während unsere „Handkünstler“ uns über wundersame Motorikmuster unterhalten, entspannen, läutern, zum Trauern bringen würden …

    Oder, noch phantastischer: Wir hätten paarweise Extremitäten, die offenbar zu nichts mehr dienten, als Klänge hervorzubringen …

    In diesen beiden phantastischen Beispielen wäre Musik für uns etwas Glasklares, bzw. stark Gebrauchtes und Eingeübtes, jeder verstünde die Zeichen und es gäbe für alles Musikalische eine Konvention.

    Nicht so bei uns. Wir haben der Musik ein grundlegendes Geheimsein eingeräumt, DAMIT sie uns unerklärbar bleibt, damit sie uns nicht aus der Ferne gerückt wird. Denn die Ferne macht das Streben, um mal kurz lyrisch zu werden.

    Aus diesem letzten Grund habe ich ernsthafte Zweifel, ob die neurologische Forschung zu mehr führt als der Erkenntnis, dass Musik Sprache sein könnte, jedoch faktisch
    nicht ist, weil wir nie genügend Zeichen konventionalisiert haben — weil diese Konventionalisierung bereits in der gesprochenen Sprache akkustisch vorgenommen wurde und nicht doppelt nötig gewesen ist oder jemals doppelt nötigsein wird.

    PS: Es dürfte klar geworden sein, dass ich hier keine Theorie über irgendwelche speziellen Musikrichtungen erläutern oder angreifen wollte, und dass ich Rockmusikern, die lieber Jazz als Klassik hören, ansonsten aber meinen Kommentar nicht verstanden haben, einfach nicht antworten werde.

    Allen anderen gerne.

    Es war ein Bisschen weitschweifig, und ich bitte auch um Entschuldigung für die Wiederholungen, die ich für nötig hielt.

    Ich hoffe, ich habe deinen Intellekt nicht zu sehr beleidigt, LeV, denn für mich mögen das große Erkenntnisse sein, aber bei dir gehören sie ja vielleicht zum Lehrplan ….

    Digo adios!

  2. LeV
    Juli 22nd, 2007 20:21
    2

    Musik ist nicht Sprache, das ist klar. Die Kognitionswissenschaften haben „nur“ festgestellt, dass sie sehr ähnlich verarbeitet werden. Aufgrund dieser Erkenntnis liegt es nicht fern zu behaupten, dass es sich also bei Musik (wie bei Sprache) um ein Zeichensystem handelt. Gewiss um ein von Sprache verschiedenes Zeichensystem. Musik beinhaltet keine (oder zumindest nicht primär) referentielle Inhalte, wohl aber Informationen anderer Natur. Nun geht es darum herauszufinden, welcher Natur diese Informationen sind und wie/ob sie kodiert sind.

  3. fatcat
    Juli 23rd, 2007 14:00
    3

    Hallo,

    dann versuch ich es nochmal kurz und knackig. Dass Musik nicht primär referentiell arbeitet, liegt nicht an der Musik, ebenso wenig liegt es nicht an unserer Sprache, dass sie referentiell sein kann. Insofern, dass beide über Zeichen verfügen, können beide gleich viel ausdrücken.
    Kognitionswissenschaften bleiben auf dem Status Quo stecken, da sie nur nach Reizwirkungen im Gehirn suchen. Der beste Beweis für Musik als Sprache wäre doch, wenn jemand daraus eine Sprache macht. Das ist möglich, und vielleicht macht sich ja mal jemand die Mühe. Allerdings klingt das dann nicht mehr „schön“ und „magisch“, und Musik büßt dann einen Teil ihrer Aufgabe als Kunstform ein. Deswegen werde ich das nicht machen.

    Ich habe es oben vielleicht ein bisschen übertrieben mit dem Spekulieren, aber ich wollte meine eigentlichen Thesen mit der Darstellung der Wahrscheinlichkeit zur Entstehung einer Sprache verbinen.

    Egal, bis nächstes Mal, auf einem Gebiet, auf dem ich mich besser auskenne. Sry,
    fatcat

  4. LeV
    Juli 23rd, 2007 14:28
    4

    Ich denke auch, dass man Musik als Sprache nutzen könnte, wenn man sich über entsprechende Bedeutungsinhalte einigen und quasi ein Lexikon der musikalischen Zeichen anlegen würde. Das wäre vielleicht ein interessantes künstlerisches Experiment, hätte aber wenig realweltliche Relevanz. Denn es ist ja nun einmal so, dass Musik ein eigenständiges Zeichensystem ist und bestimmte andere Bedürfnisse erfüllt als Sprache. Sonst bräuchten und hätten wir vermutlich nicht beides.

  5. fatcat
    Juli 23rd, 2007 21:37
    5

    Exakt. Du hast das zehmal präziser ausgedrückt, was ich meinte. Und soviel Belang hatte es auch nicht. Ich dachte, die Suche der Neurokognitionswissenschaftler dreht sich um Gemeinsamkeiten zwischen Sätzen und Melodien (etc….). Aber das ist es wohl doch nicht. Sie suchen wohl eher nach Beschreibung dessen, was Musik emtional und rational auslöst – „Realweltlich“ – nicht, was es ausdrücken könnte …

    Bye

  6. GEO
    Juli 25th, 2007 18:41
    6

    Hallo Lev,

    [quote]
    Denn es ist ja nun einmal so, dass Musik ein eigenständiges Zeichensystem ist und bestimmte andere Bedürfnisse erfüllt als Sprache. Sonst bräuchten und hätten wir vermutlich nicht beides.
    [/quote]

    Ich denke man muss bei dem Begriff „Sprache“ unbedingt zwischen Schriftsprache und „gesprochener“ Sprache differenzieren. Vermutlich kann die Musik als „Subsystem“ der gesprochenen Sprache verstanden werden. Jeder kennt den Effekt, dass ein Sprecher neben den im Text verankerten referentiellen Informationen auch Zusatzinformationen über Tonfall und Klangfarbe übermittelt. Die Musik wie wir sie kennen wäre dann quasi das Resultat einer „künstlichen“ Trennung von gesprochener Sprache und ihren nonverbalen Anteilen (Tonfall, Sprachmelodie etc…).

    Die Musik kann also wie ein Zusatzmotor der Sprache verstanden werden, welcher dann zum Einsatz kommt, wenn ein Text real gesprochen wird, oder gar gesungen wird (Dann ist das zusammenwirken beider Aspekte maximal.)

    Folgendes in zwei Stufen gegliedertes Experiment ist in diesem Zusammenhang besonders interessant:

    Man nimmt sich einen beliebigen Text mit emotionalem Hintergrund und spricht diesen laut aus, wobei man während dem Sprechen versucht seine Emotionalität auch auf nonverbalem Wege klanglich zu unterstützen.

    Nun nimmt man sich den Text abermals vor und lässt seine sprachlichen Elemente einfach weg.(Man könnte ihn beispielsweise summen oder undeutlich murmeln, so dass nur noch der nonverbale Anteil übrig bleibt.) Das Resultat ist Musik!

    Halten wir also fest: Die gesprochene Sprache besteht aus Musik und referentiellen Inhalten. Lässt man den verbalen Anteil weg, bleibt Musik übrig. Das besondere an diesem Experiment ist, dass nun untersucht werden könnte, welche verbalen Inhalte welche musikalischen Inhalte
    ausnutzen. Man könnte nun eine Tabelle erstellen, in welcher auf der linken Seite Textstücke stehen und auf der linken Seite die dazugehörigen Audiofiles mit der nonverbalen Komponente. Auf diese Weise ließe sich analytisch und wissenschaftlich der musikalische Code entschlüsseln, sofern es diesen in dieser Form gibt.

    Lg
    GEO

  7. fatcat
    Juli 26th, 2007 02:59
    7

    Die Musik kann also wie ein Zusatzmotor der Sprache verstanden werden, welcher dann zum Einsatz kommt, wenn ein Text real gesprochen wird, oder gar gesungen wird (Dann ist das zusammenwirken beider Aspekte maximal.)

    Hallo, GEO,
    diesen Ansatz finde ich interessant. Demzufolge gibt es Elemente, die sich in gesprochener Sprache und Musik einfach decken.

    Zumal es Aufgabe der Komposition zu einem Text ist, diese Annäherung von verbalen und musikalischen Inhalten zu erzeugen. Definitiv werden dabei übereinstimmende Eigenschaften oder Mechanismen von Sprache und Musik zur stärkeren Einheit verwendet. Die Sicht des Komponisten beinhaltet quasi, dass es diese Übereinstimmungen tatsächlich gibt. Mir fällen exemplarisch die Bach-Rezitative ein.

    Ich bin mir insgesamt nicht sicher, ob die Begriffe „nonverbal-sprachlich“ und „musikalisch-sprachlich“ deckungsgleich verwendet werden können, wie du es hier andeutest:

    Nun nimmt man sich den Text abermals vor und lässt seine sprachlichen Elemente einfach weg.(Man könnte ihn beispielsweise summen oder undeutlich murmeln, so dass nur noch der nonverbale Anteil übrig bleibt.) Das Resultat ist Musik!

    Aber über die Begrifflichkeit soll nun kein Streit entbrennen. Dein Experiment hat leider den entscheidenden Nachteil, dass auch der Teilnehmende, der den Part der Abtrennung vornimmt, also einen Satz nonverbal von sich gibt, auch nur ein Interpret ist! Schließlich wäre denkbar, dass verschiedene Interpreten verschiedene Darstellungsweisen finden.

    Dennoch lassen sich wahrscheinlich, da stimme ich dir zu, und zwar nach einer Reihe von Durchläufen, gewisse immer enthaltene Elemente bei der musikalischen Interpretation eines bestimmten Satzes nachweisen. Voraussetzung wäre nur, dass jeder Teilnehmer des Experiments den Satz korrekt versteht (Muttersprachler!), und jeder unter „nonverbaler akustischer Äußerung“ dasselbe versteht.

    Interessant wäre es allemal, und ich glaube, dass sich ein paar wichtige Schlüsse aus dem Experiment ziehen lassen könnten. Und wenn dann noch ein Neurologe sich mit seinen Messgeräten mit „anstöpselt“, könnte das sicher auch nicht schaden.

    Liebe Grüße,
    fatcat

  8. GEO
    Juli 26th, 2007 13:28
    8

    [zitat]
    Ich bin mir insgesamt nicht sicher, ob die Begriffe “nonverbal-sprachlich” und “musikalisch-sprachlich” deckungsgleich verwendet werden können, wie du es hier andeutest:
    [zitat]

    Hallo Fatcat,
    Im Prinzip waren meine Gedanken diesbezüglich experimentellen Charakters. Ich bin mir also auch keineswegs sicher ob die Vermutungen zutreffend sind. Aus der Erfahrung heraus lässt sich aber zumindest erahnen, dass eine doch recht frappierende Ähnlichkeit zwischen nonverbalen Anteilen gesprochener Sprache und der Musik bestehen. Das kann natürlich kein Zufall sein!

    [zitat]
    Aber über die Begrifflichkeit soll nun kein Streit entbrennen. Dein Experiment hat leider den entscheidenden Nachteil, dass auch der Teilnehmende, der den Part der Abtrennung vornimmt, also einen Satz nonverbal von sich gibt, auch nur ein Interpret ist! Schließlich wäre denkbar, dass verschiedene Interpreten verschiedene Darstellungsweisen finden.
    [zitat]

    Das ist vollkommen richtig! Genau genommen müsste man dieses Experiment nicht nur mit möglichst vielen Probanden durchführen, sondern auch mit Probanden unterschiedlicher ethnischer Herkunft und Abstammung. Erst dann ließe sich statistisch recht genau bestimmten ob es hinter dem „Interpretationsrauschen“ auch einen festen Anteil gibt, der universell wirksam ist. Aber das ist eben Wissenschaft. Auch die Erkenntnis das es diesen universellen Anteil nicht gibt, entspricht einer Erkenntnis!

    [zitat]
    Interessant wäre es allemal, und ich glaube, dass sich ein paar wichtige Schlüsse aus dem Experiment ziehen lassen könnten. Und wenn dann noch ein Neurologe sich mit seinen Messgeräten mit “anstöpselt”, könnte das sicher auch nicht schaden.
    [zitat]

    Es werden ja sicherlich in dieser Richtung auch schon Experimente durchgeführt. Neulich habe ich in einer Sendung im 3-Sat Fernsehen(glaube ich zumindest) von einem Wissenschaftler gehört, der den emotionalen Code von Musik und gesprochener Sprache entschlüsselt. Hierbei wurden auch Spektralanalysen durchgeführt. Es hat sich herausgestellt, dass unabhängig vom Proband verschiedene Stimmungen Niederschlag im Frequenzspektrum finden. Das Frequenzspektrum von Jazz Musik beispielsweise soll jenem von gesprochener Sprache depressiver Menschen ähnlich sein. Übrigens soll dies auch ein Grund dafür sein, dass Jazz gegen Depressionen hilft. Aber wie auch immer – Levs Aufgabe braucht natürlich machbare Methoden. Aber diesbezüglich fehlt mir auch der Background. Es gibt aber bestimmt schon genug wissenschaftliche Literatur zu diesem Thema. Der biologistische Ansatz von Lev ist jedenfalls schon mal sehr interessant. Ich bin mal gespannt was sich da noch so ergibt.

    Liebe Grüße
    GEO

  9. LeV
    Juli 26th, 2007 14:50
    9

    Es ist sicher richtig und wichtig zu bemerken, dass es in der Sprache ein Schriftsystem (Graphemik) und ein Lautsystem (Phonetik) gibt. Auch in der Musik gibt es beides. Musik und Sprache basieren primär auf auditiven Zeichen (Zeit, Frequenz, Rhythmus), die Grapheme sind visuelle Substitute dieser Lautlichkeit, die aber durchaus auch neue, eigene Werte haben können (s. visuelle Poesie).
    Da Musik aber auch eigenständig von Sprache existieren kann (s. reine Instrumentalwerke) und Sprachmelodie mit Musikmelodie nicht immer einhergeht, halte ich sie nicht für ein sprachliches Subsystem. Auch der Umstand dass an der Sprach- und der Musikverarbeitung durchaus unterschiedliche Hirnareale beteiligt sind, spricht dagegen. Musik ist mehr als ein Subsystem der Sprache.

    Was das Forschen am emotionalen Code von Musik anbetrifft: Darum, aber nicht nur um den emotionalen Part des Codes, ging es in unserem, von Prof. David Lidov geleiteten Seminar. Er selbst arbeitet an einer „embodyment“ genannten Theorie, die davon ausgeht, dass die Assoziationen bestimmter emotionaler Zustände nicht bildlich, visuell, sondern räumlich, körperlich gespeichert werden und dass die musikalische Bewegung diese Körperlichkeit irgendwie nachbildet. Dies wäre eine gute Erklärung dafür, dass das Hören von Musik direkte Affekte abrufen kann.

    Basieren tut die Idee auf Manfred Clynes, der als erster neurologische Meßdaten graphisch auswerten konnte. Er hat in einem Experiment mit einem Meßknopf, auf den Probanden „wütend“, „verliebt“, „melancholisch“, etc. drücken sollten, sogenannte „sentic shapes“, also Kurven emotionaler Bewegung erstellt, wobei sich gezeigt hat, dass unterschiedliche Probanenden bei Assoziation ähnlicher Gemütszustände ähnliche Kurven erzeugt haben. Ob das Ganze für ein „universelles“ Lexikon der Emotion spricht, bleibt noch fraglich.

    Das Ganze klingt erst mal ein bisschen esotherisch, ist aber an sich keine schlechte Idee, was den emotionalen Code von Musik betrifft. Vielleicht kannst du, GEO, ja nochmal den Namen des 3-Sat-Wissenschaftlers raussuchen (würde mich interessieren).

    Für meine Arbeit ist dieser analytische Ansatz aber noch der spekulativste, da ich keine neurologischen Meßdaten habe oder erstellen kann. Musik ist aber zum Glück auch konventionell kodiert, wo ich als Historiker erstmal bessere Untersuchungsmöglichkeiten sehe. Ich stelle meine Arbeit ein, sobald sie offiziell eingereicht ist.

  10. GEO
    Juli 26th, 2007 19:10
    10

    Hallo,

    Die Sendung liegt schon wieder ein paar Wochen zurück und ich bin mir nicht mal mehr sicher ob es 3Sat war. Falls ich was finde sage ich dir Bescheid 😉

  11. fatcat
    Juli 28th, 2007 05:12
    11

    Hallo,

    ich wollte nochmal bekräftigen, dass ich es nicht verkehrt finde, sich mit den Analysen, Theorien und Experimenten der Zunft auseinander zu setzen. Man erfährt auf diese Weise etwas über das Hier und Jetzt.

    Dennoch bleibt die Frage nach der Vereinbarkeit von Sprache und Musik nur teilweise berührt.
    Mein Gefühl sagt mir (oh, sehr wissenschaftlich, ich weiß!), dass wir auf diese Weise nur den letzten durchscheinenden Rest an Gemeinsamkeiten belegen können, so wie er historisch übrig geblieben ist. Dass Musik tatsächlich und exakt unsere Sprache sein könnte, wird so also nicht nachgewiesen werden und unser Musik-Heute wird sich in der Wissenschaft als aussagekräftiges Medium mit der „esoterischen“ (LeV) Dimension darstellen lassen müssen.

    Ich wünsche dir gutes Gelingen mit der Arbeit, LeV, zu der ich leider nichts Brauchbareres beitragen kann als dieses Pseudo-Schlusswort, das es von vornherein war.
    Aber ich erwarte dennoch gespannt deine Ergebnisse, rein aus wissenschaftlicher Neugier!

    LG,
    Stefan

  12. deakanas
    August 17th, 2007 17:43
    12

    Hallo, noch kurz, noch ein Quellen Tipp
    als Literatur Tipp zum schnell einlesen finde ich noch Manfred Spitzer ganz gut z.B. Geist im Netz, vor allem die Literaturliste hinten drin eignet sich noch gut zum Bibliographieren, gerade zu Semantischen Netzen und Sprachvertsändnis ist das ganz gut erklärt.

  13. LeV
    September 9th, 2007 22:51
    13

    So, nun habe ich hier tatsächlich auch endlich den fertien Essay veröffentlicht, bisher ohne Abbildungen und diverses Notenmaterial, das erst mal kopierrechttechnisch bearbeitet werden muß. Viel Spaß beim Lesen: Fumeuse speculation

Kommentar abgeben: