Psychoakustik

Die Psychoakustik ist der Zweig der Psychophysik , der die Beziehungen zwischen Wahrnehmungen des Hörens von Menschen und Geräuschen untersucht , die seine Ohren erreichen. Es verwendet die Akustik , die die Natur und Eigenschaften von Schallwellen untersucht, die Physiologie des Hörens , die untersucht, inwieweit sie sich in Nervenimpulse umwandeln , Psychologie und Kognitionswissenschaft . Es verwendet die Methoden der experimentellen Psychologie .

Untersuchungs- und Anwendungsbereiche

Die auditive Phonetik praktiziert per Definition psychoakustische Untersuchungen: Die Sprache ist das Medium symbolischer Assoziationen und grundlegender Psychologie, und der Klang ist das Mittel zur Übertragung.

Die musikalische Akustik kombiniert mechanische Schwingungen und Akustik, wenn es darum geht, die Funktionsweise von Instrumenten zu verstehen, Psychoakustik, wenn die menschliche Reaktion auf ihre Klänge charakterisiert wird.

Diese beiden Disziplinen sind hinter psycho Studien, aus dem XVIII - ten  Jahrhundert und sind Anwendungsfelder. Sie interessieren sich für Klang als Träger von Information und Psychologie unter dem Gesichtspunkt symbolischer Aktivität.

Umweltstudien konzentrieren sich auf Klang als Disruptor und auf der hedonischen Dimension der Psychologie. Sie tragen zur Psychoakustik bei, indem sie nach dem Ärger oder Ärger suchen, der durch jede Art von Lärm verursacht wird . Das Sound - Design , umgekehrt ist es attraktiv oder weniger unangenehm der Klang von Industrieprodukten emittieren zu machen.

Die elektroakustische Technologie basiert auf den Ergebnissen der Psychoakustik. Wir übertragen nicht die Komponenten des Signals , die der Mensch nicht wahrnimmt. Frühe Ergebnisse bestimmten die benötigte Bandbreite , und in jüngerer Zeit wurden bei der Komprimierung von Audiodaten ausgefeilte Hörmodelle verwendet. Die moderne Psychoakustik ist für ihre Ausrüstung wechselseitig auf elektroakustische Technologie angewiesen.

Bewerten Sie die Schallwahrnehmung

Die Psychoakustik basiert auf dem Wahrnehmungsmodell der experimentellen Psychologie  :

Reiz → Rezeptor → Nervenimpuls → Empfindung → Reaktion

wo der Reiz ein physischer Klang ist und der Empfänger das Ohr ist . Die Physiologie des Hörens liefert ein erstes Modell für die Umwandlung von Reizen in Nervenimpulse . Die Verarbeitung dieses Signals in den Nervenzentren des Ohrs und des Gehirns sowie die kognitiven Operationen , die die Reaktion hörender Tiere bestimmen , müssen noch untersucht werden .

In den Studien werden mehrere Probanden gut kontrollierten und reproduzierbaren Reizen ausgesetzt. Die Probanden werden nach einer quantifizierbaren Reaktion gefragt, die statistische Untersuchungen ermöglicht .

Einige Forschungen betrachten Ton als Informationsträger; andere sehen es als störend an. Dieser unterschiedliche Ansatz führt zu unterschiedlichen quantitativen Hinweisen auf die gleichen Klangeigenschaften .

Variabilität der Hörwahrnehmung

Es wurde schnell klar, dass das Hören zumindest teilweise ein kognitives Phänomen ist  : Training verfeinert die Hörwahrnehmung.

Psychoakustische Studien zeigen eine beträchtliche Variation der Wahrnehmungsleistung von Person zu Person, auch ohne Training. Zum Beispiel sind die Hörqualitäten von Mädchen besser als die von Jungen. Die Aufführungen sind von Person zu Person noch variabler, um eng beieinander liegende Frequenzen zu unterscheiden.

Sie zeigen auch, dass es für dasselbe Thema eine Verschlechterung mit dem Alter, auditorischer Müdigkeit und auditorischem Trauma gibt. Das Alter führt zu einer Presbykusis, die sich hauptsächlich in einer Abnahme der Frequenz der noch wahrgenommenen höchsten Töne äußert. Unfälle, Krankheiten und übermäßige Schallpegel verursachen einen Hörverlust, der die Empfindlichkeit um 3 bis 4 kHz beeinträchtigt.  Dies ist der Frequenzbereich, in dem das Ohr am empfindlichsten ist.

Diese Variabilität erfordert, dass die Tests mit strengen Protokollen und einer ausreichenden Anzahl von Probanden durchgeführt werden, die am häufigsten unter denen mit normalem oder besserem Hörvermögen ausgewählt werden.

Lautheit und Tonhöhe

Der Ursprung der Schallempfindung ist eine schwache Schwingung der Luft, der Schalldruck , der für uns wichtig ist, weil Menschen Informationen daraus extrahieren . Damit es Informationen enthält, muss der Schall, diese Änderung des atmosphärischen Drucks, selbst im Laufe der Zeit variieren. und dass es nicht zufällig variiert, sondern nach Mustern, an die sich die Zuhörer erinnern und die sie erkennen können. Darüber hinaus passt sich das Hören in wenigen Augenblicken an die Geräusche an, die das Ohr erreichen, in Sekundenbruchteilen durch einen Reflex und in wenigen Sekunden durch mentale Prozesse. Das Hören erfordert daher Zeit auf verschiedenen Ebenen. Es ist ein Parameter in allen Experimenten und allen Messungen. Wir haben das Problem zunächst vereinfacht, indem wir stabile Reize von ziemlich langer Dauer und immer gleicher oder immer gleicher Reize verwendet haben, die sich nur in ihrer Dauer unterscheiden.

Reine Geräusche

Wir haben zuerst reine Töne verwendet, einfache Sinuswellen , die nur eine Frequenz haben . Auf diese Weise haben wir die Lautstärke , dh die Intensität der Empfindung, und die Tonhöhe untersucht , dh den Unterschied, den die Probanden zwischen reinen Tönen gleicher Intensität entsprechend ihrer Frequenz machen, was der Klassifizierung entspricht zwischen Bassklängen und Höhenklängen. Wenn die Lautstärke für zwei reine Töne derselben Frequenz nur vom Schalldruck abhängt , ist dies nicht der Fall, wenn die Frequenz unterschiedlich ist. Fletcher stellte die ersten isosinischen Kurven auf , indem er die Probanden aufforderte, Klänge mit unterschiedlichen Frequenzen so abzustimmen, dass sie die gleiche Intensität zu haben scheinen . Sie zeigen eine geringe Empfindlichkeit gegenüber den niedrigsten Tönen, etwa 20  Hz , und eine Grenze in den Höhen um 16  kHz . Ebenso variiert die Intensität eines reinen Klangs geringfügig die Wahrnehmung seiner Tonhöhe. Die Dauer des Klangs beeinflusst auch die Bewertung seiner Lautstärke und die Unterscheidung seiner Tonhöhe.

Psychoakustische Forschung wurde verwendet, um Lautheitsskalen zu etablieren. Diesen Skalen ist die Verwendung einer logarithmischen Skala gemeinsam, die aus der Telekommunikation entlehnt wurde und in Dezibel abgestuft ist . Der schwächste wahrnehmbare Ton liegt üblicherweise bei 0 Dezibel (dB). Laute Geräusche, die über 120 dB als potenziell traumatisch gelten  , haben eine Billionen-mal höhere Leistung (ein akustisches Intensitätsverhältnis von 10 12 zu 1). Die Lautstärkedifferenzierungsschwelle beträgt ungefähr 25% der Leistung, was ungefähr einem Dezibel entspricht. Dezibel-Skalen, die somit im Wesentlichen positive ganze Zahlen enthalten, sind aussagekräftiger als die Angabe physikalischer Größen und haben sich fest etabliert. Diese praktischen Fragen wurden mit einer allgemeinen Theorie, dem Weber-Fechner-Gesetz , artikuliert , nach der die Empfindung proportional zum Logarithmus der Intensität des Reizes ist. Diese Theorie ist aufgrund der Variabilität menschlicher Reaktionen schwer zu beweisen und wurde insbesondere von Stevens bestritten, der es vorzog, die Reaktion durch ein Potenzgesetz zu beschreiben .

Die psychoakustische Forschung hat sich auf die Messung der Frequenzauflösung des auditorischen Systems konzentriert, dh auf die minimale Frequenzdifferenz, die es ermöglicht, zwei reine Klänge gleicher Intensität zu unterscheiden. Die Auflösung ist besser für mittlere und laute Töne sowie für Frequenzen um 1500  Hz  ; es erreicht dann 0,2 bis 0,3% für trainierte Probanden.

Musiker verwenden eine Musikskala, bei der eine Oktave einer Verdoppelung der Frequenz entspricht und die Tonhöhe genau dem Logarithmus der Frequenz folgt. Wenn jedoch eine wahrgenommene Tonhöhenskala konstruiert wird, indem die Probanden aufgefordert werden, einen reinen Klang relativ zu einem anderen zu platzieren, wird eine signifikant andere Skala erhalten. Die Mels-Skala bezieht sich auf die Frequenz und die Tonwahrnehmung von reinen Tönen. Die Tonhöhenforschung hängt stark von der Ausbildung der Probanden und vermutlich auch von ihrer Musikkultur ab, auch wenn sie keine Musiker sind. Um mehrere Anomalien in den Ergebnissen von Experimenten mit reinen Tönen gleicher Intensität zu berücksichtigen, insbesondere die häufige Verwechslung zwischen zwei Klängen, die sich von einer Oktave unterscheiden, haben Forscher daher vorgeschlagen, zwei Wahrnehmungen zu unterscheiden, die zusammen zwei reine Töne einer Oktave unterscheiden. ' gleiche Intensität:

Diese beiden Komponenten der Tonhöhe könnten eine physiologische Grundlage haben. Die Art der Übertragung von Schalldruck in Nervenimpulse ist nicht mit Sicherheit festgelegt. Es ist sicher, dass das Innenohr an verschiedenen Stellen auf jede Frequenz reagiert; Die Emission von Nervenimpulsen hat auch eine Phasenbeziehung mit der Schallwelle, und bis zu etwa 5  kHz kann das Gehirn diese Eigenschaft möglicherweise nutzen. Diese Grenze entspricht der der Chroma.

Komplexe Klänge

Nachdem die Experimente mit den reinen Klängen es ermöglicht haben, Konzepte zu definieren, ist es notwendig, sie für komplexe Klänge zu verallgemeinern, Mischungen von harmonischen reinen Klängen oder nicht, denen nichtperiodische Klänge ( weißes oder farbiges Rauschen ) hinzugefügt werden können . Geräusche außerhalb des Labors sind komplexe Geräusche. Die Lautstärke und Tonhöhe eines komplexen Klangs entspricht dem eines reinen Klangs, mit dem die Probanden ihn in Verbindung gebracht haben.

Die Wahrnehmung von Klängen, die aus verschiedenen Frequenzen oder mit einem breiten Frequenzspektrum bestehen, unterscheidet sich deutlich von der von reinen Tönen. Insbesondere wird ein Maskeneffekt beobachtet . Bei Vorhandensein von zwei Geräuschen unterschiedlicher Intensität führt das Intensivere zu einer Verringerung der Lautstärke des Schwächeren im Vergleich zu dem, was es ohne das Maskierungsgeräusch wäre . Der Effekt ist am größten, wenn die Töne nahe an ihrer Tonhöhe liegen. Es gibt auch einen zeitlichen Maskeneffekt.

Psychoakustische Modelle haben zur Konstruktion mehrerer verfeinerter Lautheitsmodelle geführt, hauptsächlich für Umweltzwecke. Während Gerichte in den meisten Ländern hauptsächlich die gewichtete Messung des Schalldrucks in dB (A) (A-gewichtetes Dezibel) verwenden und das Fernsehen seit 2011 eine vereinfachte Messung seines Schallpegels implementiert hat, hat Zwicker , dann Stevens , Methoden entwickelt, die darauf abzielen, zu kommen viel näher an der auditorischen Wahrnehmung, auf Kosten einer genaueren Analyse und einer komplizierteren Berechnung.

Eine Fähigkeit, die zwischen Musikern und Nichtmusikern geteilt wird, wirft Interpretationsprobleme auf. Unterworfen einem Klang, der aus mehreren harmonischen Frequenzen besteht, zeigen die Probanden eine große Übereinstimmung in der Assoziation dieses Klangs mit einem reinen Klang, dessen Frequenz die des Grundtons des zusammengesetzten Klangs ist, auch wenn dieser im zusammengesetzten Klang fehlt, was nur der Fall ist enthält Teiltöne mehrerer Frequenzen dieser Grundwelle.

Das Problem der Wellenformempfindlichkeit ist nicht vollständig gelöst. Zwei (synthetische) Tonsignale können aufgrund einer Phasendifferenz zwischen ihren Komponenten tatsächlich genau dieselbe harmonische Zusammensetzung und eine unterschiedliche Wellenform aufweisen. Untersuchungen haben gezeigt, dass Probanden unter diesen Bedingungen einige, die für diesen Zweck gebaut wurden, in einem Kopfhörer unterscheiden können. Nur elektroakustische Geräte können diese Art von Schall erzeugen. Die Teiltöne derjenigen, die von Musikinstrumenten erzeugt werden, sind nicht perfekt harmonisch. Die Inharmonizität ist jedoch aufgrund der sich bewegenden Wellenformen im Gegensatz zu den in den Experimenten verwendeten Wellenformen gering.

Das Hauptziel von Studien zur Wahrnehmung komplexer Geräusche ist es jedoch, die Theorien zur Kodierung von Geräuschen in den Hörnerven zu testen. Wenn Probanden unterschiedlich auf Ähnliche Reize absolut auf der spektralen Verteilung reagieren, das Modell in entworfen XIX - ten  Jahrhundert von Helmholtz , für die das Ohr empfindlich ist nur dieser Aspekt in Frage gestellt wird. Die Physiologie des Ohrs ist bekannt, aber das auditorische System extrahiert wahrscheinlich Empfindungen aus der Reihe von Nervenimpulsen, die von jeder empfindlichen Zelle im Innenohr im Laufe der Zeit gesendet werden.

Gestempelt

Die Wahrnehmung des Timbres hängt von der spektralen Verteilung der Schwingungen ab, aber auch von ihrer zeitlichen Entwicklung.

Wenn wir das Timbre als das betrachten, was einen musikalischen Klang mit gleicher Lautstärke und Tonhöhe kennzeichnet, können wir die Instrumentalklänge in einem zweidimensionalen Raum platzieren:

Diese Indizes machen 85% der charakteristischen Informationen von Briefmarken aus. Eigenschaften wie die Entwicklung des spektralen Schwerpunkts während der Schallemission erklären, dass wir Quellen unterscheiden können, deren Lautstärke, Tonhöhe, Brillanz und Biss gleich sind.

Schärfe, Schwankung, Rauheit

Im Umweltbereich, insbesondere um die Schallumgebung in Fahrzeuginnenräumen oder Flugzeugkabinen zu charakterisieren, versuchen wir, die durch Geräusche verursachten Unannehmlichkeiten oder Belästigungen oder im Gegenteil ihr angenehmes Aussehen bei gleicher Lautstärke zu charakterisieren. Die Schärfe ist ein Indikator für die Wahrnehmung eines Geräusches als scharf; die Fluktuationscharakteristik langsamer Variationen und die akustische Rauheit  (de) quantifizieren schnelle Änderungen; Es zielt auf den Frequenzbereich ab, der sich zwischen der Wahrnehmung eines Rhythmus (weniger als 10 Schläge pro Sekunde) und der der Tonhöhe (mehr als 30) erstreckt.

Ein hoher Schärfeindex zeigt ebenso wie ein hoher Rauheitsindex störenderes Rauschen an.

Verständlichkeit

Die Bedingungen der verbalen Kommunikation an öffentlichen Orten, entweder direkt oder über ein Lautsprechersystem, führten zur Entwicklung eines Sprachübertragungsindex ( STI , (en) Speech Transmission Index ). Psychoakustische Studien haben die physikalischen Eigenschaften des Hörortes (Lärm, Resonanzen, Nachhall ) und die prozentualen Fehler beim Verständnis der Wörter durch die Probanden in Beziehung gesetzt . Da der gesamte Prozess eine lange Reihe von Messungen erfordert, wurden vereinfachte Verfahren entwickelt.

Richtung

Das binaurale Hören ermöglicht es, die Ankunftsrichtung einer Schallwelle wahrzunehmen. Die Präzision dieser Lokalisierung und die Bedingungen ihrer Möglichkeit bilden ein Forschungsgebiet in der Psychoakustik, an das sich diejenigen wenden, die den Klang unter dem Gesichtspunkt der Übermittlung mündlicher oder musikalischer Informationen betrachten.

An der Grenze zwischen Akustik und Psychoakustik charakterisiert die Untersuchung der Übertragungsfunktion am Kopf ( HRTF , (in) kopfbezogene Übertragungsfunktion ) die Veränderungen, die an Schallwellen durch den Körper eines Zuhörers vorgenommen werden, hauptsächlich durch den Kopf , den Pavillon von das Ohr und der Gehörgang . Wir quantifizieren somit die Unterschiede zwischen den Geräuschen, die jedes der Ohren erreichen, wodurch der Mensch den Ursprung eines Geräusches lokalisieren kann, insbesondere im Azimut (horizontal) und in geringerem Maße in der Höhe (vertikal).

Unter praktischen experimentellen Bedingungen können Bewegungen des Körpers die Lokalisierung präziser gestalten, indem diese Bewegungen mit der Hörwahrnehmung in Beziehung gesetzt werden, wie dies durch den Ausdruck „ Zuhören“ zum Ausdruck kommt . Die selektive Beachtung von Schallereignissen in einer Umgebung, in der sie aus allen Richtungen eintreffen, verbessert die Erkennung der ursprünglichen Richtung.

Studien zur Wahrnehmung des Ursprungs von Schall umfassen die des stereophonen Klangs , der ab Mitte der 1950er Jahre für die Musikverteilung verwendet wurde. Zwei Lautsprecher reichen aus, um ein Schallfeld zu erzeugen, in dem die Hörer unter bestimmten Bedingungen nicht übereinstimmende Quellen identifizieren können mit einer der beiden realen Quellen, die aus diesem Grund als virtuelle Quellen bezeichnet werden. Drei Zeichen beeinflussen die Wahrnehmung der ursprünglichen Richtung, Ebene, Phase und Verzögerung zwischen den Ohren. Um ihre Beiträge zu überprüfen, senden wir das gleiche Signal an beide Lautsprecher und variieren einen dieser Parameter. Der Einfluss jedes seiner Faktoren variiert mit der Häufigkeit. Die Interpretation der Richtung ist je nach Individuum sehr unterschiedlich.

Außerhalb des Gehörlosenraums von Akustiklabors beeinflussen Reflexionen an den Wänden eines Hörraums den Ort der Quelle. Bereits 1948 beschrieb Lothar Cremer das Gesetz der ersten Wellenfront  : Der zuerst am Ohr ankommende Schall bestimmt die Richtungswahrnehmung, auch wenn er weniger Energie trägt als die später eintreffenden, die ohne Schall ankommen. die Reflexionen an den Wänden. Helmut Haas hat festgestellt, dass die Lokalisierung für den ersten eingehenden Ton erfolgt (in Abwesenheit eines Soundsystems handelt es sich um den direkten Ton), vorausgesetzt, der erste der folgenden Töne ist nicht höher als 10 dB und der Ton  es hat eine Verzögerung von mindestens 10  ms . Studien zum Vorrang-Effekt  (de) oder Haas-Effekt haben große praktische Konsequenzen für die Architekturakustik und Soundsysteme .

Kodierung der Wahrnehmung

Die Branchen Telekommunikation, Rundfunk, Fernsehen, Beschallung und Musikaufzeichnung befassten sich von Anfang an mit der Verarbeitung nur dessen, was Menschen hören können.

In den Tagen der analogen Elektronik ging es zunächst darum, die notwendige Bandbreite zu bestimmen . Die Hintergrundgeräuschreduzierungssysteme berücksichtigten dann die unterschiedliche Empfindlichkeit des Ohrs entsprechend der Frequenz und dem Maskierungseffekt. Ein Akzentuierung System unter Berücksichtigung des Schallpegel pro Frequenzband ermöglicht es , den besten Vorteil der technischen Mittel zu nehmen, auf Kosten der kleinen Verzerrungen des Signals. Psychoakustische Studien haben den besten Kompromiss zwischen der Wahrnehmung von Hintergrundgeräuschen und Verzerrungen gesucht. Bereits in den 1940er Jahren führte die Erforschung der Sprachübertragung per Telefon zu einem in den 1920er Jahren begonnenen Forschungsprozess, bei dem nicht mehr das Signal, sondern die Parameter des Vocoders übertragen wurden, die den Klang synthetisieren würden. In Anbetracht dieser Anwendung war es notwendig, von der Analyse der für jedes Phonem emittierten Töne zur Untersuchung der Bedingungen ihrer Erkennung überzugehen. Diese Forschung und Experimente wurden bis in die 1970er Jahre fortgesetzt.

Mit der Digitalisierung des dem physischen Schall entsprechenden elektrischen Signals quantifizieren wir nicht mehr nur statistische Eigenschaften des Schalls wie seine Durchschnittsleistung, sondern seine Darstellung selbst. Die digitale Verarbeitung des Signals ermöglicht es, nicht den physischen Ton zu übertragen, der im Grunde nur ein Vermittler ist, sondern direkt den Toneindruck ( (en) perceptive / perceptual coding ). Psychoakustische Forschung wird grundlegend.

Immer komplexere Algorithmen zielen darauf ab zu kodieren, entweder nur das, was unter optimalen Hörbedingungen zu hören, oder, weiter den Fluss von verringern Daten , nur das Wesentliche eines musikalischen Programm. Die maximale Datenreduktion eignet sich am besten für Fälle, in denen der Hörer keine optimalen Hörbedingungen genießen kann, z. B. in einem Auto , oder wenn er eine große Wiedergabeliste in einem tragbaren Gerät bevorzugt .

Wahrnehmung und Erkenntnis

Allgemeine Grundsätze

Die Frage der Tonerkennung ist zentral für Sprache und Musik. Diese Erkennung beinhaltet ein Modell der auditorischen Wahrnehmung - Hören - und des auditorischen Gedächtnisses , das die Elemente für den Vergleich von Wahrnehmungen liefert. Die Herangehensweise an das Hören als Erkenntnis postuliert, dass "sensorische Informationen interpretiert werden müssen, um eine kohärente Wahrnehmung hervorzurufen" . Das Vorhandensein von Hörillusionen beweist, dass diese Interpretation möglicherweise falsch ist.

Das Hörmuster wird dadurch bereichert und komplexer. Mehrere Bereiche und Funktionen des Gehirns reagieren aufeinander:

Die resultierende mentale Repräsentation der Umgebung wird wiederum abstrakte Wissensstrukturen und direkte Aufmerksamkeit orientieren und die relevanten Geräusche aus den wahrgenommenen Geräuschen auswählen.

Auf das Wort hören

Die Hör-zu- Sprache-Forschung ist sowohl ein alter als auch ein zeitgenössischer Zweig der Psychoakustik. Sie umfassen alle Aspekte, von der Untersuchung der physischen Merkmale von Sprachlauten ( Phonetik ) über die Physiologie des Hörens bis hin zur richtigen psychischen Behandlung, die den Nervenimpuls in symbolische Assoziationen umwandelt. Die Forschung zum Sprachverständnis findet im Projekt einen Ausgang und einen industriellen Anreiz, ein Modell zu entwickeln, das als Grundlage für automatische Spracherkennungssysteme dienen kann .

Das Hören einer Rede beinhaltet eine Interpretation, die gelegentlich einige ihrer Mängel ausgleicht - eine beinhaltet eine Sprache, die durch Zwischenfälle, Abschweifungen und Stottern unterbrochen wird  ; Es können mehrere Reden gleichzeitig wie bei der Simultanübersetzung verfolgt werden . Die Aufmerksamkeit, die freiwillig auf die Sprache gerichtet ist, reagiert auf alle Hörfunktionen. Das Hören von Sprache implementiert drei wesentliche Funktionen:

  1. nützliche Sprache in der Klangumgebung unterscheiden,
  2. Silben identifizieren, dabei einzelne akustische Variationen außer Acht lassen,
  3. Stellen Sie den Widerstand dieser Codierung gegen Signalverschlechterungen sicher.

Untersuchungen zum Vergleich der Wahrnehmung von Phonemen, Silben, isolierten Wörtern und normalem Sprachfluss haben zu dem Schluss geführt, dass das Modell, mit dem das auditive System einfache Elemente wahrnimmt, um sie zu komplexeren Teilen der Sprache zusammenzusetzen, unzureichend war. In Wirklichkeit brauchen die Probanden länger, um die grundlegendsten Teile, die Phoneme, zu isolieren. Es scheint, dass diese Fähigkeit vom Erlernen des Lesens von alphabetischer Schrift abhängt (im Gegensatz zur Ideogrammnotation). Der Hörer identifiziert einen verbalen Fluss durch ursprüngliche Richtung, Tonhöhe, spektrale und intonative Kontinuität, die einen Sprecher in der gesprochenen Stimme charakterisieren und sich möglicherweise selbst helfen, indem er das sieht Bewegung der Lippen und bildet es als eine Folge von Silben.

Musik hören

Das Hören von Musikklängen ist für einen ganzen Zweig der psychoakustischen Forschung von Interesse. Melodische Klänge entwickeln sich im Allgemeinen langsamer als die der Sprache, was die Differenzierung der Tonhöhe begünstigt. Sie verwenden auch mehr hörbare Frequenzen. Es ist auch der Bereich , in dem die Musiktheorie , da die in Europa entwickelte XVII E  Jahrhundert die meisten auf das auditorische Erkenntnis reagiert. Insbesondere Musiker trainieren ihr Gehör, um ihre Wahrnehmung zu verfeinern. Hören ist jedoch für alle Lernen; Die zerebrale Plastizität erklärt die Unterschiede in den musikalischen Regeln und Geschmäcken zwischen verschiedenen Kulturen.

Die Untersuchung einiger seltener Fälle von Amusie , dh der völligen Unfähigkeit, eine Melodie zu erkennen, während das Hören ansonsten perfekt ist und die Probanden keine Schwierigkeiten beim Sprechen haben, hat die Kliniker sichergestellt, dass das Verstehen von Musik von besonderer Natur ist. Es schien, dass die beiden Teile des Gehirns unterschiedlich beitrugen, wobei die linke Gehirnhälfte diejenige war, die an der Verarbeitung von Geräuschen beteiligt war, die mit einem Sinn verbunden waren, denen der Sprache. Bei Musikern wird diese linke Gehirnhälfte jedoch für das musikalische Hören aktiviert. Man könnte daraus schließen, dass Musik für sie eine Form der Sprache ist. Medizinische Bildgebung Techniken , die Live - Visualisierung von Hirnarealen ermöglichen , den Sauerstoff verbrauchen, haben zu einer differenzierteren Einschätzung geführt. Die verschiedenen Komponenten des musikalischen Hörens (Wahrnehmung von Rhythmus, Trittfrequenz, Tonhöhe, Intervallen, Klangfarbe; Identifizierung der melodischen Kontur, Erkennung von Themen  usw. ) aktivieren Gehirnbereiche in den beiden Gehirnhälften.

Das Interesse am Musikhören in der Tradition der europäischen Musik führt zu besonderen Fragen wie der perfekten Tonhöhe und ihrer Entstehung. Die "  perfekte Tonhöhe  " ist die seltene Fähigkeit, eine Note ohne vorherige Bezugnahme zu erkennen und zu benennen, was im Allgemeinen mit einer Fähigkeit zur feinen Unterscheidung zwischen Frequenzen verbunden ist. Im Allgemeinen erkennen Musiker Intervalle und benötigen die Tonhöhe als Referenz, weshalb wir von " relativem Ohr  " sprechen  . Die absolute Tonhöhe scheint der westlichen Kultur eigen zu sein, die der Tonhöhe besondere Bedeutung beimisst. Untersuchungen haben gezeigt, dass eine perfekte Tonhöhe sowohl genetische Begabung als auch sorgfältige und frühe Praxis der Musiktheorie erfordert .

Eine Klangbühne hören

Die Fähigkeit der Zuhörer, einer Rolle in einem musikalischen Ensemble oder einem Diskurs zwischen Gesprächen zu folgen, führt zu der Schlussfolgerung, dass die auditive Wahrnehmung nicht analytisch durch die Kombination elementarer Signale erfolgt, sondern im Gegenteil synthetisch, indem sie dem Klang der Unterscheidungsmerkmale folgt Emission. Das Hören von Musik ähnelt in dieser Hinsicht dem Hören von Sprache; beide stammen von einem Phänomen, wenn auch nicht konstant, zumindest üblich: Eine Schallquelle hat relativ feste Eigenschaften.

Alle diese Charaktere können verwendet werden, um eine Klangbühne aufzubauen, ohne dass alle verwendet werden müssen.

Zeitliche Strukturen

Pierre Schaeffer ließ die Probanden die relative Zeit verschiedener Teile von Klängen bewerten, die als musikalisch konstruiert waren, obwohl sie nicht von Musikinstrumenten stammten. Er kommt zu dem Schluss, dass die wahrgenommene Dauer von der Wichtigkeit der Variationen abhängt, die sie kreuzen und die man als Klangereignisse verstehen kann.

Der Rhythmus bildet einen bestimmenden Index, um zu unterscheiden, was zum Klangfluss von Poesie und Musik gehört. Es war Gegenstand spezifischer psychophysischer Studien, wurde jedoch nicht viel in psychoakustische Studien integriert, die sich auf die Note konzentrierten. Diese Arbeit findet bei Probanden eine Hörempfindlichkeit gegenüber dem Rhythmus, die stärker ist als die, die mit den anderen Sinnen, wie z. B. dem Sehen, beobachtet wird. Sie suchen nach den Zeitlimits, in denen Probanden Rhythmen wahrnehmen (in einem Bereich, der enger als 0,1  Hz bis 10  Hz ist ). Sie konzentrieren sich auf den Beat , der nur der reguläre Bestandteil des Rhythmus ist, ohne sich um seine inneren Strukturen zu kümmern. Sie beziehen die Erkennung der Trittfrequenz auf die Psychomotorik .

Viele ethnomusikologische Werke haben insbesondere im west- und zentralafrikanischen Kulturkontext die Wahrnehmung komplexer rhythmischer Muster und Prinzipien der Platzierung und Interpretation rhythmischer Ereignisse hervorgehoben, die sich von denen der westlichen Musik unterscheiden. Diese Prinzipien ermöglichen insbesondere die Erkennung eines Schlags zu Zeiten, in denen ein Schallereignis vorliegt oder nicht. Aber die Zugehörigkeit der Psychoakustik zur europäischen Musikakustik hat Forscher und ihre Institutionen von der psychoakustischen Erforschung der Fähigkeit, ein rhythmisches Muster zu erkennen, wegbewegt, während Studien über das Erkennen eines zeitlichen Musters ohne Rhythmus (dh ohne geschlagen) durchgeführt wurden ), die Teil der Auswahl der Operatoren im Morsecode waren , sind fast vergessen.

Anhänge

Literaturverzeichnis

Zum Thema passende Artikel

Anmerkungen und Referenzen

  1. Das psychologische Jahr kündigte 1953 „einen internationalen Kongress für Elektroakustik (mit) sieben Abschnitten an, von denen der dritte psychoakustische Messungen berücksichtigte“ . Es ist eines der ersten veröffentlichten Vorkommen des Begriffs Psychoakustik .
  2. Gelis 2002 , p.  8-9
  3. Psychoakustik untersucht den Menschen, aber manchmal werden physiologische Hypothesen bei anderen Säugetieren überprüft ( Chouard 2001 , S.  219).
  4. Die Norm 13299 ISO: 2003 "beschreibt den gesamten Prozess der Erstellung eines sensorischen Profils" .
  5. Chouard 2001 , p.  268.
  6. ( Boot 1999 , S.  20)
  7. Rossi 2007 , p.  147
  8. Internationale Elektrotechnische Kommission Electropedia 801-21-05
  9. Internationale Elektrotechnische Kommission Electropedia 801-29-03
  10. Demany 1999 , p.  44; siehe auch Association française de normalization (AFNOR) Sammlung französischer Standards für Akustik, Band 1 (Vocabulaire) , NF S 30-101, 1977; Internationale Elektrotechnische Kommission Electropedia 801-29-01
  11. Boot 1999 , p.  17. Für Chouard 2001 , p.  87, "jenseits von ungefähr 16.000  Hz (...) nehmen wir keinen Ton mehr wahr" .
  12. Demany 1999 , p.  44
  13. Schaeffer 1977 , p.  207, 209; Boot 1999 , p.  25; Chouard 2001 , p.  87-89; Rossi 2007 , p.  125-144.
  14. Boot 1999 , p.  fünfzehn
  15. Für Geräuschbänder; Für reinen Klang nimmt die Differenzierungsschwelle mit der Intensität von 1,5  dB für 20 dB SPL auf 0,3  dB für 80 dB SPL ab ( Goye 2002 , S.  20).
  16. Demany 1999 , p.  45; Für musikalische Klänge, die keine reinen Klänge sind, ist es üblich zu berücksichtigen, dass die Auflösung ein Savart (0,1%) ist ( Chouard 2001 , S.  92).
  17. Schaeffer 1977 , p.  183-185, 190; Demany 1999 , p.  47; Rossi 2007 , p.  131.
  18. Demany 1999 , p.  44-48; Schaeffer 1977 , p.  186 erinnert an die Erfahrung von Heinz Werner , der Töne für Personen spielt, die den Tonhöhenunterschied erst bei der fünften Anhörung wahrnehmen.
  19. Demany 1999 , p.  47
  20. Terhard 1980 und Burns and Ward 1982 apud Demany 1999 , p.  47; Delbé 2009 , p.  13, 22.
  21. Die Oktave könnte einen besonderen Status in der Wahrnehmung bestimmter Primaten (Wright, Rivera, Hulse, Shyan & Neiworth, 2000) und bestimmte Vögel (Tchernichovski, Mitra, Lints & Nottebohm, 2001) apud Delbe 2009 , p.  14
  22. Demany 1999 , p.  52
  23. Delbé 2009 , p.  11-12
  24. Boot 1999 , p.  31-32; Rossi 2007 , p.  137-138
  25. (in) EBU / UER , EBU - Empfehlung R 128: Lautheitsnormalisierung und zulässiger maximaler Pegel von Audiosignalen , Genf, EBU / UER,August 2011( online lesen ) ;; (de) ITU , Empfehlung ITU-R BS.1770-2: Algorithmen zur Messung der Lautstärke von Audioprogrammen und des Audio-Spitzenpegels , ITU,März 2011( online lesen ) ;; (de) Eddy Bøgh Brixen , Metering Audio , New York, Focal Press,2011, 2 nd  ed. , p.  47-56, 80-81
  26. Beide Methoden, die zur Bestimmung ohne Computer unter Verwendung von Grafiken bestimmt sind, wurden auf ISO 532-1975 standardisiert . Siehe Zusammenfassung in Brixen 2011 , S. 22.  75-78; siehe Fastl und Zwicker 2006 .
  27. Schaeffer 1977 , p.  180-182; Demany 1999 , p.  56-58; Delbé 2009 , p.  12, 14
  28. Rossi 2007 , p.  134; Demany 1999 , p.  59, 62-63 gibt einen Bericht über das Experiment und zeigt an, dass die Bedingung, um einen Unterschied zu erhalten, darin besteht, dass die vorhandenen partiellen Harmonischen alle von hoher Ordnung sind und daher enge Frequenzen aufweisen.
  29. Demany 1999 , p.  71-73; Delbé 2009 , p.  17-21
  30. Schaeffer 1977 , p.  216-243; Goye 2002 , p.  55.
  31. ANSI- Definition ( Goye 2002 , S.  55).
  32. Goye 2002 , p.  55-56; Jochen Krimphoff , Stephen McAdams und Suzanne Winsberg , „  Charakterisierung des Timbres komplexer Klänge, II. Akustische Analysen und psychophysische Quantifizierung  “, Journal of Physics ,1994( online lesen , konsultiert am 3. August 2013 )
  33. Étienne Parizet , Akustische Wahrnehmung und Klangqualität , Ingenieurtechniken ,2006( online lesen ) ;; Maßnahmen 739, 2001
  34. Brixen 2011 , p.  209-212; Rossi 2007 , p.  174-176.
  35. Rossi 2007 , p.  140-144 und für strengere psychoakustische Studien Canevet 1999 , p.  83-100
  36. Kitantou 1987 , p.  166, Canevet 1999 , p.  107-108. Seit der Veröffentlichung von Cherry im Jahr 1953 ist dieses Phänomen als Cocktailparty-Effekt bekannt .
  37. Canevet 1999 , p.  103-104
  38. Brixen 2011 , p.  55; siehe auch Winckel  (de) , Neue Ansichten über die Welt der Klänge , 1960, apud Schaeffer 1977 , p.  212.
  39. Schaeffer 1977 , p.  213-214; Kitantou 1987 , p.  167; Canevet 1999 , p.  105-107; Rossi 2007 , p.  199-200. Die These von H. Haas stammt aus dem Jahr 1972.
  40. (in) John Watkinson , Das MPEG-Handbuch: MPEG-1, MPEG-2, MPEG-4 , Focal Press,2004, 2 nd  ed. 435  p. ( ISBN  978-0-240-80578-8 , online lesen ) , p.  7
  41. Rossi 2007 , p.  664-671; (de) John Watkinson , Das MPEG-Handbuch: MPEG-1, MPEG-2, MPEG-4 , Focal Press,2004, 2 nd  ed. 435  p. ( ISBN  978-0-240-80578-8 , online lesen ) , p.  167-227.
  42. ( McAdams und Bigand 1994 , S.  2-3).
  43. McAdams und Bigand 1994 , p.  6
  44. Sorin 1999 , p.  123
  45. Morais et al. 1979 apud Sorin 1999 , p.  125.
  46. Sorin 1999 , p.  125
  47. Schaeffer 1977 versucht zu definieren, was ein musikalischer Klang ist.
  48. Chouard 2001 , p.  130.
  49. Chouard 2001 , p.  259sq.
  50. Chouard 2001 , p.  213-214; Delbé 2009 , p.  11.
  51. Chouard 2001 , p.  215.
  52. Positronenemissionstomographie ( PET-Scan ), Magnetresonanztomographie (MRT)  usw.
  53. Chouard 2001 , p.  217-219.
  54. Chouard 2001 , p.  226-228.
  55. Weniger als 1% der Bevölkerung, laut Goye 2002 , p.  53.
  56. Chouard 2001 , p.  254-255. Ein ganzes Kapitel ist der perfekten Tonhöhe gewidmet .  253-267 .
  57. Sorin 1999 , p.  125.
  58. Bregman 1994 , p.  19-33. Der Begriff einer Klangszene nahe derjenigen eines Klangobjekt von Pierre Schaeffer (entwickelt Schaeffer 1977 ), insbesondere siehe p.  76 , und in jedem Fall gelten die hier genannten Eigenschaften dafür.
  59. Schaeffer 1977 , p.  244-258
  60. Rhythmusneurowissenschaften von Isabelle Peretz, eingeladen am Collège de France  ; Paul Fraisse , „  Studien zum unmittelbaren Gedächtnis - II. Die Wiedergabe von rhythmischen Formen  “, das Psychologische Jahr , n o  43,1942 ;; Paul Fraisse "  Rhythmische und Arrhythmie - Bewegungen  ", Das psychologische Jahr , n o  47,1946( online lesen , konsultiert am 5. August 2013 ).
  61. So Delbé 2009 , p.  3 veranschaulicht musikalisches Wissen nur als "Produktion oder Erkennung einer Melodie" .
  62. Paul Fraisse "  Auditory Rhythmen und visuelle Rhythmen  ", Das psychologische Jahr , n o  49,1948( online lesen , konsultiert am 5. August 2013 ) ;; Paul Fraisse „  Die Wahrnehmung der Dauer als die Organisation der aufeinanderfolgenden  “, die psychologische Jahr , n o  52,1952( online lesen , konsultiert am 6. August 2013 )
  63. Mit Ausnahme des Vorläufers Robert Holmes Seashore (1902-1951) "Studies in Motor Rhythmus", Psychological Monographs , Vol 36 (1), 1926, 142-189.
  64. Dieses Thema ist jedoch offen, siehe Farid Matallah , Interkulturelle Studie zur Wahrnehmung der Metrik traditioneller Rhythmen von Candomblé: Hin zu einer Kooperation von Zuhören und Bewegung: Master-1-Arbeit in kognitiver Psychologie ( online lesen ), ohne die grundlegenden psychophysischen Studien über die Wahrnehmungsschwellen des rhythmischen Unterschieds zwischen zwei Motiven durchgeführt zu haben.
  65. Konto im Jahr Psychological BRYAN und HARTER. - Studium der Physiologie und Psychologie der telegraphischen Sprache. Psych. Review , Januar 1897, i, IV, p.  27-53 kommt zu dem Schluss, dass der erfahrene Morse-Operator nicht die Buchstaben des Codes entschlüsselt, sondern die Wörter, sogar die gesamten Sätze. Dies sind die gleichen Beobachtungen wie für Sprache und Musik, mit rein zeitlichen Variationen.