- Forschung | Januar 2018 Hearing Review
- Wir haben kein symmetrisches Hörsystem, und dies wirft einige interessante Fragen auf.
- Schuld daran ist die Evolution
- Eine evolutionäre Modifikation
- Dichotisches Hören und REA
- Das Strukturmodell des dichotischen Hörens
- Ein elektrophysiologischer Nachweis der Spezialisierung der linken Hemisphäre auf die Verarbeitung schneller zeitlicher Veränderungen von Wörtern
- Alterung Verkompliziert das Bild
- Wieder das Corpus Callosum
- Binaurale Interferenz
Forschung | Januar 2018 Hearing Review
Von James Jerger, PhD
Wir haben kein symmetrisches Hörsystem, und dies wirft einige interessante Fragen auf.
Aus guten Gründen entwickelte sich das Hörsystem des Menschen mit einem Rechtsohr-Vorteil (oder Linksohr-Nachteil), da die Sprachverarbeitung mehr Gehirn erforderte. Dieser Artikel nimmt die Leser mit auf eine außergewöhnliche Reise des auditorischen Systems und untersucht einige der interessanten Implikationen des Rechtsohr-Vorteils in Bezug auf binaurale Verarbeitung, Sprachverständnis und Verstärkung.
Vielen Menschen fällt es schwer zu glauben, dass das Hörsystem nicht in perfekter Symmetrie ist. Sie können nicht akzeptieren, dass sich ein Ohr in irgendeiner Weise vom anderen unterscheidet. Aber das ist in der Tat der Fall. Es ist allgemein bekannt, dass die Spracherkennung für die Eingabe des rechten Ohrs etwas anders erfolgt als für die Eingabe des linken Ohrs. Dies ist die Geschichte des „Right-Ear Advantage“ (REA). Es wird uns auf eine außergewöhnliche Reise innerhalb des Hörnervensystems mitnehmen.
Schuld daran ist die Evolution
Wir können uns vorstellen, dass zu einem früheren Zeitpunkt in der Evolution das gesamte Hörsystem bei Primaten, anderen Säugetieren und verschiedenen niederen Formen des Tierlebens ziemlich symmetrisch war. In der Tat war ein symmetrisches System ideal für die Verwendungszwecke, für die ihre Hörsysteme zuständig waren, hauptsächlich für die Azimutrichtung und die Schaffung eines Hörraums — den „stereophonen Effekt“.“ Für Tiere in freier Wildbahn war der Name des Spiels immer Überleben: Essen und vermeiden, gefressen zu werden. Das zweiohrige System ist exquisit auf dieses Problem ausgelegt. Für Direktionalitätszwecke liefern die beiden Ohren die notwendigen Informationen in Form von interauralen Zeit- und Intensitätsunterschieden. Diese Daten der beiden Ohren werden im Hirnstamm verglichen, was zu einer Berechnung des Azimuts in der horizontalen Ebene führt, von der aus sich der interessierende Klang zu befinden scheint. Nach der visuellen Analyse der Art und Größe des Eindringlings handelt es sich normalerweise um Kampf oder Flucht.
Eine evolutionäre Modifikation
Beim Menschen wurde das ursprünglich symmetrische Hörsystem erheblich verändert. In den letzten 50 Millionen Jahren haben wir Menschen die Fähigkeit entwickelt, Sprachlaute zu erzeugen und wahrzunehmen; zunächst Silben, die dann zu Wörtern kombiniert werden konnten, und die Wörter zu Sätzen, die alle ein Vehikel für das menschliche Kronjuwel bilden: gesprochene Sprache. Es überrascht nicht, dass dies ein wenig Zeit in Anspruch nahm. Sprachproduktion ist ein komplexes Phänomen. Sie können es sich als einen Strom akustischer Energie vorstellen, der sich im Laufe der Zeit auf zwei Arten ändert:
1) Sehr schnelle (im Bereich von Millisekunden) Änderungen der Amplitude und Frequenz und
2) Relativ langsamere (im Bereich von Sekunden) Änderungen der Gesamtenergiehülle.
Ersteres vermittelt Informationen, die Vokal- und Konsonantenfolgen definieren; Letzteres vermittelt die prosodischen Merkmale von Phrasen und Sätzen.
Und hier weichen wir von der ursprünglichen Symmetrie des gesamten auditorischen Systems ab. Teile des auditorischen Kortex in der linken Hemisphäre entwickelten sich, um die schnellen Amplituden- und Frequenzänderungen im akustischen Strom zu verarbeiten. In ähnlicher Weise entwickelten sich Teile des auditorischen Kortex in der rechten Hemisphäre, um die langsameren Veränderungen in der gesamten akustischen Hülle zu verarbeiten.
Die feineren Details dieser Prozesse sind unvermeidlich etwas komplexer, als dieses einfache Bild vermuten lässt, aber für unsere gegenwärtigen Zwecke — die Analyse des rechten Ohrvorteils – werden sie ausreichen. Da es die schnellen Änderungen in Amplitude und Frequenz sind, die die meisten grundlegenden Verständlichkeitsinformationen in der Sprachwellenform tragen, wurde die linke Hemisphäre zur dominierenden Hemisphäre für die Spracherkennung, während die rechte Hemisphäre zur dominierenden Hemisphäre für die Verarbeitung langsamerer Änderungen im Laufe der Zeit wurde (z. B. die Stressmuster der laufenden Sprache).
Dichotisches Hören und REA
Der Großteil der audiologischen Forschung zum Sprachverständnis umfasste Maßnahmen zur Erkennung einsilbiger Wörter. Typischerweise wird ein Wort, normalerweise ein Konsonant-Vokal-Konsonant (CVC), dargestellt; Die Antwort des Zuhörers wird entweder als richtig oder falsch bewertet. Da es schwierig ist, einsilbigen Wörtern Prosodie zu verleihen, erfordert eine erfolgreiche Wiederholung des Wortes nur eine phonologische Analyse der sich sehr schnell ändernden Ereignisse, die bestimmen, welche zwei Konsonanten, Anfang und Ende, und welcher Vokal gehört wurden. Dies sind genau die Merkmale, auf die sich die linke Hemisphäre spezialisiert hat. Es ist ein sehr erfolgreicher phonologischer Prozessor.Nun kommt es vor, dass beide Ohren letztendlich mit dem Prozessor der linken Hemisphäre verbunden sind, aber aufgrund der Art und Weise, wie die Ohren mit den Gehirnhälften verbunden sind, erreicht die Eingabe vom rechten Ohr die linke Hemisphäre etwas früher als die Eingabe des linken Ohrs. Dies gibt dem rechten Ohr einen leichten Vorteil, wenn beide Ohren gleichzeitig (dichotisch) stimuliert werden.
Diese REA wurde erstmals in einem Test des dichotischen Zuhörens beschrieben. Das dichotische Hörparadigma wurde von einem englischen Psychologen, Donald Broadbent (1926-1993), entwickelt. Er präsentierte Ziffernpaare dichotisch, dh jedem Ohr gleichzeitig eine andere Ziffer. Zum Beispiel das Wort „drei“ für ein Ohr und gleichzeitig das Wort „acht“ für das andere Ohr. Er wandte dieses Verfahren an, um Aufmerksamkeit und Kurzzeitgedächtnis zu untersuchen, verglich jedoch nicht die Genauigkeit der beiden Ohren.Doreen Kimura (1933-2013) war eine Doktorandin im neuropsychologischen Labor von Brenda Milner am Montreal Neurological Institute in den frühen 1960er Jahren. Kimura und Milner zeichneten ihren eigenen Dichoticus-Test mit dem Ziel auf, ihn auf Patienten mit Temporallappenepilepsie anzuwenden. Aber als Studenten von Hirnverletzungen waren sie sich der Notwendigkeit bewusst, Daten nach Gehör zu trennen. Sie wiesen den Hörer an, alles, was in beiden Ohren gehört wurde, zu wiederholen, trennten dann jedoch die Antworten des rechten Ohrs vom linken Ohr. Bevor jedoch epileptische Patienten getestet wurden, testete Kimura1 eine Gruppe junger normaler Kontrollen, um Normen festzulegen. Überraschenderweise stellte sie fest, dass in der normalen Gruppe die korrekten Antworten auf die dichotisch dargestellten Ziffern im Durchschnitt etwas besser für Ziffern waren, die dem rechten Ohr präsentiert wurden, als für die gleichen Ziffern, die dem linken Ohr präsentiert wurden. Diese kleine REA – auch bekannt als „linker Ohrnachteil“ oder LED – wurde im letzten halben Jahrhundert ausgiebig untersucht. Es wurde mit unsinnigen Silben, Ziffern, CVC-Wörtern und sogar künstlichen Sätzen demonstriert.
Das Strukturmodell des dichotischen Hörens
Um die REA/ LED zu erklären, schlug Kimura1 vor, was als „Strukturmodell“ des auditorischen Systems bezeichnet wird. Das Modell basiert auf der Tatsache, dass es sowohl gekreuzte als auch nicht gekreuzte Pfade von jedem Ohr zu jeder Hemisphäre gibt, und dass, wenn beide Ohren gleichzeitig stimuliert werden, die nicht gekreuzten Pfade unterdrückt werden; nur die gekreuzten Pfade sind aktiv. Dies bedeutet, dass die Eingabe in das rechte Ohr über den gekreuzten Pfad vom rechten Ohr zur linken Hemisphäre direkt zum Prozessor der linken Hemisphäre gelangt, Die Eingabe in das linke Ohr muss jedoch zuerst zur rechten Hemisphäre und dann über den Corpus callosum, die neuronale Brücke zwischen den beiden Gehirnhälften, zum Sprachprozessor der linken Hemisphäre gelangen. Dies führt zu einer sehr geringen Verzögerung und einem Effizienzverlust des linken Ohreingangs — nicht viel, aber genug, um die oben erwähnte kleine REA / LED zu berücksichtigen. Beachten Sie, dass das Problem in keiner Hemisphäre liegt, sondern in der Brücke zwischen ihnen, dem Corpus callosum.
Ein elektrophysiologischer Nachweis der Spezialisierung der linken Hemisphäre auf die Verarbeitung schneller zeitlicher Veränderungen von Wörtern
Obwohl die Spezialisierung der linken Hemisphäre auf die Verarbeitung von Sprache lange Zeit aus der Untersuchung vieler Personen mit Hirnverletzungen hervorging, ist es tatsächlich möglich, mittels auditorischer Ereignispotentiale (AERPs) den Zeitunterschied zwischen dem Eintreffen der Spracheingaben des rechten und des linken Ohrs am Sprachprozessor der linken Hemisphäre zu quantifizieren. In einem einfachen Experiment mit komplizierter Datenanalyse sammelten mein Kollege Jeffrey Martin und ich (2004)2 AERP-Daten bei 10 jungen Erwachsenen mit normalem Gehör. Es war eine dichotische Hörstudie, in der der Zuhörer eine fortlaufende Geschichte über die Abenteuer einer jungen Dame namens Pam verfolgte. Anweisungen an den Hörer waren einfach zu zählen und zu melden, wie oft das Zielwort „Pam“ in einem bestimmten Zeitblock gehört worden war. Die gleiche Geschichte wurde gleichzeitig den beiden Ohren präsentiert, aber die Erzählung wurde um 60 Sekunden in einem Ohr relativ zum anderen verzögert. Im Laufe des Experiments hörte der Hörer genau die gleiche Geschichte in beiden Ohren, aber zu jeder Zeit war es ein anderer Teil der Geschichte in den beiden Ohren. In der Hälfte der Blöcke wurde der Zuhörer angewiesen, nur Ziele zu zählen, die von der rechten Seite gehört wurden, in der anderen Hälfte nur Ziele, die von der linken Seite gehört wurden. Die auditiven Reize wurden von Lautsprechern präsentiert, die sich in einem Abstand von einem Meter direkt am rechten und linken Ohr des Zuhörers befanden. Dies war eine klassische „Oddball“ -AERP-Studie, bei der die Dauer jedes Ziels, „Pam“, im Vergleich zur Dauer der laufenden Rede zwischen Zielen kurz war (dh eine geringe A-priori-Wahrscheinlichkeit eines Ziels).
Das AERP manifestiert sich typischerweise als eine Wellenform, die das Latenzintervall (Zeit nach dem Einsetzen des Wortes „Pam“) von 0 bis 750 ms überspannt. Abbildung 1 zeigt ein Beispiel einer typischen AERP-Wellenform. Es zeichnet sich durch drei leicht identifizierbare Peaks aus: ein anfänglicher negativer Peak (N1) bei einer Latenz von etwa 100 msec, gefolgt von einem positiven (P2) bei einer Latenz von etwa 200 msec und der späten positiven Komponente (LPC, auch bekannt als P3 oder P300), einem positiven Peak bei einer Latenz irgendwo im Bereich von 300 bis 900 msec, abhängig von der Art und Schwierigkeit der Oddball-Aufgabe, die den positiv laufenden Peak erzeugt. Wir waren an zwei Zeitintervallen innerhalb des Gesamtlatenzbereichs interessiert, dem Bereich von 0 bis 250 ms, der den N1-P2-Komplex überspannt, und dem Latenzbereich von 250 bis 750 ms, der den in der vorliegenden Studie gemessenen LPC überspannt.
Abbildung 1. Ein Beispiel dafür, wie ein typisches auditorisches Ereignispotential (AERP) an einer einzelnen Elektrode auftritt. Die N1- und P2-Peaks treten innerhalb der ersten 250 ms nach Wortbeginn auf; Der LPC-Peak liegt normalerweise innerhalb des 250-750-Latenzintervalls.
Der N1-P2-Komplex spiegelt die Tatsache wider, dass der Beginn eines Tons erkannt wurde. Während dieser ersten 250 ms findet keine Verarbeitung sprachlicher Inhalte statt. Es ist einfach die Reaktion des Gehirns auf den Beginn jedes Wortes. Im Gegensatz dazu spiegelt die LPC-Komponente die Tatsache wider, dass ein linguistisches Ziel unter linguistischen Nichtzielen erkannt wurde. In diesem Experiment dient daher die N1-P2-Antwort als Kontrollbedingung, bei der in der linken Hemisphäre kein signifikanter Ohrunterschied in der Ankunftszeit zu erwarten wäre, da keine linguistische Analyse vorliegt. Im Fall der LPC-Komponente können wir jedoch an jeder Elektrode den Unterschied in der Ankunftszeit der Eingänge von den beiden Ohren an einer bestimmten Elektrode messen.
Dieses Konzept kann durch ein einfaches Gedankenexperiment visualisiert werden (Abbildung 2). Stellen Sie sich eine Linie vor, die von einem Ihrer Ohren über die Oberseite Ihres Kopfes in der Nähe der Parietalregion Ihres Gehirns bis zum anderen Ohr gezogen wird. Vertikal definiert dies eine koronale Ebene über den Kopf. Stellen Sie sich auf dieser Linie fünf Elektroden vor, die sich von knapp über Ihrem linken Ohr über Ihren Kopf bis knapp über Ihr rechtes Ohr erstrecken. Die Elektrode an der Oberseite Ihres Kopfes, in der Mittellinie, ist mit Pz (P für parietal, z für Mittellinie) gekennzeichnet. Diejenige, die Ihrem linken Ohr am nächsten liegt, ist mit P7 gekennzeichnet. Diejenige, die Ihrem rechten Ohr am nächsten liegt, ist mit P8 gekennzeichnet (ungerade Zahlen über der linken Hemisphäre, gerade Zahlen über der rechten Hemisphäre). Die Elektrode auf halbem Weg zwischen P7 und Pz ist mit P3 bezeichnet. Die Elektrode auf halbem Weg zwischen Pz und P8 ist mit P4 bezeichnet. Diese Kennzeichnungskonventionen leiten sich vom internationalen 10-20-System für die Platzierung von EEG-Elektroden ab. Für unsere Zwecke müssen wir uns jedoch nur daran erinnern, dass sich P7 und P3 über der linken Hemisphäre befinden, P4 und P8 über der rechten Hemisphäre und Pz in der Mitte zwischen den beiden Hemisphären. Diese Anordnung ist in Abbildung 2 sowohl für das Intervall von 0-250 ms (linkes Feld) als auch für das Intervall von 250-750 ms (rechtes Feld) dargestellt. In beiden Fällen betrachten wir den Kopf von hinten. Der Grund, warum wir uns besonders für die parietale Koronalebene interessieren, ist, dass dies ein guter Elektrodenort ist, um sowohl den N1P2-Komplex als auch den LPC zu betrachten.
An jeder dieser 5 Elektroden lieferte unser dichotisches Experiment zwei AERPs, eine von der Stimulation des rechten Ohrs, die andere von der Stimulation des linken Ohrs. Unser besonderes Interesse gilt der Differenzankunftszeit an jeder dieser 5 Elektroden. Wir können diese Zeitdifferenz durch eine Technik ableiten, die als Kreuzkorrelation der AERP-Wellenformen bezeichnet wird. Es sagt uns zwei Dinge über jeden Unterschied zwischen rechtem und linkem Ohr: 1) Welches AERP kam zuerst an einer bestimmten Elektrode an und 2) um wie viel Zeit. Hier folgen wir der Konvention, dass eine frühere Ankunft durch den rechten Ohreingang durch rote Zahlen gekennzeichnet ist; frühere Ankunft durch den linken Ohreingang wird durch blaue Zahlen bezeichnet. Beachten Sie, dass wir nirgendwo in diesem Zusammenhang über tatsächliche absolute Übertragungszeiten im Gehirn sprechen. Die einzigen Zahlen in Abbildung 2 sind Unterschiede zwischen den Ankunftszeiten in ms. Wir haben keine Möglichkeit, aus diesen Daten zu wissen, wie viel absolute Zeit tatsächlich im Prozess verstrichen ist.
In Abbildung 2 gibt es zwei Köpfe. Der Kopf auf der linken Seite zeigt Unterschiede in der Ankunftszeit an den fünf Parietalelektroden für den N1P2-Komplex. Auf die nächste Millisekunde gerundet sind sie alle Null. Das heißt, die N1P2-Wellenformanteile für die Stimulation des rechten Ohrs und des linken Ohrs zeigen keine Unterschiede in der Ankunftszeit an einer der 5 Elektroden über das parietale Elektrodenarray. Während der ersten 250 ms der AERP-Wellenform gab es keine Asymmetrie in der evozierten elektrischen Aktivität. Alle interauralen Ankunftsunterschiede betrugen weniger als 1,0 ms. Dieses Ergebnis steht im Einklang mit der Interpretation, dass die N1- und P2-Peaks im Wesentlichen vor-aufmerksame, automatische Reaktionen auf die Erkennung des Beginns eines auditorischen Ereignisses widerspiegeln.
Abbildung 2. Differenz in msec zwischen den Ankunftszeiten der AERP-Eingänge im rechten und linken Ohr an fünf Stellen der Parietalelektrode, betrachtet von hinter dem Kopf. Alle ziffern sind ankunft zeit unterschiede nur. Es handelt sich nicht um absolute Sendezeiten. Hier folgen wir der Konvention, dass eine frühere Ankunft durch den rechten Ohreingang mit roten Zahlen bezeichnet wird; Eine frühere Ankunft durch den linken Ohreingang ist mit blauen Zahlen bezeichnet. Kein Unterschied in der Ankunftszeit wird durch schwarze Nullen bezeichnet. Im Falle des N1P2-Intervalls (0-250 msec) gab es keine Ankunftszeitunterschiede. Alle fünf Elektroden zeigten Null Ankunftsunterschiede. Im Falle der LPC-Komponente änderte sich die Ankunftszeitdifferenz jedoch systematisch von der Bevorzugung des linken Ohreingangs an den Elektroden P8 und P4 (rechte Hemisphäre) zur Bevorzugung des rechten Ohreingangs über den Elektroden Pz, P3 und P7 (linke Hemisphäre). An der Elektrode P7, über die linke parietale Elektrodenregion, kam der rechte Ohreingang volle 29 ms vor dem linken Ohreingang an der Elektrode P7 an. Hier ist eine grafische Darstellung der Grundlage für den rechten Ohrvorteil, der durch verhaltensdichotische Tests so konsistent aufgedeckt wurde.
Im Fall der LPC-Komponente (rechte Seite) nahm jedoch die Ankunftszeitdifferenz zwischen dem rechten und dem linken Ohreingang systematisch zu, als sich die Elektrodenstelle von der äußersten rechten Seite des Kopfes (Elektrode P8) zur äußersten linken Seite (Elektrode P7) bewegte. Nicht unerwartet begünstigte die Differenz (blaue Zahlen) an der Elektrode P8 (d. h. über der rechten Hemisphäre) den linken Ohreingang um etwa 8,1 ms, aber an der Elektrode P4 (immer noch über der rechten Hemisphäre) war die Differenz, die den linken Ohreingang begünstigte, auf 2 ms gesunken. Wenn Sie sich über die Parietalebene nach links bewegen (rote Zahlen), unterscheidet sich die Ohrdifferenz an der Elektrode Pz (Mittellinie) vom rechten Ohr um 14 ms, an der Elektrode P3 um 19 ms und an der Elektrode P7 um 29 ms. Diese systematische Änderung der Ankunftszeitdifferenz über das parietale Elektrodenarray hinweg, wenn wir uns von der rechten Hemisphäre zur linken Hemisphäre bewegen, spiegelt die Tatsache wider, dass der Eingang des rechten Ohrs direkten Zugang zur linken Hemisphäre hat, während der Eingang des linken Ohrs einen längeren Weg über die rechte Hemisphäre und den Corpus callosum zurücklegen muss.
Die Asymmetrie in diesem entwickelten auditorischen System ist offensichtlich. Beachten Sie, dass Sie zum Erkennen des Beginns eines Wortes nur das primitive symmetrische Hörsystem benötigen, das allen Tieren gemeinsam ist, die wissen müssen, dass ein Geräusch aufgetreten ist und aus welcher Richtung es kommt. Um ein tatsächliches Wort zu erkennen, benötigen Sie jedoch ein viel komplizierteres asymmetrisches Hörsystem.
Abbildung 3 zeigt dieselben Daten wie Abbildung 2, jedoch in einem konventionelleren Grafikformat. Diese Funktion, die den Unterschied in der Ankunftszeit mit der Elektrodenposition über den beiden Hemisphären in Beziehung setzt, bietet eine starke Unterstützung für Kimuras Strukturmodell des dichotischen Zuhörens. Es zeigt grafisch die Zeitverzögerung, auf die die Worteingabe im linken Ohr stößt, wenn sie ihre Reise zur rechten Hemisphäre und dann über das Corpus callosum zur linken Hemisphäre abschließt. Hier sehen wir eine grafische Darstellung der tatsächlichen Basis für den rechten Ohrvorteil.
Abbildung 3. Eine traditionellere Methode zur Visualisierung der Unterschiede in der Ankunftszeit an jeder der fünf Parietalelektroden über den Kopf, die in Abbildung 2 gezeigt sind, mit P7 (am weitesten links), P3, Pz (Mittelebene), P4 und P8 (am weitesten rechts). Schwarze Nullen sind Ergebnisse für das N1P2-Intervall. Rote und blaue Kreise sind Ergebnisse für das LPC-Intervall. Modifiziert aus Abbildung 7 von Jerger und Martin (2004).2
Alterung Verkompliziert das Bild
Nun, wenn alles dort geendet wäre, wäre die leichte REA / LED eine Labor-Kuriosität geblieben, ein kleiner Effekt von geringer Konsequenz. Wie so viele Forschungen an Universitäten, jedoch, Die dichotische Hörforschung wurde nur zu den vorliegenden Themen eingehend untersucht: junge erwachsene College-Studenten im Alter von 18 zu 26 Jahre mit normalem Gehör. Und bei jungen Menschen mit normalem Gehör ist die REA / LED klein – im Bereich von 3-5% für eine 50-Wort-Testliste.Schließlich erweiterten die Audiologen jedoch den Umfang der dichotischen Hörforschung auf Personen mit Hörverlust. Und es ist unvermeidlich, wenn man Menschen mit Hörbehinderung studiert, dass viele ältere Menschen sein werden. Es wurde schnell klar, dass die scheinbar minimale REA / LED bei jungen Erwachsenen mit dem Alter zunahm. In einer vom Autor und seinen Kollegen durchgeführten dichotischen Satzidentifikationsstudie 3 stieg die durchschnittliche REA / LED von 3% bei 20-Jährigen auf 37% bei 80-Jährigen. Abbildung 4 veranschaulicht diese Ergebnisse, die auf 356 Hörern mit normalem Gehör oder symmetrischem sensorineuralem Verlust basieren (und im Directed-Report-Modus durchgeführt wurden, um altersbedingte Aufmerksamkeitseffekte zu vermeiden, die häufig im Free-Report-Modus vorhanden sind).
Abbildung 4. Mittlere prozentual korrekte Werte für das rechte Ohr (rote Kreise) und das linke Ohr (blaue Quadrate) als Funktionen der Altersgruppe im DSI-Test (Dichotic Sentence Identification) (n = 356; Gerichteter Berichtsmodus). Modifiziert aus Abbildung 2 in Jerger, et al.3
Einseitige Nachteile dieser Größenordnung sind nicht ohne weiteres von der Hand zu weisen. Sie deuten auf einen tiefgreifenden Alterungseffekt irgendwo im auditorischen System hin. Wie kann man die fortschreitende Zunahme der linken Ohrmuschel erklären?
Wieder das Corpus Callosum
Ein wahrscheinlicher Verdächtiger ist das Corpus callosum, die Brücke zwischen der rechten und der linken Gehirnhälfte. Eine fortschreitende Verschlechterung dieser Brücke könnte die Antwort geben. Und es ist eine Tatsache, dass das Corpus callosum tatsächlich altersbedingte Veränderungen erfährt, einschließlich Größe, Faserzusammensetzung, weißer Substanz und Stoffwechsel. Somit ist der Nettoeffekt des Alterns eine erhebliche Zunahme der Disparität zwischen dem rechten und dem linken Ohr bei der Spracherkennung bei gleichzeitiger Stimulation der beiden Ohren.
Binaurale Interferenz
Solche interauralen Disparitäten bei älteren Menschen mit Hörverlust erinnern unweigerlich an das Phänomen der binauralen Interferenz, die Tendenz der Eingabe von einem Ohr, die binaurale Verarbeitung zu stören.4 Viele Kliniker haben beobachtet, dass einige ältere Menschen mit Hörverlust binaurale Hörgeräte zugunsten einer monauralen Anpassung ablehnen. Forscher, die das Phänomen im Detail untersucht haben, berichten normalerweise, dass das bevorzugte Ohr für die monaurale Anpassung das rechte Ohr ist. In der Tat, wenn Spracherkennungswerte über die drei Bedingungen von monaural rechts, monaural links und binaural bei Personen mit binauraler Interferenz verglichen werden, ist die monaurale Bedingung, die die binaurale Bedingung übertrifft, fast immer die monaural-rechte Bedingung. Es wurde vorgeschlagen, dass eine starke Verschlechterung der Sprachverarbeitung durch das linke Ohr tatsächlich die binaurale Verarbeitung stören kann, was zu einem binauralen Interferenzeffekt führt. All dies hat wichtige Implikationen für den erfolgreichen Einsatz von amplification.To zusammenfassen:
1) Wenn beiden Ohren gleichzeitig verschiedene Wörter präsentiert werden, hat das linke Ohr im Durchschnitt einen leichten Nachteil bei der Spracherkennung.2) Der durchschnittliche Unterschied oder „Rechtsohr-Vorteil / Linksohr-Nachteil“ ist bei jungen Erwachsenen mit normalem Gehör gering, vielleicht 3-5%.
3) Diese REA / LED nimmt systematisch zu, wenn einige Personen älter werden und einen Hörverlust entwickeln. Der Effekt kann auf Alterungseffekte auf das Corpus callosum, die Brücke zwischen den beiden Gehirnhälften, zurückzuführen sein.
4) Wenn ältere Personen mit Hörverlust auf mögliche Verwendung einer Verstärkung untersucht werden, lehnen einige binaurale Anpassungen zugunsten einer monauralen Verstärkung ab, was auf das mögliche Vorhandensein binauraler Interferenzen hindeutet.
5) Die bevorzugte Anpassung ist in diesem Fall normalerweise für das rechte Ohr.
Nun, das ist die Saga der REA / LED – ein weiteres unschuldiges Opfer des Alterns.
-
Kimura D. Zerebrale Dominanz und die Wahrnehmung verbaler Reize. In: Can J Psychol. 1961;15(3):166-171.
-
Gerger J, Martin J. Hemisphärische Asymmetrie des rechten Ohrs Vorteil beim dichotischen Hören. Siehe Res. 2004;198(1-2): 125-136.
-
Jerger J, Chmiel R, Allen J, Wilson A. Auswirkungen von Alter und Geschlecht auf die Identifizierung von dichotischen Sätzen. Ohr hören. 1994;15(4):274-286.
-
Jerger J, Silman S, Lew HL, Chmiel R. Fallstudien zur binauralen Interferenz: Konvergierende Beweise aus verhaltens- und elektrophysiologischen Maßnahmen. In: Acad Audiol. 1993;4(2):122-131.