Niezwykła historia zalety prawego ucha

badania / styczeń 2018 Przegląd słuchu

Dr James Jerger

nie mamy symetrycznego układu słuchowego, a to stawia kilka interesujących pytań.

z dobrych powodów, system słuchowy ludzi ewoluował z przewagą prawego ucha (lub wadą lewego ucha), ponieważ przetwarzanie mowy wymagało więcej mózgu. Ten artykuł zabiera czytelników w niezwykłą podróż po systemie słuchowym i przygląda się niektórym interesującym implikacjom korzyści dla prawousznych w zakresie przetwarzania obuusznego, rozumienia mowy i wzmacniania.

wielu osobom trudno uwierzyć, że układ słuchowy nie jest w idealnej symetrii. Nie mogą zaakceptować tego, że jedno ucho może się w jakikolwiek sposób różnić od drugiego. Ale tak właśnie jest. Powszechnie wiadomo, że rozpoznawanie mowy odbywa się nieco inaczej w przypadku wejścia prawouchowego niż w przypadku wejścia lewouchowego. Jest to historia „przewagi prawego ucha” (REA). Zabierze nas w niezwykłą podróż w obrębie słuchowego układu nerwowego.

wiń to za ewolucję

możemy sobie wyobrazić, że we wcześniejszym okresie ewolucji całkowity system słuchowy był prawie symetryczny u naczelnych, innych ssaków i różnych niższych form życia zwierzęcego. Rzeczywiście, system symetryczny był idealny do zastosowań, do których ich systemy słuchowe były zadane, głównie kierunkowość azymutalna i tworzenie przestrzeni słuchowej – ” efekt stereofoniczny.”Dla dzikich zwierząt nazwa zwierzyny zawsze brzmiała survival: jedz i unikaj bycia zjedzonym. System z dwoma uszami jest znakomicie zaprojektowany, aby poradzić sobie z tym problemem. Dla celów kierunkowości dwoje uszu dostarcza niezbędnych informacji w postaci międzyusznych różnic czasu i intensywności. Te dane z obu uszu są porównywane w pniu mózgu, co prowadzi do obliczenia azymutu w płaszczyźnie poziomej, z której wydaje się znajdować interesujący dźwięk. Po wizualnej analizie charakteru i wielkości intruza, zwykle jest to kwestia walki lub ucieczki.

ewolucyjna modyfikacja

w przypadku ludzi pierwotnie symetryczny układ słuchowy został znacznie zmodyfikowany. W ciągu ostatnich 50 milionów lat my, ludzie, rozwinęliśmy zdolność do wytwarzania i postrzegania dźwięków mowy; początkowo sylaby, które następnie można było połączyć w słowa, a słowa w zdania, tworząc wehikuł dla ludzkiego klejnotu: języka mówionego. Nic dziwnego, że zajęło to trochę czasu. Produkcja mowy jest zjawiskiem złożonym. Można o tym myśleć jako o strumieniu energii akustycznej, który zmienia się w czasie na dwa sposoby:

1) bardzo szybkie (w zakresie milisekund) zmiany amplitudy i częstotliwości oraz

2) stosunkowo wolniejsze (w zakresie sekund) zmiany w ogólnej otoczce energii.

pierwszy przekazuje informacje definiujące sekwencje samogłosek i spółgłosek; drugi przekazuje cechy prozodyczne fraz i zdań.

i tutaj odbiegamy od pierwotnej symetrii całego układu słuchowego. Części kory słuchowej lewej półkuli ewoluowały w celu przetwarzania gwałtownych zmian amplitudy i częstotliwości w strumieniu akustycznym. Podobnie, części kory słuchowej w prawej półkuli ewoluowały, aby przetwarzać wolniejsze zmiany w ogólnej otoczce akustycznej.

drobniejsze szczegóły tych procesów są nieuchronnie nieco bardziej złożone niż ten prosty obraz sugerowałby, ale dla naszych obecnych celów—analiza przewagi prawego ucha-zrobią to. Ponieważ to gwałtowne zmiany amplitudy i częstotliwości niosą większość podstawowych informacji o zrozumiałości w przebiegu mowy, lewa półkula stała się dominującą półkulą do rozpoznawania mowy, podczas gdy prawa półkula stała się dominującą półkulą do przetwarzania wolniejszych zmian w czasie (np. wzorców stresu trwającej mowy).

słuchanie Dychotyczne i REA

większość badań audiologicznych w zrozumieniu mowy obejmuje środki rozpoznawania słów jednosylabowych. Zazwyczaj występuje słowo, Zwykle spółgłoska-samogłoska-spółgłoska (CVC); odpowiedź słuchacza oceniana jest jako poprawna lub nieprawidłowa. Ponieważ trudno jest nadać prozodię słowom jednosylabowym, udane powtórzenie słowa wymaga jedynie analizy fonologicznej bardzo szybko zmieniających się zdarzeń, które określają, które dwie spółgłoski, początkowa i końcowa, oraz która samogłoska zostały usłyszane. Są to właśnie cechy, dla których wyspecjalizowała się lewa półkula. Jest to bardzo udany procesor fonologiczny.

teraz zdarza się, że oba uszy są ostatecznie połączone z procesorem lewej półkuli, ale ze względu na sposób, w jaki uszy są połączone z półkulami mózgowymi, wejście z prawego ucha dociera do lewej półkuli nieco wcześniej niż wejście z lewego ucha. Daje to prawemu uchu niewielką przewagę, gdy oba uszy są stymulowane jednocześnie (dychotycznie).

Ten REA został po raz pierwszy opisany w teście słuchania dychotycznego. Paradygmat słuchania dychotycznego był pionierem angielskiego psychologa Donalda Broadbenta (1926-1993). Przedstawiał pary cyfr dychotycznie, czyli różne cyfry dla każdego ucha jednocześnie. Na przykład słowo ” trzy „do jednego ucha i jednocześnie słowo” osiem ” do drugiego ucha. Zastosował tę procedurę do badania uwagi i krótkotrwałego zapamiętywania, ale nie porównał dokładności obu uszu.

Doreen Kimura (1933-2013) była studentką w laboratorium neuropsychologii Brendy Milner w Montreal Neurological Institute na początku lat 60. Kimura i Milner nagrali własny test cyfr dychotycznych w celu zastosowania go u pacjentów z padaczką płata skroniowego. Ale, jako studenci uszkodzenia mózgu, byli świadomi potrzeby oddzielania danych przez ucho. Poinstruowali słuchacza, aby powtarzał wszystko, co słychać w obu uszach, ale potem odseparowali odpowiedzi prawouchne od lewouchnych. Jednak przed rozpoczęciem badań pacjentów z padaczką, Kimura1 przetestował grupę młodych normalnych kontroli w celu ustalenia norm. Co zaskakujące, odkryła, że w normalnej grupie poprawne odpowiedzi na dychotycznie przedstawione cyfry były średnio nieco lepsze dla cyfr przedstawionych do prawego ucha niż dla tych samych cyfr przedstawionych do lewego ucha. Ten mały REA-znany również jako” lewe ucho ” lub LED—był szeroko badany w ciągu ostatniego półwiecza. Demonstrowano go nonsensownymi sylabami, cyframi, wyrazami CVC, a nawet sztucznymi zdaniami.

Model strukturalny słuchania Dychotycznego

aby wyjaśnić REA / LED, Kimura1 zasugerował coś, co nazwano „modelem strukturalnym” układu słuchowego. Model opiera się na fakcie, że istnieją zarówno skrzyżowane, jak i nie skrzyżowane ścieżki z każdego ucha na każdą półkulę, oraz że gdy oba uszy są stymulowane jednocześnie, nie skrzyżowane ścieżki są tłumione; tylko skrzyżowane ścieżki są aktywne. Oznacza to, że wejście do prawego ucha przenosi się bezpośrednio do procesora lewej półkuli poprzez skrzyżowanie z prawego ucha do lewej półkuli, ale wejście do lewego ucha musi najpierw przejść do prawej półkuli, a następnie przejść do procesora mowy lewej półkuli przez ciało modzelowate, most nerwowy między dwiema półkulami mózgowymi. Wprowadza to bardzo niewielkie opóźnienie i utratę wydajności wejścia lewego ucha-niewiele, ale wystarczająco, aby uwzględnić małe REA/LED wymienione powyżej. Zauważ, że problem nie dotyczy półkuli, ale mostu między nimi, ciała modzelowatego.

Elektrofizjologiczna demonstracja specjalizacji lewej półkuli do przetwarzania szybkich zmian czasowych w słowach

chociaż specjalizacja lewej półkuli do przetwarzania mowy była od dawna widoczna w badaniach wielu osób z uszkodzeniem mózgu, w rzeczywistości możliwe jest, za pomocą potencjałów związanych z zdarzeniami słuchowymi (aerps), obliczenie różnicy w czasie między przybyciem prawych i lewych sygnałów mowy w procesorze mowy lewej półkuli. W prostym eksperymencie ze skomplikowaną analizą danych, mój kolega Jeffrey Martin i ja (2004)2 zebrali dane AERP u 10 młodych dorosłych z normalnym słuchem. Było to badanie dychotyczno-słuchowe, w którym słuchacz monitorował ciągłą opowieść o przygodach młodej damy o imieniu Pam. Instrukcje dla słuchacza polegały na liczeniu i raportowaniu, ile razy słowo docelowe „Pam” było słyszane w danym bloku czasu. Ta sama historia została przedstawiona jednocześnie dwóm uszom, ale narracja została opóźniona o 60 sekund w jednym uchu w stosunku do drugiego. W trakcie eksperymentu słuchacz usłyszał dokładnie tę samą historię w obu uszach, ale w każdym momencie była to inna część historii w obu uszach. W połowie bloków słuchacz miał liczyć tylko cele słyszane z prawej strony, w drugiej połowie tylko cele słyszane z lewej strony. Bodźce słuchowe były prezentowane z głośników umieszczonych bezpośrednio w prawym I lewym uchu słuchacza w odległości jednego metra. Było to klasyczne badanie aerp „oddball”, w którym czas trwania każdego celu,” Pam”, był krótki w porównaniu do czasu trwania trwającej mowy między celami (tj. niskie a priori prawdopodobieństwo celu).

AERP jest zwykle manifestowany jako przebieg obejmujący przedział opóźnienia (czas po wystąpieniu słowa „Pam”) od 0 do 750 msec. Rysunek 1 przedstawia przykład typowego kształtu fali AERP. Charakteryzuje się trzema łatwo rozpoznawalnymi szczytami: początkowy ujemny pik (N1) z opóźnieniem około 100 msec, następnie dodatni (P2) z opóźnieniem około 200 msec, a późny dodatni Składnik (LPC, znany również jako P3 lub P300), dodatni pik z opóźnieniem gdzieś w zakresie od 300 do 900 msec, w zależności od charakteru i trudności zadania oddball generującego dodatni pik. Interesowały nas dwa przedziały czasowe w zakresie całkowitego opóźnienia, region od 0 do 250 msec, obejmujący kompleks N1-P2, oraz region opóźnienia od 250 do 750 msec, obejmujący LPC mierzone w niniejszym badaniu.

Rysunek 1. Przykład, w jaki sposób typowy potencjał związany z zdarzeniami słuchowymi (aerp) pojawia się na jednej elektrodzie. Piki N1 i P2 występują w ciągu pierwszych 250 ms po wystąpieniu słowa; pik LPC zwykle w przedziale latencji 250-750.

Rysunek 1. Przykład, w jaki sposób typowy potencjał związany z zdarzeniami słuchowymi (aerp) pojawia się na jednej elektrodzie. Piki N1 i P2 występują w ciągu pierwszych 250 ms po wystąpieniu słowa; pik LPC zwykle w przedziale latencji 250-750.

kompleks N1-P2 odzwierciedla fakt wykrycia początku dźwięku. Podczas pierwszych 250 msec nie jest przetwarzana treść językowa. Jest to po prostu odpowiedź mózgu na początek każdego słowa. Natomiast komponent LPC odzwierciedla fakt, że cel językowy został wykryty spośród języków niebędących celami. Dlatego w tym eksperymencie odpowiedź N1-P2 służy jako warunek kontrolny, w którym nie można oczekiwać znaczącej różnicy czasu przybycia ucha na lewej półkuli, ponieważ nie ma analizy językowej. W przypadku komponentu LPC możemy jednak zmierzyć, na każdej elektrodzie, różnicę w czasie przybycia wejść z obu uszu na dowolną elektrodę.

to pojęcie można zwizualizować za pomocą prostego eksperymentu myślowego (Rysunek 2). Wyobraź sobie linię narysowaną z jednego ucha, przez czubek głowy, w pobliżu obszaru ciemieniowego mózgu, a następnie do drugiego ucha. Pionowo, to definiuje płaszczyznę koronalną w poprzek głowy. Na tej linii wyobraźcie sobie pięć elektrod, rozciągających się od lewego ucha, przez czubek głowy, do prawego ucha. Elektroda w górnej części głowy, w linii środkowej, jest oznaczona jako Pz (P dla ciemieniowej, z dla linii środkowej). Ten najbliżej lewego ucha jest oznaczony jako P7. Ten najbliżej prawego ucha jest oznaczony jako P8 (liczby nieparzyste na lewej półkuli, liczby parzyste na prawej półkuli). Elektroda w połowie drogi między P7 i Pz jest oznaczona jako P3. Elektroda w połowie drogi między Pz I P8 jest oznaczona jako P4. Te konwencje etykietowania wywodzą się z międzynarodowego systemu 10-20 do umieszczania elektrod EEG. Dla naszych celów musimy jednak pamiętać, że P7 i P3 znajdują się nad lewą półkulą, P4 i P8 znajdują się nad prawą półkulą, a Pz Znajduje się pośrodku między dwiema półkulami. Układ ten przedstawiono na fig. 2 zarówno dla interwału 0-250 msec (lewy panel), jak i dla interwału 250-750 msec (prawy panel). W obu przypadkach oglądamy głowę od tyłu. Powodem, dla którego jesteśmy szczególnie zainteresowani płaszczyzną korony ciemieniowej, jest to, że jest to dobra lokalizacja elektrody, aby zobaczyć zarówno kompleks N1P2, jak i LPC.

przy każdej z tych 5 elektrod nasz dychotyczny eksperyment dostarczył dwie Aerpy, jedną ze stymulacji prawego ucha, drugą ze stymulacji lewego ucha. Naszym szczególnym zainteresowaniem jest różnica czasu przybycia każdej z tych 5 elektrod. Możemy uzyskać tę różnicę czasu za pomocą techniki zwanej korelacją krzyżową fal AERP. Mówi nam dwie rzeczy o różnicy między Prawym a lewym uchem: 1) który AERP dotarł pierwszy do danej elektrody i 2) o ile czasu. Tutaj kierujemy się konwencją, że wcześniejsze przybycie przez wejście prawoskrętne oznaczane jest czerwonymi cyframi; wcześniejszy przyjazd przez lewe ucho jest oznaczony niebieskimi cyframi. Zauważ, że nigdzie w tym nie mówimy o rzeczywistych absolutnych czasach transmisji w mózgu. Jedynymi liczbami na rysunku 2 są różnice między czasami przybycia w msec. Nie wiemy na podstawie tych danych, ile czasu absolutnego faktycznie upłynęło w tym procesie.

na rysunku 2 są dwie głowy. Głowica na lewym panelu pokazuje różnice w czasie dotarcia do pięciu elektrod ciemieniowych dla kompleksu N1P2. Zaokrąglone do najbliższej milisekundy, wszystkie są zerem. Oznacza to, że części falowe n1p2 do stymulacji prawego i lewego ucha nie wykazują różnic w czasie przybycia żadnej z 5 elektrod w układzie elektrod ciemieniowych. Przez pierwsze 250 msec fali AERP nie było asymetrii w wywołanej aktywności elektrycznej. Wszystkie różnice międzyuszne były mniejsze niż 1,0 msec. Wynik ten jest zgodny z interpretacją, że piki N1 i P2 odzwierciedlają zasadniczo wstępne, automatyczne odpowiedzi na rozpoznanie początku dowolnego zdarzenia słuchowego.

Rysunek 2. Różnica w msec między czasem wejścia aerp prawego i lewego ucha w pięciu miejscach elektrod ciemieniowych oglądanych zza głowy. Wszystkie cyfry są tylko różnice czasu przyjazdu. Nie są to bezwzględne czasy transmisji. Tutaj postępujemy zgodnie z konwencją, że wcześniejsze przybycie przez wejście prawouszne jest oznaczone czerwonymi liczbami; wcześniejsze przybycie przez wejście lewouszne jest oznaczone niebieskimi liczbami. Żadna różnica w czasie przyjazdu nie jest oznaczona przez czarne zera. W przypadku interwału N1P2 (0-250 msec) nie było różnic czasu przybycia. Wszystkie pięć elektrod wykazało zerowe różnice w przylocie. W przypadku komponentu LPC różnica czasu przylotu systematycznie zmieniała się z faworyzowania wejścia lewego ucha przy elektrodach P8 i P4 (prawa półkula) na faworyzowanie wejścia prawego ucha nad elektrodami Pz, P3 i P7 (lewa półkula). Przy elektrodzie P7, nad obszarem lewej elektrody ciemieniowej, wejście prawouszne dotarło do elektrody P7 o pełne 29 ms przed wejściem lewousznym. Oto graficzna ilustracja podstawy przewagi prawego ucha tak konsekwentnie ujawnianej przez behawioralne testy dychotyczne.

Rysunek 2. Różnica w msec między czasem wejścia aerp prawego i lewego ucha w pięciu miejscach elektrod ciemieniowych oglądanych zza głowy. Wszystkie cyfry są tylko różnice czasu przyjazdu. Nie są to bezwzględne czasy transmisji. Tutaj postępujemy zgodnie z konwencją, że wcześniejsze przybycie przez wejście prawouszne jest oznaczone czerwonymi liczbami; wcześniejsze przybycie przez wejście lewouszne jest oznaczone niebieskimi liczbami. Żadna różnica w czasie przyjazdu nie jest oznaczona przez czarne zera. W przypadku interwału N1P2 (0-250 msec) nie było różnic czasu przybycia. Wszystkie pięć elektrod wykazało zerowe różnice w przylocie. W przypadku komponentu LPC różnica czasu przylotu systematycznie zmieniała się z faworyzowania wejścia lewego ucha przy elektrodach P8 i P4 (prawa półkula) na faworyzowanie wejścia prawego ucha nad elektrodami Pz, P3 i P7 (lewa półkula). Przy elektrodzie P7, nad obszarem lewej elektrody ciemieniowej, wejście prawouszne dotarło do elektrody P7 o pełne 29 ms przed wejściem lewousznym. Oto graficzna ilustracja podstawy przewagi prawego ucha tak konsekwentnie ujawnianej przez behawioralne testy dychotyczne.

w przypadku komponentu LPC (prawy panel) różnica czasu przybycia między wejściami prawego i lewego ucha systematycznie rosła, gdy miejsce elektrody przesunęło się z skrajnej prawej strony głowicy (elektroda P8) na skrajną lewą stronę (elektroda P7). Nie nieoczekiwanie, przy elektrodzie P8 (tj. nad prawą półkulą) różnica (niebieskie liczby) faworyzowała wejście lewe o około 8,1 MS, ale przy elektrodzie P4 (nadal nad prawą półkulą) różnica faworyzująca wejście lewe zmniejszyła się do 2 ms. Poruszając się w lewo po płaszczyźnie ciemieniowej (czerwone liczby), różnica w uchu przy elektrodzie Pz (linia środkowa) faworyzowała prawe ucho o 14 msec, przy elektrodzie P3 o 19 msec, a przy elektrodzie P7 o 29 msec. Ta systematyczna zmiana różnicy czasu przybycia z całej tablicy elektrod ciemieniowych, gdy poruszamy się z prawej półkuli do lewej półkuli, odzwierciedla fakt, że wejście prawe ucho ma bezpośredni dostęp do lewej półkuli, podczas gdy wejście lewe ucho musi podążać dłuższą ścieżką przez prawą półkulę i ciało modzelowate.

asymetria w tym rozwiniętym układzie słuchowym jest oczywista. Zauważ, że aby wykryć początek słowa, potrzebujesz tylko prymitywnego symetrycznego układu słuchowego wspólnego dla wszystkich zwierząt, które muszą wiedzieć, że wystąpił dźwięk i z którego kierunku nadchodzi. Aby jednak rozpoznać rzeczywiste słowo, potrzebujesz znacznie bardziej skomplikowanego asymetrycznego układu słuchowego.

Rysunek 3 przedstawia te same dane Co Rysunek 2, ale w bardziej konwencjonalnym formacie graficznym. Funkcja ta, odnosząca się do różnicy czasu przybycia do pozycji elektrody na dwóch półkulach, zapewnia silne wsparcie dla strukturalnego modelu dychotycznego słuchania Kimury. Graficznie pokazuje opóźnienie czasowe napotkane przez lewe ucho, gdy kończy swoją podróż na prawą półkulę, a następnie nad ciałem modzelowatym na lewą półkulę. Tutaj widzimy graficzną ilustrację rzeczywistej podstawy przewagi prawego ucha.

Rysunek 3. Bardziej tradycyjny sposób wizualizacji różnic w czasie przybycia każdej z pięciu elektrod ciemieniowych w poprzek głowy, pokazanych na fig. 2, z P7 (najdalej po lewej), P3, Pz (Płaszczyzna środkowa), P4 i P8 (najdalej po prawej). Czarne zera to wyniki dla interwału N1P2. Czerwone i niebieskie kółka są wynikami dla interwału LPC. Zmodyfikowany z rysunku 7 Jergera i Martina (2004).2

Rysunek 3. Bardziej tradycyjny sposób wizualizacji różnic w czasie przybycia każdej z pięciu elektrod ciemieniowych w poprzek głowy, pokazanych na fig. 2, z P7 (najdalej po lewej), P3, Pz (Płaszczyzna środkowa), P4 i P8 (najdalej po prawej). Czarne zera to wyniki dla interwału N1P2. Czerwone i niebieskie kółka są wynikami dla interwału LPC. Zmodyfikowany z rysunku 7 Jergera i Martina (2004).2

starzenie się komplikuje Obraz

cóż, gdyby to wszystko się na tym skończyło, lekki REA/LED pozostałby laboratoryjną ciekawostką, małym efektem z niewielkimi konsekwencjami. Podobnie jak wiele badań prowadzonych w środowiskach uniwersyteckich, badania dychotycznego słuchania były szeroko badane tylko na dostępnych przedmiotach: młodzi dorośli studenci w przedziale wiekowym od 18 do 26 lat z normalnym słuchem. A u młodych ludzi z normalnym słuchem wskaźnik REA / LED jest niewielki-w zakresie 3-5% dla 50-wyrazowej listy testów.

ostatecznie jednak audiolodzy rozszerzyli zakres badań dychotyczno-słuchowych o osoby z ubytkiem słuchu. I jest nieuniknione, gdy badamy ludzi z upośledzeniem słuchu, że wielu będzie w podeszłym wieku. Wkrótce stało się jasne, że pozornie minimalny wskaźnik REA/LED u młodych dorosłych wzrastał wraz z wiekiem. W jednym zdaniu dychotycznym-badanie identyfikacyjne przeprowadzone przez autora i współpracowników, 3 Średnia REA / LED wzrosła z 3% U 20-latków do 37% u 80-latków. Rysunek 4 ilustruje te wyniki, które są oparte na 356 słuchaczach z normalnym słuchem lub symetryczną utratą czuciowo-nerwową (i prowadzone w trybie skierowanego raportu, aby uniknąć związanych z wiekiem efektów uwagi często występujących w trybie swobodnego raportu).

Rysunek 4. Średni procent-poprawne wyniki dla prawych uszu (czerwone kółka) i lewych uszu (niebieskie kwadraty) jako funkcji grupy wiekowej w teście identyfikacji zdań Dychotycznych (DSI) (n=356; tryb raportowania kierowanego). Zmodyfikowane z fig. 2 w Jerger, et al.3

Rysunek 4. Średni procent-poprawne wyniki dla prawych uszu (czerwone kółka) i lewych uszu (niebieskie kwadraty) jako funkcji grupy wiekowej w teście identyfikacji zdań Dychotycznych (DSI) (n=356; tryb raportowania kierowanego). Zmodyfikowane z fig. 2 w Jerger, et al.3

jednostronne wady tej wielkości nie mogą być łatwo odrzucone. Sugerują głęboki wpływ starzenia się gdzieś w układzie słuchowym. Jak można wytłumaczyć postępujący wzrost wad lewego ucha?

ciało modzelowate ponownie

prawdopodobnym podejrzanym jest ciało modzelowate, most między prawą i lewą półkulą mózgu. Postępujące niszczenie tego mostu może dać odpowiedź. I faktem jest, że ciało modzelowate rzeczywiście ulega zmianom związanym z wiekiem, w tym rozmiarom, składowi włókien, istocie białej i metabolizmowi. Tak więc, efektem netto starzenia się jest znaczny wzrost rozbieżności między Prawym I lewym uszem w rozpoznawaniu mowy przy jednoczesnej stymulacji obu uszu.

interferencja Obuuszna

takie różnice międzyuszne u osób starszych z ubytkiem słuchu nieuchronnie przywodzą na myśl zjawisko interferencji obuusznej, skłonność wejścia z jednego ucha do zakłócania przetwarzania obuusznego.4 wielu klinicystów zaobserwowało, że niektóre osoby starsze z ubytkiem słuchu odrzucają obuuszne aparaty słuchowe na rzecz dopasowania jednousznego. Badacze, którzy szczegółowo badali to zjawisko, Zwykle informują, że preferowanym uchem do dopasowania monauralnego jest ucho prawe. Rzeczywiście, gdy wyniki rozpoznawania mowy są porównywane w trzech warunkach monauralnej prawej, monauralnej lewej i binauralnej u osób wykazujących interferencję binauralną, warunek monauralny, który przewyższa warunek binauralny, jest prawie zawsze stanem monauralno-prawym. Sugerowano, że poważne pogorszenie przetwarzania mowy przez lewe ucho może faktycznie zakłócać przetwarzanie obuuszne, prowadząc do efektu interferencji obuusznej. Wszystko to ma istotne konsekwencje dla pomyślnego wykorzystania amplification.To podsumowanie:

1) gdy do obu uszu jednocześnie przekazywane są różne słowa, lewe ucho znajduje się średnio w niewielkiej niekorzystnej sytuacji w rozpoznawaniu mowy.

2) średnia różnica, czyli „przewaga prawego ucha/wada lewego ucha”, jest niewielka, być może 3-5%, u młodych dorosłych z normalnym słuchem.

3) Ta wartość REA/LED wzrasta systematycznie wraz z wiekiem i ubytkiem słuchu u niektórych osób. Efekt może być spowodowany wpływem starzenia się ciała modzelowatego, mostu między dwiema półkulami mózgowymi.

4) gdy osoby starsze z ubytkiem słuchu są oceniane pod kątem możliwego zastosowania wzmocnienia, niektóre odrzucają łączniki obuuszne na rzecz wzmocnienia jednousznego, co sugeruje możliwą obecność interferencji obuusznej.

5) preferowane dopasowanie, w tym przypadku, jest zwykle dla prawego ucha.

Cóż, to jest saga REA / LED-kolejna niewinna ofiara starzenia się.

  1. Kimura D. dominacja mózgowa a percepcja bodźców werbalnych. Can J Psychol. 1961;15(3):166-171.

  2. Jerger J, Martin J. Asymetria półkul prawego ucha w słuchaniu dychotycznym. Hear Res. 2004;198(1-2):125-136.

  3. Jerger J, Chmiel R, Allen J, Wilson A. Wpływ wieku i płci na dychotyczną identyfikację zdań. Ucho. 1994;15(4):274-286.

  4. Jerger J, Silman s, Lew HL, Chmiel R. Case studies in binaural interference: Converging evidence from behavioral and electrophysiological measures. J Am Acad Audiol. 1993;4(2):122-131.

zrzut ekranu 2017-12-26 at 11.42.42 am

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.