W głośnych pomieszczeniach nasz mózg słyszy inaczej

Kiedy rozmawiamy twarzą w twarz, wymieniamy o wiele więcej sygnałów niż tylko słowa. Komunikujemy się za pomocą postawy ciała, mimiki oraz ruchów głowy i oczu; ale także poprzez rytmy, które powstają, gdy ktoś mówi. Dobrym przykładem jest tempo, w jakim tworzymy sylaby w mowie ciągłej – ok trzy do siedmiu razy na sekundę. W rozmowie słuchacz melodie w do tego rytmu i używa go do przewidywania synchronizacji sylab, których mówca użyje w następnej kolejności. Ułatwia im to podążanie za tym, co zostało powiedziane.

Dzieje się też wiele innych rzeczy. Za pomocą techniki obrazowania mózgu wiemy na przykład, że nawet gdy nikt nie mówi, część naszego mózgu odpowiada za słuch produkuje aktywność rytmiczną w tempie podobnym do sylab w mowie. Kiedy słuchamy, jak ktoś mówi, te rytmy mózgowe się wyrównują do struktury sylaby. W rezultacie rytmy mózgu dopasowują się i śledzą pod względem częstotliwości i czasu nadchodzący dźwiękowy sygnał mowy.

Kiedy ktoś mówi, wiemy, że ruchy jego warg również pomagają słuchaczowi. Często ruchy te poprzedzają mowę – na przykład otwieranie ust – i dostarczają ważnych wskazówek dotyczących tego, co dana osoba powie. Jednak nawet same ruchy ust zawierają wystarczającą ilość informacji, aby umożliwić wyszkolonym obserwatorom zrozumienie mowy bez słyszenia żadnych słów – dlatego niektórzy ludzie oczywiście potrafią czytać z ruchu warg.

Do tej pory nie było jasne, w jaki sposób te ruchy są przetwarzane w mózgu słuchacza.

Synchronizacja ust

To był temat naszego ostatnie badanie. My już wiedziałem to to nie tylko struny głosowe mówcy wytwarzają rytm sylaby, ale także ruchy ust. Chcieliśmy sprawdzić, czy fale mózgowe słuchaczy dopasowują się do ruchów ust mówcy podczas ciągłej mowy w sposób porównywalny do tego, jak dopasowują się do samej mowy akustycznej – i czy było to ważne dla rozumienia mowy.


wewnętrzna grafika subskrypcji


Nasze badanie po raz pierwszy ujawniło, że tak właśnie jest. Zarejestrowaliśmy aktywność mózgu 44 zdrowych ochotników podczas oglądania filmów, w których ktoś opowiada historię. Odkryliśmy, że podobnie jak słuchowa część mózgu, część wzrokowa wytwarza rytmy. Dostosowują się one do rytmu sylab, który jest wytwarzany przez usta mówiącego podczas ciągłej mowy. A kiedy utrudniliśmy warunki odsłuchu, dodając rozpraszającą uwagę mowę, co oznaczało, że ruchy warg gawędziarza stały się ważniejsze dla zrozumienia tego, co mówi, wyrównanie między dwoma rytmami stało się bardziej precyzyjne.

Ponadto odkryliśmy, że części mózgu słuchacza, które kontrolują ruchy ust, wytwarzają również fale mózgowe, które są dopasowane do ruchów ust mówiącego. A kiedy te fale są lepiej dopasowane do fal z motorycznej części mózgu mówiącego, słuchacz lepiej rozumie mowę.

To wspiera pomysł, że obszary mózgu, które są wykorzystywane do mówienia, są również ważne dla rozumienia mowy i mogą mieć wpływ na badanie czytania z ruchu warg wśród osób z problemami ze słuchem. Pokazawszy to w odniesieniu do mówcy i słuchacza, następnym krokiem będzie sprawdzenie, czy to samo dzieje się z rytmami mózgu podczas rozmowy dwukierunkowej.

Dlaczego te spostrzeżenia są interesujące? Jeśli prawdą jest, że mowa zwykle działa poprzez ustanowienie kanału komunikacji poprzez dostosowanie rytmów mózgu do rytmów mowy – podobnie jak dostrajanie radia do określonej częstotliwości w celu słuchania określonej stacji – nasze wyniki sugerują, że istnieją inne kanały uzupełniające, które mogą przejąć kontrolę, gdy jest to konieczne. Nie tylko możemy dostroić się do rytmów czyichś strun głosowych, ale możemy również dostroić się do równoważnych rytmów poruszanych ustami. Zamiast robić to ze słuchową częścią naszego mózgu, robimy to poprzez części związane z widzeniem i ruchem.

Nie musisz też umieć czytać z ruchu warg, aby odnieść korzyści — dlatego nawet w hałaśliwym otoczeniu, takim jak pub czy impreza, większość ludzi nadal może się ze sobą komunikować.

O Autorach

Joachim Gross, profesor psychologii, University of Glasgow. Jego grupa bada funkcjonalną rolę oscylacji mózgu za pomocą neuroobrazowania i metod obliczeniowych. Jego głównym celem jest zrozumienie, w jaki sposób oscylacje mózgu wspierają percepcję i działanie.

Hyojin Park, pracownik naukowy, University of Glasgow. Jej obecne badania mają na celu zrozumienie kodowania i dekodowania oscylacji neuronowych w kontekście przetwarzania mowy przy użyciu technik obrazowania mózgu, które zostały optymalnie zaprojektowane do przechwytywania dynamiki czasowej w ludzkim mózgu.

Ten artykuł został pierwotnie opublikowany w Konwersacje. Przeczytać oryginalny artykuł.

Powiązane książki

at Rynek wewnętrzny i Amazon