Die Wissenschaftler haben an Wüstenmäusen eine typische Vorgangsweise des menschlichen Hörens untersucht, nämlich die Selektion der relevanten Klänge. Beim Verstehen von Sprache muss das Gehirn Sprache von Hintergrundgeräuschen trennen, was eine große Herausforderung darstellt. Die gesamten Klänge werden von den Sinneszellen im Ohr in einen Code an elektrischen Impulsen umgewandelt, die an den Hörnerv übertragen. Dieser wird im Gehirn wieder decodiert und als Sprache oder andere Klänge interpretiert.
Die Oldenburger Forscher haben nun einen Code entschlüsselt, mit welchem bestimmte Laute vom Ohr ans Gehirn übermittelt werden. Sie spielten den Mäusen einsilbige Sprachproben und gleichzeitig Nebengeräusche ähnlich einem Stimmengewirr vor.. Sie fanden heraus, dass unterschiedliche Laute für eine unterschiedliche Anzahl von Nervenimpulsen verantwortlich sind. Und nicht nur das: auch zwischen den Impulsen ändert sich je nach Laut auch die Länge der Pausen zwischen eben diesen Impulsen.
Diese unterschiedlichen Zeitmuster stellten die Neurowissenschaftler*innen grafisch dar und erkannten Unterschiede, je nachdem, ob ein Laut mit einem „a“, einem „e“ oder einem „i“ vorgespielt wurde. Die Muster für die Laute „e“ und „i“, die auch ähnlich klingen und deshalb schnell verwechselt werden, ähnelten dabei allerdings einander. Daraus schließen die Forscher*innen, dass das „Verhören“ bei diesen ähnlich klingenden Lauten bereits im Ohr seine Ursache hat und nicht erst beim Decodieren im Gehirn.
Ob und wie sich dieser Code im Alter verändert, soll helfen, Altersschwerhörigkeit noch besser zu verstehen.
Quelle: MTA-Dialog
Revolutionäre 4D-Sensortechnologie
Die Kommunikation in lauten und dynamischen Umgebungen stellt besonders für Menschen mit Hörverlust eine immense Herausforderung dar. Hörgeräte verarbeiten Klänge, individuellen Hörabsichten der Träger standen