< Die Roboter schwärmen aus – Weiterentwicklung der Kommunikation fliegender Multi-Roboter-Systeme

Stimmzellen für die Erkennung von Stimmen

Für die Verarbeitung mündlicher Informationen der Artgenossen sind besondere Nervenzellen reserviert


Zwei Rufe von Rhesusaffen (oben: Amplitude der Laute über die Zeit; unten: Energie für jede Frequenz über die Zeit)Tübingen, 23. August 2011. Die Stimme des Menschen ist genauso charakteristisch wie sein Gesicht – häufig lässt sich ein Bekannter über eine Nachricht auf dem Anrufbeantworter identifizieren, selbst wenn er vergessen hat, seinen Namen zu nennen. Der Hauptbereich der Gesichtserkennung liegt im unteren Schläfenlappen. Dort treten gehäuft Nervenzellen auf, die auf Gesichter deutlich stärker reagieren als auf andere Bilder. Forscher des Max-Planck-Instituts für biologische Kybernetik in Tübingen haben sich auf die Suche nach vergleichbaren Strukturen bei der Verarbeitung von Stimminformationen im Gehirn gemacht. Bei Rhesusaffen sind sie wiederum im Schläfenlappen fündig geworden: Sie sind auf „Stimmzellen“ gestoßen, die sehr selektiv auf Rufe und Laute der Artgenossen ansprechen.

 

Die Augen gelten bei Mensch und Affe als vorherrschende Sinnesorgane. Im sozialen Umgang miteinander werden Gesichter von Verwandten und Bekannten augenblicklich erkannt und ihre Stimmung gedeutet. Fällt beim Menschen die Gesichtserkennung aus, eine Erkrankung, die auch Gesichtsblindheit genannt wird, kann der Betroffene seine Mitmenschen nicht unterscheiden, durchaus aber individuelle Gesichter von Hunden oder Schafen erkennen. „Die Stimmen der Mitmenschen sind ähnlich speziell und in sozialen Zusammenhängen von großer Bedeutung. Es war zu erwarten, dass auch sie von einzelnen Nervenzellen anders verarbeitet werden als andere Hörinformationen“, meint Catherine Perrodin vom Max-Planck-Institut für biologische Kybernetik. Die Forscherin hat zusammen mit Christoph Kayser und Nikos K. Logothetis vom gleichen Institut sowie Christopher I. Petkov vom Institute of Neuroscience der Newcastle University (UK) neue Experimente zur Verarbeitung von Stimmen durchgeführt. Sie führten dabei frühere Untersuchungen weiter, bei denen über funktionelle Magnetresonanztomografie der bei der Stimmverarbeitung aktive Hirnbereich sichtbar gemacht worden war. Sie zeichneten nun in diesem Hirnbereich die Aktivität einzelner Nervenzellen auf.

 

Die Forscher haben erstmals in systematischer Arbeit „Stimmzellen“ im Schläfenlappen des Gehirns nachgewiesen. So nennen sie – analog zu den „Gesichtszellen“ bei der Gesichtserkennung – Nervenzellen, die mindestens doppelt so stark auf Stimmen von Artgenossen reagieren wie auf Stimmen anderer Tiere oder Geräusche aus anderen Quellen. Die Stimmzellen kamen in bestimmten Clustern gehäuft vor, jedoch deutlich weniger konzentriert als Gesichtszellen im Hauptbereich der Gesichtserkennung. Vergleiche der Messungen an Gesichts- und Stimmzellen zeigten, dass die Stimmzellen selektiver auf individuelle Stimmen ansprachen als Gesichtszellen auf individuelle Gesichter. So reagierten die hochspezialisierten Stimmzellen nur auf etwa ein Fünftel der Rufe der Artgenossen, während in früheren visuellen Studien Gesichtszellen im Schnitt auf rund 40 bis 60 Prozent der Gesichter reagierten. „Möglicherweise lässt sich das dadurch erklären, dass die Gesichter der Wirbeltiere mit zwei Augen, Nase und Mund sich in den Grundzügen stark gleichen. Dagegen gibt es bei Stimmen ein viel größeres Variationsspektrum. Dank ihrer spezialisierten Darstellung von Stimmen können die Stimmzellen effizienter arbeiten“, erklärt Catherine Perrodin. In den Experimenten hatten die Forscher einen repräsentativen Mix aus Stimmen von Rhesusaffen eingesetzt. Als Vergleich dienten Stimmen anderer Arten wie Pferd und Hund sowie Umgebungsgeräusche wie ein auffliegender Vogelschwarm, laufendes Wasser und Donnergrollen.

 

Die Hirnregion der Stimmzellen im Schläfenlappen ist bei Affe und Mensch prinzipiell gleich aufgebaut. Daher gehen die Forscher davon aus, dass sich die Ergebnisse auf den Menschen übertragen lassen. Sie wollen im nächsten Schritt untersuchen, welche Anteile der komplexen Hörinformation einer Stimme die Wiedererkennung des Sprechers, welche Anteile die Einschätzung seiner Stimmungslage ermöglichen. Außerdem interessiert sie, ob die Stimmzellen Reize verschiedener Sinne, etwa auch visuelle Informationen, verarbeiten können. „Bisher wurden Stimmen und die mündliche Kommunikation häufig nur im Zusammenhang mit Sprache untersucht“, sagt Catherine Perrodin, „dabei sind sie auch als nichtverbale Laute interessant, die Bedeutung des Gesagten kommt als zusätzliche Information obendrauf.“

 

 

Originalpublikation:

Catherine Perrodin, Christoph Kayser, Nikos K. Logothetis, Christopher I. Petkov: Voice Cells in the Primate Temporal Lobe, Current Biology (2011), doi: 10.1016/j.cub.2011.07.028

 

 

Ansprechpartner:

Catherine Perrodin

Max-Planck-Institut für biologische Kybernetik

Tel.: 07071 601- 1701

E-Mail:  catherine.perrodin(at)tuebingen.mpg.de

 

Christopher Petkov

Institute of Neuroscience, Newcastle University Medical School

Tel.: + 44 191 222- 3467

E-Mail: chris.petkov@ncl.ac.uk

 


Links: Abbildung des Hörkortex eines Affen (schwarze Linien) und der Cluster, in dem bevorzugt Stimmen verarbeitet werden (rot). Rechts: Messungen einer Stimmzelle, die deutlich stärker auf Affenstimmen als auf andere Geräusche reagiert. Illustration: Catherine Perrodin/MPI für biologische Kybernetik

Zwei Rufe von Rhesusaffen (oben: Amplitude der Laute über die Zeit; unten: Energie für jede Frequenz über die Zeit). Illustration: Catherine Perrodin/MPI für biologische Kybernetik

Links: Abbildung des Hörkortex eines Affen (schwarze Linien) und der Cluster, in dem bevorzugt Stimmen verarbeitet werden (rot). Rechts: Messungen einer Stimmzelle, die deutlich stärker auf Affenstimmen als auf andere Geräusche reagiert. Illustration: Catherine Perrodin/MPI für biologische Kybernetik