[werner.stangl]s arbeitsblätter 

Gehirn und Sprache

Language is the dress of thought.
Samuel Johnson

 

Das menschliche Hören ist ein äußerst komplexen Vorgang, wobei Umgebungsgeräusche von der Ohrmuscheln aufgefangen und wie durch einen Trichter ins Mittelohr weitergeleitet werden. Durch die Schallwellen vibriert das Trommelfell, die drei kleinen Gehörknöchelchen des Mittelohrs, Hammer, Amboss und Steigbügel, schwingen mit und verstärken den Schall um das etwa 20-fache. Das eigentliche Hörorgan ist das mit Flüssigkeit gefüllte Innenohr, denn hier liegt die Cochlea (Gehörschnecke), in der viele tausend Sinneszellen mit winzigen Härchen die Vibrationen in einen elektrischen Impuls umwandeln und das Signal an den Hörnerv weiterleiten. Über die neuronale Hörbahn gelangt die Information ins Gehirn, wo sie mit bereits gespeicherten Mustern verglichen und verarbeitet wird. Was den Menschen wirklich zum Menschen macht, ist vor allem die menschliche Sprache, denn alles andere findet sich auch bei Tieren. Doch die syntaktisch-grammatische Sprache und die Art zu Denken, die gibt es nur bei Menschen, wobei jener Teil im Gehirn, der dafür zuständig ist, das Broca-Zentrum, ein Teil des Arbeitsgedächtnisses ist. Mit ihm denken wir, haben Bewusstsein und lösen Probleme. Sprechen und Verstehen sind aufwändige Prozesse und nehmen viel Fläche im Gehirn ein. Die wichtigsten Zentren, die dabei beteiligt sind, sind das Wernicke-Areal, das vor allem für das Verstehen von Sprache entscheidend ist. Es befindet sich im hinteren, oberen Teil des linken Temporal- oder Schläfenlappens, der an der Seitenfläche der Hirnrinde sitzt. Verletzungen oder Hirnblutungen in dieser Region bewirken, dass der Patient Sprache kaum noch entschlüsseln kann. Er redet wie ein Wasserfall, seine Wörterflut ist aber verworren und unverständlich. Das Broca-Areal ist für die Produktion von Sprache, das Finden von Wörtern und das Bilden von Sätzen zuständig. Ist diese Region verletzt, kann der Patient zwar meist noch alles verstehen, er hat aber Schwierigkeiten, Wörter und Sätze zu bilden. In leichteren Fällen können Betroffene noch in einem stakkatoartigen Telegrammstil kommunizieren. Während des Formulierens und Erfassens von Sprache sind neben diesen beiden großen Zentren noch viele weitere Bereiche der Hirnrinde aktiv: Das Hörzentrum - es sitzt an der Innenseite des Schläfenlappens, scannt die ständige Geräuschflut, die über das Ohr ins Hirn strömt, nach Bekanntem ab und ordnet es entsprechend ein. Das geschieht meist unbewusst. Andere Bereiche verarbeiten unbekannte Hörreize und solche, auf die der Mensch sich konzentriert, beispielsweise die Sprache des Gegenübers. Allerdings ist diese Gehirnstruktur flexibel, denn Studien zur Anpassungsfähigkeit des Gehirns haben gezeigt, dass das Gehirn eine neurale Region, die ursprünglich für einen Sinn wie Sehen, Riechen oder Hören bestimmt ist, auch für einen anderen nutzen kann. So kann bei von Geburt an blinden Menschen das nicht benötigte visuelle Zentrum eine besondere Fähigkeit für die Verarbeitung von Sprache entwickeln, und das sogar auf sehr hohem Level, sodass blinde Menschen, die durch ihren visuellen Kortex kompensatorisch eine Verstärkung der verbalen Kompetenzen erhalten, bei sprachlichen Aufgaben oft besser abschneiden als Sehende. Wurde etwa bei Blinden in einem einfachen Sprachverständnistest ihr Sehkortex mittels magnetischer Stimulation vorübergehend lahmgelegt, so schnitten sie schlechter ab, während dieselbe Blockierung die Leistungen sehender ProbandInnen nicht beeinträchtigte. Sprache allgemein betrachtet bedeutet die Fähigkeit, Wörter, Zeichen oder Gebärden zu gebrauchen und sie zu Sätzen zu verbinden, um unsere gedanklichen Konzepte oder Begriffe anderen Menschen mitzuteilen. Dazu gehört auch die Fähigkeit, die von anderen mitgeteilten Wörter zu verstehen, d.h. zu erfassen und in Begriffe umzuwandeln. Die Sprache verbindet und abstrahiert daher Bilder und stellt Beziehungen her, und zwar unabhängig vom Augenblick, d.h., sie schafft Vergangenheit, Gegenwart und Zukunft. Sie bereichert unsere Wahrnehmung der unzähligen Möglichkeiten, auf denen unsere Erfahrungen mit der Welt organisiert sind und schafft letztlich selbst eine eigene Welt. Sprache bedeutet also die Fähigkeit,

Nach neuen Theorien basiert das Phänomen der Sprache auf drei Gruppen von Strukturen im Gehirn, die sich wechselseitig beeinflussen. Damasio & Damasio vermuten die Existenz von drei zusammenhängenden Systemen.

Das erste System

Ein Zusammenwirken neutraler Systeme in beiden Hemisphären ist für den nichtsprachlichen Austausch - vermittelt durch sensorische und motorische Systeme - zuständig; diese nichtsprachlichen Darstellungen werden nach Kategorien (Gestalt, Farbe, Reihenfolge usw.) geordnet. Aufeinanderfolgende Ebenen von Kategorien bilden die Grundlage für Abstraktionen und Metaphern.

Das zweite System

Eine kleinere Anzahl neuronaler Systeme, vornehmlich in der linken Hemisphäre angesiedelt, repräsentiert Phoneme, deren Kombinationen und syntaktische Regeln. Werden diese Systeme vom Individuum aktiviert, so bilden sie gesprochene oder geschriebene Sprache; werden sie von außen durch Schrift oder gesprochene Sprache aktiviert, so leiten sie die ersten Schritte zur Verarbeitung der visuellen und auditiven Sprachsignale ein.

Das dritte System

Die dritte Gruppe von Strukturen vermittelt zwischen den ersten beiden Systemen. Hier wird z. B. ein Begriff aufgenommen und das Hervorbringen von Wortformen veranlasst.

Berücksichtigt man das von Damasio & Damasio vorgelegte Modell, so erscheinen einige frühere Untersuchungen in einem neuen Licht. So wies die Untersuchung von Düker & Tausch (1957) nach, dass die Veranschaulichung mit dem Behaltensgrad der Unterrichtsinhalte stark korreliert. Die Behaltensleistung lag bei der Gruppe, die einen realen Gegenstand betrachten durfte, gegenüber der Kontrollgruppe um 32% höher. Insgesamt zeigte die Untersuchung, dass der Behaltensgrad dann ansteigt, wenn die sprachlich-akustische Vermittlungsform durch mediale Formen ergänzt wird. Die Behaltensleistung steigt an:

im Verhältnis zu der nur sprachlich-akustisch angesprochenen Kontrollgruppe.

Die Bedeutung des ersten Systems - vermittelt zwischen sensorischen und motorischen Systemen - scheint für den Grad des Behaltens besonders bedeutsam zu sein. Damasio & Damasio fassen diesen Sachverhalt folgendermaßen zusammen: "Das Gehirn speichert begriffliche Konzepte in Form von quasi schlummernden Aufzeichnungen. Werden diese reaktiviert, können sie die unterschiedlichen Empfindungen und Handlungen wachrufen, die mit einem bestimmten Objekt oder einer Kategorie von Objekten zusammenhängen. Zum Beispiel kann "Kaffeetasse" nicht nur visuelle und taktile Darstellungen ihrer Form, Farbe, Oberflächenbeschaffenheit und Wärme hervorufen, sondern auch den Geruch und Geschmack von Kaffee sowie den Weg, den Hand und Arm zurücklegen müssen, um die Tasse vom Tisch an die Lippen zu führen. Obwohl all diese Repräsentationen in unterschiedlichen Hirnregionen reaktiviert werden, geschieht ihre Rekonstruktion nahezu gleichzeitig."

Damit das menschliche Gehirn Wörter erkennt und voneinander trennen kann, muss es Anfang und Ende eines Geräuschs mit unterschiedlichen Nervennetzwerken bzw. Eingangskanälen verarbeiten: ein Kanal, der den Beginn eines Tons registriert, und einen, der für dessen Ende zuständig ist. Scholl et al. (2010) zeigten bei Ratten, dass der Abbruch eines Geräuschs für das Gehirn nicht durch die bloße Abwesenheit des Schalls gekennzeichnet ist, sondern dass es sich um einen aktiven Prozess handelt, für den ein eigenes Netzwerk von Neuronen vorhanden ist. Die gezielte Registrierung von Beginn und Ende eines Tons dient dabei vermutlich als Orientierungspunkt, mit dessen Hilfe das Gehirn zusammengehörende akustische Reize wie die Silben eines Worts als einheitliche Gruppe behandelt. Nur mit der Hilfe dieses aktiven Stopp-Signals kann das Gehirn zuverlässig Lautgruppen wie Wörter erkennen und voneinander trennen, eine ganz zentrale Voraussetzung für das Verstehen von Sprache. Auch für den Sehsinn gibt es dafür zwei Netzwerke, die jeweils das Auftauchen und Verschwinden eines Objekts an das Gehirn melden. Die Netzwerke für Helligkeit und Dunkelheit sind dabei im Gegentakt miteinander verschaltet: Ist das eine aktiv, ist das andere ausgeschaltet und umgekehrt.

Das Erkennen von auditorischer Sprache ist von extremer Bedeutung für die zwischenmenschliche Kommunikation. Zwar konnte die computerbasierte Spracherkennung in den vergangenen Jahren um ein Vielfaches verbessert werden, doch das menschliche Gehirn ist nach wie vor die bewunderungswürdigste Sprachverarbeitungs-Maschine und funktioniert viel besser als computerbasierte Sprachverarbeitung und das wird wohl auch noch eine ganze Zeit lang so bleiben, denn die genauen Abläufe der Sprachverarbeitung im Gehirn sind bisher noch weitestgehend unbekannt. In einer neuen Studie (Mihai et al., 2019) erhielten Versuchspersonen Sprachsignale von verschiedenen Sprecherinnen und Sprechern zu hören und sollten in wechselnder Reihenfolge eine Sprachaufgabe oder eine Kontrollaufgabe zur Stimmerkennung durchführen. Die Auswertung der Gehirnaktivität zeigte, dass dabei der mediale Kniehöcker, eine Struktur in der linken Hörbahn, besonders hohe Aktivität bei der Sprachaufgabe im Gegensatz zu der Kontrollaufgabe zeigte, und wenn die Versuchspersonen besonders gut im Erkennen von Sprache sind. Bisher nahm man an, dass alle Hörinformationen gleichermaßen über die Hörbahnen vom Ohr zur Großhirnrinde geleitet werden, doch diese Untersuchung zeigte, dass die Verarbeitung der Hörinformation bereits beginnt, bevor die Leitungsbahnen die Großhirnrinde erreichen. Das bestätigte frühere Hinweise, dass die Hörbahnen spezialisierter auf Sprache reagieren, als bisher angenommen. Der Teil des medialen Kniehöckers, der die Information vom Ohr zu der Großhirnrinde transportiert, verarbeitet Hörinformation anders, wenn Sprache erkannt werden soll, als wenn andere Bestandteile von Kommunikationssignalen erkannt werden sollen, wie zum etwa die Stimme des Sprechers.
Diese Prozesse haben möglicherweise auch Relevanz für einige der Symptome von Lese-Rechtschreibstörung, denn es ist bekannt, dass der linke mediale Kniehöcker bei einer Lese-Rechtschreibstörung anders funktioniert, als bei Testpersonen ohne diese Störung. Die Spezialisierung des linken medialen Kniehöckers auf Sprache könnte eventuell erklären, warum Personen mit einer Lese-Rechtschreibstörung häufig Schwierigkeiten haben, Sprachsignale in geräuschvollen Umgebungen zu verstehen.

Man nimmt an, dass die Entwicklung von Sprache mit der besonderen Fähigkeit des Arbeitsgedächtnisses begonnen hat, in der Zeitachse zu strukturieren. Was macht man als erstes, als zweites, als drittes? Das können Tiere aber auch kleine Kinder eher schlecht, während Erwachsene das meist gut können, zu überlegen, welche Schritte sie hintereinander setzen müssen, um etwas zu tun oder zu erreichen. Vermutlich hat sich aus dieser Fähigkeit zur Manipulation der Zeitachse Sprache entwickelt, denn beim Sprechen muss man wissen, wie man anfange, wie man Sätze in der richtigen Syntax und Grammatik formt. Auch beim Lernen einer neuen Sprache braucht man meist einige Zeit, um ein „Gefühl“ für deren Eigenheiten zu bekommen, wobei insbesondere bei schnellen Sprechern es anfangs schwer fällt, einzelne Wörter herauszuhören. Das liegt daran, dass sich das Gehirn an fremde Sprechrhythmen erst gewöhnen muss, denn in der Muttersprache wird das Gehörte ohne große Mühe und annähernd in Echtzeit verarbeitet. Die Auswertung der zahllosen Sinnesreize können in der Muttersprache nur deshalb so schnell erfolgen, da das Gehirn sie oft gehört hat und bereits erwartet, denn das menschliche Gehirn ist sehr gut darin, in Umweltreizen Muster zu erkennen, aus denen es eine grobe Erwartungshaltung über die Ereignisse der nahen Zukunft errechnet. Unser Gehirn nutzt beim Verstehen von Gesprochenem also nicht so sehr die semantischen und grammatischen Informationen, sondern wertet Dauer, Rhythmus, Tempo und Betonung der Silben aus, um zeitliche Regelmäßigkeiten im Strom der Laute zu erkennen. Vor allem während des Spracherwerbs wird ein Netzwerk grundlegender Routinen der Sprache im Gehirn abgespeichert, sodass die Sprachverarbeitung später effizienter funktioniert. Zum größten Teil finden diese Prozesse in Bereichen in und unterhalb der Großhirnrinde statt, wobei aber auch motorische Areale und primitivere Hirnregionen wie das Kleinhirn und die Basalganglien beteiligt sind. Das weist auf weit zurückliegende Entwicklungsstufen hin, denn die Evolution von Sprache als komplexe motorische Handlung wäre nicht möglich gewesen ohne die Ausprägung von Hirnarealen, die die Fähigkeit besitzen, Verhalten zeitlich zu strukturieren (vgl. Kotz & Schwartze, 2010).

Übrigens wurden jüngst an der Universität Leipzig die neuroanatomischen Details der Broca-Region von Menschen und Schimpansen mit modernster MRT-Technik aufeinander abgebildet, also das Gebiet im menschlichen Gehirn, das für das sinnvolle Verknüpfen von Wörtern und Sätzen zuständig ist. Die Sprache ist bekanntlich ein wichtiger Aspekt, der Menschen zu Menschen macht, denn die Fähigkeit, eine unendliche Anzahl von Äußerungen auf der Grundlage der Wörter im mentalen Lexikon und einer kleinen Anzahl von syntaktischen Regeln zu erzeugen, ist nur beim Menschen zu beobachten. Tiere können zwar Wörter oder Rufe lernen und kommunizieren, aber die Sprachfähigkeit des Menschen ist einzigartig. Beim Menschen wird der Aufbau syntaktischer Strukturen durch eine Unterregion des Broca-Areals im Frontallappen (Inferior frontal cortex) unterstützt, wobei dieses Areal im Vergleich zu dem Bereich beim Schimpansen wesentlich größer ist, woraus man schließen kann, dass dies die Basis für die Fähigkeit zur Sprache sein könnte.

Nach Manuela Macedonia, die den Einfluss von Bildern und Gesten auf das Erlernen von Fremdsprachen untersucht, gelingt aus Sicht des Gehirns Zweitspracherwerb am besten, wenn er parallel zur Muttersprache stattfindet. Es gibt keine Einschränkung: Je früher, desto besser. Daher ist der Kindergarten für fremdsprachige Kinder so wichtig und in dieser Phase auch das gezielte Vermitteln der Zweitsprache. Selbstverständlich kann das Kind später die Sprache lernen, aber mit viel mehr Mühe und geringerem Erfolg, sodass Kinder später haben oft einen fremdsprachigen Akzent haben, der darauf hindeutet, dass sie zu spät mit der Zweitsprache begonnen haben. Nach dem fünften Lebensjahr sind jene Regionen des Gehirns, die für Aussprache zuständig sind, ausgereift. Im Übrigen wird die Muttersprache nicht so schnell beherrscht, wie man früher glaubte, denn es konnte gezeigt werden, dass komplexe Satzbildung erst mit sieben Jahren aktiv eintritt, unter anderem die Bildung und das Verständnis von Passivsätzen. Doch ist Satzbildung nicht alles beim Spracherwerb, denn auch der Wortschatz wächst und ist nie wirklich abgeschlossen, wobei dieser mit der Interaktion mit anderen Menschen und mit Erfahrungen zusammenhängt, die ein Kind sammelm kann, denn ist die Umgebung arm an sprachlichen Reizen, wird der Wortschatz nicht wachsen, das Kind auch mit zehn Jahren seine Sprache noch nicht wirklich beherrschen. Hinzu kommt, dass Sprache das Tor zur Kognition bildet, also zum Denken und zum Lernen. Ist Sprache defizitär oder gar nicht da, versteht ein Kind die Welt weniger und kann weniger in ihr interagieren. Auch Schulinhalte, die nicht verstanden werden, sind verpasste Entwicklungsschritte, die nur schwer nachzuholen sind. Natürlich gibt es Kinder, die alles auch noch schaffen, der Durchschnitt tut sich aber schwer, wenn er die Sprache vor Schulbeginn nicht gelernt hat. Es liegt in der Verantwortung der Eltern, Kindern die bestmöglichen Chancen für ihr Leben zu geben, und es liegt in der Verantwortung der Kindergärten, diese wichtigen Entwicklungsschritte nicht zu übersehen.

Koevolution von Werkzeuggebrauch und Sprache

Bisherige Forschung legte nahe, dass einige Gehirnareale, die bestimmte sprachliche Fähigkeiten wie die Verarbeitung von Wortbedeutungen steuern, auch an der Steuerung der Feinmotorik beteiligt sein könnten. Thibault et al. (2021) haben nun experimentell die Ähnlichkeit der neuronalen Aktivität bei motorischen Prozessen für den Werkzeuggebrauch und sprachlichen Prozessen untersucht. Mit Hilfe der funktionellen Magnetresonanztomographie und der multivariaten Musteranalyse fand man heraus, dass kleine Teile der Basalganglien im menschlichen Gehirn als gemeinsame neuronale Substrate sowohl für den Werkzeuggebrauch als auch für die Syntax der Sprache fungieren. In einem Verhaltensexperiment zeigten sie, dass das Erlernen einer neuen Aufgabe, die den Gebrauch eines Werkzeugs beinhaltet, auch die Leistung bei einer komplexen Sprachaufgabe verbessert, was die Hypothese einer Koevolution von Werkzeuggebrauch und Sprache stützt.Offenbar gibt es eine supramodale syntaktische Funktion, die von Sprache und motorischen Prozessen gemeinsam genutzt wird, sodass man nun annimmt, dass ein Training der Fähigkeiten zur Werkzeugnutzung auch die sprachliche Syntax verbessert und umgekehrt das Training der sprachlichen Syntax die Werkzeugnutzung fördert. Die neuronalen Mechanismen, die es ermöglichen, die Leistung in einem Bereich durch das Training der Syntax im anderen Bereich zu steigern, könnten Priming-Prozesse durch Voraktivierung gemeinsamer neuronaler Ressourcen sowie kurzfristige Plastizität innerhalb des gemeinsamen Netzwerks beinhalten. Diese Ergebnisse deuten darauf hin, dass die Basalganglien der neuronale Ort einer supramodalen Syntax sind, die eingebettete Strukturen in beiden Bereichen verarbeitet, was bestehende Theorien über die Koevolution von Werkzeuggebrauch und Sprache beim Menschen stützt. Evolutionär stellte der Werkzeuggebrauch offenbar kognitive Anforderungen, die auch zur Entstehung bestimmter sprachlicher Funktionen wie der Syntax geführt haben.

Genetische Grundlagen des Spracherwerbs

Zwar ist weitgehend unbekannt, welche genetischen Veränderungen während der letzten sechs Millionen Jahre menschlicher Evolution für die Entwicklung des menschlichen Sprechens wichtig waren, doch das Gen Foxp2 ist derzeit dafür der beste Kandidat. Das Gen Foxp2 kodiert ein Protein, das als Transkriptionsfaktor hunderte andere Gene in verschiedenen Zellen in Säugetieren reguliert, wobei Menschen mit nur einer statt zwei Kopien des Gens spezifische Schwierigkeiten haben, das Sprechen zu erlernen. Das menschliche Foxp2 hat sich in den letzten sechs Millionen Jahren, seit sich unsere Linie vom Schimpansen getrennt hat, an zwei Stellen geändert, was relativ viel bedeutet, da sich Maus und Schimpanse etwa nur durch eine einzige Mutation in diesem Gen unterscheiden, die in über hundert Millionen Jahren Evolution aufgetreten ist. In früheren Untersuchungen hat man bereits herausgefunden, dass die Änderungen in dem menschlichen Gen Foxp2 vor allem das Gehirn betreffen, denn bei Mäusen, die die menschliche Variante des Foxp2-Gens tragen, lassen sich Veränderungen in zwei neuronalen Schaltkreisen in den Basalganglien des Großhirns beobachten, die eine entscheidende Rolle beim Erwerb von Gewohnheiten und anderen kognitiven und motorischen Fähigkeiten spielen. Nun konnte man im Mausmodell nachweisen, dass die menschliche Variante des Foxp2-Gens unter bestimmten Bedingungen das Lernen verbessert, indem das Gen die Balance in den deklarativen und motorischen Schaltkreisen im Gehirn ändert, und Mäuse dadurch schneller lernen und Zusammenhänge schneller erfassen können. Foxp2 ist übrigens bisher das einzige Gen, das direkt mit der Evolution von Sprache in Verbindung gebracht werden kann (Schreiweis et al., 2014). Das Gene Foxp2, das im Gehirn bei der Grammatik und im Sprechapparat bei der Feinsteuerung des Artikulierens mitwirkt, lässt auch Vögel singen und Mäuse fiepsen, auch wenn diese leicht andere Gen-Varianten besitzen. Übrigens schon Neandertaler hatten exakt die gleiche Gen-Variante wie Menschen.

Diese Doktrin von Philip Lieberman, dass Menschenaffen auf Grund ihres Baus des Rachenraum und der Lage des Kehlkopfs nicht in der Lage wären zu sprechen, dürfte nach neueren Untersuchungen falsch sein, denn man hat inzwischen simuliert, welche Laute ein Makake mit diesen Organen erzeugen könnte. Nach Ansicht von Wiener Biologen sind die Makaken deshalb sprachlos, weil ihr Gehirn nicht die kognitiven Möglichkeiten dazu hat, denn mehrere für den Spracherwerb wichtige Hirnregionen wie das Broca-Areal, das beim frühkindlichen Spracherwerb und in der Aphasie, einer Form des Sprachverlustes, eine zentrale Rolle spielt, sind bei den Makaken mit deutlich weniger Neuronen bestückt als beim Menschen. Nicht der Kehlkopf macht sprachfähig, sondern ihr Gehirn.

Soziale Ursachen von Sprachentwicklung

Manche Forscher vermuteten, dass Sprache ein Ergebnis aus der Freundlichkeit in sozialen Beziehungen entstanden ist, denn obwohl andere Primaten auch soziale Tiere sind, sind Menschen viel mehr aufeinander angewiesen und arbeiten deshalb mehr als andere Primaten zusammen. So wie domestizierte Singvögel viel komplexere Melodien pfeifen als ihre wilden Verwandten, wird die Sprache umso komplexer, je mehr Menschen miteinander in einer Gesellschaft leben. Ein Jäger und Sammler in einer kleinen Gesellschaft verfügt vermutlich über einen Wortschatz von drei- bis fünftausend Wörtern, während ein 17-jähriger Amerikaner sechzigtausen Wörter kennt, was nicht an dessen besonderer Intelligenz liegt, sondern vielmer daran, dass er viel mehr Beziehungen zu anderen Mensxchen hat. So konnten Neandertaler vermutlich schon sprechen, auch wenn es keinen direkten Nachweis dafür gibt, doch in jedem Fall waren sie begrifflich und symbolisch ziemlich weit entwickelt, schufen Kunst und begruben ihre Toten. Im Verhältnis zur Körpergröße war ihr Gehirn sogar etwas größer als das des Homo sapiens, doch weiß man natürlich nicht, wie es im Inneren aufgebaut war.

Literatur

Klimsa, Paul (o.J.). Kognitions- und lernpsychologische Voraussetzungen der Nutzung von Medien.
WWW: http://www.medienpaedagogik-online.de/ mf/3/00691/ (03-10-06)

Kotz, Sonja A. & Schwartze, Michael (2010). Cortical speech processing unplugged: a timely subcortico-cortical framework. Trends in Cognitive Sciences 14.

Mihai, Paul Glad, Moerel, Michelle, de Martino, Federico, Trampel, Robert, Kiebel, Stefan, von Kriegstein, Katharina, Griffiths, Timothy, King, Andrew, Griffiths, Timothy, Davis, Matthew (2019). Modulation of tonotopic ventral medial geniculate body is behaviorally relevant for speech recognition. eLife, 8, doi:10.7554/eLife.44837

Scholl, Ben, Gao, Xiang & Wehr, Michael (2010). Nonoverlapping Sets of Synapses Drive On Responses and Off Responses in Auditory Cortex. Neuron, 65, 412-421.

Christiane Schreiweis, Ulrich Bornschein, Eric Burguière, Cemil Kerimoglu, Sven Schreiter, Michael Dannemann, Shubhi Goyal, Ellis Rea, Catherine A. French, Rathi Puliyadi, Matthias Groszer, Simon E. Fisher, Roger Mundry, Christine Winter, Wulf Hevers, Svante Pääbo, Wolfgang Enard, & Ann M. Graybiel (2014). Humanized Foxp2 accelerates learning by enhancing transitions from declarative to procedural performance. PNAS, doi:10.1073/pnas.1414542111.

Thibault, Simon, Py, Raphaël, Gervasi, Angelo Mattia, Salemme, Romeo, Koun, Eric, Lövden, Martin, Boulenger, Véronique, Roy, Alice C. & Brozzoli, Claudio (). Tool use and language share syntactic processes and neural patterns in the basal ganglia. Science, 374, doi:10.1126/science.abe0874.

http://www.nachrichten.at/oberoesterreich/wels/Kinder-bis-fuenf-lernen-Sprachen-am-leichtesten;art67,2912798 (18-06-05)

Spracherkennung in der linken Gehirnhälfte ist vermutlich angeboren

Literatur

Proceedings of the National Academy of Sciences vom 8. September 2003.

Bartha-Doering, L., Novak, A., Kollndorfer, K., Schuler, A. L., Kasprian, G., Langs, G., Schwartz, E., Fischmeister, F. P. S., Prayer, D. & Seidl, R. (2018). Atypical language representation is unfavorable for language abilities following childhood stroke. European Journal of Paediatric Neurology, doi:10.1016/j.ejpn.2018.09.007.

Floegel, M., Fuchs, S. & Kell, C. A. (2020). Differential contributions of the two cerebral hemispheres to temporal and spectral speech feedback control. Nature Communications, doi:10.1038/s41467-020-16743-2.

Olulade, Olumide A., Seydell-Greenwald, Anna, Chambers, Catherine E., Turkeltaub, Peter E., Dromerick, Alexander W., Berl, Madison M., Gaillard, William D. & Newport, Elissa L. (2020). The neural basis of language development: Changes in lateralization over age. Proceedings of the National Academy of Sciences, doi:10.1073/pnas.1905590117.

Stangl, W. (2011). Stichwort: 'Broca-Zentrum'. Online Lexikon für Psychologie und Pädagogik.
WWW: https://lexikon.stangl.eu/3191/broca-zentrum/ (2011-09-10)

Thézé, R., Giraud, A.-L.  & Mégevand, P.  (2020). The phase of cortical oscillations determines the perceptual fate of visual cues in naturalistic audiovisual speech. Science Advances, doi:10.1126/sciadv.abc6348.

Sprache wird beim Menschen vorwiegend von der linken Gehirnhälfte erkannt und vermutlich ist diese Asymmetrie angeboren. Marcela Pena und KollegInnen aus Japan, Frankreich und Italien konnten zeigen, dass Spracherkennung bereits bei zwei bis fünf Tage alten Neugeborenen in der linken Gehirnhälfte angelegt ist. Dazu wurden zwölf schlafende Kinder untersucht, denen die Forscher Tonbänder vorspielten, auf denen eine Frau ein Kinderbuch vorlas. Dabei verstärkte sich die Durchblutung in der linken Gehirnhälfte der Kinder deutlich stärker als in der rechten. Interessanterweise reagierten diese Gehirnregionen nicht, wenn das Band rückwärts abgespielt wurde. Diese fehlende Reaktion auf rückwärts gesprochene Sätze zeigt, dass einige Eigenschaften von Sprache Bereiche der linken Gehirnhälfte aktivieren, die bei anderen Tönen keine Rolle spielen. Auch bei Erwachsenen wird deren linke Gehirnhälfte bei ihnen unbekannten Sprachen nur dann aktiv, wenn die Aufzeichnung der Sprache vorwärts läuft. Wenn man drei Monate alten Babys kurze Sätze aus einem Kinderbuch vorliest, sind bei ihnen ebenfalls die gleichen Hirnregionen wie auch bei Erwachsenen aktiv, wenn diese Sprache verarbeiten. Zwar sind in diesem Alter Kleinkinder noch weit davon entfernt, auch nur vor sich hin zu brabbeln, denn das tun sie in der Regel erst, wenn sie etwa ein Jahr alt sind. Offensichtlich ist der Mensch sehr früh für Sprache empfänglich und kann alle Sprachimpulse aus seiner Umgebung bevorzugt aufnehmen.

Lateralisierung erfolgt erst allmählich

Man weiß seit langem, dass die Sprache bei den meisten neurologisch gesunden Erwachsenen in die linke Hemisphäre lateralisiert ist, doch im Gegensatz dazu sind die Befunde zur Lateralisierung der Funktion während der Entwicklung komplexer. Wie bei Erwachsenen deuten anatomische, elektrophysiologische und bildgebende Verfahren bei Säuglingen und Kindern auf eine Links-Lateralisierung der Sprache hin. Bei sehr kleinen Kindern führen jedoch Läsionen auf beiden Hemisphären mit gleicher Wahrscheinlichkeit zu Sprachdefiziten, was darauf hindeutet, dass die Sprache früh im Leben eher symmetrisch verteilt ist d. h., dass Sprache in der frühen Entwicklung offenbar bilateral repräsentiert wird.  Olulade et al. (2020) haben dieses Paradoxon aufgelöst, indem sie die fMRI-Sprachaktivierung auf unterschiedliche Weise untersuchten. Kinder zwischen 4 und 13 Jahren sowie Erwachsene zwischen 18 und 29 Jahren absolvierten verschiedene Aufgaben. So bekamen sie etwa einen Satz vorgelesen und sollten anschließend beurteilen, ob dieser inhaltlich korrekt war. Wie erwartet wurden bei den Erwachsenen bei der Bearbeitung der Aufgabe vor allem die Sprachzentren in der linken Hirnhälfte aktiv, bei den vier- bis sechsjährigen Probanden arbeiteten jedoch zusätzlich auch jene Areale in der rechten Hemisphäre, die symmetrisch zu den Sprachzentren lagen. Auch bei älteren Kindern zeigte sich manchmal dieses Muster, doch mit zunehmendem Alter wurde die Aktivität immer immer schwächer. Bei den Erwachsenen konnte man in rund sechzig Prozent der Fälle gar keine Aktivität mehr in der rechten Gehirnhälfte feststellen. Dieses Ergebnis ist ein Hinweis darauf, dass sich die Hemisphären erst im Lauf der Entwicklung auf bestimmte Aufgaben spezialisieren, wobei der Prozess in der Kindheit beginnt und frühestens im Alter von zehn bis elf Jahren abgeschlossen wird.

Die Broca-Aphasie ist eine erworbenen Sprachstörung, die durch eine Schädigung des Broca-Zentrums im Gehirn entsteht. Die Broca-Aphasie ist also eine Form der Aphasie, die hauptsächlich die Sprachproduktion beeinträchtigt, und sich durch Artikulationsprobleme, Anomie und Agrammatismus auszeichnet. Die Betroffenen sprechen Worte falsch aus, wobei ausgesprochene Worte zumeist ­bedeutungshaltig sind. Die Anomie zeigt sich bei Betroffenen in Wortfindungsschwierigkeiten, so dass der Sprachfluss langsam, unflüssig, angestrengt und mühevoll erscheint. Durch den Agrammatismus bestehen große Schwierigkeiten beim Benutzen grammatikalischer Konstruktionen, wie etwa bei Passivsätzen oder beim Benutzen von Funk­tionswörtern (Präpositionen, Artikeln). Auch das Nachsprechen von Sätzen bereitet den Betroffenen Probleme.

Das Broca-Zentrum befindet sich meist auf der linken Hirnhälfte und ist spielt eine zentrale Rolle bei der Sprachproduktion. Wird dieses Areal bei Erwachsenen etwa durch Blutungen oder Schlaganfälle in Mitleidenschaft gezogen, haben sie meist dauerhaft Schwierigkeiten, Sätze zu formulieren. Bei Kindern können solche Aphasien allerdings selbst nach großflächiger Schädigung binnen Monaten wieder verschwinden, denn ihr Sprachzentrum wechselt dann einfach die Hirnhälfte. Das wird durch den Umstand begünstigt, dass bei Kleinkindern und Kindern auch die Areale in der rechten Hemisphäre bei der Sprachverarbeitung aktiv sind, was dem Gehirn eine solche Umbaumaßnahme erleichtert.

Malik-Moraleda et al. (2022) untersuchten die fronto-temporo-parietalen Sprachnetzwerke in 45 Sprachen aus 12 Sprachfamilien und stellten fest, dass die Topographie und die wichtigsten funktionellen Eigenschaften des Netzwerks gegenüber sprachübergreifenden Variationen robust sind, einschließlich der Linkslateralisierung, der starken funktionellen Integration zwischen den Gehirnregionen und der funktionellen Selektivität für die Sprachverarbeitung. Für die Untersuchungen verglich man übrigens die Gehirnscans beim Hören eines Auszugs von »Alice im Wunderland« in der jeweils eigenen Sprache mit jenen, die bei verfälschter oder unverständlicher Sprache auftauchten. Die ähnliche Topographie, Selektivität und Vernetzung der Sprachhirnareale in 45 Sprachen ermöglicht es offenbar dem Sprachsystem, die gemeinsamen Merkmale von Sprachen zu verarbeiten, die durch die biologische und kulturelle Evolution geprägt wurden.

Schwingungen im Gehirn sind am Verstehen von gesprochener Sprache beteiligt

Thézé et al. (2020) haben in einem Experiment untersucht, wie Schwingungen im Gehirn am Verstehen von gesprochener Sprache beteiligt sind bzw. welcher andere Sinne wie Hören oder Sehen hauptsächlich beitragen. Bekanntlich verlassen sich Menschen, wenn sie verstehen wollen, was jemand sagt, nicht nur auf das Gehör, sondern auch darauf, was sie sehen, d. h., sie beobachten die Lippenbewegungen und den Gesichtsausdruck. Für ihr Experiment wurden Sätze nacheinander von sechs virtuellen Personen gesprochen, und zwar mit Hintergrundlärm, der das Hörverständnis stören sollte. Nach jedem der insgesamt 240 Sätze des Experiments hatten die Versuchspersonen eine Sekunde Zeit, um zu wiederholen, was sie verstanden hatten. In dem Versuchssetting, das verwirrende audiovisuelle Eindrücke erzeugt, platzierte man die französischsprachigen Versuchspersonen vor einem Bildschirm, auf dem eine virtuelle Person Satzpaare sagt, die sehr ähnlich klingen, zum Beispiel „Il n’y a rien à boire“ und „Il n’y a rien à voir“ (Es gibt nichts zu trinken/nichts zu sehen). Bei gewissen, von der virtuellen Person gesprochenen Sätzen, wurde ein Konflikt programmiert: Die Versuchsperson hörte den einen Satz, sah aber auf den Lippen den anderen Satz. Zum Beispiel sprach die Person ein „b“, die Lippen formten ein „v“. Die Versuchspersonen wurden nun aufgefordert, den Satz zu wiederholen, den sie verstanden hatten, wobei die elektrische Aktivität in ihrem Gehirn mit Elektroden aufgezeichnet wurde. Es zeigte sich, dass in den Fällen, bei denen die Informationen über Ohr und Auge identisch waren, die Sätze meistens korrekt wiederholt wurden, widersprachen sich hingegen die auditiven und die visuellen Informationen, dann verließen sich die Versuchspersonen entweder eher auf das, was sie hörten, oder auf das, was sie sahen. Wenn sie etwa ein „v“ hörten, aber ein „b“ sahen, wurde die Wahrnehmung in etwa zwei Dritteln der Fälle durch das Hören dominiert, in den übrigen Fällen war das Sehen für die Interpretation ausschlaggebend. Dabei zeigten sich Unterschiede zwischen Personen, die sich auf ihr Gehör verlassen, und denjenigen, die ihren Augen vertrauen, denn rund 300 Millisekunden vor dem Zeitpunkt, in dem es zu einer Übereinstimmung beziehungsweise zu einem Konflikt zwischen auditiven und visuellen Zeichen kam, befanden sich die zerebralen Schwingungen im hinteren Temporal- und Okzipitallappen der beiden Personengruppen in jeweils anderen Phasen. Man weiß seit einigen Jahrzehnten, dass in gewissen Situationen das Gehirn die visuellen Anhaltspunkte den auditiven vorzieht, und zwar verstärkt dann, wenn das Tonsignal gestört ist, etwa durch Umgebungslärm, doch nun konnte man zeigen, dass die Neuronenschwingungen an diesem Prozess beteiligt sind. Überraschenderweise konnte der Zusammenhang zwischen der Oszillationsphase und der Wahrnehmung der Sätze nur in der rechten Hirnhälfte hergestellt werden, wobei aber diese Informationen normalerweise eher in der linken Hirnhälfte aufgenommen werden.

Sprachzentrum breitet sich im Laufe der Entwicklung von einer Hirnhälfte auf beide aus

Jerzy P. Szaflarski et al. (Universität Cincinnati) fanden bei der Untersuchung von Probanden im Alter zwischen 5 und 67 Jahren, dass sich mit zunehmendem Alter das Sprachzentrum im Gehirn immer gleichmäßiger auf beide Gehirnhälften verteilt. Die Wissenschaftler untersuchten 177 Probanden mittels der funktioneller Magnetresonanztomographie (fMRI), bei der die Gehirnaktivität etwa während des Lösens von sprachlichen Denkaufgaben in Bildern dargestellt werden kann. Die Probanden mussten zu vorgegebenen Hauptwörtern wie Stuhl, Herd oder Löffel ein naheliegendes Verb finden . Bei Kindern ist das Sprachzentrum auf der linken Gehirnhälfte dominierend, was vermutlich mit der Entwicklung des jungen Gehirns und den wachsenden sprachlichen Fähigkeiten zusammenhängt. Ab einem Lebensalter von etwa 25 Jahren löst sich die Konzentration des Sprachzentrums auf eine Gehirnhemisphäre immer mehr auf, sodass ältere Erwachsene zunehmend beide Gehirnhemisphären für ihre sprachlichen Fähigkeiten nutzen. Bei den 5- bis 20-jährigen Probanden verschoben sich also die aktiven Muster im Gehirn mit zunehmendem Alter immer mehr in die linke Hirnhälfte, wobei im Alter von 20 bis 25 Jahren das Sprechen am stärksten links ab läuft, um sich dann im höheren Alter wieder gleichmäßig auf beide Gehirnhälften zu verteilen. Szaflarski führt dies auf eine nachlassende Leistungsfähigkeit des Sprachzentrums zurück, wobei dieser Verlust durch eine teilweise Auslagerung in die andere Gehirnhälfte ausgeglichen wird.

Bei der Untersuchung (Bartha-Doering et al., 2018) der Entwicklung der Sprache im Gehirn vom Ungeborenen bis hin zum Jugendlichen hat man festgestellt, das die für das Sprechen zuständigen Hirnareale offenbar schon in der embryonalen Entwicklung festgelegt werden. Dabei nutzte man Erkenntnisse, wie sich eine Verletzung im kindlichen Gehirn auf die Sprachlokalisation und die Sprachfähigkeiten eines Kindes auswirkt. Gesunde Kinder mit besseren Sprachfähigkeiten nutzen demnach häufiger ein bilaterales Sprachnetzwerk, das Regionen beider Hemisphären miteinander verbindet, wobei bei gesunden Kinder ein größerer Wortschatz, eine höhere verbale Flexibilität und ein besseres verbales Lernen mit der stärker bilateral organisierten Sprachlokalisation in Zusammenhang steht. Auch bei Kindern, die einen Schlaganfall erlitten hatten, konnte man einen Zusammenhang zwischen Sprachlokalisation und Sprachfähigkeiten nachweisen, wobei das Alter bei Auftreten des Schlaganfalls, Läsionsgröße oder Läsionslokalisation keinen Einfluss auf die Sprachfähigkeiten hatten, jedoch eine atypische Reorganisation der Sprachareale sich aber als nachteilig für die Sprachfähigkeiten erwies. Offenbar gibt es beim Menschen eine frühkindliche, wahrscheinlich schon vorgeburtliche Prädisposition von spezifischen Spracharealen.

Aufgabenteilung der beiden Gehirnhälften beim Sprechen

Floegel et al. (2020) haben die Aufgabenteilung der beiden Gehirnhälften beim Sprechen untersucht, wobei Probanden sprechen mussten, während ihre Hirnaktivität mittels funktioneller Magnetresonanztomographie aufgezeichnet wurde. Bekanntlich benötigen Menschen, wenn sie sprechen, beide Gehirnhälften, wobei jede einen Teil der komplexen Aufgabe übernimmt, Laute zu formen, die Stimme zu modulieren und das Gesprochene zu überprüfen. Dabei zeigte sich, dass nicht nur die rechte Gehirnhälfte analysiert, wie gesprochen wird, sondern auch die linke leistet dazu einen Beitrag. Bisher nahm man an, dass das gesprochene Wort in der linken Gehirnhälfte entsteht und von der rechten Gehirnhälfte analysiert wird, was etwa bedeuten würde, wenn man Englisch lernt und das „th“ übt, dass die linke Gehirnhälfte das Zusammenspiel von Zunge und Zähnen motorisch steuert, während die rechte überprüft, ob der produzierte Laut auch wirklich so klingt, wie man ihn formen wollte. In diesen Studien wurde nun gezeigt, dass während die linke Hirnhälfte bei der Sprachkontrolle zeitliche Aspekte wie Übergänge zwischen Sprachlauten kontrolliert, die rechte Gehirnhälfte für das Klangspektrum zuständig ist. Wenn man zum Beispiel „mother“ sagt, kontrolliert die linke Hirnhälfte bevorzugt die dynamischen Übergänge zwischen „th“ und den Vokalen, während die rechte Hirnhälfte bevorzugt den Klang der Laute selbst überprüft. Eine mögliche Erklärung für diese Form der Arbeitsteilung zwischen den beiden Hirnhälften wäre, dass die linke Hirnhälfte generell schnelle Abläufe, wie die Übergänge zwischen Sprachlauten, besser analysiert als die rechte. Die rechte Hirnhälfte könnte besser langsamere Abläufe kontrollieren, die zur Analyse des Klangspektrums benötigt werden.

Wie ein Zweitspracherwerb das Gehirn verändert

Das Erlernen einer zweiten Sprache im Erwachsenenalter ist eine anspruchsvolle Aufgabe, die neuroplastische Veränderungen im menschlichen Gehirn hervorruft, wobei bisher unklar war, wie sich das strukturelle Sprachkonnektom und seine Subnetzwerke während des Fremdsprachenerwerbs bei Erwachsenen verändern. Wei et al. (2024) untersuchten nun die longitudinalen Veränderungen in den Sprachnetzwerken der weißen Substanz in jeder Hemisphäre sowie deren Konnektivität bei einer großen Gruppe arabischsprachiger Erwachsener, die sechs Monate lang intensiv Deutsch lernten. Es zeigte sich eine signifikante Zunahme der Konnektivität der weißen Substanz innerhalb der bilateralen temporal-parietalen semantischen und phonologischen Subnetzwerke und der rechten temporal-frontalen Bahnen, insbesondere in der zweiten Hälfte des Lernzeitraums. Gleichzeitig verringerte sich die Konnektivität zwischen den beiden Hemisphären signifikant, wobei entscheidend ist, dass diese Veränderungen in der Konnektivität mit der Leistung in der neuen Sprache zusammenhängen. Diese Abnahme deutet darauf hin, dass während des Zweitspracherwerbs die sprachdominante linke Hemisphäre weniger Kontrolle über die rechte Hemisphäre ausübt, wodurch Ressourcen in der rechten Hemisphäre frei werden, um die neue Sprache zu integrieren. Das erwachsene Gehirn scheint sich an neue kognitive Anforderungen anzupassen, indem es die strukturelle Konnektivität innerhalb und zwischen den Hemisphären moduliert. Advertisement Die beobachteten Veränderungen in den Subnetzwerken der beiden Hemisphären deuten auf eine Rekonfiguration des Netzwerks durch lexikalisches Lernen hin, während die reduzierte interhemisphärische Konnektivität auf eine Schlüsselrolle des Corpus callosum beim Zweitspracherwerb hinweisen könnte, indem sie die Hemmung der sprachdominanten linken Hemisphäre reduziert.  

Wortkarte des Gehirns

Eine neue Form eines Gehirnatlas, und zwar in Form einer Wortkarte des semantischen Netzwerks im menschlichen Gehirn, erstellten Huth et al. (2016), indem sie sieben Probanden zwei Stunden lang Geschichten vorlasen, währen diese in einem hochauflösenden funktionellen Magnetresonanz-Tomografen lagen, der dabei aufzeichnete, welche Gehirnregion aktiv wurde, wenn ein Wort mit einer bestimmten Bedeutung vorkam. Dieser Hirnatlas zeigt, wo im Gehirn welche Wörter verarbeitet werden, wobei bisher für mehr als 10.000 Wortbedeutungen direkt erkennen kann, welche Areale aktiv werden. Demnach aktivieren etwa Wörter mit eher sozialer Bedeutung andere Hirnareale als Farbwörter, Ortsangaben oder Zahlen, wobei das gesamte semantische Netzwerk jedoch das gesamte Gehirn überzieht, und nicht nur die beiden bekannten Sprachzentren der linken Gehirnhälfte. Vielmehr ist ein ganzes Netzwerk daran beteiligt, die Bedeutung der Wörter zu entschlüsseln, wobei man die Wörter zwölf semantischen Bedeutungsgruppen mit Hilfe computergestützter Verfahren kartierte. Das Ergebnis ist ein dreidimensionaler Atlas des Gehirns, wobei insgesamt mehr als 130 verschiedene Areale daran beteiligt sind. Wörter aus dem sozialen Kontext aktivieren unter anderem Areale im seitlichen Scheitellappen und im Schläfenlappen, bei eng mit dem Sehen verknüpften Wortbedeutungen reagieren hingegen vornehmlich Neuronen in der Nähe der Sehrinde. Interessanterwweise aktivieren Wörter, die je nach Kontext eine ganz unterschiedliche Bedeutung haben können, je nach semantischem Zusammenhang auch jeweils andere Areale. Insgesamt waren dabei trotz kleinerer individueller Unterschiede bei allen Probandendie Verarbeitungsorte sehr ähnlich, weshalb man vermutet, dass die Anatomie des Gehirns (Homunculus) die Organisation dieses Netzwerks beeinflusst.


[Quelle: https://www.youtube.com/embed/k61nJkx5aDQ]

Spracherwerb und Gehirnentwicklung

Sprechen lernen bedeutet, einzelne Laute zu lernen und zu verstehen, wie einzelne Laute zu Wörtern kombiniert werden, die eine Bedeutung haben, aber wenn kleine Kinder sprechen lernen, tun sie dies nicht mit einem Lehrbuch, sondern indem sie Erwachsenen und sich selbst zuhören. Sprachexperimente mit Säuglingen haben gezeigt, dass sich ihr Gehirn allmählich an einzelne Sprachlaute anpasst, beginnend mit nasalen und labialen Konsonanten. Rhythmische Informationen, d.h. die Intonation einer Phrase, die Betonung und die Akzente, nimmt das Gehirn von Säuglingen dabei viel schneller auf als den Klang einzelner Laute. Die Aneignung des Sprachrhythmus ist bereits bei zwei Monate alten Babys in vollem Gange, auch wenn sie noch nicht in der Lage sind, einzelne Phoneme zu erkennen, aber das Verständnis des Rhythmus schafft im Gehirn des Kindes ein Gerüst, auf dem die phonetische Information wachsen kann. Das Rhythmusgefühl hilft vor allem zu hören, wo ein Wort endet und ein anderes beginnt, und das ist eines der größten Probleme beim Erlernen einer Sprache, sowohl für Kinder als auch für Erwachsene. In jeder Sprache gibt es einen bestimmten Rhythmus, aber in Gedichten und Liedern gibt es noch mehr davon, so dass es für Kinder besonders nützlich ist, Reime und Schlaflieder zu hören, da sie ihnen helfen, die rhythmische Struktur ihrer Muttersprache schneller zu verstehen. Der weitere Spracherwerb hängt davon ab, wie gut das Gehirn des Säuglings den Rhythmus der Sprache beherrscht.

Die  Entwicklung der Sprache bzw. des Spracherwerbs (unter Berücksichtigung biologischer  Grundlagen der Gehirnentwicklung) umfasst verschiedene Phasen, die das normal entwickelte Kind durchläuft. Generell haben Untersuchungen des ersten Lebensjahres gezeigt, dass das Sprechen dem  Sprachverstehen hinterherhinkt, d.h., Kinder können Unterschiede zwischen ähnlichen  Konsonanten hören, auch wenn sie noch nicht in der Lage sind, diese entsprechend zu  produzieren.  

Im ersten Lebensjahr ist noch keine Sprache an sich, sondern nur Vorformen der Sprachentwicklung zu beobachten. Bei diesen Vorformen lassen sich insgesamt vier Phasen  unterscheiden. Die Lautäußerungen beginnen mit schreien und behaglichem Gurgeln bzw.  Juchzen bis hin zum Lallen oder Brabbeln und erst von da gelangt das Baby zum Sprechen  von Worten. Erste vokalartige Laute ergeben sich beiläufig aus dem Atmen, aus verdauen und  schreien. „Sprachliche Reaktionen“ auf Dinge oder Reize aus der Umwelt sind mit etwa zwölf  Wochen zu beobachten, zumeist in Form von „Juchzen“.    

Im Bereich zwischen zwölf Wochen und sechs Monaten tauchen dann erste Konsonanten  auf, und mit sechs Monaten beginnt das Brabbeln oder Lallen. Ab diesem Alter werden  einfache Kombinationen aus Konsonanten und Vokalen dargeboten (Na), mit etwa acht  Monaten beginnen Kinder das eigene Sprechen, und das anderer nachzumachen und  erzeugen hierzu mehrmals die selbe Silbe. Gelegentlich werden Plappersilben mit Objekten  oder Ereignissen verbunden und dies stellt den Übergang in die Entwicklung erster  Vorformen der Sprache dar (mit etwa einem Jahr). Zwar handelt es sich noch nicht um  Worte im eigentlichen Sinn, die Äußerungen haben aber bereits die Funktion von Worten,  weil sie eindeutige Kennzeichnungen von Objekten darstellen.   

Im Zeitraum zwischen acht und achtzehn Monaten können Kinder ein Vokabular von  einigen hundert Wörtern erwerben; in dieser Zeit dominieren aber noch sogenannte Ein-Wort- Sätze bzw. Holophrasen.    

Während des zweiten Lebensjahres werden dann gehäuft zwei Wörter zu sogenannten Duos  verbunden, die verschieden Funktionen haben können, wie beispielsweise benennen („ein  Haus“), Nicht-Vorhandensein („Milch tschüss“) und Handlung („Susi läuft“) und  Wiederauftreten („noch Katze“). Derartige Duos stellen die erste Form von grammatischen  Konstruktionen dar; sie sind dadurch gekennzeichnet, dass sie bereits bemerkenswert  fehlerfrei produziert werden. Zunehmend kommt es zur Ausbildung auch von längeren  Sätzen, die aber noch immer im „Telegrammstil“ verfasst werden, was darauf hinweist, dass  noch nicht Erwachsenensätze nachgebildet werden, da die formalen Relationen von  Substantiv und Verb oder Substantiv und Adjektiv zumeist nicht gegeben sind; die Sätze  folgen zumeist eigenen sprachlichen Regeln, vermitteln aber dennoch einen meist eindeutig  zu identifizierenden Sinn. Von Zwei-Wort-Sätzen schreitet das Kind bald voran zu einfachen  Aussagesätzen.   

Schließlich werden während des dritten Jahres Umformungen von Aussagesätzen, z.B. in  Form von Fragen oder Verneinungen gezeigt. In diesem Bereich (2-3 Jahre) werden die  elementaren grammatischen Umformungsregeln erworben. Mit drei Jahren haben Kinder  zumeist ein Vokabular von über 1000 Wörtern und sind in der Lage immer kompliziertere  Sätze zusammenzufügen, Fragen zu stellen, verneinende Aussagen zu treffen. Mit Eintritt in  die Schule ist die Sprache in der Regel in Satzbau und Grammatik von der  Erwachsenensprache nicht mehr zu unterscheiden. 

Der Erwerb der Grammatik und Syntax

Die Grammatik einer Sprache ist essenziell für die sprachliche Verständigung, den einzelne Wörter tragen zwar die Bedeutung des Satzes, aber erst die Grammatik setzt die Wörter in Beziehung zueinander und an ihren richtigen Platz. In den ersten Lebensjahren lernen Kinder die wichtigsten Aspekte ihrer Muttersprache, doch die Fähigkeit zur Verarbeitung komplexer Satzstrukturen, eine zentrale Fähigkeit der menschlichen Sprache, die als Syntax bezeichnet wird, entwickelt sich jedoch nur langsam. Kinder müssen diese Regeln erst lernen und meistern diese Aufgabe, ohne dass sie ihnen jemand explizit erklärt, denn bis zu ihrem dritten Geburtstag können Kinder zwar schon einfachere Regeln anwenden, aber erst ab dem vierten Lebensjahr beginnen sie, auch kompliziertere Sätze zu verstehen und zu produzieren. Dieser Meilenstein im Syntaxerwerb wird also erst etwa im Alter von vier Jahren erreicht, wenn Kinder eine Vielzahl von syntaktischen Konzepten lernen. Klein et al. (2022) haben untersucht, welche Reifungsveränderungen im kindlichen Gehirn der Entwicklung der syntaktisch komplexen Satzverarbeitung in diesem kritischen Alter zugrunde liegen. Bei Erwachsenen wurde bereits mehrfach gezeigt, dass in einem Sprachnetzwerk verschiedene Hirnareale zusammenarbeiten, um Sprachverständnis und -produktion zu ermöglichen. Man setzte in der Untersuchung von Klein et al. (2022) daher Marker der kortikalen Hirnreifung in Beziehung zur Satzverarbeitung von 3- und 4-Jährigen im Gegensatz zu anderen sprachlichen Fähigkeiten. Die Ergebnisse zeigten, dass unterschiedliche kortikale Hirnareale die Satzverarbeitung in den beiden Altersgruppen unterstützen, wobei die Fähigkeit zur Satzproduktion bei 3-Jährigen mit einer vergrößerten Oberfläche im hintersten Teil des linken superioren temporalen Sulcus verbunden war, während bei 4-Jährigen ein Zusammenhang mit der kortikalen Dicke im linken hinteren Teil des Broca-Areals bestand. Die Reifung dieser spezifischen Hirnregion, die als Kernregion für Grammatik gilt, hing also mit der Grammatikfähigkeiten der vierjährigen Kinder zusammen, nicht aber mit den Fähigkeiten der Dreijährigen. Diese Ergebnisse deuten also darauf hin, dass dieser Meilenstein im Spracherwerb erst durch die Unterstützung des Broca-Areals bei der Verarbeitung komplexer Grammatik ermöglicht wird.  Diese Ergebnisse deuten darauf hin, dass die Fähigkeiten zur Satzverarbeitung bei 3-Jährigen im Vergleich zu 4-Jährigen von der Reifung verschiedener kortikaler Regionen abhängen, wobei die beobachtete Verschiebung hin zu reiferen Regionen, die an der Verarbeitung syntaktisch komplexer Sätze beteiligt sind, könnte dem Verhaltensmeilenstein beim Syntaxerwerb im Alter von etwa 4 Jahren zugrunde liegen. Diese Befunde liefern daher neue Einblicke in die neuronalen Prozesse, die zu einer erfolgreichen Sprachentwicklung beitragen, was  auch ein besseres Verständnis für Entwicklungsverzögerungen oder sogar Störungen im Spracherwerb ermöglichen könnte.

Sprachentwicklung von der Muttersprache beeinflusst

Die Entwicklung der vorsprachlichen Lautäußerungen verläuft in allen Sprachen der Welt etwa gleich. d.h., sie beginnt damit, dass der Säugling mit Bewegungen darauf reagiert, wenn man ihn anspricht; es sind Bewegungen, die er nicht ausführt, wenn er Ticken oder Klopfen hört. Einige Wochen nach der Geburt beginnt das Kind zu vokalisieren und mit zwei bis drei Monaten beginnt das Kind zu schnalzen, wobei auch Laute produziert werden, die in der Muttersprache nicht vorkommen, also kaum nachgeahmt werden können. Nach etwa drei Monaten nehmen die Vokalisationen wieder ab und zwischen dem siebten und zehnten Monat verlieren sich die Laute, die in der Muttersprache nicht vorkommen, d.h., das Kind wird bezüglich der Aspekte der auditorischen Umwelt selektiv. Hier wird die Rolle der Imitierung deutlich, denn es werden in dieser Phase nun auch Intonation und Melodie der Muttersprache nachgeahmt und schon um den ersten Geburtstag herum "erzählt" das Kind Geschichten mit unverständlichen Wörtern, aber im Tonfall der Muttersprache (angepasstes oder soziales Lallen).

Jedes Kind wird somit im Normalfall als Sprecher in eine Welt von Sprechenden hineingeboren, d.h., die Sprachentwicklung ist von Grund auf dialogischer Natur. Sprache wird dabei in einem lang anhaltenden Prozess erworben. Schon wenige Monate alte Säuglinge können bekanntlich die typischen Laute und die Sprachmelodie ihrer Muttersprache erkennen, denn das Kindergehirn stimmt sich in dieser sensiblen Entwicklungsperiode auf die Klänge der Sprache ein.

In einer Untersuchung (Webb et al., 2015) konnte sogar gezeigt werden, dass wenn Frühgeborene nach der Geburt einer Geräuschkulisse ausgesetzt werden, die jener im Mutterleib ähnelt, die Entwicklung des Hörzentrums im Gehirn fördert. Dazu wurde Säuglingen täglich drei Stunden lang Tonaufnahmen vom Herzschlag und von der Stimme ihrer Mutter vorgespielt, wobei die Aufnahmen zuvor so verändert worden waren, dass sie den akustischen Eindrücken glichen, denen Kinder während der Schwangerschaft im Bauch der Mutter ausgesetzt sind. Nach einem Monat war der auditorische Cortex bei den Säuglingen deutlich im Vergleich zu einer Kontrollgruppe vergrößert, wobei sich dieser Effekt in beiden Hemisphären zeigte. Offensichtlich leistet die Geräuschkulisse im Mutterleib einen Beitrag zur Gehirnentwicklung bzw. legen diese Geräusche sogar einen Grundstein dafür, dass die Gehirne später in der Lage sind, Töne und Sprache richtig zu verarbeiten. Diese Studie belegt wie andere zuvor, dass die Stimme der Mutter eine bedeutende Rolle für die Entwicklung von Hör- und Sprachzentrum im Säuglingsalter spielt.

Die Muttersprache hinterlässt im Gehirn übrigens unlöschbare Spuren, was man in einer Untersuchung (Pierce at al., 2014) an in China geborenen Kindern belegen konnte, die mit rund einem Jahr von Franzosen adoptiert wurden. Obwohl sie danach Chinesisch weder gehört noch gesprochen haben, reagiert das Gehirn selbst von 17-Jährigen noch immer auf diese Sprache. Offensichtlich hält des Gehirn manche Verbindungen aus der ersten Lebenszeit für so wertvoll, dass sie nicht mehr von späteren Eindrücken überschrieben werden können, allerdings bleibt unklar, wie das Gehirn diese Entscheidung trifft.

Schon im Alter von fünf Monaten haben Kinder eine Vorstellung davon, was menschliche und was tierische Laute sind. Die Babies können die menschliche Sprache selbst dann dem Bild eines Menschen zuordnen (Fixationsmethode), wenn es sich um von ihnen nie zuvor gehörte Laute etwa auf Japanisch handelt. Auch die Laute eines Affen können sie dem entsprechenden Bild richtig zuweisen, nicht jedoch das Gequake von Enten. Kleinkinder können offensichtlich ihre akustischen Eindrücke recht gut kategorisieren, wobei sie vermutlich aus Erfahrungen mit Eltern, Geschwistern und Verwandten auf menschliche Sprachäußerungen im Allgemeinen schließen. Diese Fähigkeit zur Abstraktion könnte vermutlich auch der Grund dafür sein, dass Kinder Affengesichter korrekt den Affenlauten zuordnen können, obwohl sie selbst noch keinerlei Erfahrungen mit Affen gesammelt haben.

Adrian García-Sierra et al. (in press) zeigten nun in einer Untersuchung an Kindern aus rein englischen, rein spanischen und spanisch-englisch gemischten Familien, dass bilinguale Kinder erst mit etwa zehn bis zwölf Monaten die typischen Sprachmuster ihrer beiden Sprachen zu erkennen lernen, während bei Kindern mit nur einer Muttersprache diese Prägungsphase in diesem Alter bereits abgeschlossen ist und das Gehirn dann nur noch auf typische Laute der Muttersprache reagiert. Offensichtlich legt sich das Gehirn bilingualer Kinder nach einem anderen Zeitplan auf eine Sprache fest als einsprachige aufwachsende und bleibt länger flexibel, möglicherweise, um die größere Vielfalt unterschiedlicher Sprachlaute in zweisprachigen Umgebungen besser verarbeiten zu können.

Erst am Ende des ersten Lebensjahres beginnen Kinder, die Sprache so wie Erwachsene wahrzunehmen, denn erst mit sieben Monaten reagieren sowohl die auditorischen Bereiche des Gehirns, die für die Verarbeitung von Sprache zuständig sind, als auch motorische Bereiche auf Laute der Muttersprache als auch einer Fremdsprache. Die Aktivität der motorischen Gehirnareale deutet nach Ansicht von Wissenschaftlern (Can et al., 2013) daraufhin, dass die Kinder in ihrer Vorstellung üben, wie sich bestimmte Worte bilden lassen. Das ändert sich im Alter von elf bis zwölf Monaten, denn ab dann reagieren die auditorischen Areale stärker auf die Muttersprache als auf eine Fremdsprache, wobei die motorischen Bereiche beim Hören der Fremdsprache eine größere Aktivität zeigen, da es für die Kinder vermutlich anstrengender ist, sich die Motorik vorzustellen, die diese Laute hervorbringen könnten. Sie reagieren damit in gleicher Weise wie das Gehirn Erwachsener auf fremde Sprachäußerungen. Aus diesen Forschungsergebnissen schließt man, dass Kleinkinder schon ganz zu Beginn üben, auf Sprache zu antworten. Wahrscheinlich versucht schon das Gehirn von siebenmonatigen Kindern herauszufinden, mit welchen Mund- und Zungenbewegungen sich solche Laute hervorbringen lassen. Die Studie weist auch darauf hin, dass übertrieben deutliches Sprechen Kleinkindern helfen kann, das Gehörte zu imitieren, denn es macht ihren Gehirnen einfacher, die zum Sprechen nötigen Bewegungen zu allmählich herauszubilden.

Neue Theorien der Kognitionsforschung nehmen an, dass das menschliche Gedächtnis als Teil von Begriffen auch Körperempfindungen speichert. Es ist bekannt und offensichtlich, dass Menschen oft mit ihren Händen bzw. Gesten auf eine verbale Anfrage oder Anweisung reagieren, aber die funktionellen Zusammenhänge von Bewegungssteuerung und Sprache sind noch nicht vollständig geklärt, insbesondere deren neurophysiologische Grundlage. Ein Wort wie Schneebesen speichert das Gehirn wie in einem Lexikon und assoziiert es etwa mit Konzepten wie unbelebt und Küchengerät, zusätzlich aber verbindet es das Wort mit der individuellen Erfahrung, wie sich ein solcher Schneebesen anfühlt oder dass mit dem Küchengerät eine Schleuderbewegung damit verbunden ist. Koester &  Schack(2016) haben nun untersucht, ob spezifische motorische Repräsentationen für das Begreifen von Objekten neurophysiologisch mit konzeptionellen Informationen interagieren, d.h. beim Lesen von Substantiven. Probanden saßen dabei am Bildschirm und hatten drei nebeneinander liegende Würfel vor sich: einer so groß wie ein Apfel, einer wie ein Tischtennisball und einer wie ein Spielwürfel. Auf dem Bildschirm waren ebenfalls nebeneinander drei weiße Felder zu sehen. Nun erschienen Wörter in einem der Felder, einerseits Phantasiebegriffe und andererseits echte Begriffe. Wurde etwa ein Pseudowort wie Quarl eingeblendet, mussten die Probanden nichts tun, erschien jedoch ein echtes Wort wie Orange, so sollten sie den unter dem Feld liegenden Würfel greifen. Eine EEG-Kappe zeichnete während des Versuchs die Gehirnaktivität auf, so dass man registrieren konnte, wie das Wort im Gehirn verarbeitet worden war. Schon nach einer Zehntelsekunde reagierte das Gehirn, wenn eine Greifaktion erforderlich war. Diese Beobachtung bestätigt nicht nur, dass das Gehirn über gemeinsame Steuerprogramme für Sprache und Bewegung verfügt, sondern zeigt auch, dass sich die Verarbeitungsschritte des Gehirns sehr schnell verändern und an aktuelle Aufgaben anpassen, in diesem Fall an die Aufgabe, beim Lesen des Wortes zu greifen.

Sonia Kleindorfer, Leiterin der Konrad Lorenz Forschungsstelle der Uni Wien im Almtal, weist in einem Interview mit den OÖN vom 28. September 2019 darauf hin, dass Menschen und Singvögel erstaunlich ähnliche Gehirne besitzen: "Es gibt nur sieben Tiergruppen, die vokales Lernen beherrschen; eine Form von Kultur: Singvögel, Papageien, Kolibris, Wale, Elefanten, Fledermäuse und Menschen. Jede Generation lernt die Sprache neu. Menschen und Singvögel haben einen Bereich im Gehirn, der für Lautverarbeitung zuständig ist und einen anderen für Lautproduktion. Beide sind mit Neuronen verbunden. Im menschlichen Baby, das ja noch nicht spricht, wird der Lautverarbeitungsbereich zuerst einmal mit den Lauten der Bezugspersonen formatiert. Diese Informationsstelle wird später mit der Lautproduktion verknüpft. Das Gleiche gilt bei den Vögeln. Brütet man Eier still im Labor aus, können die Vögel später nicht singen. Was meine Gruppe entdeckt hat, ist, dass dieses Lernen sehr früh beginnt. Wir haben gesehen, dass Weibchen zu ihren Eiern singen, obwohl dies das Risiko, von Räubern entdeckt zu werden, erhöht. Wir haben Gelege ausgetauscht und konnten nachweisen, dass die Küken dann den Ruf der Ziehmutter produzieren. Das heißt, dass die Lautäußerung gelernt ist und nicht genetisch festgelegt. Dann haben wir anhand von Magnetresonanzuntersuchungen an den Eiern festgestellt, dass sich die Gehirne anders entwickeln, wenn sie keine elterlichen Rufe erfahren haben. Sie waren asymmetrisch, kleiner und hatten weniger Protein im Areal der Lautverarbeitung." Und weiter in Bezug auf den Menschen: "Wir wissen, dass menschliche Embryos sehr wohl eine Wahrnehmung haben für menschliche Sprache. Neugeborene zeigen eine Präferenz für die Sprache, mit der sie Erfahrung haben – gemessen an der Nuckelintensität. Hier tut sich meines Erachtens eine Möglichkeit auf, mit der Stimme der Eltern Frühgeborene zu fördern. Diesbezüglich bin ich derzeit auf der Suche nach Forschungskooperationspartnern." Allerdings gibt es bei Singvögeln keinen Beweis, "dass es einen Zusammenhang gibt zwischen Kognition und Sprachfähigkeit. Aber wir wissen, dass eine reiche pränatale Erfahrung mit Akustik die Persönlichkeit beeinflusst. Solche Jungvögel sind neugieriger und zeigen vermehrtes Explorationsverhalten, ohne bei Problemlösungen besser zu sein. Es gibt keine Evidenz, dass ein Vogel- oder Menschenbaby gescheiter wird, wenn man ihm Mozart oder Schönberg vorspielt. Spielt man jedoch Wachteln im Ei rhythmische Töne vor, steigert das ihre Leistungsfähigkeit nach dem Schlüpfen, spielt man ihnen hingegen Lärm vor, vermindert das die Gehirnorganisation. Wir Menschen – als vokal lernende Art – sollten unsere akustische Landschaft besser gestalten und genauer untersuchen. Viele unserer Leiden könnten daher kommen, dass wir in akustischer Armut leben oder überreizt sind vom Geräuschpegel."

In der Phase der Entwicklung des Gehirns fallen die unterschiedlichen Eindrücke bei bilingualer Erziehung in unterschiedliche Gehirnbereiche, was die Ausreifung verzögert, da für jede Sprache mehr verschiedene Muster erworben werden müssen. Bekannt ist, dass frühe Spracherfahrungen den gefühlsmäßig sicheren Umgang mit einer Sprache später sehr erleichtern, d.h., wenn Kinder zwei Sprachwelten später in ihrem Leben brauchen (Migrationskinder), ist es wohl sehr sinnvoll, ihnen diese schon in der Zeit der Entwicklung des Sprachvermögens nahe zu bringen. Es ist daher falsch Kinder, die sich später in zwei Sprachen bewegen müssen oder sollen, zuerst eine und dann eine andere Sprache lernen zu lassen, vielmehr profitieren sie davon, von Beginn an ein Gefühl für beide Sprachen entwickeln zu können. Die Psychologin Erika Hoff von der Florida Atlantic Universität konnte in ihren Untersuchungen ebenfalls bestätigen, dass bilinguale Kinder länger als Gleichaltrige benötigen, um die Muttersprache zu erlernen, fand Hoff heraus. Sechs bis acht Prozent aller Kleinkinder brauchen länger, bis sie zu kommunizieren beginnen, unabhängig von Land und Kultur. Sprachwissenschaftler und Psychologen einiger US-Universitäten hatten eine Liste von mehreren Dutzend Wörtern erstellt, die Kinder bei normaler Entwicklung im Alter von zwei bis zweieinhalb Jahren beherrschen sollten. Diese Liste wurde unter Berücksichtigung kultureller Eigenarten inzwischen in weitere Sprachen übertragen, damit man die linguale Entwicklung von Kindern besser beurteilen und gegebenenfalls Hilfe zu suchen kann, denn verzögertes Sprechen kann auch ein Symptom für andere Probleme sein wie Gehördefekte, kognitive Störungen oder Autismus.

Übrigens haben Anthropologen herausgefunden, dass eine Unterhaltung mit einem Säugling mit weichen unartikulierten Lauten wie "duziduzi" oder "eideidei" in fast allen Kulturen zu finden ist. Linguisten nennen diesen sinnfrei wirkenden Umgangston mit Babies "Mutterisch", wobei diese Brabbelsprache überall auf der Welt Kinder beruhigt und ihnen vielleicht sogar hilft, selbst mit dem Sprechen vertraut zu werden.

Siehe dazu Babytalk oder Ammensprache.

Kurioses: Sprache auch von der Umwelt bzw. vom Klima beeinflusst

Linguisten haben in einer Untersuchung an 633 Sprachen überprüft, warum Sprachen so verschieden klingen, warum es etwa in slawischen Sprachen so viele Konsonanten gibt oder warum das Chinesische und das Italienische weitgehend auf geschlossene Silben verzichtet. Oder warum kommen die Klick- und Schnalzlaute fast nur in den Khoisansprachen des südlichen Afrika vor, und warum ist im Türkischen das Ü und im Schwedischen das Ö so häufig? Man entwickelte nun eine einfache aber einleuchtende Theorie, dass nämlich das Klima die Sprachen prägen könnte: Menschen in warmen Gegenden verbringen mehr Zeit draußen, kommunizieren dort über weitere Distanzen, daher sollten sie Lautkombinationen bevorzugen, die auch unter schlechten Bedingungen gut über große Strecken übertragen werden. Auch Singvögel verwenden eher Frequenzen, die in ihren Habitaten gut übertragen werden, denn so singen Waldvögel tiefer als Vögel in offenen Arealen, da Bäume die Schallwellen ablenken. Aus dem gleichen Grund sind möglicherweise Sprachen in Gegenden mit hoher Baumdichte weniger konsonantenreich, aber auch in Gegenden mit warmer Luft bilden sich kleine Wellen, die die Übertragung hoher Frequenzen stören. Man fand daher eine Korrelation der Konsonantendichte einer Sprache mit Baumdichte, Niederschlag und Temperatur. In menschlichen Sprachen sind übrigens Konsonanten besonders anspruchsvoll, was den Frequenzbereich anbelangt, weshalb alte Menschen, die die hohen Frequenzen nicht mehr hören können, Sprache auch so schlecht verstehen.


Lallphase nicht nur bei Menschen zu finden

Ein bemerkenswerter Aspekt der Sprachentwicklung beim Menschen ist die Lallphase, denn in dieser Zeit geben Kleinkinder eine Reihe spezifischer Laute von sich, wodurch sie die Sprache der Erwachsenen üben und imitieren. Dieses Babbeln erlaubt Kleinkindern mit der Zeit immer mehr Kontrolle über den eigenen Stimmapparat zu erlangen, indem Vokale, Konsonanten aber auch der Rhythmus der Sprache nachgeahmt wird. Doch ist nach neueren Untersuchungen der Mensch jedoch nicht der einzige stimmliche Lerntyp, denn man fand auch bei anderen Tieren ein solches Brabbeln. Allerdings gibt es bisher nur wenige Belege für das Lallen bei nicht-menschlichen Säugetieren, was einen artenübergreifenden Vergleich verhindert hat. Fernandez et al. (2021) zeichneten die Lautäußerungen von Fledermausjungen in freier Wildbahn auf und fanden deutliche Hinweise auf ein Brabbeln, das mit dem des Menschen übereinstimmt. Die gemeinsamen Komponenten des Babbelns lassen vermuten, dass das Erlernen der Stimme bei einer Vielzahl von Säugetierarten auf ähnlichen spezifischen Mechanismen beruht. Junge Fledermauswelpen der Art Sackflügelfledermäuse plappern, während sie lernen, ähnlich wie menschliche Säuglinge zu plappern. Das Lallen ist ein Meilenstein in der Sprachentwicklung von Säuglingen. In dieser Studie untersuchte man das auffällige Lallverhalten von Saccopteryx bilineata, einer Fledermaus, die zum Erlernen der Vokalproduktion fähig ist. Man analysierte dabei das Lallen von Fledermausjungen im Feld während ihrer 3-monatigen Ontogenese und verglichen die Merkmale mit denen, die das Lallen bei menschlichen Säuglingen charakterisieren. Es zeigt sich, dass das Lallen von Fledermauswelpen durch dieselben acht Merkmale gekennzeichnet ist wie das Lallen von menschlichen Säuglingen, einschließlich der auffälligen Merkmale Reduplikation und Rhythmik. Diese Parallelen in der stimmlichen Ontogenese zwischen zwei Säugetierarten bieten zukünftige Möglichkeiten für den Vergleich kognitiver und neuromolekularer Mechanismen und adaptiver Funktionen des Lallens bei Fledermäusen und Menschen. Offenbar nützen so unterschiedlich Arten wie Fledermäuse und Menschen denselben Lernmechanismus für ihre sprachlichen Äußerungen.

Formale Sprachen

Bei einer mathematischen Formel wird unser Gehirn mit einer mathematischen Syntax konfrontiert, die rein formale Beziehungen zwischen den verwendeten Zeichenenthalten. Formeln sind ein typisches Beispiel für formale Sprachen und Menschen wachsen damit fast selbstverständlich auf, denn vom Mathematikunterricht in der Schule bis zum Umgang mit Programmiersprachen nehmen formale Sprachen im täglichen Leben einen festen Platz ein. Eine formale Sprache zeichnet sich unter anderem dadurch aus, dass sie aus einem begrenzten Zeichenvorrat eine beliebige Anzahl von Ausdrücken bilden kann, wodurch diese Sprachen hochgradig effektiv sind, da sie im Gegensatz natürlichen Sprachen keinen Raum für Missverständnisse bieten. Sowohl natürliche wie formale Sprachen besitzen eine Grammatik und sind insofern strukturell miteinander verwandt. Roland Friedrich & Angela D. Friederici (Max-Planck-Institut für Kognitions- und Neurowissenschaften in Leipzig) zeigten in Studien, dass es Unterschiede in der neuronalen Verarbeitung gibt. Das menschliche Gehirn verarbeitet die Syntax mathematischer Formeln bei weitem nicht so automatisiert wie die natürlicher Sprachen, sondern mit wesentlich höherem kognitivem Aufwand, wobei vor allem Aktivitäten im intraparietalen Sulcus, im linken inferioren frontalen Gyrus sowie in Gebieten um das Broca-Areal, dem eigentlichen Sprachzentrum liegen. Natürliche Sprachen aktivieren also hauptsächlich das Broca-Areal, während formale Sprachen zusätzlich jene Gebiete aktivieren, die vor allem bei Denksportaufgaben eingebunden sind.

Quellen & Literatur

Can, D. C., Richards, T. L., & Kuhl, P. K. (2013). Early gray-matter and white-matter concentration in infancy predict later language skills: A whole-brain voxel-based morphometry study. Brain & Language, 124, 34-44.
Download: http://ilabs.uw.edu/sites/default/files/2013%20Deniz%20Can%20et%20al%20.pdf (13-12-12)

Fernandez, Ahana A., Burchardt, Lara S., Nagy, Martina & Knörnschild, Mirjam (2021). Babbling in a vocal learning bat resembles human infant babbling. Science, 373, 923-926.

García-Sierra, A., Rivera-Gaxiola, M., Percaccio, R. C., Conboy, T. B., Romo, H., Klarman, L., Ortiz, S., & Kuhl, K. P. (in press). Bilingual Language Learning: An ERP Study Relating Early Brain Responses to Speech, Language Input, and Later Word Production. Journal of Phonetics.

Huth, Alexander G., de Heer, Wendy A., Griffiths, Thomas L., Theunissen, Frédéric E. & Gallant, Jack L. (2016). Natural speech reveals the semantic maps that tile human cerebral cortex. Nature, 532, 453–458.

Klein, Cheslie C., Berger, Philipp, Goucha, Tomás, Friederici, Angela D. & Grosse Wiesmann, Charlotte (2022). Children’s syntax is supported by the maturation of BA44 at 4 years, but of the posterior STS at 3 years of age. Cerebral Cortex, doi:10.1093/cercor/bhac430.

Koester, Dirk & Schack, Thomas (2016). Action Priority: Early Neurophysiological Interaction of Conceptual and Motor Representations. PLOS ONE, doi:10.1371/journal.pone.0165882.

Lara J. Pierce, Denise Klein, Jen-Kai Chen, Audrey Delcenserie, & Fred Genesee (2014). Mapping the unconscious maintenance of a lost first language. PNAS, doi:10.1073/pnas.1409411111.

Malik-Moraleda, Saima, Ayyash, Dima, Gallée, Jeanne, Affourtit, Josef, Hoffmann, Malte, Mineroff, Zachary, Jouravlev, Olessia & Fedorenko, Evelina (). An investigation across 45 languages and 12 language families reveals a universal language network. Nature Neuroscience, doi:- 10.1038/s41593-022-01114-5.

Neuper, Christa (o.J.). Einführung in die Fächer der Psychologie. Entwicklungspsychologie.
WWW: http://psyserver.uni-graz.at/de/stud/einfuehrungs-vo/Entwicklungspsy.pdf (08-01-03)

Stangl, W. (2022, 30. November). Babysprache nicht nur bei Menschen. Psychologie-News.
https://psychologie-news.stangl.eu/4378/babysprache-nicht-nur-bei-menschen.

Stangl, W. (2022, 19. Dezember). Der Spracherwerb von Säuglingen – lerntipp.net.news.

https://news.lerntipp.net/der-spracherwerb-von-saeuglingen

Stangl, W. (2024, 10. Jänner). Wie ein Zweitspracherwerb das Gehirn verändert.arbeitsblätter news.
https://arbeitsblaetter-news.stangl-taller.at/wie-ein-zweitspracherwerb-das-gehirn-veraendert/

Webb, A. R., Heller, H. T., Benson, C. B. & Lahav, A. (2015). Mother’s voice and heartbeat sounds elicit auditory plasticity in the human brain before full gestation. PNAS 2015, doi:10.1073/pnas.1414924112.
Wei, Xuehu, Gunter, Thomas C., Adamson, Helyne, Schwendemann, Matthias, Friederici, Angela D., Goucha, Tomás & Anwander, Alfred (2024). Plasticity of white matter during second language learning within and across hemispheres. Proceedings of the National Academy of Sciences, 121, doi:10.1073/pnas.2306286121.

Zwisler, R. (1990). Sprachentwicklung.
WWW: http://www.zwisler.de/scripts/Sprachentwicklung.html (01-11-22)

https://www.nachrichten.at/oberoesterreich/von-singvoegeln-und-menschen;art4,3169436 (19-09-28)

http://idw-online.de/pages/de/news320200 (09-06-13)


Überblick über weitere Arbeitsblätter zum Thema Gehirn



inhalt :::: nachricht :::: news :::: impressum :::: datenschutz :::: autor :::: copyright :::: zitieren ::::


navigation: