Bisherige Forschung legte nahe, dass einige Gehirnareale, die bestimmte sprachliche Fähigkeiten wie die Verarbeitung von Wortbedeutungen steuern, auch an der Steuerung der Feinmotorik beteiligt sein könnten. Thibault et al. (2021) haben nun experimentell die Ähnlichkeit der neuronalen Aktivität bei motorischen Prozessen für den Werkzeuggebrauch und sprachlichen Prozessen untersucht. Mit Hilfe der funktionellen Magnetresonanztomographie und der multivariaten Musteranalyse fand man heraus, dass kleine Teile der Basalganglien im menschlichen Gehirn als gemeinsame neuronale Substrate sowohl für den Werkzeuggebrauch als auch für die Syntax der Sprache fungieren. In einem Verhaltensexperiment zeigten sie, dass das Erlernen einer neuen Aufgabe, die den Gebrauch eines Werkzeugs beinhaltet, auch die Leistung bei einer komplexen Sprachaufgabe verbessert, was die Hypothese einer Koevolution von Werkzeuggebrauch und Sprache stützt.Offenbar gibt es eine supramodale syntaktische Funktion, die von Sprache und motorischen Prozessen gemeinsam genutzt wird, sodass man nun annimmt, dass ein Training der Fähigkeiten zur Werkzeugnutzung auch die sprachliche Syntax verbessert und umgekehrt das Training der sprachlichen Syntax die Werkzeugnutzung fördert. Die neuronalen Mechanismen, die es ermöglichen, die Leistung in einem Bereich durch das Training der Syntax im anderen Bereich zu steigern, könnten Priming-Prozesse durch Voraktivierung gemeinsamer neuronaler Ressourcen sowie kurzfristige Plastizität innerhalb des gemeinsamen Netzwerks beinhalten. Diese Ergebnisse deuten darauf hin, dass die Basalganglien der neuronale Ort einer supramodalen Syntax sind, die eingebettete Strukturen in beiden Bereichen verarbeitet, was bestehende Theorien über die Koevolution von Werkzeuggebrauch und Sprache beim Menschen stützt. Evolutionär stellte der Werkzeuggebrauch offenbar kognitive Anforderungen, die auch zur Entstehung bestimmter sprachlicher Funktionen wie der Syntax geführt haben.
Gehirn und Sprache
Language is the dress of thought.
Samuel Johnson
Das menschliche Hören ist ein äußerst komplexen Vorgang, wobei Umgebungsgeräusche von der Ohrmuscheln aufgefangen und wie durch einen Trichter ins Mittelohr weitergeleitet werden. Durch die Schallwellen vibriert das Trommelfell, die drei kleinen Gehörknöchelchen des Mittelohrs, Hammer, Amboss und Steigbügel, schwingen mit und verstärken den Schall um das etwa 20-fache. Das eigentliche Hörorgan ist das mit Flüssigkeit gefüllte Innenohr, denn hier liegt die Cochlea (Gehörschnecke), in der viele tausend Sinneszellen mit winzigen Härchen die Vibrationen in einen elektrischen Impuls umwandeln und das Signal an den Hörnerv weiterleiten. Über die neuronale Hörbahn gelangt die Information ins Gehirn, wo sie mit bereits gespeicherten Mustern verglichen und verarbeitet wird. Was den Menschen wirklich zum Menschen macht, ist vor allem die menschliche Sprache, denn alles andere findet sich auch bei Tieren. Doch die syntaktisch-grammatische Sprache und die Art zu Denken, die gibt es nur bei Menschen, wobei jener Teil im Gehirn, der dafür zuständig ist, das Broca-Zentrum, ein Teil des Arbeitsgedächtnisses ist. Mit ihm denken wir, haben Bewusstsein und lösen Probleme. Sprechen und Verstehen sind aufwändige Prozesse und nehmen viel Fläche im Gehirn ein. Die wichtigsten Zentren, die dabei beteiligt sind, sind das Wernicke-Areal, das vor allem für das Verstehen von Sprache entscheidend ist. Es befindet sich im hinteren, oberen Teil des linken Temporal- oder Schläfenlappens, der an der Seitenfläche der Hirnrinde sitzt. Verletzungen oder Hirnblutungen in dieser Region bewirken, dass der Patient Sprache kaum noch entschlüsseln kann. Er redet wie ein Wasserfall, seine Wörterflut ist aber verworren und unverständlich. Das Broca-Areal ist für die Produktion von Sprache, das Finden von Wörtern und das Bilden von Sätzen zuständig. Ist diese Region verletzt, kann der Patient zwar meist noch alles verstehen, er hat aber Schwierigkeiten, Wörter und Sätze zu bilden. In leichteren Fällen können Betroffene noch in einem stakkatoartigen Telegrammstil kommunizieren. Während des Formulierens und Erfassens von Sprache sind neben diesen beiden großen Zentren noch viele weitere Bereiche der Hirnrinde aktiv: Das Hörzentrum - es sitzt an der Innenseite des Schläfenlappens, scannt die ständige Geräuschflut, die über das Ohr ins Hirn strömt, nach Bekanntem ab und ordnet es entsprechend ein. Das geschieht meist unbewusst. Andere Bereiche verarbeiten unbekannte Hörreize und solche, auf die der Mensch sich konzentriert, beispielsweise die Sprache des Gegenübers. Allerdings ist diese Gehirnstruktur flexibel, denn Studien zur Anpassungsfähigkeit des Gehirns haben gezeigt, dass das Gehirn eine neurale Region, die ursprünglich für einen Sinn wie Sehen, Riechen oder Hören bestimmt ist, auch für einen anderen nutzen kann. So kann bei von Geburt an blinden Menschen das nicht benötigte visuelle Zentrum eine besondere Fähigkeit für die Verarbeitung von Sprache entwickeln, und das sogar auf sehr hohem Level, sodass blinde Menschen, die durch ihren visuellen Kortex kompensatorisch eine Verstärkung der verbalen Kompetenzen erhalten, bei sprachlichen Aufgaben oft besser abschneiden als Sehende. Wurde etwa bei Blinden in einem einfachen Sprachverständnistest ihr Sehkortex mittels magnetischer Stimulation vorübergehend lahmgelegt, so schnitten sie schlechter ab, während dieselbe Blockierung die Leistungen sehender ProbandInnen nicht beeinträchtigte. Sprache allgemein betrachtet bedeutet die Fähigkeit, Wörter, Zeichen oder Gebärden zu gebrauchen und sie zu Sätzen zu verbinden, um unsere gedanklichen Konzepte oder Begriffe anderen Menschen mitzuteilen. Dazu gehört auch die Fähigkeit, die von anderen mitgeteilten Wörter zu verstehen, d.h. zu erfassen und in Begriffe umzuwandeln. Die Sprache verbindet und abstrahiert daher Bilder und stellt Beziehungen her, und zwar unabhängig vom Augenblick, d.h., sie schafft Vergangenheit, Gegenwart und Zukunft. Sie bereichert unsere Wahrnehmung der unzähligen Möglichkeiten, auf denen unsere Erfahrungen mit der Welt organisiert sind und schafft letztlich selbst eine eigene Welt. Sprache bedeutet also die Fähigkeit,
- Konstrukte zu formulieren und mitzuteilen;
- mitgeteilte Konstrukte zu erfassen und in eigene Konstrukte umzuwandeln;
- Bilder zu abstrahieren und zeitliche Perspektiven zu schaffen;
- Wahrnehmung zu ergänzen oder anzuleiten.
Das erste System
Ein Zusammenwirken neutraler Systeme in beiden Hemisphären ist für den nichtsprachlichen Austausch - vermittelt durch sensorische und motorische Systeme - zuständig; diese nichtsprachlichen Darstellungen werden nach Kategorien (Gestalt, Farbe, Reihenfolge usw.) geordnet. Aufeinanderfolgende Ebenen von Kategorien bilden die Grundlage für Abstraktionen und Metaphern.
Das zweite System
Eine kleinere Anzahl neuronaler Systeme, vornehmlich in der linken Hemisphäre angesiedelt, repräsentiert Phoneme, deren Kombinationen und syntaktische Regeln. Werden diese Systeme vom Individuum aktiviert, so bilden sie gesprochene oder geschriebene Sprache; werden sie von außen durch Schrift oder gesprochene Sprache aktiviert, so leiten sie die ersten Schritte zur Verarbeitung der visuellen und auditiven Sprachsignale ein.
Das dritte System
Die dritte Gruppe von Strukturen vermittelt zwischen den ersten beiden Systemen. Hier wird z. B. ein Begriff aufgenommen und das Hervorbringen von Wortformen veranlasst.
Berücksichtigt man das von Damasio & Damasio vorgelegte Modell, so erscheinen einige frühere Untersuchungen in einem neuen Licht. So wies die Untersuchung von Düker & Tausch (1957) nach, dass die Veranschaulichung mit dem Behaltensgrad der Unterrichtsinhalte stark korreliert. Die Behaltensleistung lag bei der Gruppe, die einen realen Gegenstand betrachten durfte, gegenüber der Kontrollgruppe um 32% höher. Insgesamt zeigte die Untersuchung, dass der Behaltensgrad dann ansteigt, wenn die sprachlich-akustische Vermittlungsform durch mediale Formen ergänzt wird. Die Behaltensleistung steigt an:
- um 9,5 % bei zusätzlichem Einsatz von Bildern,
- um 20 % bei zusätzlicher Verwendung von Modellen,
- um 40,7 % bei gleichzeitiger Verwendung eines realen Gegenstandes,
im Verhältnis zu der nur sprachlich-akustisch angesprochenen Kontrollgruppe.
Die Bedeutung des ersten Systems - vermittelt zwischen sensorischen und motorischen Systemen - scheint für den Grad des Behaltens besonders bedeutsam zu sein. Damasio & Damasio fassen diesen Sachverhalt folgendermaßen zusammen: "Das Gehirn speichert begriffliche Konzepte in Form von quasi schlummernden Aufzeichnungen. Werden diese reaktiviert, können sie die unterschiedlichen Empfindungen und Handlungen wachrufen, die mit einem bestimmten Objekt oder einer Kategorie von Objekten zusammenhängen. Zum Beispiel kann "Kaffeetasse" nicht nur visuelle und taktile Darstellungen ihrer Form, Farbe, Oberflächenbeschaffenheit und Wärme hervorufen, sondern auch den Geruch und Geschmack von Kaffee sowie den Weg, den Hand und Arm zurücklegen müssen, um die Tasse vom Tisch an die Lippen zu führen. Obwohl all diese Repräsentationen in unterschiedlichen Hirnregionen reaktiviert werden, geschieht ihre Rekonstruktion nahezu gleichzeitig."
Damit das menschliche Gehirn Wörter erkennt und voneinander trennen kann, muss es Anfang und Ende eines Geräuschs mit unterschiedlichen Nervennetzwerken bzw. Eingangskanälen verarbeiten: ein Kanal, der den Beginn eines Tons registriert, und einen, der für dessen Ende zuständig ist. Scholl et al. (2010) zeigten bei Ratten, dass der Abbruch eines Geräuschs für das Gehirn nicht durch die bloße Abwesenheit des Schalls gekennzeichnet ist, sondern dass es sich um einen aktiven Prozess handelt, für den ein eigenes Netzwerk von Neuronen vorhanden ist. Die gezielte Registrierung von Beginn und Ende eines Tons dient dabei vermutlich als Orientierungspunkt, mit dessen Hilfe das Gehirn zusammengehörende akustische Reize wie die Silben eines Worts als einheitliche Gruppe behandelt. Nur mit der Hilfe dieses aktiven Stopp-Signals kann das Gehirn zuverlässig Lautgruppen wie Wörter erkennen und voneinander trennen, eine ganz zentrale Voraussetzung für das Verstehen von Sprache. Auch für den Sehsinn gibt es dafür zwei Netzwerke, die jeweils das Auftauchen und Verschwinden eines Objekts an das Gehirn melden. Die Netzwerke für Helligkeit und Dunkelheit sind dabei im Gegentakt miteinander verschaltet: Ist das eine aktiv, ist das andere ausgeschaltet und umgekehrt.
Das Erkennen von auditorischer Sprache ist von extremer Bedeutung für
die zwischenmenschliche Kommunikation. Zwar konnte die computerbasierte
Spracherkennung in den vergangenen Jahren um ein Vielfaches verbessert
werden, doch das menschliche Gehirn ist nach wie vor die
bewunderungswürdigste Sprachverarbeitungs-Maschine und funktioniert viel
besser als computerbasierte Sprachverarbeitung und das wird wohl auch
noch eine ganze Zeit lang so bleiben, denn die genauen Abläufe der
Sprachverarbeitung im Gehirn sind bisher noch weitestgehend unbekannt.
In einer neuen Studie (Mihai et al., 2019) erhielten Versuchspersonen
Sprachsignale von verschiedenen Sprecherinnen und Sprechern zu hören und
sollten in wechselnder Reihenfolge eine Sprachaufgabe oder eine
Kontrollaufgabe zur Stimmerkennung durchführen. Die Auswertung der
Gehirnaktivität zeigte, dass dabei der mediale Kniehöcker, eine Struktur
in der linken Hörbahn, besonders hohe Aktivität bei der Sprachaufgabe
im Gegensatz zu der Kontrollaufgabe zeigte, und wenn die
Versuchspersonen besonders gut im Erkennen von Sprache sind. Bisher nahm
man an, dass alle Hörinformationen gleichermaßen über die Hörbahnen vom
Ohr zur Großhirnrinde geleitet werden, doch diese Untersuchung zeigte,
dass die Verarbeitung der Hörinformation bereits beginnt, bevor die
Leitungsbahnen die Großhirnrinde erreichen. Das bestätigte frühere
Hinweise, dass die Hörbahnen spezialisierter auf Sprache reagieren, als
bisher angenommen. Der Teil des medialen Kniehöckers, der die
Information vom Ohr zu der Großhirnrinde transportiert, verarbeitet
Hörinformation anders, wenn Sprache erkannt werden soll, als wenn andere
Bestandteile von Kommunikationssignalen erkannt werden sollen, wie zum
etwa die Stimme des Sprechers.
Diese Prozesse haben möglicherweise auch Relevanz für einige der
Symptome von Lese-Rechtschreibstörung, denn es ist bekannt, dass der
linke mediale Kniehöcker bei einer Lese-Rechtschreibstörung anders
funktioniert, als bei Testpersonen ohne diese Störung. Die
Spezialisierung des linken medialen Kniehöckers auf Sprache könnte
eventuell erklären, warum Personen mit einer Lese-Rechtschreibstörung
häufig Schwierigkeiten haben, Sprachsignale in geräuschvollen Umgebungen
zu verstehen.
Man nimmt an, dass die Entwicklung von Sprache mit der besonderen Fähigkeit des Arbeitsgedächtnisses begonnen hat, in der Zeitachse zu strukturieren. Was macht man als erstes, als zweites, als drittes? Das können Tiere aber auch kleine Kinder eher schlecht, während Erwachsene das meist gut können, zu überlegen, welche Schritte sie hintereinander setzen müssen, um etwas zu tun oder zu erreichen. Vermutlich hat sich aus dieser Fähigkeit zur Manipulation der Zeitachse Sprache entwickelt, denn beim Sprechen muss man wissen, wie man anfange, wie man Sätze in der richtigen Syntax und Grammatik formt. Auch beim Lernen einer neuen Sprache braucht man meist einige Zeit, um ein „Gefühl“ für deren Eigenheiten zu bekommen, wobei insbesondere bei schnellen Sprechern es anfangs schwer fällt, einzelne Wörter herauszuhören. Das liegt daran, dass sich das Gehirn an fremde Sprechrhythmen erst gewöhnen muss, denn in der Muttersprache wird das Gehörte ohne große Mühe und annähernd in Echtzeit verarbeitet. Die Auswertung der zahllosen Sinnesreize können in der Muttersprache nur deshalb so schnell erfolgen, da das Gehirn sie oft gehört hat und bereits erwartet, denn das menschliche Gehirn ist sehr gut darin, in Umweltreizen Muster zu erkennen, aus denen es eine grobe Erwartungshaltung über die Ereignisse der nahen Zukunft errechnet. Unser Gehirn nutzt beim Verstehen von Gesprochenem also nicht so sehr die semantischen und grammatischen Informationen, sondern wertet Dauer, Rhythmus, Tempo und Betonung der Silben aus, um zeitliche Regelmäßigkeiten im Strom der Laute zu erkennen. Vor allem während des Spracherwerbs wird ein Netzwerk grundlegender Routinen der Sprache im Gehirn abgespeichert, sodass die Sprachverarbeitung später effizienter funktioniert. Zum größten Teil finden diese Prozesse in Bereichen in und unterhalb der Großhirnrinde statt, wobei aber auch motorische Areale und primitivere Hirnregionen wie das Kleinhirn und die Basalganglien beteiligt sind. Das weist auf weit zurückliegende Entwicklungsstufen hin, denn die Evolution von Sprache als komplexe motorische Handlung wäre nicht möglich gewesen ohne die Ausprägung von Hirnarealen, die die Fähigkeit besitzen, Verhalten zeitlich zu strukturieren (vgl. Kotz & Schwartze, 2010).
Übrigens wurden jüngst an der Universität Leipzig die neuroanatomischen Details der Broca-Region von Menschen und Schimpansen mit modernster MRT-Technik aufeinander abgebildet, also das Gebiet im menschlichen Gehirn, das für das sinnvolle Verknüpfen von Wörtern und Sätzen zuständig ist. Die Sprache ist bekanntlich ein wichtiger Aspekt, der Menschen zu Menschen macht, denn die Fähigkeit, eine unendliche Anzahl von Äußerungen auf der Grundlage der Wörter im mentalen Lexikon und einer kleinen Anzahl von syntaktischen Regeln zu erzeugen, ist nur beim Menschen zu beobachten. Tiere können zwar Wörter oder Rufe lernen und kommunizieren, aber die Sprachfähigkeit des Menschen ist einzigartig. Beim Menschen wird der Aufbau syntaktischer Strukturen durch eine Unterregion des Broca-Areals im Frontallappen (Inferior frontal cortex) unterstützt, wobei dieses Areal im Vergleich zu dem Bereich beim Schimpansen wesentlich größer ist, woraus man schließen kann, dass dies die Basis für die Fähigkeit zur Sprache sein könnte.
Nach Manuela Macedonia, die den Einfluss von Bildern und Gesten auf das Erlernen von Fremdsprachen untersucht, gelingt aus Sicht des Gehirns Zweitspracherwerb am besten, wenn er parallel zur Muttersprache stattfindet. Es gibt keine Einschränkung: Je früher, desto besser. Daher ist der Kindergarten für fremdsprachige Kinder so wichtig und in dieser Phase auch das gezielte Vermitteln der Zweitsprache. Selbstverständlich kann das Kind später die Sprache lernen, aber mit viel mehr Mühe und geringerem Erfolg, sodass Kinder später haben oft einen fremdsprachigen Akzent haben, der darauf hindeutet, dass sie zu spät mit der Zweitsprache begonnen haben. Nach dem fünften Lebensjahr sind jene Regionen des Gehirns, die für Aussprache zuständig sind, ausgereift. Im Übrigen wird die Muttersprache nicht so schnell beherrscht, wie man früher glaubte, denn es konnte gezeigt werden, dass komplexe Satzbildung erst mit sieben Jahren aktiv eintritt, unter anderem die Bildung und das Verständnis von Passivsätzen. Doch ist Satzbildung nicht alles beim Spracherwerb, denn auch der Wortschatz wächst und ist nie wirklich abgeschlossen, wobei dieser mit der Interaktion mit anderen Menschen und mit Erfahrungen zusammenhängt, die ein Kind sammelm kann, denn ist die Umgebung arm an sprachlichen Reizen, wird der Wortschatz nicht wachsen, das Kind auch mit zehn Jahren seine Sprache noch nicht wirklich beherrschen. Hinzu kommt, dass Sprache das Tor zur Kognition bildet, also zum Denken und zum Lernen. Ist Sprache defizitär oder gar nicht da, versteht ein Kind die Welt weniger und kann weniger in ihr interagieren. Auch Schulinhalte, die nicht verstanden werden, sind verpasste Entwicklungsschritte, die nur schwer nachzuholen sind. Natürlich gibt es Kinder, die alles auch noch schaffen, der Durchschnitt tut sich aber schwer, wenn er die Sprache vor Schulbeginn nicht gelernt hat. Es liegt in der Verantwortung der Eltern, Kindern die bestmöglichen Chancen für ihr Leben zu geben, und es liegt in der Verantwortung der Kindergärten, diese wichtigen Entwicklungsschritte nicht zu übersehen.
Genetische Grundlagen des Spracherwerbs
Zwar ist weitgehend unbekannt, welche genetischen Veränderungen während der letzten sechs Millionen Jahre menschlicher Evolution für die Entwicklung des menschlichen Sprechens wichtig waren, doch das Gen Foxp2 ist derzeit dafür der beste Kandidat. Das Gen Foxp2 kodiert ein Protein, das als Transkriptionsfaktor hunderte andere Gene in verschiedenen Zellen in Säugetieren reguliert, wobei Menschen mit nur einer statt zwei Kopien des Gens spezifische Schwierigkeiten haben, das Sprechen zu erlernen. Das menschliche Foxp2 hat sich in den letzten sechs Millionen Jahren, seit sich unsere Linie vom Schimpansen getrennt hat, an zwei Stellen geändert, was relativ viel bedeutet, da sich Maus und Schimpanse etwa nur durch eine einzige Mutation in diesem Gen unterscheiden, die in über hundert Millionen Jahren Evolution aufgetreten ist. In früheren Untersuchungen hat man bereits herausgefunden, dass die Änderungen in dem menschlichen Gen Foxp2 vor allem das Gehirn betreffen, denn bei Mäusen, die die menschliche Variante des Foxp2-Gens tragen, lassen sich Veränderungen in zwei neuronalen Schaltkreisen in den Basalganglien des Großhirns beobachten, die eine entscheidende Rolle beim Erwerb von Gewohnheiten und anderen kognitiven und motorischen Fähigkeiten spielen. Nun konnte man im Mausmodell nachweisen, dass die menschliche Variante des Foxp2-Gens unter bestimmten Bedingungen das Lernen verbessert, indem das Gen die Balance in den deklarativen und motorischen Schaltkreisen im Gehirn ändert, und Mäuse dadurch schneller lernen und Zusammenhänge schneller erfassen können. Foxp2 ist übrigens bisher das einzige Gen, das direkt mit der Evolution von Sprache in Verbindung gebracht werden kann (Schreiweis et al., 2014). Das Gene Foxp2, das im Gehirn bei der Grammatik und im Sprechapparat bei der Feinsteuerung des Artikulierens mitwirkt, lässt auch Vögel singen und Mäuse fiepsen, auch wenn diese leicht andere Gen-Varianten besitzen. Übrigens schon Neandertaler hatten exakt die gleiche Gen-Variante wie Menschen.
Diese Doktrin von Philip Lieberman, dass Menschenaffen auf Grund
ihres Baus des Rachenraum und der Lage des Kehlkopfs nicht in der Lage
wären zu sprechen, dürfte nach neueren Untersuchungen falsch sein, denn
man hat inzwischen simuliert, welche Laute ein Makake mit diesen Organen
erzeugen könnte. Nach Ansicht von Wiener Biologen sind die Makaken
deshalb sprachlos, weil ihr Gehirn nicht die kognitiven Möglichkeiten
dazu hat, denn mehrere für den Spracherwerb wichtige Hirnregionen wie
das Broca-Areal, das beim frühkindlichen Spracherwerb und in der
Aphasie, einer Form des Sprachverlustes, eine zentrale Rolle spielt,
sind bei den Makaken mit deutlich weniger Neuronen bestückt als beim
Menschen. Nicht der Kehlkopf macht sprachfähig, sondern ihr Gehirn.
Soziale Ursachen von Sprachentwicklung
Manche Forscher vermuteten, dass Sprache ein Ergebnis aus der
Freundlichkeit in sozialen Beziehungen entstanden ist, denn obwohl
andere Primaten auch soziale Tiere sind, sind Menschen viel mehr
aufeinander angewiesen und arbeiten deshalb mehr als andere Primaten
zusammen. So wie domestizierte Singvögel viel komplexere Melodien
pfeifen als ihre wilden Verwandten, wird die Sprache umso komplexer, je
mehr Menschen miteinander in einer Gesellschaft leben. Ein Jäger und
Sammler in einer kleinen Gesellschaft verfügt vermutlich über einen
Wortschatz von drei- bis fünftausend Wörtern, während ein
17-jähriger Amerikaner sechzigtausen Wörter kennt, was nicht an dessen
besonderer Intelligenz liegt, sondern vielmer daran, dass er viel mehr
Beziehungen zu anderen Mensxchen hat. So konnten Neandertaler
vermutlich schon sprechen, auch wenn es keinen direkten Nachweis dafür
gibt, doch in jedem Fall waren sie begrifflich und symbolisch ziemlich
weit entwickelt, schufen Kunst und begruben ihre Toten. Im Verhältnis
zur Körpergröße war ihr Gehirn sogar etwas größer als das des Homo
sapiens, doch weiß man natürlich nicht, wie es im Inneren aufgebaut war.
Literatur
Klimsa, Paul (o.J.). Kognitions- und lernpsychologische Voraussetzungen der Nutzung von Medien.
WWW: http://www.medienpaedagogik-online.de/
mf/3/00691/ (03-10-06)
Kotz, Sonja A. & Schwartze, Michael (2010). Cortical speech processing unplugged: a timely subcortico-cortical framework. Trends in Cognitive Sciences 14.
Mihai, Paul Glad, Moerel, Michelle, de Martino, Federico, Trampel, Robert, Kiebel, Stefan, von Kriegstein, Katharina, Griffiths, Timothy, King, Andrew, Griffiths, Timothy, Davis, Matthew (2019). Modulation of tonotopic ventral medial geniculate body is behaviorally relevant for speech recognition. eLife, 8, doi:10.7554/eLife.44837
Scholl, Ben, Gao, Xiang & Wehr, Michael (2010). Nonoverlapping Sets of Synapses Drive On Responses and Off Responses in Auditory Cortex. Neuron, 65, 412-421.
Christiane Schreiweis, Ulrich Bornschein, Eric Burguière, Cemil
Kerimoglu, Sven Schreiter, Michael Dannemann, Shubhi Goyal, Ellis Rea,
Catherine A. French, Rathi Puliyadi, Matthias Groszer, Simon E. Fisher,
Roger Mundry, Christine Winter, Wulf Hevers, Svante Pääbo, Wolfgang
Enard, & Ann M. Graybiel (2014). Humanized Foxp2 accelerates
learning by enhancing transitions from declarative to procedural
performance. PNAS, doi:10.1073/pnas.1414542111.
Thibault, Simon, Py, Raphaël, Gervasi, Angelo Mattia, Salemme, Romeo, Koun, Eric, Lövden, Martin, Boulenger, Véronique, Roy, Alice C. & Brozzoli, Claudio (). Tool use and language share syntactic processes and neural patterns in the basal ganglia. Science, 374, doi:10.1126/science.abe0874.
http://www.nachrichten.at/oberoesterreich/wels/Kinder-bis-fuenf-lernen-Sprachen-am-leichtesten;art67,2912798 (18-06-05)
Spracherkennung in der linken Gehirnhälfte ist vermutlich angeboren
Literatur
Proceedings of the National Academy of Sciences vom 8. September 2003.
Bartha-Doering, L., Novak, A., Kollndorfer, K., Schuler, A. L., Kasprian, G., Langs, G., Schwartz, E., Fischmeister, F. P. S., Prayer, D. & Seidl, R. (2018). Atypical language representation is unfavorable for language abilities following childhood stroke. European Journal of Paediatric Neurology, doi:10.1016/j.ejpn.2018.09.007.
Floegel, M., Fuchs, S. & Kell, C. A. (2020). Differential contributions of the two cerebral hemispheres to temporal and spectral speech feedback control. Nature Communications, doi:10.1038/s41467-020-16743-2.
Olulade, Olumide A., Seydell-Greenwald, Anna, Chambers, Catherine E., Turkeltaub, Peter E., Dromerick, Alexander W., Berl, Madison M., Gaillard, William D. & Newport, Elissa L. (2020). The neural basis of language development: Changes in lateralization over age. Proceedings of the National Academy of Sciences, doi:10.1073/pnas.1905590117.
Stangl, W. (2011). Stichwort: 'Broca-Zentrum'. Online Lexikon für Psychologie und Pädagogik.
WWW: https://lexikon.stangl.eu/3191/broca-zentrum/ (2011-09-10)
Thézé, R., Giraud, A.-L. & Mégevand, P. (2020). The
phase of cortical oscillations determines the perceptual fate of visual
cues in naturalistic audiovisual speech. Science Advances,
doi:10.1126/sciadv.abc6348.
Sprache wird beim Menschen vorwiegend von der linken Gehirnhälfte erkannt und vermutlich ist diese Asymmetrie angeboren. Marcela Pena und KollegInnen aus Japan, Frankreich und Italien konnten zeigen, dass Spracherkennung bereits bei zwei bis fünf Tage alten Neugeborenen in der linken Gehirnhälfte angelegt ist. Dazu wurden zwölf schlafende Kinder untersucht, denen die Forscher Tonbänder vorspielten, auf denen eine Frau ein Kinderbuch vorlas. Dabei verstärkte sich die Durchblutung in der linken Gehirnhälfte der Kinder deutlich stärker als in der rechten. Interessanterweise reagierten diese Gehirnregionen nicht, wenn das Band rückwärts abgespielt wurde. Diese fehlende Reaktion auf rückwärts gesprochene Sätze zeigt, dass einige Eigenschaften von Sprache Bereiche der linken Gehirnhälfte aktivieren, die bei anderen Tönen keine Rolle spielen. Auch bei Erwachsenen wird deren linke Gehirnhälfte bei ihnen unbekannten Sprachen nur dann aktiv, wenn die Aufzeichnung der Sprache vorwärts läuft. Wenn man drei Monate alten Babys kurze Sätze aus einem Kinderbuch vorliest, sind bei ihnen ebenfalls die gleichen Hirnregionen wie auch bei Erwachsenen aktiv, wenn diese Sprache verarbeiten. Zwar sind in diesem Alter Kleinkinder noch weit davon entfernt, auch nur vor sich hin zu brabbeln, denn das tun sie in der Regel erst, wenn sie etwa ein Jahr alt sind. Offensichtlich ist der Mensch sehr früh für Sprache empfänglich und kann alle Sprachimpulse aus seiner Umgebung bevorzugt aufnehmen.
Lateralisierung erfolgt erst allmählich
Man weiß seit langem, dass die Sprache bei den meisten neurologisch gesunden Erwachsenen in die linke Hemisphäre lateralisiert ist, doch im Gegensatz dazu sind die Befunde zur Lateralisierung der Funktion während der Entwicklung komplexer. Wie bei Erwachsenen deuten anatomische, elektrophysiologische und bildgebende Verfahren bei Säuglingen und Kindern auf eine Links-Lateralisierung der Sprache hin. Bei sehr kleinen Kindern führen jedoch Läsionen auf beiden Hemisphären mit gleicher Wahrscheinlichkeit zu Sprachdefiziten, was darauf hindeutet, dass die Sprache früh im Leben eher symmetrisch verteilt ist d. h., dass Sprache in der frühen Entwicklung offenbar bilateral repräsentiert wird. Olulade et al. (2020) haben dieses Paradoxon aufgelöst, indem sie die fMRI-Sprachaktivierung auf unterschiedliche Weise untersuchten. Kinder zwischen 4 und 13 Jahren sowie Erwachsene zwischen 18 und 29 Jahren absolvierten verschiedene Aufgaben. So bekamen sie etwa einen Satz vorgelesen und sollten anschließend beurteilen, ob dieser inhaltlich korrekt war. Wie erwartet wurden bei den Erwachsenen bei der Bearbeitung der Aufgabe vor allem die Sprachzentren in der linken Hirnhälfte aktiv, bei den vier- bis sechsjährigen Probanden arbeiteten jedoch zusätzlich auch jene Areale in der rechten Hemisphäre, die symmetrisch zu den Sprachzentren lagen. Auch bei älteren Kindern zeigte sich manchmal dieses Muster, doch mit zunehmendem Alter wurde die Aktivität immer immer schwächer. Bei den Erwachsenen konnte man in rund sechzig Prozent der Fälle gar keine Aktivität mehr in der rechten Gehirnhälfte feststellen. Dieses Ergebnis ist ein Hinweis darauf, dass sich die Hemisphären erst im Lauf der Entwicklung auf bestimmte Aufgaben spezialisieren, wobei der Prozess in der Kindheit beginnt und frühestens im Alter von zehn bis elf Jahren abgeschlossen wird.
Die Broca-Aphasie ist eine erworbenen Sprachstörung, die durch eine Schädigung des Broca-Zentrums im Gehirn entsteht. Die Broca-Aphasie ist also eine Form der Aphasie, die hauptsächlich die Sprachproduktion beeinträchtigt, und sich durch Artikulationsprobleme, Anomie und Agrammatismus auszeichnet. Die Betroffenen sprechen Worte falsch aus, wobei ausgesprochene Worte zumeist bedeutungshaltig sind. Die Anomie zeigt sich bei Betroffenen in Wortfindungsschwierigkeiten, so dass der Sprachfluss langsam, unflüssig, angestrengt und mühevoll erscheint. Durch den Agrammatismus bestehen große Schwierigkeiten beim Benutzen grammatikalischer Konstruktionen, wie etwa bei Passivsätzen oder beim Benutzen von Funktionswörtern (Präpositionen, Artikeln). Auch das Nachsprechen von Sätzen bereitet den Betroffenen Probleme.
Das Broca-Zentrum befindet sich meist auf der linken Hirnhälfte und
ist spielt eine zentrale Rolle bei der Sprachproduktion. Wird dieses
Areal bei Erwachsenen etwa durch Blutungen oder Schlaganfälle in
Mitleidenschaft gezogen, haben sie meist dauerhaft Schwierigkeiten,
Sätze zu formulieren. Bei Kindern können solche Aphasien allerdings
selbst nach großflächiger Schädigung binnen Monaten wieder verschwinden,
denn ihr Sprachzentrum wechselt dann einfach die Hirnhälfte. Das wird
durch den Umstand begünstigt, dass bei Kleinkindern und Kindern auch die
Areale in der rechten Hemisphäre bei der Sprachverarbeitung aktiv sind,
was dem Gehirn eine solche Umbaumaßnahme erleichtert.
Malik-Moraleda et al. (2022) untersuchten die fronto-temporo-parietalen Sprachnetzwerke in 45 Sprachen aus 12 Sprachfamilien und stellten fest, dass die Topographie und die wichtigsten funktionellen Eigenschaften des Netzwerks gegenüber sprachübergreifenden Variationen robust sind, einschließlich der Linkslateralisierung, der starken funktionellen Integration zwischen den Gehirnregionen und der funktionellen Selektivität für die Sprachverarbeitung. Für die Untersuchungen verglich man übrigens die Gehirnscans beim Hören eines Auszugs von »Alice im Wunderland« in der jeweils eigenen Sprache mit jenen, die bei verfälschter oder unverständlicher Sprache auftauchten. Die ähnliche Topographie, Selektivität und Vernetzung der Sprachhirnareale in 45 Sprachen ermöglicht es offenbar dem Sprachsystem, die gemeinsamen Merkmale von Sprachen zu verarbeiten, die durch die biologische und kulturelle Evolution geprägt wurden.
Schwingungen im Gehirn sind am Verstehen von gesprochener Sprache beteiligt
Thézé et al. (2020) haben in einem Experiment untersucht, wie
Schwingungen im Gehirn am Verstehen von gesprochener Sprache beteiligt
sind bzw. welcher andere Sinne wie Hören oder Sehen hauptsächlich
beitragen. Bekanntlich verlassen sich Menschen, wenn sie verstehen
wollen, was jemand sagt, nicht nur auf das Gehör, sondern auch darauf,
was sie sehen, d. h., sie beobachten die Lippenbewegungen und den
Gesichtsausdruck. Für ihr Experiment wurden Sätze nacheinander von sechs
virtuellen Personen gesprochen, und zwar mit Hintergrundlärm, der das
Hörverständnis stören sollte. Nach jedem der insgesamt 240 Sätze des
Experiments hatten die Versuchspersonen eine Sekunde Zeit, um zu
wiederholen, was sie verstanden hatten. In dem Versuchssetting, das
verwirrende audiovisuelle Eindrücke erzeugt, platzierte man die
französischsprachigen Versuchspersonen vor einem Bildschirm, auf dem
eine virtuelle Person Satzpaare sagt, die sehr ähnlich klingen, zum
Beispiel „Il n’y a rien à boire“ und „Il n’y a rien à voir“ (Es gibt
nichts zu trinken/nichts zu sehen). Bei gewissen, von der virtuellen
Person gesprochenen Sätzen, wurde ein Konflikt programmiert: Die
Versuchsperson hörte den einen Satz, sah aber auf den Lippen den anderen
Satz. Zum Beispiel sprach die Person ein „b“, die Lippen formten ein
„v“. Die Versuchspersonen wurden nun aufgefordert, den Satz zu
wiederholen, den sie verstanden hatten, wobei die elektrische Aktivität
in ihrem Gehirn mit Elektroden aufgezeichnet wurde. Es zeigte sich, dass
in den Fällen, bei denen die Informationen über Ohr und Auge identisch
waren, die Sätze meistens korrekt wiederholt wurden, widersprachen sich
hingegen die auditiven und die visuellen Informationen, dann verließen
sich die Versuchspersonen entweder eher auf das, was sie hörten, oder
auf das, was sie sahen. Wenn sie etwa ein „v“ hörten, aber ein „b“
sahen, wurde die Wahrnehmung in etwa zwei Dritteln der Fälle durch das
Hören dominiert, in den übrigen Fällen war das Sehen für die
Interpretation ausschlaggebend. Dabei zeigten sich Unterschiede zwischen
Personen, die sich auf ihr Gehör verlassen, und denjenigen, die ihren
Augen vertrauen, denn rund 300 Millisekunden vor dem Zeitpunkt, in dem
es zu einer Übereinstimmung beziehungsweise zu einem Konflikt zwischen
auditiven und visuellen Zeichen kam, befanden sich die zerebralen
Schwingungen im hinteren Temporal- und Okzipitallappen der beiden
Personengruppen in jeweils anderen Phasen. Man weiß seit einigen
Jahrzehnten, dass in gewissen Situationen das Gehirn die visuellen
Anhaltspunkte den auditiven vorzieht, und zwar verstärkt dann, wenn das
Tonsignal gestört ist, etwa durch Umgebungslärm, doch nun konnte man
zeigen, dass die Neuronenschwingungen an diesem Prozess beteiligt sind.
Überraschenderweise konnte der Zusammenhang zwischen der
Oszillationsphase und der Wahrnehmung der Sätze nur in der rechten
Hirnhälfte hergestellt werden, wobei aber diese Informationen
normalerweise eher in der linken Hirnhälfte aufgenommen werden.
Sprachzentrum breitet sich im Laufe der Entwicklung von einer Hirnhälfte auf beide aus
Jerzy P. Szaflarski et al. (Universität Cincinnati) fanden bei der Untersuchung von Probanden im Alter zwischen 5 und 67 Jahren, dass sich mit zunehmendem Alter das Sprachzentrum im Gehirn immer gleichmäßiger auf beide Gehirnhälften verteilt. Die Wissenschaftler untersuchten 177 Probanden mittels der funktioneller Magnetresonanztomographie (fMRI), bei der die Gehirnaktivität etwa während des Lösens von sprachlichen Denkaufgaben in Bildern dargestellt werden kann. Die Probanden mussten zu vorgegebenen Hauptwörtern wie Stuhl, Herd oder Löffel ein naheliegendes Verb finden . Bei Kindern ist das Sprachzentrum auf der linken Gehirnhälfte dominierend, was vermutlich mit der Entwicklung des jungen Gehirns und den wachsenden sprachlichen Fähigkeiten zusammenhängt. Ab einem Lebensalter von etwa 25 Jahren löst sich die Konzentration des Sprachzentrums auf eine Gehirnhemisphäre immer mehr auf, sodass ältere Erwachsene zunehmend beide Gehirnhemisphären für ihre sprachlichen Fähigkeiten nutzen. Bei den 5- bis 20-jährigen Probanden verschoben sich also die aktiven Muster im Gehirn mit zunehmendem Alter immer mehr in die linke Hirnhälfte, wobei im Alter von 20 bis 25 Jahren das Sprechen am stärksten links ab läuft, um sich dann im höheren Alter wieder gleichmäßig auf beide Gehirnhälften zu verteilen. Szaflarski führt dies auf eine nachlassende Leistungsfähigkeit des Sprachzentrums zurück, wobei dieser Verlust durch eine teilweise Auslagerung in die andere Gehirnhälfte ausgeglichen wird.
Bei der Untersuchung (Bartha-Doering et al., 2018) der Entwicklung der Sprache im Gehirn vom Ungeborenen bis hin zum Jugendlichen hat man festgestellt, das die für das Sprechen zuständigen Hirnareale offenbar schon in der embryonalen Entwicklung festgelegt werden. Dabei nutzte man Erkenntnisse, wie sich eine Verletzung im kindlichen Gehirn auf die Sprachlokalisation und die Sprachfähigkeiten eines Kindes auswirkt. Gesunde Kinder mit besseren Sprachfähigkeiten nutzen demnach häufiger ein bilaterales Sprachnetzwerk, das Regionen beider Hemisphären miteinander verbindet, wobei bei gesunden Kinder ein größerer Wortschatz, eine höhere verbale Flexibilität und ein besseres verbales Lernen mit der stärker bilateral organisierten Sprachlokalisation in Zusammenhang steht. Auch bei Kindern, die einen Schlaganfall erlitten hatten, konnte man einen Zusammenhang zwischen Sprachlokalisation und Sprachfähigkeiten nachweisen, wobei das Alter bei Auftreten des Schlaganfalls, Läsionsgröße oder Läsionslokalisation keinen Einfluss auf die Sprachfähigkeiten hatten, jedoch eine atypische Reorganisation der Sprachareale sich aber als nachteilig für die Sprachfähigkeiten erwies. Offenbar gibt es beim Menschen eine frühkindliche, wahrscheinlich schon vorgeburtliche Prädisposition von spezifischen Spracharealen.
Aufgabenteilung der beiden Gehirnhälften beim Sprechen
Floegel et al. (2020) haben die Aufgabenteilung der beiden Gehirnhälften beim Sprechen untersucht, wobei Probanden sprechen mussten, während ihre Hirnaktivität mittels funktioneller Magnetresonanztomographie aufgezeichnet wurde. Bekanntlich benötigen Menschen, wenn sie sprechen, beide Gehirnhälften, wobei jede einen Teil der komplexen Aufgabe übernimmt, Laute zu formen, die Stimme zu modulieren und das Gesprochene zu überprüfen. Dabei zeigte sich, dass nicht nur die rechte Gehirnhälfte analysiert, wie gesprochen wird, sondern auch die linke leistet dazu einen Beitrag. Bisher nahm man an, dass das gesprochene Wort in der linken Gehirnhälfte entsteht und von der rechten Gehirnhälfte analysiert wird, was etwa bedeuten würde, wenn man Englisch lernt und das „th“ übt, dass die linke Gehirnhälfte das Zusammenspiel von Zunge und Zähnen motorisch steuert, während die rechte überprüft, ob der produzierte Laut auch wirklich so klingt, wie man ihn formen wollte. In diesen Studien wurde nun gezeigt, dass während die linke Hirnhälfte bei der Sprachkontrolle zeitliche Aspekte wie Übergänge zwischen Sprachlauten kontrolliert, die rechte Gehirnhälfte für das Klangspektrum zuständig ist. Wenn man zum Beispiel „mother“ sagt, kontrolliert die linke Hirnhälfte bevorzugt die dynamischen Übergänge zwischen „th“ und den Vokalen, während die rechte Hirnhälfte bevorzugt den Klang der Laute selbst überprüft. Eine mögliche Erklärung für diese Form der Arbeitsteilung zwischen den beiden Hirnhälften wäre, dass die linke Hirnhälfte generell schnelle Abläufe, wie die Übergänge zwischen Sprachlauten, besser analysiert als die rechte. Die rechte Hirnhälfte könnte besser langsamere Abläufe kontrollieren, die zur Analyse des Klangspektrums benötigt werden.
Wie ein Zweitspracherwerb das Gehirn verändert
Das Erlernen einer zweiten Sprache im Erwachsenenalter ist eine anspruchsvolle Aufgabe, die neuroplastische Veränderungen im menschlichen Gehirn hervorruft, wobei bisher unklar war, wie sich das strukturelle Sprachkonnektom und seine Subnetzwerke während des Fremdsprachenerwerbs bei Erwachsenen verändern. Wei et al. (2024) untersuchten nun die longitudinalen Veränderungen in den Sprachnetzwerken der weißen Substanz in jeder Hemisphäre sowie deren Konnektivität bei einer großen Gruppe arabischsprachiger Erwachsener, die sechs Monate lang intensiv Deutsch lernten. Es zeigte sich eine signifikante Zunahme der Konnektivität der weißen Substanz innerhalb der bilateralen temporal-parietalen semantischen und phonologischen Subnetzwerke und der rechten temporal-frontalen Bahnen, insbesondere in der zweiten Hälfte des Lernzeitraums. Gleichzeitig verringerte sich die Konnektivität zwischen den beiden Hemisphären signifikant, wobei entscheidend ist, dass diese Veränderungen in der Konnektivität mit der Leistung in der neuen Sprache zusammenhängen. Diese Abnahme deutet darauf hin, dass während des Zweitspracherwerbs die sprachdominante linke Hemisphäre weniger Kontrolle über die rechte Hemisphäre ausübt, wodurch Ressourcen in der rechten Hemisphäre frei werden, um die neue Sprache zu integrieren. Das erwachsene Gehirn scheint sich an neue kognitive Anforderungen anzupassen, indem es die strukturelle Konnektivität innerhalb und zwischen den Hemisphären moduliert. Advertisement Die beobachteten Veränderungen in den Subnetzwerken der beiden Hemisphären deuten auf eine Rekonfiguration des Netzwerks durch lexikalisches Lernen hin, während die reduzierte interhemisphärische Konnektivität auf eine Schlüsselrolle des Corpus callosum beim Zweitspracherwerb hinweisen könnte, indem sie die Hemmung der sprachdominanten linken Hemisphäre reduziert.Wortkarte des Gehirns
Eine neue Form eines Gehirnatlas, und zwar in Form einer Wortkarte des semantischen Netzwerks im menschlichen Gehirn, erstellten Huth et al. (2016), indem sie sieben Probanden zwei Stunden lang Geschichten vorlasen, währen diese in einem hochauflösenden funktionellen Magnetresonanz-Tomografen lagen, der dabei aufzeichnete, welche Gehirnregion aktiv wurde, wenn ein Wort mit einer bestimmten Bedeutung vorkam. Dieser Hirnatlas zeigt, wo im Gehirn welche Wörter verarbeitet werden, wobei bisher für mehr als 10.000 Wortbedeutungen direkt erkennen kann, welche Areale aktiv werden. Demnach aktivieren etwa Wörter mit eher sozialer Bedeutung andere Hirnareale als Farbwörter, Ortsangaben oder Zahlen, wobei das gesamte semantische Netzwerk jedoch das gesamte Gehirn überzieht, und nicht nur die beiden bekannten Sprachzentren der linken Gehirnhälfte. Vielmehr ist ein ganzes Netzwerk daran beteiligt, die Bedeutung der Wörter zu entschlüsseln, wobei man die Wörter zwölf semantischen Bedeutungsgruppen mit Hilfe computergestützter Verfahren kartierte. Das Ergebnis ist ein dreidimensionaler Atlas des Gehirns, wobei insgesamt mehr als 130 verschiedene Areale daran beteiligt sind. Wörter aus dem sozialen Kontext aktivieren unter anderem Areale im seitlichen Scheitellappen und im Schläfenlappen, bei eng mit dem Sehen verknüpften Wortbedeutungen reagieren hingegen vornehmlich Neuronen in der Nähe der Sehrinde. Interessanterwweise aktivieren Wörter, die je nach Kontext eine ganz unterschiedliche Bedeutung haben können, je nach semantischem Zusammenhang auch jeweils andere Areale. Insgesamt waren dabei trotz kleinerer individueller Unterschiede bei allen Probandendie Verarbeitungsorte sehr ähnlich, weshalb man vermutet, dass die Anatomie des Gehirns (Homunculus) die Organisation dieses Netzwerks beeinflusst.
[Quelle: https://www.youtube.com/embed/k61nJkx5aDQ]
Spracherwerb und Gehirnentwicklung
Die Entwicklung der Sprache bzw. des Spracherwerbs (unter Berücksichtigung biologischer Grundlagen der Gehirnentwicklung) umfasst verschiedene Phasen, die das normal entwickelte Kind durchläuft. Generell haben Untersuchungen des ersten Lebensjahres gezeigt, dass das Sprechen dem Sprachverstehen hinterherhinkt, d.h., Kinder können Unterschiede zwischen ähnlichen Konsonanten hören, auch wenn sie noch nicht in der Lage sind, diese entsprechend zu produzieren.
Im ersten Lebensjahr ist noch keine Sprache an sich, sondern nur Vorformen der Sprachentwicklung zu beobachten. Bei diesen Vorformen lassen sich insgesamt vier Phasen unterscheiden. Die Lautäußerungen beginnen mit schreien und behaglichem Gurgeln bzw. Juchzen bis hin zum Lallen oder Brabbeln und erst von da gelangt das Baby zum Sprechen von Worten. Erste vokalartige Laute ergeben sich beiläufig aus dem Atmen, aus verdauen und schreien. „Sprachliche Reaktionen“ auf Dinge oder Reize aus der Umwelt sind mit etwa zwölf Wochen zu beobachten, zumeist in Form von „Juchzen“.
Im Bereich zwischen zwölf Wochen und sechs Monaten tauchen dann erste Konsonanten auf, und mit sechs Monaten beginnt das Brabbeln oder Lallen. Ab diesem Alter werden einfache Kombinationen aus Konsonanten und Vokalen dargeboten (Na), mit etwa acht Monaten beginnen Kinder das eigene Sprechen, und das anderer nachzumachen und erzeugen hierzu mehrmals die selbe Silbe. Gelegentlich werden Plappersilben mit Objekten oder Ereignissen verbunden und dies stellt den Übergang in die Entwicklung erster Vorformen der Sprache dar (mit etwa einem Jahr). Zwar handelt es sich noch nicht um Worte im eigentlichen Sinn, die Äußerungen haben aber bereits die Funktion von Worten, weil sie eindeutige Kennzeichnungen von Objekten darstellen.
Im Zeitraum zwischen acht und achtzehn Monaten können Kinder ein Vokabular von einigen hundert Wörtern erwerben; in dieser Zeit dominieren aber noch sogenannte Ein-Wort- Sätze bzw. Holophrasen.
Während des zweiten Lebensjahres werden dann gehäuft zwei Wörter zu sogenannten Duos verbunden, die verschieden Funktionen haben können, wie beispielsweise benennen („ein Haus“), Nicht-Vorhandensein („Milch tschüss“) und Handlung („Susi läuft“) und Wiederauftreten („noch Katze“). Derartige Duos stellen die erste Form von grammatischen Konstruktionen dar; sie sind dadurch gekennzeichnet, dass sie bereits bemerkenswert fehlerfrei produziert werden. Zunehmend kommt es zur Ausbildung auch von längeren Sätzen, die aber noch immer im „Telegrammstil“ verfasst werden, was darauf hinweist, dass noch nicht Erwachsenensätze nachgebildet werden, da die formalen Relationen von Substantiv und Verb oder Substantiv und Adjektiv zumeist nicht gegeben sind; die Sätze folgen zumeist eigenen sprachlichen Regeln, vermitteln aber dennoch einen meist eindeutig zu identifizierenden Sinn. Von Zwei-Wort-Sätzen schreitet das Kind bald voran zu einfachen Aussagesätzen.
Schließlich werden während des dritten Jahres
Umformungen von Aussagesätzen, z.B. in Form von Fragen oder
Verneinungen gezeigt. In diesem Bereich (2-3 Jahre) werden die
elementaren grammatischen Umformungsregeln erworben. Mit drei
Jahren haben Kinder zumeist ein Vokabular von über 1000 Wörtern
und sind in der Lage immer kompliziertere Sätze zusammenzufügen,
Fragen zu stellen, verneinende Aussagen zu treffen. Mit Eintritt in
die Schule ist die Sprache in der Regel in Satzbau und Grammatik
von der Erwachsenensprache nicht mehr zu
unterscheiden.
Der Erwerb der Grammatik und Syntax
Die Grammatik einer Sprache ist essenziell für die
sprachliche Verständigung, den einzelne Wörter tragen zwar die Bedeutung
des Satzes, aber erst die Grammatik setzt die Wörter in Beziehung
zueinander und an ihren richtigen Platz. In den ersten Lebensjahren
lernen Kinder die wichtigsten Aspekte ihrer Muttersprache, doch die
Fähigkeit zur Verarbeitung komplexer Satzstrukturen, eine zentrale
Fähigkeit der menschlichen Sprache, die als Syntax bezeichnet wird,
entwickelt sich jedoch nur langsam. Kinder müssen diese Regeln erst
lernen und meistern diese Aufgabe, ohne dass sie ihnen jemand explizit
erklärt, denn bis zu ihrem dritten Geburtstag können Kinder zwar schon
einfachere Regeln anwenden, aber erst ab dem vierten Lebensjahr beginnen
sie, auch kompliziertere Sätze zu verstehen und zu produzieren. Dieser
Meilenstein im Syntaxerwerb wird also erst etwa im Alter von vier Jahren
erreicht, wenn Kinder eine Vielzahl von syntaktischen Konzepten lernen.
Klein et al. (2022) haben untersucht, welche Reifungsveränderungen im
kindlichen Gehirn der Entwicklung der syntaktisch komplexen
Satzverarbeitung in diesem kritischen Alter zugrunde liegen. Bei
Erwachsenen wurde bereits mehrfach gezeigt, dass in einem Sprachnetzwerk
verschiedene Hirnareale zusammenarbeiten, um Sprachverständnis und
-produktion zu ermöglichen. Man setzte in der Untersuchung von Klein et
al. (2022) daher Marker der kortikalen Hirnreifung in Beziehung zur
Satzverarbeitung von 3- und 4-Jährigen im Gegensatz zu anderen
sprachlichen Fähigkeiten. Die Ergebnisse zeigten, dass unterschiedliche
kortikale Hirnareale die Satzverarbeitung in den beiden Altersgruppen
unterstützen, wobei die Fähigkeit zur Satzproduktion bei 3-Jährigen mit
einer vergrößerten Oberfläche im hintersten Teil des linken superioren
temporalen Sulcus verbunden war, während bei 4-Jährigen ein Zusammenhang
mit der kortikalen Dicke im linken hinteren Teil des Broca-Areals
bestand. Die Reifung dieser spezifischen Hirnregion, die als Kernregion
für Grammatik gilt, hing also mit der Grammatikfähigkeiten der
vierjährigen Kinder zusammen, nicht aber mit den Fähigkeiten der
Dreijährigen. Diese Ergebnisse deuten also darauf hin, dass dieser
Meilenstein im Spracherwerb erst durch die Unterstützung des
Broca-Areals bei der Verarbeitung komplexer Grammatik ermöglicht
wird. Diese Ergebnisse deuten darauf hin, dass die Fähigkeiten zur
Satzverarbeitung bei 3-Jährigen im Vergleich zu 4-Jährigen von der
Reifung verschiedener kortikaler Regionen abhängen, wobei die
beobachtete Verschiebung hin zu reiferen Regionen, die an der
Verarbeitung syntaktisch komplexer Sätze beteiligt sind, könnte dem
Verhaltensmeilenstein beim Syntaxerwerb im Alter von etwa 4 Jahren
zugrunde liegen. Diese Befunde liefern daher neue Einblicke in die
neuronalen Prozesse, die zu einer erfolgreichen Sprachentwicklung
beitragen, was auch ein besseres Verständnis für
Entwicklungsverzögerungen oder sogar Störungen im Spracherwerb
ermöglichen könnte.
Sprachentwicklung von der Muttersprache beeinflusst
Die Entwicklung der vorsprachlichen Lautäußerungen verläuft in allen Sprachen der Welt etwa gleich. d.h., sie beginnt damit, dass der Säugling mit Bewegungen darauf reagiert, wenn man ihn anspricht; es sind Bewegungen, die er nicht ausführt, wenn er Ticken oder Klopfen hört. Einige Wochen nach der Geburt beginnt das Kind zu vokalisieren und mit zwei bis drei Monaten beginnt das Kind zu schnalzen, wobei auch Laute produziert werden, die in der Muttersprache nicht vorkommen, also kaum nachgeahmt werden können. Nach etwa drei Monaten nehmen die Vokalisationen wieder ab und zwischen dem siebten und zehnten Monat verlieren sich die Laute, die in der Muttersprache nicht vorkommen, d.h., das Kind wird bezüglich der Aspekte der auditorischen Umwelt selektiv. Hier wird die Rolle der Imitierung deutlich, denn es werden in dieser Phase nun auch Intonation und Melodie der Muttersprache nachgeahmt und schon um den ersten Geburtstag herum "erzählt" das Kind Geschichten mit unverständlichen Wörtern, aber im Tonfall der Muttersprache (angepasstes oder soziales Lallen).
Jedes Kind wird somit im Normalfall als Sprecher in eine Welt von Sprechenden hineingeboren, d.h., die Sprachentwicklung ist von Grund auf dialogischer Natur. Sprache wird dabei in einem lang anhaltenden Prozess erworben. Schon wenige Monate alte Säuglinge können bekanntlich die typischen Laute und die Sprachmelodie ihrer Muttersprache erkennen, denn das Kindergehirn stimmt sich in dieser sensiblen Entwicklungsperiode auf die Klänge der Sprache ein.
In einer Untersuchung (Webb et al., 2015) konnte sogar gezeigt werden, dass wenn Frühgeborene nach der Geburt einer Geräuschkulisse ausgesetzt werden, die jener im Mutterleib ähnelt, die Entwicklung des Hörzentrums im Gehirn fördert. Dazu wurde Säuglingen täglich drei Stunden lang Tonaufnahmen vom Herzschlag und von der Stimme ihrer Mutter vorgespielt, wobei die Aufnahmen zuvor so verändert worden waren, dass sie den akustischen Eindrücken glichen, denen Kinder während der Schwangerschaft im Bauch der Mutter ausgesetzt sind. Nach einem Monat war der auditorische Cortex bei den Säuglingen deutlich im Vergleich zu einer Kontrollgruppe vergrößert, wobei sich dieser Effekt in beiden Hemisphären zeigte. Offensichtlich leistet die Geräuschkulisse im Mutterleib einen Beitrag zur Gehirnentwicklung bzw. legen diese Geräusche sogar einen Grundstein dafür, dass die Gehirne später in der Lage sind, Töne und Sprache richtig zu verarbeiten. Diese Studie belegt wie andere zuvor, dass die Stimme der Mutter eine bedeutende Rolle für die Entwicklung von Hör- und Sprachzentrum im Säuglingsalter spielt.
Die Muttersprache hinterlässt im Gehirn übrigens unlöschbare Spuren, was man in einer Untersuchung (Pierce at al., 2014) an in China geborenen Kindern belegen konnte, die mit rund einem Jahr von Franzosen adoptiert wurden. Obwohl sie danach Chinesisch weder gehört noch gesprochen haben, reagiert das Gehirn selbst von 17-Jährigen noch immer auf diese Sprache. Offensichtlich hält des Gehirn manche Verbindungen aus der ersten Lebenszeit für so wertvoll, dass sie nicht mehr von späteren Eindrücken überschrieben werden können, allerdings bleibt unklar, wie das Gehirn diese Entscheidung trifft.
Schon im Alter von fünf Monaten haben Kinder eine Vorstellung davon, was menschliche und was tierische Laute sind. Die Babies können die menschliche Sprache selbst dann dem Bild eines Menschen zuordnen (Fixationsmethode), wenn es sich um von ihnen nie zuvor gehörte Laute etwa auf Japanisch handelt. Auch die Laute eines Affen können sie dem entsprechenden Bild richtig zuweisen, nicht jedoch das Gequake von Enten. Kleinkinder können offensichtlich ihre akustischen Eindrücke recht gut kategorisieren, wobei sie vermutlich aus Erfahrungen mit Eltern, Geschwistern und Verwandten auf menschliche Sprachäußerungen im Allgemeinen schließen. Diese Fähigkeit zur Abstraktion könnte vermutlich auch der Grund dafür sein, dass Kinder Affengesichter korrekt den Affenlauten zuordnen können, obwohl sie selbst noch keinerlei Erfahrungen mit Affen gesammelt haben.
Adrian García-Sierra et al. (in press) zeigten nun in einer Untersuchung an Kindern aus rein englischen, rein spanischen und spanisch-englisch gemischten Familien, dass bilinguale Kinder erst mit etwa zehn bis zwölf Monaten die typischen Sprachmuster ihrer beiden Sprachen zu erkennen lernen, während bei Kindern mit nur einer Muttersprache diese Prägungsphase in diesem Alter bereits abgeschlossen ist und das Gehirn dann nur noch auf typische Laute der Muttersprache reagiert. Offensichtlich legt sich das Gehirn bilingualer Kinder nach einem anderen Zeitplan auf eine Sprache fest als einsprachige aufwachsende und bleibt länger flexibel, möglicherweise, um die größere Vielfalt unterschiedlicher Sprachlaute in zweisprachigen Umgebungen besser verarbeiten zu können.
Erst am Ende des ersten Lebensjahres beginnen Kinder, die Sprache so wie Erwachsene wahrzunehmen, denn erst mit sieben Monaten reagieren sowohl die auditorischen Bereiche des Gehirns, die für die Verarbeitung von Sprache zuständig sind, als auch motorische Bereiche auf Laute der Muttersprache als auch einer Fremdsprache. Die Aktivität der motorischen Gehirnareale deutet nach Ansicht von Wissenschaftlern (Can et al., 2013) daraufhin, dass die Kinder in ihrer Vorstellung üben, wie sich bestimmte Worte bilden lassen. Das ändert sich im Alter von elf bis zwölf Monaten, denn ab dann reagieren die auditorischen Areale stärker auf die Muttersprache als auf eine Fremdsprache, wobei die motorischen Bereiche beim Hören der Fremdsprache eine größere Aktivität zeigen, da es für die Kinder vermutlich anstrengender ist, sich die Motorik vorzustellen, die diese Laute hervorbringen könnten. Sie reagieren damit in gleicher Weise wie das Gehirn Erwachsener auf fremde Sprachäußerungen. Aus diesen Forschungsergebnissen schließt man, dass Kleinkinder schon ganz zu Beginn üben, auf Sprache zu antworten. Wahrscheinlich versucht schon das Gehirn von siebenmonatigen Kindern herauszufinden, mit welchen Mund- und Zungenbewegungen sich solche Laute hervorbringen lassen. Die Studie weist auch darauf hin, dass übertrieben deutliches Sprechen Kleinkindern helfen kann, das Gehörte zu imitieren, denn es macht ihren Gehirnen einfacher, die zum Sprechen nötigen Bewegungen zu allmählich herauszubilden.
Neue Theorien der Kognitionsforschung nehmen an, dass das menschliche Gedächtnis als Teil von Begriffen auch Körperempfindungen speichert. Es ist bekannt und offensichtlich, dass Menschen oft mit ihren Händen bzw. Gesten auf eine verbale Anfrage oder Anweisung reagieren, aber die funktionellen Zusammenhänge von Bewegungssteuerung und Sprache sind noch nicht vollständig geklärt, insbesondere deren neurophysiologische Grundlage. Ein Wort wie Schneebesen speichert das Gehirn wie in einem Lexikon und assoziiert es etwa mit Konzepten wie unbelebt und Küchengerät, zusätzlich aber verbindet es das Wort mit der individuellen Erfahrung, wie sich ein solcher Schneebesen anfühlt oder dass mit dem Küchengerät eine Schleuderbewegung damit verbunden ist. Koester & Schack(2016) haben nun untersucht, ob spezifische motorische Repräsentationen für das Begreifen von Objekten neurophysiologisch mit konzeptionellen Informationen interagieren, d.h. beim Lesen von Substantiven. Probanden saßen dabei am Bildschirm und hatten drei nebeneinander liegende Würfel vor sich: einer so groß wie ein Apfel, einer wie ein Tischtennisball und einer wie ein Spielwürfel. Auf dem Bildschirm waren ebenfalls nebeneinander drei weiße Felder zu sehen. Nun erschienen Wörter in einem der Felder, einerseits Phantasiebegriffe und andererseits echte Begriffe. Wurde etwa ein Pseudowort wie Quarl eingeblendet, mussten die Probanden nichts tun, erschien jedoch ein echtes Wort wie Orange, so sollten sie den unter dem Feld liegenden Würfel greifen. Eine EEG-Kappe zeichnete während des Versuchs die Gehirnaktivität auf, so dass man registrieren konnte, wie das Wort im Gehirn verarbeitet worden war. Schon nach einer Zehntelsekunde reagierte das Gehirn, wenn eine Greifaktion erforderlich war. Diese Beobachtung bestätigt nicht nur, dass das Gehirn über gemeinsame Steuerprogramme für Sprache und Bewegung verfügt, sondern zeigt auch, dass sich die Verarbeitungsschritte des Gehirns sehr schnell verändern und an aktuelle Aufgaben anpassen, in diesem Fall an die Aufgabe, beim Lesen des Wortes zu greifen.
Sonia Kleindorfer, Leiterin der Konrad Lorenz Forschungsstelle der Uni Wien im Almtal, weist in einem Interview mit den OÖN vom 28. September 2019 darauf hin, dass Menschen und Singvögel erstaunlich ähnliche Gehirne besitzen: "Es gibt nur sieben Tiergruppen, die vokales Lernen beherrschen; eine Form von Kultur: Singvögel, Papageien, Kolibris, Wale, Elefanten, Fledermäuse und Menschen. Jede Generation lernt die Sprache neu. Menschen und Singvögel haben einen Bereich im Gehirn, der für Lautverarbeitung zuständig ist und einen anderen für Lautproduktion. Beide sind mit Neuronen verbunden. Im menschlichen Baby, das ja noch nicht spricht, wird der Lautverarbeitungsbereich zuerst einmal mit den Lauten der Bezugspersonen formatiert. Diese Informationsstelle wird später mit der Lautproduktion verknüpft. Das Gleiche gilt bei den Vögeln. Brütet man Eier still im Labor aus, können die Vögel später nicht singen. Was meine Gruppe entdeckt hat, ist, dass dieses Lernen sehr früh beginnt. Wir haben gesehen, dass Weibchen zu ihren Eiern singen, obwohl dies das Risiko, von Räubern entdeckt zu werden, erhöht. Wir haben Gelege ausgetauscht und konnten nachweisen, dass die Küken dann den Ruf der Ziehmutter produzieren. Das heißt, dass die Lautäußerung gelernt ist und nicht genetisch festgelegt. Dann haben wir anhand von Magnetresonanzuntersuchungen an den Eiern festgestellt, dass sich die Gehirne anders entwickeln, wenn sie keine elterlichen Rufe erfahren haben. Sie waren asymmetrisch, kleiner und hatten weniger Protein im Areal der Lautverarbeitung." Und weiter in Bezug auf den Menschen: "Wir wissen, dass menschliche Embryos sehr wohl eine Wahrnehmung haben für menschliche Sprache. Neugeborene zeigen eine Präferenz für die Sprache, mit der sie Erfahrung haben – gemessen an der Nuckelintensität. Hier tut sich meines Erachtens eine Möglichkeit auf, mit der Stimme der Eltern Frühgeborene zu fördern. Diesbezüglich bin ich derzeit auf der Suche nach Forschungskooperationspartnern." Allerdings gibt es bei Singvögeln keinen Beweis, "dass es einen Zusammenhang gibt zwischen Kognition und Sprachfähigkeit. Aber wir wissen, dass eine reiche pränatale Erfahrung mit Akustik die Persönlichkeit beeinflusst. Solche Jungvögel sind neugieriger und zeigen vermehrtes Explorationsverhalten, ohne bei Problemlösungen besser zu sein. Es gibt keine Evidenz, dass ein Vogel- oder Menschenbaby gescheiter wird, wenn man ihm Mozart oder Schönberg vorspielt. Spielt man jedoch Wachteln im Ei rhythmische Töne vor, steigert das ihre Leistungsfähigkeit nach dem Schlüpfen, spielt man ihnen hingegen Lärm vor, vermindert das die Gehirnorganisation. Wir Menschen – als vokal lernende Art – sollten unsere akustische Landschaft besser gestalten und genauer untersuchen. Viele unserer Leiden könnten daher kommen, dass wir in akustischer Armut leben oder überreizt sind vom Geräuschpegel."
In der Phase der Entwicklung des Gehirns fallen die unterschiedlichen Eindrücke bei bilingualer Erziehung in unterschiedliche Gehirnbereiche, was die Ausreifung verzögert, da für jede Sprache mehr verschiedene Muster erworben werden müssen. Bekannt ist, dass frühe Spracherfahrungen den gefühlsmäßig sicheren Umgang mit einer Sprache später sehr erleichtern, d.h., wenn Kinder zwei Sprachwelten später in ihrem Leben brauchen (Migrationskinder), ist es wohl sehr sinnvoll, ihnen diese schon in der Zeit der Entwicklung des Sprachvermögens nahe zu bringen. Es ist daher falsch Kinder, die sich später in zwei Sprachen bewegen müssen oder sollen, zuerst eine und dann eine andere Sprache lernen zu lassen, vielmehr profitieren sie davon, von Beginn an ein Gefühl für beide Sprachen entwickeln zu können. Die Psychologin Erika Hoff von der Florida Atlantic Universität konnte in ihren Untersuchungen ebenfalls bestätigen, dass bilinguale Kinder länger als Gleichaltrige benötigen, um die Muttersprache zu erlernen, fand Hoff heraus. Sechs bis acht Prozent aller Kleinkinder brauchen länger, bis sie zu kommunizieren beginnen, unabhängig von Land und Kultur. Sprachwissenschaftler und Psychologen einiger US-Universitäten hatten eine Liste von mehreren Dutzend Wörtern erstellt, die Kinder bei normaler Entwicklung im Alter von zwei bis zweieinhalb Jahren beherrschen sollten. Diese Liste wurde unter Berücksichtigung kultureller Eigenarten inzwischen in weitere Sprachen übertragen, damit man die linguale Entwicklung von Kindern besser beurteilen und gegebenenfalls Hilfe zu suchen kann, denn verzögertes Sprechen kann auch ein Symptom für andere Probleme sein wie Gehördefekte, kognitive Störungen oder Autismus.
Übrigens haben Anthropologen herausgefunden, dass eine Unterhaltung mit einem Säugling mit weichen unartikulierten Lauten wie "duziduzi" oder "eideidei" in fast allen Kulturen zu finden ist. Linguisten nennen diesen sinnfrei wirkenden Umgangston mit Babies "Mutterisch", wobei diese Brabbelsprache überall auf der Welt Kinder beruhigt und ihnen vielleicht sogar hilft, selbst mit dem Sprechen vertraut zu werden.
Siehe dazu Babytalk oder Ammensprache.
Kurioses: Sprache auch von der Umwelt bzw. vom Klima beeinflusst
Linguisten haben in einer Untersuchung an 633 Sprachen
überprüft, warum Sprachen so verschieden klingen, warum es etwa in
slawischen Sprachen so viele Konsonanten gibt oder warum das
Chinesische und das Italienische weitgehend auf geschlossene Silben
verzichtet. Oder warum kommen die Klick- und Schnalzlaute fast nur in
den Khoisansprachen des südlichen Afrika vor, und warum ist im
Türkischen das Ü und im Schwedischen das Ö so häufig?
Man entwickelte nun eine einfache aber einleuchtende Theorie, dass
nämlich das Klima die Sprachen prägen könnte: Menschen
in warmen Gegenden verbringen mehr Zeit draußen, kommunizieren dort über
weitere Distanzen, daher sollten sie Lautkombinationen bevorzugen, die
auch unter schlechten Bedingungen gut über große Strecken übertragen
werden. Auch Singvögel verwenden eher Frequenzen, die in ihren Habitaten
gut übertragen werden, denn so singen Waldvögel tiefer als Vögel in
offenen Arealen, da Bäume die Schallwellen ablenken. Aus dem gleichen
Grund sind möglicherweise Sprachen in Gegenden mit hoher Baumdichte
weniger konsonantenreich, aber auch in Gegenden mit warmer Luft bilden
sich kleine Wellen, die die Übertragung hoher Frequenzen stören. Man
fand daher eine Korrelation der Konsonantendichte einer Sprache mit
Baumdichte, Niederschlag und Temperatur. In menschlichen Sprachen sind
übrigens Konsonanten besonders anspruchsvoll, was den Frequenzbereich
anbelangt, weshalb alte Menschen, die die hohen Frequenzen nicht mehr
hören können, Sprache auch so schlecht verstehen.
Lallphase nicht nur bei Menschen
zu finden
Formale Sprachen
Bei einer mathematischen Formel wird unser Gehirn mit einer mathematischen Syntax konfrontiert, die rein formale Beziehungen zwischen den verwendeten Zeichenenthalten. Formeln sind ein typisches Beispiel für formale Sprachen und Menschen wachsen damit fast selbstverständlich auf, denn vom Mathematikunterricht in der Schule bis zum Umgang mit Programmiersprachen nehmen formale Sprachen im täglichen Leben einen festen Platz ein. Eine formale Sprache zeichnet sich unter anderem dadurch aus, dass sie aus einem begrenzten Zeichenvorrat eine beliebige Anzahl von Ausdrücken bilden kann, wodurch diese Sprachen hochgradig effektiv sind, da sie im Gegensatz natürlichen Sprachen keinen Raum für Missverständnisse bieten. Sowohl natürliche wie formale Sprachen besitzen eine Grammatik und sind insofern strukturell miteinander verwandt. Roland Friedrich & Angela D. Friederici (Max-Planck-Institut für Kognitions- und Neurowissenschaften in Leipzig) zeigten in Studien, dass es Unterschiede in der neuronalen Verarbeitung gibt. Das menschliche Gehirn verarbeitet die Syntax mathematischer Formeln bei weitem nicht so automatisiert wie die natürlicher Sprachen, sondern mit wesentlich höherem kognitivem Aufwand, wobei vor allem Aktivitäten im intraparietalen Sulcus, im linken inferioren frontalen Gyrus sowie in Gebieten um das Broca-Areal, dem eigentlichen Sprachzentrum liegen. Natürliche Sprachen aktivieren also hauptsächlich das Broca-Areal, während formale Sprachen zusätzlich jene Gebiete aktivieren, die vor allem bei Denksportaufgaben eingebunden sind.
Quellen & Literatur
Can, D. C., Richards, T. L., & Kuhl, P. K. (2013).
Early gray-matter and white-matter concentration in infancy predict
later language skills: A whole-brain voxel-based morphometry study.
Brain & Language, 124, 34-44.
Download: http://ilabs.uw.edu/sites/default/files/2013%20Deniz%20Can%20et%20al%20.pdf (13-12-12)
Fernandez, Ahana A., Burchardt, Lara S., Nagy, Martina & Knörnschild, Mirjam (2021). Babbling in a vocal learning bat resembles human infant babbling. Science, 373, 923-926.
García-Sierra, A., Rivera-Gaxiola, M., Percaccio, R. C., Conboy, T. B., Romo, H., Klarman, L., Ortiz, S., & Kuhl, K. P. (in press). Bilingual Language Learning: An ERP Study Relating Early Brain Responses to Speech, Language Input, and Later Word Production. Journal of Phonetics.
Huth, Alexander G., de Heer, Wendy A., Griffiths, Thomas L., Theunissen, Frédéric E. & Gallant, Jack L. (2016). Natural speech reveals the semantic maps that tile human cerebral cortex. Nature, 532, 453–458.
Klein, Cheslie C., Berger, Philipp, Goucha, Tomás, Friederici, Angela D. & Grosse Wiesmann, Charlotte (2022). Children’s syntax is supported by the maturation of BA44 at 4 years, but of the posterior STS at 3 years of age. Cerebral Cortex, doi:10.1093/cercor/bhac430.
Koester, Dirk & Schack, Thomas (2016). Action Priority: Early Neurophysiological Interaction of Conceptual and Motor Representations. PLOS ONE, doi:10.1371/journal.pone.0165882.
Lara J. Pierce, Denise Klein, Jen-Kai Chen, Audrey Delcenserie, & Fred Genesee (2014). Mapping the unconscious maintenance of a lost first language. PNAS, doi:10.1073/pnas.1409411111.
Malik-Moraleda, Saima, Ayyash, Dima, Gallée, Jeanne, Affourtit, Josef, Hoffmann, Malte, Mineroff, Zachary, Jouravlev, Olessia & Fedorenko, Evelina (). An investigation across 45 languages and 12 language families reveals a universal language network. Nature Neuroscience, doi:- 10.1038/s41593-022-01114-5.
Neuper, Christa (o.J.). Einführung in die Fächer der Psychologie. Entwicklungspsychologie.
WWW: http://psyserver.uni-graz.at/de/stud/einfuehrungs-vo/Entwicklungspsy.pdf (08-01-03)
Stangl, W. (2022, 30. November). Babysprache nicht nur bei Menschen. Psychologie-News.
https://psychologie-news.stangl.eu/4378/babysprache-nicht-nur-bei-menschen.
https://news.lerntipp.net/der-spracherwerb-von-saeuglingen
Stangl, W. (2024, 10. Jänner). Wie ein Zweitspracherwerb das Gehirn verändert.arbeitsblätter news.
https://arbeitsblaetter-news.stangl-taller.at/wie-ein-zweitspracherwerb-das-gehirn-veraendert/
Webb, A. R., Heller, H. T., Benson, C. B. & Lahav,
A. (2015). Mother’s voice and heartbeat sounds elicit auditory
plasticity in the human brain before full gestation. PNAS 2015,
doi:10.1073/pnas.1414924112.
Wei, Xuehu, Gunter, Thomas C., Adamson, Helyne, Schwendemann, Matthias,
Friederici, Angela D., Goucha, Tomás & Anwander, Alfred (2024).
Plasticity of white matter during second language learning within and
across hemispheres. Proceedings of the National Academy of Sciences,
121, doi:10.1073/pnas.2306286121.
Zwisler, R. (1990). Sprachentwicklung.
WWW: http://www.zwisler.de/scripts/Sprachentwicklung.html (01-11-22)
https://www.nachrichten.at/oberoesterreich/von-singvoegeln-und-menschen;art4,3169436 (19-09-28)
http://idw-online.de/pages/de/news320200 (09-06-13)
Überblick über weitere Arbeitsblätter zum Thema Gehirn
- Gehirn, Gefühle und Empfindungen
- Gehirn und Zeit
- Wie sich das Gehirn die Gegenwart strukturiert
- Das Problem der Gleichzeitigkeit
- Im Schlaf lernen funktioniert
- Zwei Untersuchungen zum tierischen Gedächtnis
- Gen RGS9 für Wahrnehmungsgeschwindigkeit verantwortlich
- Veränderung der Merkfähigkeit mit Tageszeit und innerer Uhr
- Gehirn und Größe
- Gehirn bei Tieren
- Gehirn und Sprache
- Gehirn und Lernen
- Gehirnforschung & Freiheit
- Gehirn und Computer
- Haben Pflanzen ein Gehirn?
- Quellen und Literatur
inhalt :::: nachricht :::: news :::: impressum :::: datenschutz :::: autor :::: copyright :::: zitieren ::::