[werner.stangl]s arbeitsblätter 

Gehirn und Sprache

Language is the dress of thought.
Samuel Johnson

 

Das menschliche Hören ist ein äußerst komplexen Vorgang, wobei Umgebungsgeräusche von der Ohrmuscheln aufgefangen und wie durch einen Trichter ins Mittelohr weitergeleitet werden. Durch die Schallwellen vibriert das Trommelfell, die drei kleinen Gehörknöchelchen des Mittelohrs, Hammer, Amboss und Steigbügel, schwingen mit und verstärken den Schall um das etwa 20-fache. Das eigentliche Hörorgan ist das mit Flüssigkeit gefüllte Innenohr, denn hier liegt die Cochlea (Gehörschnecke), in der viele tausend Sinneszellen mit winzigen Härchen die Vibrationen in einen elektrischen Impuls umwandeln und das Signal an den Hörnerv weiterleiten. Über die neuronale Hörbahn gelangt die Information ins Gehirn, wo sie mit bereits gespeicherten Mustern verglichen und verarbeitet wird. Was den Menschen wirklich zum Menschen macht, ist vor allem die menschliche Sprache, denn alles andere findet sich auch bei Tieren. Doch die syntaktisch-grammatische Sprache und die Art zu Denken, die gibt es nur bei Menschen, wobei jener Teil im Gehirn, der dafür zuständig ist, das Broca-Zentrum, ein Teil des Arbeitsgedächtnisses ist. Mit ihm denken wir, haben Bewusstsein und lösen Probleme. Sprechen und Verstehen sind aufwändige Prozesse und nehmen viel Fläche im Gehirn ein. Die wichtigsten Zentren, die dabei beteiligt sind, sind das Wernicke-Areal, das vor allem für das Verstehen von Sprache entscheidend ist. Es befindet sich im hinteren, oberen Teil des linken Temporal- oder Schläfenlappens, der an der Seitenfläche der Hirnrinde sitzt. Verletzungen oder Hirnblutungen in dieser Region bewirken, dass der Patient Sprache kaum noch entschlüsseln kann. Er redet wie ein Wasserfall, seine Wörterflut ist aber verworren und unverständlich. Das Broca-Areal ist für die Produktion von Sprache, das Finden von Wörtern und das Bilden von Sätzen zuständig. Ist diese Region verletzt, kann der Patient zwar meist noch alles verstehen, er hat aber Schwierigkeiten, Wörter und Sätze zu bilden. In leichteren Fällen können Betroffene noch in einem stakkatoartigen Telegrammstil kommunizieren. Während des Formulierens und Erfassens von Sprache sind neben diesen beiden großen Zentren noch viele weitere Bereiche der Hirnrinde aktiv: Das Hörzentrum - es sitzt an der Innenseite des Schläfenlappens, scannt die ständige Geräuschflut, die über das Ohr ins Hirn strömt, nach Bekanntem ab und ordnet es entsprechend ein. Das geschieht meist unbewusst. Andere Bereiche verarbeiten unbekannte Hörreize und solche, auf die der Mensch sich konzentriert, beispielsweise die Sprache des Gegenübers. Allerdings ist diese Gehirnstruktur flexibel, denn Studien zur Anpassungsfähigkeit des Gehirns haben gezeigt, dass das Gehirn eine neurale Region, die ursprünglich für einen Sinn wie Sehen, Riechen oder Hören bestimmt ist, auch für einen anderen nutzen kann. So kann bei von Geburt an blinden Menschen das nicht benötigte visuelle Zentrum eine besondere Fähigkeit für die Verarbeitung von Sprache entwickeln, und das sogar auf sehr hohem Level, sodass blinde Menschen, die durch ihren visuellen Kortex kompensatorisch eine Verstärkung der verbalen Kompetenzen erhalten, bei sprachlichen Aufgaben oft besser abschneiden als Sehende. Wurde etwa bei Blinden in einem einfachen Sprachverständnistest ihr Sehkortex mittels magnetischer Stimulation vorübergehend lahmgelegt, so schnitten sie schlechter ab, während dieselbe Blockierung die Leistungen sehender ProbandInnen nicht beeinträchtigte. Sprache allgemein betrachtet bedeutet die Fähigkeit, Wörter, Zeichen oder Gebärden zu gebrauchen und sie zu Sätzen zu verbinden, um unsere gedanklichen Konzepte oder Begriffe anderen Menschen mitzuteilen. Dazu gehört auch die Fähigkeit, die von anderen mitgeteilten Wörter zu verstehen, d.h. zu erfassen und in Begriffe umzuwandeln. Die Sprache verbindet und abstrahiert daher Bilder und stellt Beziehungen her, und zwar unabhängig vom Augenblick, d.h., sie schafft Vergangenheit, Gegenwart und Zukunft. Sie bereichert unsere Wahrnehmung der unzähligen Möglichkeiten, auf denen unsere Erfahrungen mit der Welt organisiert sind und schafft letztlich selbst eine eigene Welt. Sprache bedeutet also die Fähigkeit,

Nach neuen Theorien basiert das Phänomen der Sprache auf drei Gruppen von Strukturen im Gehirn, die sich wechselseitig beeinflussen. Damasio & Damasio vermuten die Existenz von drei zusammenhängenden Systemen.

Das erste System Ein Zusammenwirken neutraler Systeme in beiden Hemisphären ist für den nichtsprachlichen Austausch - vermittelt durch sensorische und motorische Systeme - zuständig; diese nichtsprachlichen Darstellungen werden nach Kategorien (Gestalt, Farbe, Reihenfolge usw.) geordnet. Aufeinanderfolgende Ebenen von Kategorien bilden die Grundlage für Abstraktionen und Metaphern.

Das zweite System Eine kleinere Anzahl neuronaler Systeme, vornehmlich in der linken Hemisphäre angesiedelt, repräsentiert Phoneme, deren Kombinationen und syntaktische Regeln. Werden diese Systeme vom Individuum aktiviert, so bilden sie gesprochene oder geschriebene Sprache; werden sie von außen durch Schrift oder gesprochene Sprache aktiviert, so leiten sie die ersten Schritte zur Verarbeitung der visuellen und auditiven Sprachsignale ein.

Das dritte System Die dritte Gruppe von Strukturen vermittelt zwischen den ersten beiden Systemen. Hier wird z. B. ein Begriff aufgenommen und das Hervorbringen von Wortformen veranlasst.

Berücksichtigt man das von Damasio & Damasio vorgelegte Modell, so erscheinen einige frühere Untersuchungen in einem neuen Licht. So wies die Untersuchung von Düker & Tausch (1957) nach, dass die Veranschaulichung mit dem Behaltensgrad der Unterrichtsinhalte stark korreliert. Die Behaltensleistung lag bei der Gruppe, die einen realen Gegenstand betrachten durfte, gegenüber der Kontrollgruppe um 32% höher. Insgesamt zeigte die Untersuchung, dass der Behaltensgrad dann ansteigt, wenn die sprachlich-akustische Vermittlungsform durch mediale Formen ergänzt wird. Die Behaltensleistung steigt an:

im Verhältnis zu der nur sprachlich-akustisch angesprochenen Kontrollgruppe.

Die Bedeutung des ersten Systems - vermittelt zwischen sensorischen und motorischen Systemen - scheint für den Grad des Behaltens besonders bedeutsam zu sein. Damasio & Damasio fassen diesen Sachverhalt folgendermaßen zusammen: "Das Gehirn speichert begriffliche Konzepte in Form von quasi schlummernden Aufzeichnungen. Werden diese reaktiviert, können sie die unterschiedlichen Empfindungen und Handlungen wachrufen, die mit einem bestimmten Objekt oder einer Kategorie von Objekten zusammenhängen. Zum Beispiel kann "Kaffeetasse" nicht nur visuelle und taktile Darstellungen ihrer Form, Farbe, Oberflächenbeschaffenheit und Wärme hervorufen, sondern auch den Geruch und Geschmack von Kaffee sowie den Weg, den Hand und Arm zurücklegen müssen, um die Tasse vom Tisch an die Lippen zu führen. Obwohl all diese Repräsentationen in unterschiedlichen Hirnregionen reaktiviert werden, geschieht ihre Rekonstruktion nahezu gleichzeitig."

Damit das menschliche Gehirn Wörter erkennt und voneinander trennen kann, muss es Anfang und Ende eines Geräuschs mit unterschiedlichen Nervennetzwerken bzw. Eingangskanälen verarbeiten: ein Kanal, der den Beginn eines Tons registriert, und einen, der für dessen Ende zuständig ist. Scholl et al. (2010) zeigten bei Ratten, dass der Abbruch eines Geräuschs für das Gehirn nicht durch die bloße Abwesenheit des Schalls gekennzeichnet ist, sondern dass es sich um einen aktiven Prozess handelt, für den ein eigenes Netzwerk von Neuronen vorhanden ist. Die gezielte Registrierung von Beginn und Ende eines Tons dient dabei vermutlich als Orientierungspunkt, mit dessen Hilfe das Gehirn zusammengehörende akustische Reize wie die Silben eines Worts als einheitliche Gruppe behandelt. Nur mit der Hilfe dieses aktiven Stopp-Signals kann das Gehirn zuverlässig Lautgruppen wie Wörter erkennen und voneinander trennen, eine ganz zentrale Voraussetzung für das Verstehen von Sprache. Auch für den Sehsinn gibt es dafür zwei Netzwerke, die jeweils das Auftauchen und Verschwinden eines Objekts an das Gehirn melden. Die Netzwerke für Helligkeit und Dunkelheit sind dabei im Gegentakt miteinander verschaltet: Ist das eine aktiv, ist das andere ausgeschaltet und umgekehrt.

Man nimmt an, dass die Entwicklung von Sprache mit der besonderen Fähigkeit des Arbeitsgedächtnisses begonnen hat, in der Zeitachse zu strukturieren. Was macht man als erstes, als zweites, als drittes? Das können Tiere aber auch kleine Kinder eher schlecht, während Erwachsene das meist gut können, zu überlegen, welche Schritte sie hintereinander setzen müssen, um etwas zu tun oder zu erreichen. Vermutlich hat sich aus dieser Fähigkeit zur Manipulation der Zeitachse Sprache entwickelt, denn beim Sprechen muss man wissen, wie man anfange, wie man Sätze in der richtigen Syntax und Grammatik formt. Auch beim Lernen einer neuen Sprache braucht man meist einige Zeit, um ein „Gefühl“ für deren Eigenheiten zu bekommen, wobei insbesondere bei schnellen Sprechern es anfangs schwer fällt, einzelne Wörter herauszuhören. Das liegt daran, dass sich das Gehirn an fremde Sprechrhythmen erst gewöhnen muss, denn in der Muttersprache wird das Gehörte ohne große Mühe und annähernd in Echtzeit verarbeitet. Die Auswertung der zahllosen Sinnesreize können in der Muttersprache nur deshalb so schnell erfolgen, da das Gehirn sie oft gehört hat und bereits erwartet, denn das menschliche Gehirn ist sehr gut darin, in Umweltreizen Muster zu erkennen, aus denen es eine grobe Erwartungshaltung über die Ereignisse der nahen Zukunft errechnet. Unser Gehirn nutzt beim Verstehen von Gesprochenem also nicht so sehr die semantischen und grammatischen Informationen, sondern wertet Dauer, Rhythmus, Tempo und Betonung der Silben aus, um zeitliche Regelmäßigkeiten im Strom der Laute zu erkennen. Vor allem während des Spracherwerbs wird ein Netzwerk grundlegender Routinen der Sprache im Gehirn abgespeichert, sodass die Sprachverarbeitung später effizienter funktioniert. Zum größten Teil finden diese Prozesse in Bereichen in und unterhalb der Großhirnrinde statt, wobei aber auch motorische Areale und primitivere Hirnregionen wie das Kleinhirn und die Basalganglien beteiligt sind. Das weist auf weit zurückliegende Entwicklungsstufen hin, denn die Evolution von Sprache als komplexe motorische Handlung wäre nicht möglich gewesen ohne die Ausprägung von Hirnarealen, die die Fähigkeit besitzen, Verhalten zeitlich zu strukturieren (vgl. Kotz & Schwartze, 2010).

Zwar ist weitgehend unbekannt, welche genetischen Veränderungen während der letzten sechs Millionen Jahre menschlicher Evolution für die Entwicklung des menschlichen Sprechens wichtig waren, doch das Gen Foxp2 ist derzeit dafür der beste Kandidat. Das Gen Foxp2 kodiert ein Protein, das als Transkriptionsfaktor hunderte andere Gene in verschiedenen Zellen in Säugetieren reguliert, wobei Menschen mit nur einer statt zwei Kopien des Gens spezifische Schwierigkeiten haben, das Sprechen zu erlernen. Das menschliche Foxp2 hat sich in den letzten sechs Millionen Jahren, seit sich unsere Linie vom Schimpansen getrennt hat, an zwei Stellen geändert, was relativ viel bedeutet, da sich Maus und Schimpanse etwa nur durch eine einzige Mutation in diesem Gen unterscheiden, die in über hundert Millionen Jahren Evolution aufgetreten ist. In früheren Untersuchungen hat man bereits herausgefunden, dass die Änderungen in dem menschlichen Gen Foxp2 vor allem das Gehirn betreffen, denn bei Mäusen, die die menschliche Variante des Foxp2-Gens tragen, lassen sich Veränderungen in zwei neuronalen Schaltkreisen in den Basalganglien des Großhirns beobachten, die eine entscheidende Rolle beim Erwerb von Gewohnheiten und anderen kognitiven und motorischen Fähigkeiten spielen. Nun konnte man im Mausmodell nachweisen, dass die menschliche Variante des Foxp2-Gens unter bestimmten Bedingungen das Lernen verbessert, indem das Gen die Balance in den deklarativen und motorischen Schaltkreisen im Gehirn ändert, und Mäuse dadurch schneller lernen und Zusammenhänge schneller erfassen können. Foxp2 ist übrigens bisher das einzige Gen, das direkt mit der Evolution von Sprache in Verbindung gebracht werden kann (Schreiweis et al., 2014).

Diese Doktrin von Philip Lieberman, dass Menschenaffen auf Grund ihres Baus des Rachenraum und der Lage des Kehlkopfs nicht in der Lage wären zu sprechen, dürfte nach neueren Untersuchungen falsch sein, denn man hat inzwischen simuliert, welche Laute ein Makake mit diesen Organen erzeugen könnte. Nach Ansicht von Wiener Biologen sind die Makaken deshalb sprachlos, weil ihr Gehirn nicht die kognitiven Möglichkeiten dazu hat, denn mehrere für den Spracherwerb wichtige Hirnregionen wie das Broca-Areal, das beim frühkindlichen Spracherwerb und in der Aphasie, einer Form des Sprachverlustes, eine zentrale Rolle spielt, sind bei den Makaken mit deutlich weniger Neuronen bestückt als beim Menschen. Nicht der Kehlkopf macht sprachfähig, sondern ihr Gehirn.

Quellen

Klimsa, Paul (o.J.). Kognitions- und lernpsychologische Voraussetzungen der Nutzung von Medien.
WWW: http://www.medienpaedagogik-online.de/ mf/3/00691/ (03-10-06)
Kotz, Sonja A. & Schwartze, Michael (2010). Cortical speech processing unplugged: a timely subcortico-cortical framework. Trends in Cognitive Sciences 14.
Scholl, Ben, Gao, Xiang & Wehr, Michael (2010). Nonoverlapping Sets of Synapses Drive On Responses and Off Responses in Auditory Cortex. Neuron, 65, 412-421.
Christiane Schreiweis, Ulrich Bornschein, Eric Burguière, Cemil Kerimoglu, Sven Schreiter, Michael Dannemann, Shubhi Goyal, Ellis Rea, Catherine A. French, Rathi Puliyadi, Matthias Groszer, Simon E. Fisher, Roger Mundry, Christine Winter, Wulf Hevers, Svante Pääbo, Wolfgang Enard, & Ann M. Graybiel (2014). Humanized Foxp2 accelerates learning by enhancing transitions from declarative to procedural performance. PNAS, doi:10.1073/pnas.1414542111.

Spracherkennung in der linken Gehirnhälfte ist vermutlich angeboren

Quelle:
Proceedings of the National Academy of Sciences vom 8. September 2003
Sprache wird beim Menschen vorwiegend von der linken Gehirnhälfte erkannt und vermutlich ist diese Asymmetrie angeboren. Marcela Pena und KollegInnenen aus Japan, Frankreich und Italien konnten zeigen, dass Spracherkennung bereits bei zwei bis fünf Tage alten Neugeborenen in der linken Gehirnhälfte angelegt ist. Dazu wurden zwölf schlafende Kinder untersucht, denen die Forscher Tonbänder vorspielten, auf denen eine Frau ein Kinderbuch vorlas. Dabei verstärkte sich die Durchblutung in der linken Gehirnhälfte der Kinder deutlich stärker als in der rechten. Interessanterweise reagierten diese Gehirnregionen nicht, wenn das Band rückwärts abgespielt wurde. Diese fehlende Reaktion auf rückwärts gesprochene Sätze zeigt, dass einige Eigenschaften von Sprache Bereiche der linken Gehirnhälfte aktivieren, die bei anderen Tönen keine Rolle spielen. Auch bei Erwachsenen wird deren linke Gehirnhälfte bei ihnen unbekannten Sprachen nur dann aktiv, wenn die Aufzeichnung der Sprache vorwärts läuft. Wenn man drei Monate alten Babys kurze Sätze aus einem Kinderbuch vorliest, sind bei ihnen ebenfalls die gleichen Hirnregionen wie auch bei Erwachsenen aktiv, wenn diese Sprache verarbeiten. Zwar sind in diesem Alter Kleinkinder noch weit davon entfernt, auch nur vor sich hin zu brabbeln, denn das tun sie in der Regel erst, wenn sie etwa ein Jahr alt sind. Offensichtlich ist der Mensch sehr früh für Sprache empfänglich und kann alle Sprachimpulse aus seiner Umgebung bevorzugt aufnehmen.

Sprachzentrum breitet sich im Laufe der Entwicklung von einer Hirnhälfte auf beide aus

Jerzy P. Szaflarski et al. (Universität Cincinnati) fanden bei der Untersuchung von Probanden im Alter zwischen 5 und 67 Jahren, dass sich mit zunehmendem Alter das Sprachzentrum im Gehirn immer gleichmäßiger auf beide Gehirnhälften verteilt. Die Wissenschaftler untersuchten 177 Probanden mittels der funktioneller Magnetresonanztomographie (fMRI), bei der die Gehirnaktivität etwa während des Lösens von sprachlichen Denkaufgaben in Bildern dargestellt werden kann. Die Probanden mussten zu vorgegebenen Hauptwörtern wie Stuhl, Herd oder Löffel ein naheliegendes Verb finden . Bei Kindern ist das Sprachzentrum auf der linken Gehirnhälfte dominierend, was vermutlich mit der Entwicklung des jungen Gehirns und den wachsenden sprachlichen Fähigkeiten zusammenhängt. Ab einem Lebensalter von etwa 25 Jahren löst sich die Konzentration des Sprachzentrums auf eine Gehirnhemisphäre immer mehr auf, sodass ältere Erwachsene zunehmend beide Gehirnhemisphären für ihre sprachlichen Fähigkeiten nutzen. Bei den 5- bis 20-jährigen Probanden verschoben sich also die aktiven Muster im Gehirn mit zunehmendem Alter immer mehr in die linke Hirnhälfte, wobei im Alter von 20 bis 25 Jahren das Sprechen am stärksten links ab läuft, um sich dann im höheren Alter wieder gleichmäßig auf beide Gehirnhälften zu verteilen. Szaflarski führt dies auf eine nachlassende Leistungsfähigkeit des Sprachzentrums zurück, wobei dieser Verlust durch eine teilweise Auslagerung in die andere Gehirnhälfte ausgeglichen wird.

Wortkarte des Gehirns

Eine neue Form eines Gehirnatlas, und zwar in Form einer Wortkarte des semantischen Netzwerks im menschlichen Gehirn, erstellten Huth et al. (2016), indem sie sieben Probanden zwei Stunden lang Geschichten vorlasen, währen diese in einem hochauflösenden funktionellen Magnetresonanz-Tomografen lagen, der dabei aufzeichnete, welche Gehirnregion aktiv wurde, wenn ein Wort mit einer bestimmten Bedeutung vorkam. Dieser Hirnatlas zeigt, wo im Gehirn welche Wörter verarbeitet werden, wobei bisher für mehr als 10.000 Wortbedeutungen direkt erkennen kann, welche Areale aktiv werden. Demnach aktivieren etwa Wörter mit eher sozialer Bedeutung andere Hirnareale als Farbwörter, Ortsangaben oder Zahlen, wobei das gesamte semantische Netzwerk jedoch das gesamte Gehirn überzieht, und nicht nur die beiden bekannten Sprachzentren der linken Gehirnhälfte. Vielmehr ist ein ganzes Netzwerk daran beteiligt, die Bedeutung der Wörter zu entschlüsseln, wobei man die Wörter zwölf semantischen Bedeutungsgruppen mit Hilfe computergestützter Verfahren kartierte. Das Ergebnis ist ein dreidimensionaler Atlas des Gehirns, wobei insgesamt mehr als 130 verschiedene Areale daran beteiligt sind. Wörter aus dem sozialen Kontext aktivieren unter anderem Areale im seitlichen Scheitellappen und im Schläfenlappen, bei eng mit dem Sehen verknüpften Wortbedeutungen reagieren hingegen vornehmlich Neuronen in der Nähe der Sehrinde. Interessanterwweise aktivieren Wörter, die je nach Kontext eine ganz unterschiedliche Bedeutung haben können, je nach semantischem Zusammenhang auch jeweils andere Areale. Insgesamt waren dabei trotz kleinerer individueller Unterschiede bei allen Probandendie Verarbeitungsorte sehr ähnlich, weshalb man vermutet, dass die Anatomie des Gehirns (Homunculus) die Organisation dieses Netzwerks beeinflusst.


[Quelle: https://www.youtube.com/embed/k61nJkx5aDQ]

Spracherwerb und Gehirnentwicklung

Die  Entwicklung der Sprache bzw. des Spracherwerbs (unter Berücksichtigung biologischer  Grundlagen der Gehirnentwicklung) umfasst verschiedene Phasen, die das normal entwickelte Kind durchläuft. Generell haben Untersuchungen des ersten Lebensjahres gezeigt, dass das Sprechen dem  Sprachverstehen hinterherhinkt, d.h., Kinder können Unterschiede zwischen ähnlichen  Konsonanten hören, auch wenn sie noch nicht in der Lage sind, diese entsprechend zu  produzieren.  

Im ersten Lebensjahr ist noch keine Sprache an sich, sondern nur Vorformen der  Sprachentwicklung zu beobachten. Bei diesen Vorformen lassen sich insgesamt vier Phasen  unterscheiden. Die Lautäußerungen beginnen mit schreien und behaglichem Gurgeln bzw.  Juchzen bis hin zum Lallen oder Brabbeln und erst von da gelangt das Baby zum Sprechen  von Worten. Erste vokalartige Laute ergeben sich beiläufig aus dem Atmen, aus verdauen und  schreien. „Sprachliche Reaktionen“ auf Dinge oder Reize aus der Umwelt sind mit etwa zwölf  Wochen zu beobachten, zumeist in Form von „Juchzen“.    

Im Bereich zwischen zwölf Wochen und sechs Monaten tauchen dann erste Konsonanten  auf, und mit sechs Monaten beginnt das Brabbeln oder Lallen. Ab diesem Alter werden  einfache Kombinationen aus Konsonanten und Vokalen dargeboten (Na), mit etwa acht  Monaten beginnen Kinder das eigene Sprechen, und das anderer nachzumachen und  erzeugen hierzu mehrmals die selbe Silbe. Gelegentlich werden Plappersilben mit Objekten  oder Ereignissen verbunden und dies stellt den Übergang in die Entwicklung erster  Vorformen der Sprache dar (mit etwa einem Jahr). Zwar handelt es sich noch nicht um  Worte im eigentlichen Sinn, die Äußerungen haben aber bereits die Funktion von Worten,  weil sie eindeutige Kennzeichnungen von Objekten darstellen.   

Im Zeitraum zwischen acht und achtzehn Monaten können Kinder ein Vokabular von  einigen hundert Wörtern erwerben; in dieser Zeit dominieren aber noch sogenannte Ein-Wort- Sätze bzw. Holophrasen.    

Während des zweiten Lebensjahres werden dann gehäuft zwei Wörter zu sogenannten Duos  verbunden, die verschieden Funktionen haben können, wie beispielsweise benennen („ein  Haus“), Nicht-Vorhandensein („Milch tschüss“) und Handlung („Susi läuft“) und  Wiederauftreten („noch Katze“). Derartige Duos stellen die erste Form von grammatischen  Konstruktionen dar; sie sind dadurch gekennzeichnet, dass sie bereits bemerkenswert  fehlerfrei produziert werden. Zunehmend kommt es zur Ausbildung auch von längeren  Sätzen, die aber noch immer im „Telegrammstil“ verfasst werden, was darauf hinweist, dass  noch nicht Erwachsenensätze nachgebildet werden, da die formalen Relationen von  Substantiv und Verb oder Substantiv und Adjektiv zumeist nicht gegeben sind; die Sätze  folgen zumeist eigenen sprachlichen Regeln, vermitteln aber dennoch einen meist eindeutig  zu identifizierenden Sinn. Von Zwei-Wort-Sätzen schreitet das Kind bald voran zu einfachen  Aussagesätzen.   

Schließlich werden während des dritten Jahres Umformungen von Aussagesätzen, z.B. in  Form von Fragen oder Verneinungen gezeigt. In diesem Bereich (2-3 Jahre) werden die  elementaren grammatischen Umformungsregeln erworben. Mit drei Jahren haben Kinder  zumeist ein Vokabular von über 1000 Wörtern und sind in der Lage immer kompliziertere  Sätze zusammenzufügen, Fragen zu stellen, verneinende Aussagen zu treffen. Mit Eintritt in  die Schule ist die Sprache in der Regel in Satzbau und Grammatik von der  Erwachsenensprache nicht mehr zu unterscheiden.   

Quelle: Neuper, Christa (o.J.). Einführung in die Fächer der Psychologie. Entwicklungspsychologie.
WWW: http://psyserver.uni-graz.at/de/stud/einfuehrungs-vo/Entwicklungspsy.pdf (08-01-03)

Sprachentwicklung von der Muttersprache beeinflusst

Die Entwicklung der vorsprachlichen Lautäußerungen verläuft in allen Sprachen der Welt etwa gleich. d.h., sie beginnt damit, dass der Säugling mit Bewegungen darauf reagiert, wenn man ihn anspricht; es sind Bewegungen, die er nicht ausführt, wenn er Ticken oder Klopfen hört. Einige Wochen nach der Geburt beginnt das Kind zu vokalisieren und mit zwei bis drei Monaten beginnt das Kind zu schnalzen, wobei auch Laute produziert werden, die in der Muttersprache nicht vorkommen, also kaum nachgeahmt werden können. Nach etwa drei Monaten nehmen die Vokalisationen wieder ab und zwischen dem siebten und zehnten Monat verlieren sich die Laute, die in der Muttersprache nicht vorkommen, d.h., das Kind wird bezüglich der Aspekte der auditorischen Umwelt selektiv. Hier wird die Rolle der Imitierung deutlich, denn es werden in dieser Phase nun auch Intonation und Melodie der Muttersprache nachgeahmt und schon um den ersten Geburtstag herum "erzählt" das Kind Geschichten mit unverständlichen Wörtern, aber im Tonfall der Muttersprache (angepasstes oder soziales Lallen).

Jedes Kind wird somit im Normalfall als Sprecher in eine Welt von Sprechenden hineingeboren, d.h., die Sprachentwicklung ist von Grund auf dialogischer Natur. Sprache wird dabei in einem lang anhaltenden Prozess erworben. Schon wenige Monate alte Säuglinge können bekanntlich die typischen Laute und die Sprachmelodie ihrer Muttersprache erkennen, denn das Kindergehirn stimmt sich in dieser sensiblen Entwicklungsperiode auf die Klänge der Sprache ein.

In einer Untersuchung (Webb et al., 2015) konnte sogar gezeigt werden, dass wenn Frühgeborene nach der Geburt einer Geräuschkulisse ausgesetzt werden, die jener im Mutterleib ähnelt, die Entwicklung des Hörzentrums im Gehirn fördert. Dazu wurde Säuglingen täglich drei Stunden lang Tonaufnahmen vom Herzschlag und von der Stimme ihrer Mutter vorgespielt, wobei die Aufnahmen zuvor so verändert worden waren, dass sie den akustischen Eindrücken glichen, denen Kinder während der Schwangerschaft im Bauch der Mutter ausgesetzt sind. Nach einem Monat war der auditorische Cortex bei den Säuglingen deutlich im Vergleich zu einer Kontrollgruppe vergrößert, wobei sich dieser Effekt in beiden Hemisphären zeigte. Offensichtlich leistet die Geräuschkulisse im Mutterleib einen Beitrag zur Gehirnentwicklung bzw. legen diese Geräusche sogar einen Grundstein dafür, dass die Gehirne später in der Lage sind, Töne und Sprache richtig zu verarbeiten. Diese Studie belegt wie andere zuvor, dass die Stimme der Mutter eine bedeutende Rolle für die Entwicklung von Hör- und Sprachzentrum im Säuglingsalter spielt.

Die Muttersprache hinterlässt im Gehirn übrigens unlöschbare Spuren, was man in einer Untersuchung (Pierce at al., 2014) an in China geborenen Kindern belegen konnte, die mit rund einem Jahr von Franzosen adoptiert wurden. Obwohl sie danach Chinesisch weder gehört noch gesprochen haben, reagiert das Gehirn selbst von 17-Jährigen noch immer auf diese Sprache. Offensichtlich hält des Gehirn manche Verbindungen aus der ersten Lebenszeit für so wertvoll, dass sie nicht mehr von späteren Eindrücken überschrieben werden können, allerdings bleibt unklar, wie das Gehirn diese Entscheidung trifft.

Schon im Alter von fünf Monaten haben Kinder eine Vorstellung davon, was menschliche und was tierische Laute sind. Die Babies können die menschliche Sprache selbst dann dem Bild eines Menschen zuordnen (Fixationsmethode), wenn es sich um von ihnen nie zuvor gehörte Laute etwa auf Japanisch handelt. Auch die Laute eines Affen können sie dem entsprechenden Bild richtig zuweisen, nicht jedoch das Gequake von Enten. Kleinkinder können offensichtlich ihre akustischen Eindrücke recht gut kategorisieren, wobei sie vermutlich aus Erfahrungen mit Eltern, Geschwistern und Verwandten auf menschliche Sprachäußerungen im Allgemeinen schließen. Diese Fähigkeit zur Abstraktion könnte vermutlich auch der Grund dafür sein, dass Kinder Affengesichter korrekt den Affenlauten zuordnen können, obwohl sie selbst noch keinerlei Erfahrungen mit Affen gesammelt haben.

Adrian García-Sierra et al. (in press) zeigten nun in einer Untersuchung an Kindern aus rein englischen, rein spanischen und spanisch-englisch gemischten Familien, dass bilinguale Kinder erst mit etwa zehn bis zwölf Monaten die typischen Sprachmuster ihrer beiden Sprachen zu erkennen lernen, während bei Kindern mit nur einer Muttersprache diese Prägungsphase in diesem Alter bereits abgeschlossen ist und das Gehirn dann nur noch auf typische Laute der Muttersprache reagiert. Offensichtlich legt sich das Gehirn bilingualer Kinder nach einem anderen Zeitplan auf eine Sprache fest als einsprachige aufwachsende und bleibt länger flexibel, möglicherweise, um die größere Vielfalt unterschiedlicher Sprachlaute in zweisprachigen Umgebungen besser verarbeiten zu können.

Erst am Ende des ersten Lebensjahres beginnen Kinder, die Sprache so wie Erwachsene wahrzunehmen, denn erst mit sieben Monaten reagieren sowohl die auditorischen Bereiche des Gehirns, die für die Verarbeitung von Sprache zuständig sind, als auch motorische Bereiche auf Laute der Muttersprache als auch einer Fremdsprache. Die Aktivität der motorischen Gehirnareale deutet nach Ansicht von Wissenschaftlern (Can et al., 2013) daraufhin, dass die Kinder in ihrer Vorstellung üben, wie sich bestimmte Worte bilden lassen. Das ändert sich im Alter von elf bis zwölf Monaten, denn ab dann reagieren die auditorischen Areale stärker auf die Muttersprache als auf eine Fremdsprache, wobei die motorischen Bereiche beim Hören der Fremdsprache eine größere Aktivität zeigen, da es für die Kinder vermutlich anstrengender ist, sich die Motorik vorzustellen, die diese Laute hervorbringen könnten. Sie reagieren damit in gleicher Weise wie das Gehirn Erwachsener auf fremde Sprachäußerungen. Aus diesen Forschungsergebnissen schließt man, dass Kleinkinder schon ganz zu Beginn üben, auf Sprache zu antworten. Wahrscheinlich versucht schon das Gehirn von siebenmonatigen Kindern herauszufinden, mit welchen Mund- und Zungenbewegungen sich solche Laute hervorbringen lassen. Die Studie weist auch darauf hin, dass übertrieben deutliches Sprechen Kleinkindern helfen kann, das Gehörte zu imitieren, denn es macht ihren Gehirnen einfacher, die zum Sprechen nötigen Bewegungen zu allmählich herauszubilden.

In der Phase der Entwicklung des Gehirns fallen die unterschiedlichen Eindrücke bei bilingualer Erziehung in unterschiedliche Gehirnbereiche, was die Ausreifung verzögert, da für jede Sprache mehr verschiedene Muster erworben werden müssen. Bekannt ist, dass frühe Spracherfahrungen den gefühlsmäßig sicheren Umgang mit einer Sprache später sehr erleichtern, d.h., wenn Kinder zwei Sprachwelten später in ihrem Leben brauchen (Migrationskinder), ist es wohl sehr sinnvoll, ihnen diese schon in der Zeit der Entwicklung des Sprachvermögens nahe zu bringen. Es ist daher falsch Kinder, die sich später in zwei Sprachen bewegen müssen oder sollen, zuerst eine und dann eine andere Sprache lernen zu lassen, vielmehr profitieren sie davon, von Beginn an ein Gefühl für beide Sprachen entwickeln zu können. Die Psychologin Erika Hoff von der Florida Atlantic Universität konnte in ihren Untersuchungen ebenfalls bestätigen, dass bilinguale Kinder länger als Gleichaltrige benötigen, um die Muttersprache zu erlernen, fand Hoff heraus. Sechs bis acht Prozent aller Kleinkinder brauchen länger, bis sie zu kommunizieren beginnen, unabhängig von Land und Kultur. Sprachwissenschaftler und Psychologen einiger US-Universitäten hatten eine Liste von mehreren Dutzend Wörtern erstellt, die Kinder bei normaler Entwicklung im Alter von zwei bis zweieinhalb Jahren beherrschen sollten. Diese Liste wurde unter Berücksichtigung kultureller Eigenarten inzwischen in weitere Sprachen übertragen, damit man die linguale Entwicklung von Kindern besser beurteilen und gegebenenfalls Hilfe zu suchen kann, denn verzögertes Sprechen kann auch ein Symptom für andere Probleme sein wie Gehördefekte, kognitive Störungen oder Autismus.

Übrigens haben Anthropologen herausgefunden, dass eine Unterhaltung mit einem Säugling mit weichen unartikulierten Lauten wie "duziduzi" oder "eideidei" in fast allen Kulturen zu finden ist. Linguisten nennen diesen sinnfrei wirkenden Umgangston mit Babies "Mutterisch", wobei diese Brabbelsprache überall auf der Welt Kinder beruhigt und ihnen vielleicht sogar hilft, selbst mit dem Sprechen vertraut zu werden.

Siehe dazu Babytalk oder Ammensprache.

Kurioses: Sprache auch von der Umwelt bzw. vom Klima beeinflusst

Linguisten haben in einer Untersuchung an 633 Sprachen überprüft, warum Sprachen so verschieden klingen, warum es etwa in slawischen Sprachen so viele Konsonanten gibt oder warum das Chinesische und das Italienische weitgehend auf geschlossene Silben verzichtet. Oder warum kommen die Klick- und Schnalzlaute fast nur in den Khoisansprachen des südlichen Afrika vor, und warum ist im Türkischen das Ü und im Schwedischen das Ö so häufig? Man entwickelte nun eine einfache aber einleuchtende Theorie, dass nämlich das Klima die Sprachen prägen könnte: Menschen in warmen Gegenden verbringen mehr Zeit draußen, kommunizieren dort über weitere Distanzen, daher sollten sie Lautkombinationen bevorzugen, die auch unter schlechten Bedingungen gut über große Strecken übertragen werden. Auch Singvögel verwenden eher Frequenzen, die in ihren Habitaten gut übertragen werden, denn so singen Waldvögel tiefer als Vögel in offenen Arealen, da Bäume die Schallwellen ablenken. Aus dem gleichen Grund sind möglicherweise Sprachen in Gegenden mit hoher Baumdichte weniger konsonantenreich, aber auch in Gegenden mit warmer Luft bilden sich kleine Wellen, die die Übertragung hoher Frequenzen stören. Man fand daher eine Korrelation der Konsonantendichte einer Sprache mit Baumdichte, Niederschlag und Temperatur. In menschlichen Sprachen sind übrigens Konsonanten besonders anspruchsvoll, was den Frequenzbereich anbelangt, weshalb alte Menschen, die die hohen Frequenzen nicht mehr hören können, Sprache auch so schlecht verstehen.
Quelle Die Presse vom 5. November 2015

Quellen & Literatur

Can, D. C., Richards, T. L., & Kuhl, P. K. (2013). Early gray-matter and white-matter concentration in infancy predict later language skills: A whole-brain voxel-based morphometry study. Brain & Language, 124, 34-44.
Download: http://ilabs.uw.edu/sites/default/files/2013%20Deniz%20Can%20et%20al%20.pdf (13-12-12)

García-Sierra, A., Rivera-Gaxiola, M., Percaccio, R. C., Conboy, T. B., Romo, H., Klarman, L., Ortiz, S., & Kuhl, K. P. (in press). Bilingual Language Learning: An ERP Study Relating Early Brain Responses to Speech, Language Input, and Later Word Production. Journal of Phonetics.

Huth, Alexander G., de Heer, Wendy A., Griffiths, Thomas L., Theunissen, Frédéric E. & Gallant, Jack L. (2016). Natural speech reveals the semantic maps that tile human cerebral cortex. Nature, 532, 453–458.

Lara J. Pierce, Denise Klein, Jen-Kai Chen, Audrey Delcenserie, & Fred Genesee (2014). Mapping the unconscious maintenance of a lost first language. PNAS, doi:10.1073/pnas.1409411111.

Webb, A. R., Heller, H. T., Benson, C. B. & Lahav, A. (2015). Mother’s voice and heartbeat sounds elicit auditory plasticity in the human brain before full gestation. PNAS 2015, doi:10.1073/pnas.1414924112.

Zwisler, R. (1990). Sprachentwicklung.
WWW: http://www.zwisler.de/scripts/Sprachentwicklung.html (01-11-22)

Formale Sprachen

Bei einer mathematischen Formel wird unser Gehirn mit einer mathematischen Syntax konfrontiert, die rein formale Beziehungen zwischen den verwendeten Zeichenenthalten. Formeln sind ein typisches Beispiel für formale Sprachen und Menschen wachsen damit fast selbstverständlich auf, denn vom Mathematikunterricht in der Schule bis zum Umgang mit Programmiersprachen nehmen formale Sprachen im täglichen Leben einen festen Platz ein. Eine formale Sprache zeichnet sich unter anderem dadurch aus, dass sie aus einem begrenzten Zeichenvorrat eine beliebige Anzahl von Ausdrücken bilden kann, wodurch diese Sprachen hochgradig effektiv sind, da sie im Gegensatz natürlichen Sprachen keinen Raum für Missverständnisse bieten. Sowohl natürliche wie formale Sprachen besitzen eine Grammatik und sind insofern strukturell miteinander verwandt. Roland Friedrich & Angela D. Friederici (Max-Planck-Institut für Kognitions- und Neurowissenschaften in Leipzig) zeigten in Studien, dass es Unterschiede in der neuronalen Verarbeitung gibt. Das menschliche Gehirn verarbeitet die Syntax mathematischer Formeln bei weitem nicht so automatisiert wie die natürlicher Sprachen, sondern mit wesentlich höherem kognitivem Aufwand, wobei vor allem Aktivitäten im intraparietalen Sulcus, im linken inferioren frontalen Gyrus sowie in Gebieten um das Broca-Areal, dem eigentlichen Sprachzentrum liegen. Natürliche Sprachen aktivieren also hauptsächlich das Broca-Areal, während formale Sprachen zusätzlich jene Gebiete aktivieren, die vor allem bei Denksportaufgaben eingebunden sind.

Quelle: http://idw-online.de/pages/de/news320200 (09-06-13)


Überblick über weitere Arbeitsblätter zum Thema Gehirn



inhalt :::: kontakt :::: news :::: impressum :::: autor :::: copyright :::: zitieren ::::
navigation: