[werner.stangl]s arbeitsblätter 

Kommunikation: Sprache, Emotion und Persönlichkeit

Sprache ist nicht das, womit man etwas beschreibt, sondern womit man denkt.
Peter Bichsel
Die Sprache ist die Kleidung der Gedanken.
Samuel Johnson

 

Literatur

Abrams, Daniel A., Mistry, Percy K., Baker, Amanda E., Padmanabhan, Aarthi & Menon, Vinod (2022). A Neurodevelopmental Shift in Reward Circuitry from Mother’s to Nonfamilial Voices in Adolescence. The Journal of Neuroscience, 42, 4164-4173.

Bohn, Manuel, Kachel, Gregor & Tomasello, Michael (2019). Young children spontaneously recreate core properties of language in a new modality. Proceedings of the National Academy of Sciences, 116, 26072-26077.

Burra, Nicolas, Kerzel, Dirk, Munoz Tord, David, Grandjean, Didier & Ceravolo, Leonardo (2018). Early spatial attention deployment toward and away from aggressive voices. Social Cognitive and Affective Neuroscience, doi: 10.1093/scan/nsy100.

Frühholz, S., Dietziker, J., Staib, M. & Trost, W. (2021). Neurocognitive processing efficiency for discriminating human non-alarm rather than alarm scream calls. PLoS Biology, 19, doi:10.1371/journal.pbio.3000751.

Kraus, W. (2017). Voice-Only Communication Enhances Empathic Accuracy. American Psychologist, 72, 644–654.

Nuno-Perez, A., Mondoloni, S., Tchenio, A., Lecca, S. & Mameli, M. (2021). Biophysical and synaptic properties of NMDA receptors in the lateral habenula. Neuropharmacology, 196, 108718. https://doi.org/10.1016/j.neuropharm.2021.108718.

Krumpholz, Christina, Quigley, Cliodhna, Ameen, Karsan, Reuter, Christoph, Fusani, Leonida & Leder, Helmut (2022). The Effects of Pitch Manipulation on Male Ratings of Female Speakers and Their Voices. Frontiers in Psychology, 13, doi:10.3389/fpsyg.2022.911854.

Pennebaker, J. W. & Francis, M. E. (1999). Linguistic Inquiry and Word Count. Lawrence Erlbaum.

Stern, Julia, Schild, Christoph, Jones, Benedict C., DeBruine, Lisa M., Hahn, Amanda, Puts, David A., Zettler, Ingo, Kordsmeyer, Tobias L., Feinberg, David, Zamfir, Dan, Penke, Lars &Arslan, Ruben C. (2021). Do voices carry valid information about a speaker’s personality? Journal of Research in Personality, 92, doi:10.1016/j.jrp.2021.104092.

Stangl, W. (2015). Paraverbale Kommunikation. Online Lexikon für Psychologie und Pädagogik. WWW: https://lexikon.stangl.eu/12100/ paraverbale-kommunikation/ (15-11-12)

Stangl, W. (2022, 12. August). Die Stimme der Mutter wird mit dem Alter immer unwichtiger. Stangl notiert ….
https://notiert.stangl-taller.at/gehirnforschung/die-stimme-der-mutter-wird-mit-dem-alter-immer-unwichtiger/

Stangl, W. (2022, 24. November). Stimme und Persönlichkeit. Stangl notiert …

https://notiert.stangl-taller.at/zeitgeistig/stimme-und-persoenlichkeit/.

https://www.mpg.de/14204907/wie-entsteht-sprache (20-02-03)

Stangl, W. (2022, 2. Februar). Elterliche Fürsorge im Gehirn verankert. Stangl notiert …

https://notiert.stangl-taller.at/mausmodell/elterliche-fuersorge-im-gehirn-verankert/.


Der Gebrauch von Sprache und Wörtern lässt Rückschlüsse auf die Persönlichkeit von Menschen zu. Schon in den 1980er Jahren versuchen Forscher etwa Therapieerfolge messbar zu machen, indem sie Funktionswörter zählen, wobei etwa der klinische Psychologe James W. Pennebaker (University of Texas) die Sprache von trauernden Menschen analysierte und wie sich diese im Therapieverlauf veränderte. Dabei untersucht er, inwieweit man aus den Worten die jemand benutzt, auf dessen Persönlichkeit oder psychische Erkrankungen schließen kann. Dazu benutzt er spezielle Analyseprogramme. Auch ein Computerprogramm wurde schon damals für eine formal quantitativen Analyse entwicket (Linguistic Inquiry and Word Count). Laut Pennebaker sind nicht die Inhalte eines Textes der Schlüssel zur Persönlichkeit des Autors, sondern vor allem unscheinbare Worte wie Pronomen, Artikel oder Konjunktionen, dem diese werden nämlich weniger bewusst verwendet.

Die elektronische Sprachanalyse ist allerdings keine Erfindung Pennebakers, denn schon Philip Stone hat 1966 ein computergestütztes Zählverfahren (General Inquirer) entwickelt, Louis Gottschalk und Goldine Gleser die Gottschalk-Gleser-Skalen entwickelt, mit denen man automatisch einordnen wollte, wie sehr etwa Angst oder Aggressivität die Mitteilungen eines Menschen prägen.

Bekannt wurde Pennebaker durch die Analyse der US-Präsidentschaftswahl 2008, bei der er ein sprachliches Psychogramm der Kandidaten veröffentlichte. Sowohl in den Debatten als auch in Interviews zeigten sich klare Tendenzen: John McCain sprach seine Wähler sehr direkt und persönlich an, seine Wortwahl erwies sich als emotionsgeladen und impulsiv. Barack Obama hingegen verwendete häufig Kausalbeziehungen, was auf komplexe Gedankengänge hindeute. Tendenziell äußerte er sich auch vager als sein republikanischer Konkurrent.

Allerdings ist es erst heute mit steigenden Rechnerkapazitäten möglich, größere Datenmengen zu sammeln, zu speichern und zu verarbeiten und somit letztlich die Analyse treffsicherer zu machen. So wurde etwa für das Analysenprogramm Precire mit Textproben von über fünftausend Menschen trainiert, bei denen wesentliche psychologische Kategorien bekannt waren. Das System misst dabei mehr als dreitausend Kategorien.

In einer Untersuchung der Universität Amsterdam unterzogen sich Probanden einem Persönlichkeitstest und mussten dann Texte vorlesen, etwa Fabeln von Äsop. Es zeigte sich, dass wer besonders neugierig und offen für neue Erfahrungen war, im Durchschnitt auch dynamischer sprach, also an manchen Textstellen etwas lauter und an anderen leiser wurde. Besonders gewissenhafte Menschen lasen alle Passagen der Texte tendenziell in ein und derselben Lautstärke. Stimme, Sprechweise und Persönlichkeit haben daher durchaus etwas miteinander zu tun, doch umfassende Rückschlüsse von der Stimme auf die Persönlichkeit sind wohl dennoch nicht möglich.

Der Schrei

Eine besondere Form das menschlichen Kommunikation ist der Schrei, der Menschen warnen und aufrütteln soll. Nun hat man untersucht, was Schreie im Rahmen der sprachlichen Kommunikation so einzigartig unter den menschlichen Lautäußerungen macht. In einer Studie hat man herausgefunden, dass Schreie ganz besondere akustische Eigenschaften besitzen, denn sie sind laut, hoch und schrill, doch das allein reicht nicht aus, sondern sie besitzen darüber hinaus noch eine einzigartige Modulation, die sie von anderen Lauten unterscheidet. Dieses Merkmal kann man als Rauigkeit bezeichnen, wobei Laute dann rau klingen, wenn sich ihre Amplitude oder ihre Frequenz so rasch ändert, dass das Gehör diese Veränderungen nicht mehr auflösen kann. Während normale Sprache eine Modulationsfrequenz von etwa 4 bis 5 Hertz hat, weist Rauigkeit Frequenzwechsel zwischen 30 und 150 Hertz auf, d. h., die zeitlichen Veränderungen sind wesentlich schneller und beunruhigen dadurch jene Menschen, die sie vernehmen. Übrigens ahmen Weckerhersteller diese akustischen Eigenarten eines menschlichen Schreies mit ihren Alarmtönen sehr gut nach. Menschen empfinden Schreie und Alarmgeräusche dabei umso beängstigender, je deutlicher ihre akustische Rauigkeit ist, und zwar mit der Folge, dass solche alarmierende Laute und Klänge das Angstzentrum des Gehirns erregen. Die Einzigartigkeit des Schreis gestattet es Menschen, aus einem Schrei ohne jedes Nachdenken wichtige, womöglich lebensentscheidende Informationen herauszuhören.

Es wird angenommen, dass markante Vokalisierungen, insbesondere aggressive Stimmen, durch ein automatisches Bedrohungserkennungssystem bei Menschen erhöhte Aufmerksamkeit erregen. Burra et al. (2018) haben nun gezeigt, dass die Aufmerksamkeitsverarbeitung bedrohlicher Stimmsignale in zwei verschiedenen Phasen der auditorischen Verarbeitung optimiert wird. Das Gehirn bemerkt eine wütende Stimme schneller als eine fröhliche oder neutrale Intonation und schenkt ihr auch länger Aufmerksamkeit, indem potenziell gefährliche Laute im Gehirn länger als positiv konnotierte analysiert werden. Mittels EEG konnte man diese Verzögerungen deutlich beobachten, offenbar will das Gehirn diese Laute länger untersuchen, um eine mögliche Gefahr zu beurteilen und adäquat zu reagieren. Weil die Aufmerksamkeit auf dem bedrohlichen Laut länger verbleibt, verzögert sich dadurch aber die motorische Reaktion. Diese erweiterte Aufmerksamkeit war übrigens nur bei weiblichen und nicht bei männlichen Probanden nachweisbar.

Das Schreien von Babys

Elterliche Fürsorge beim Schreien eines Babys wird von einer Gehirnstruktur für die Verarbeitung negativer Emotionen gesteuert, was sich in einem Experiment (Nuno-Perez et al., 2021) an Mäusen zeigte, als man weibliche, kinderlose Mäuse mit schreienden Jungtieren im Alter von zwei bis fünf Tagen zusammenbrachte. Etwa fünfundsiebzig Prozent der Tiere näherten sich dem Baby und brachten es in das sichere Nest zurück, wobei in den Gehirnen der Mäuse dabei die Aktivität in der lateralen Habenula stieg. Das deutet darauf hin, dass sich erwachsene Mäuse gegenüber Neugeborenen fürsorglich verhalten, um die psychische Belastung durch Schreie zu vermeiden, wobei das wohl allein nicht ausreicht, um das Verhalten der Nagetiere völlig zu erklären, denn wurden die Mäuse nämlich anderen unangenehmen Tönen ausgesetzt, flohen sie einfach vor der Schallquelle, d. h., ohne ein Mäusebaby in der Nähe flüchteten sie nur. Offenbar gibt also eine genetische Basis, die sich in der lateralen Habenula befindet, die erklären könnte, warum Mäuse sich den Jungen nähern und sich ihrer annehmen.

Die Habenulae, auch Epiphysenstiele, sind ein Teil des Epithalamus und damit des Zwischenhirns, wobei die Habenula in mediale Habenula und laterale Habenula eingeteilt wird. Es handelt sich um zwei dünne Markbündel, die die Zirbeldrüse mit dem Thalamus verbinden, wobei sich beide Habenulae als Stria medullaris thalami fortsetzen, die das olfaktorische Zentrum im Riechhirn mit den Kernen der Habenulae verbindet. Dieser Bereich des Gehirns wird auch als Zentrum der Enttäuschung bezeichnet, da es etwa beim Hören des Geschreis eines Babys aktiviert wird, was Menschen einerseits auf die Nerven gehen kann, andererseits aber auch das Bedürfnis auslöst, das Kind zu trösten.

Die vermutete Attraktivität von Frauen auf Grund ihrer Stimmen

In der Regel treten Stimme und Gesicht von Menschen in einer natürlichen Umgebung gemeinsam auf, und die multisensorische Verarbeitung von Stimme und Gesicht hängt dabei von ihrer synchronen Präsentation ab. In der psychologischen Forschung wurden verschiedene gesichts- und stimmliche Hinweise auf die Attraktivität sowie auf die Beurteilung von Geschlechtsdimorphismus, Gesundheit und Alter untersucht. Es gibt jedoch nur wenige Studien, die das Zusammenspiel von stimmlichen und mimischen Hinweisen bei der Beurteilung der Attraktivität unter naturalistischen Bedingungen mit dynamischen, ökologisch gültigen Reizen untersucht haben. In einer Studie von Krumpholz et al. (2022) wurden nun kurze Videos oder Audiospuren von Frauen eingesetzt, die ganze Sätze sprechen, und dabei die Stimmlage manipuliert, um die intermodalen Wechselwirkungen der Stimmlage auf die Gesichtsattraktivität und die damit verbundenen Bewertungen zu untersuchen. Männliche Teilnehmer mussten dann die Attraktivität, die Weiblichkeit, das Alter und die Gesundheit von synchronisierten Audio-Video-Aufnahmen oder nur von Stimmen bewerten, die entweder die ursprüngliche oder eine veränderte Stimmlage aufwiesen.

Man erwartete dabei, dass Audiostimuli mit erhöhter Stimmlage als attraktiver, weiblicher, gesünder und jünger eingestuft werden, bzw. wenn auditive Beurteilungen die Beurteilung von Gesichtsmerkmalen crossmodal beeinflussen, erwarteten man zusätzlich, dass die Manipulation der Stimmlage die Beurteilung von audiovisuellem Stimulusmaterial beeinflusst. Die Analysen an über 100 männlichen Probanden ergaben aber, dass Stimmaufnahmen mit erhöhter Stimmlage zwar als weiblicher und jünger, aber nicht als attraktiver oder gesünder wahrgenommen wurden. In Verbindung mit Videoaufnahmen senkte eine erhöhte Stimmlage das vermutete Alter der Gesichter, hatte aber keinen signifikanten Einfluss auf die wahrgenommene Attraktivität, Weiblichkeit oder Gesundheit. Diese Ergebnisse deuten nun darauf hin, dass die Manipulation der Stimmlage einen messbaren Einfluss auf die Beurteilung von Weiblichkeit und Alter hat, aber keinen messbaren Einfluss auf die stimmliche und gesichtliche Attraktivität unter natürlichen Bedingungen.

Persönlichkeit und Stimmlage

Untersuchungen über Zusammenhänge zwischen Persönlichkeitsmerkmalen von Menschen und ihren Stimmen haben sich in erster Linie auf die Persönlichkeitsurteile anderer Menschen über eine Zielperson konzentriert, die auf den stimmlichen Merkmalen der Zielperson, insbesondere der Stimmlage, basieren. Menschen nehmen also allein aufgrund der Stimme wahr, ob jemand interessiert, freundlich, traurig, nervös klingt, wobei auch Annahmen über Vertrauen und Dominanz getroffen werden. Es ist jedoch nach wie vor unklar, ob individuelle Unterschiede in der Stimme mit tatsächlichen individuellen Unterschieden in den Persönlichkeitsmerkmalen verbunden sind, und ob stimmliche Merkmale tatsächlich richtige Hinweise auf die Persönlichkeit darstellen.

Stern et al. (2021) untersuchten nun genauer, wie die Persönlichkeitsmerkmale des Fünf-Faktoren-Modells der Persönlichkeit, Soziosexualität und Dominanz mit der gemessenen Grundfrequenz (Stimmhöhe) und den Formantenfrequenzen (Formantenposition) zusammenhängen. Zu diesem Zweck hat man eine Sekundärdatenanalyse einer großen Stichprobe aus elf verschiedenen, unabhängigen Datensätzen mit durchgeführt. Die Ergebnisse deuten auf substanzielle negative Zusammenhänge zwischen der Stimmlage und selbstberichteter Soziosexualität, Dominanz und Extraversion hin. Menschen - Männer wie Frauen - mit tieferen Stimmen sind also in der Regel dominanter und extravertierter. Außerdem gaben Studienteilnehmer und -teilnehmerinnen mit tieferen Stimmen häufiger an, an Gelegenheitssex außerhalb einer romantischen Beziehung interessiert zu sein. Bei anderen Persönlichkeitsmerkmalen wie Umgänglichkeit, Neurotizismus, Gewissenhaftigkeit oder Offenheit, die durch die Befragung ebenfalls erfasst worden waren, konnte man keinen Zusammenhang mit der Stimmlage finden.

Angstschreie

Durch eine besonders schnelle Modulationsfrequenz weisen die Schreie von Menschen eine Rauigkeit auf, die sie in der Wahrnehmung so unangenehm macht, wobei je höher die Modulationsfrequenz, desto mehr vibriert ein Ton und desto rauer klingt er. Da das Gehirn Geräusche als umso beängstigender wahrnimmt, je rauer sie seien, wird auch jenes Gehirnzentrum aktiviert, das für Verarbeitung und Erinnerung von Angst zuständig ist. Untersuchungen zeigen, dass Schreie dabei eine bevorzugte akustische Nische belegen, wobei neben menschlichen Schreien auch Alarmtöne von Weckern eine ähnliche akustische Struktur aufweisen, sodass die Hersteller vermutlich damit die menschliche Stimme nachahmen wollen. Die Frequenz von normaler Sprache liegt zwischen vier und fünf Hertz, die von Schreien oder geschrienen Sätzen aber zwischen 30 und 150 Hertz, sodass sie auf diese Weise aus anderen Rufen herausstechen und vom Gehirn sofort als alarmierend wahrgenommen werden.

Bei vielen Arten signalisieren Schrei-Rufe die affektive Bedeutung von Ereignissen für andere, wobei angenommen wird, dass Schrei-Rufe im Grunde alarmierender und furchteinflößender Natur sind, um potenzielle Bedrohungen zu signalisieren, mit sofortiger, unwillkürlicher und genauer Erkennung durch die Wahrnehmenden. Schreie sind beim Menschen aber auch Ausdruck von Freude oder Begeisterung. Daher sind Schrei-Rufe in ihrer affektiven Signalisierungsnatur vermutlich vielfältiger als nur auf die ängstliche Alarmierung einer Bedrohung beschränkt. Bisher ging man davon aus, dass das kognitive System von Primaten und Menschen speziell darauf abgestimmt ist, Signale von Gefahr und Bedrohung zu erkennen, doch im Gegensatz zu Primaten und anderen Tierarten scheint sich die Schrei-Kommunikation des Menschen im Verlauf der Evolution weiter diversifiziert zu haben. Frühholz et al. (2021) haben verschiedene psychoakustische, perzeptive Entscheidungs- und Neuroimaging-Experimente beim Menschen durchgeführt, um die Existenz von mindestens sechs psychoakustisch unterscheidbaren Typen von Schrei-Rufen sowohl alarmierender als auch nicht-alarmierender Natur zu demonstrieren. In diesen Experimenten wurde Teilnehmer gebeten, positive und negative Schreie auszustoßen, wie sie in verschiedene Situationen hervorgerufen werden können, wobei eine zweite Gruppe von Probanden die emotionale Natur der Schrei-Rufe bewerten und sie in entsprechenden Kategorien klassifizieren sollte. Während sie diese Schreie hörten, wurde ihre Hirnaktivität hinsichtlich Wahrnehmung und Erkennung sowie Verarbeitung und Zuordnung der Laute mit funktioneller Magnetresonanztomografie gemessen, wobei die Hirnareale im vorderen Großhirn, in der Hörrinde und im limbischen System bei erfreuten bzw. nicht alarmierenden Schrei-Rufen viel aktiver und stärker vernetzt waren als bei Alarm-Rufne. Man unterschied dabei sechs emotional unterschiedliche Schrei-Typen, die Schmerz, Wut, Angst, Vergnügen, Traurigkeit und Freude signalisieren. Es zeigte sich, dass die ZuhörerInnen auf nicht-alarmierende und positive Schreie rascher, genauer und hinsichtlich ihrer Hirnaktivität empfindlicher reagierten, als wenn es um Alarmschreie gibt, d. h., die neuronale Verarbeitung von Alarmschreien im Vergleich zu Nicht-Alarmschreien während einer impliziten Verarbeitungsaufgabe löste nur minimale neuronale Signale und Konnektivität bei den Wahrnehmenden aus, entgegen der früheren Annahme eines Bedrohungsverarbeitungsbias des neuronalen Systems von Primaten. Diese Befunde zeigen auch, dass Schrei-Rufe in ihrer signalisierenden und kommunikativen Natur beim Menschen vielfältiger sind als bisher angenommen, und im Gegensatz zu einem häufig beobachteten Bedrohungsverarbeitungs-Bias in Wahrnehmungsdiskriminierungen und neuronalen Prozessen zeigte sich, dass insbesondere Nicht-Alarm-Schreie und positive Schreie eine höhere Effizienz in beschleunigten Diskriminierungen und der impliziten neuronalen Verarbeitung verschiedener Schrei-Typen beim Menschen zu haben scheinen. Offenbarh schreit nur der Mensch, um auch positive Emotionen wie große Freude und Vergnügen zu signalisieren, d. h., im Vergleich zu Alarmrufen sind die positiven Schreie in der Evolution mit der Zeit immer wichtiger geworden, was seine Ursache in den kommunikativen Anforderungen der zunehmend komplexeren sozialen Beziehungen des Menschen haben dürfte.

In welchen Schritten entstehen menschliche Sprachen?

Das soziale und kulturelle Leben des Menschen beruht auf einer einzigartigen Reihe von kommunikativen Fähigkeiten, wobei neu entstehende Kommunikationssysteme einen Einblick in die kognitiven und interaktionellen Grundlagen dieser Fähigkeiten bieten. Zwar ist weitgehend unbekannt, wie die mehr als 6000 natürlichen Sprachen der Welt entstanden sind, doch in jüngster Zeit sind neue Gebärdensprachen unter Gehörlosen entstanden, die sich in einer Gemeinschaft zusammengeschlossen haben, was Einblicke in die Dynamik der Sprachevolution bietet. Bei der Dokumentation der Entstehung dieser Sprachen wurde jedoch meist nur das Endprodukt untersucht, d. h., der Prozess, durch den Ad-hoc-Zeichen in ein strukturiertes Kommunikationssystem umgewandelt werden, wurde nicht direkt beobachtet. In einem Versuch von Bohn et al. (2019) mussten Kinder in einem stummen Videogespräch einem Partner eine Bedeutung vermitteln, obwohl sie nicht in der Lage waren, gesprochene Sprache zu verwenden. Die gestischen Codesysteme, die die Kinder innerhalb einer 30-minütigen Testsitzung ad hoc erzeugten, wiesen zentrale Merkmale einer natürlichen Sprache bzw. einer entstehenden Gebärdensprachen auf: Referenzsignale für Objekte, Handlungen und abstrakte Konzepte, konventionelle Verwendung dieser Signale und eine grammatikalische Struktur. Um neuartige Botschaften, einschließlich abstrakter Konzepte, zu kommunizieren, schufen Kinder in Zweiergruppen spontan neuartige gestische Zeichen, wobei diese mit der Zeit diese Zeichen zunehmend willkürlich und konventionalisiert wurden. Als die Kinder mit der Notwendigkeit konfrontiert wurden, komplexere Bedeutungen zu kommunizieren, begannen sie, ihre Gesten grammatikalisch zu strukturieren.

Offenbar verfügen Kinder über die grundlegenden Fähigkeiten, die nicht nur für den Erwerb einer natürlichen Sprache, sondern auch für die spontane Schaffung einer neuen Sprache erforderlich sind. Auf Basis der vorliegenden Studie erscheinen daher folgende Schritte für die Entwicklung von Sprache plausibel: Zunächst werden Personen, Handlungen oder Gegenstände durch Zeichen dargestellt, die den Dingen ähneln. Voraussetzung hierfür ist ein gemeinsamer Erfahrungsschatz der Interaktionspartner, wobei die Gesprächspartner auch einander nachahmen, sodass sie die gleichen Zeichen für die gleichen Dinge verwenden, d. h., die Zeichen gewinnen eine Bedeutung. Im Laufe der Zeit werden die Beziehungen zwischen den Zeichen und den Dingen immer abstrakter und die Bedeutung der einzelnen Zeichen spezieller, wobei nach und nach auch grammatikalische Strukturen eingeführt werden, wenn das Bedürfnis besteht komplexere Sachverhalte zwischen Dingen zu kommunizieren. Bemerkenswert ist, dass man diese Prozesse schon innerhalb einer halben Stunde beobachten kann, d. h., die Geschwindigkeit, mit der Kinder diese strukturierten Systeme schafften, könnte tiefgreifende Auswirkungen auf die Theorien über die Evolution der Sprache, einen Prozess, von dem man im Allgemeinen annimmt, dass er sich über viele Generationen, wenn nicht gar Jahrtausende erstreckt. Die Ergebnisse dieser Untersuchung zeigen aber, dass sprachähnliche Kommunikationssysteme schnell aus sozialer Interaktion entstehen können.

Siehe dazu auch Paraverbale Kommunikation.

Auf gleicher Wellenlänge

Übrigens haben Untersuchungen gezeigt, das sich im EEG die Gehirnströme zweier Menschen, die miteinander reden, ohne einander zu sehen, schon nach kurzer Zeit synchronisieren. Zwei Menschen, die nebeneinandersitzen und nicht miteinander kommunizieren, weisen im Vergleich dazu deutlich unterschiedliche Gehirnströme auf, sodass man von einem gesprächsbasierten Abgleichungseffekt ausgehen kann.

Die Stimme der Mutter verliert mit dem Alter an Bedeutung

Die sozialen Welten von Kleinkindern drehen sich in erster Linie um Eltern und Betreuungspersonen, die eine Schlüsselrolle bei der Steuerung der sozialen und kognitiven Entwicklung spielen. Ein Kennzeichen der Adoleszenz ist jedoch die Verlagerung der Orientierung auf außerfamiliäre soziale Ziele, ein adaptiver Prozess, der die Jugendlichen auf ihre Unabhängigkeit vorbereitet. Die Adoleszenz ist durch eine Verschiebung der sozialen Orientierung hin zu außerfamiliären Sozialpartnern gekennzeichnet. Abrams et al. (2022) haben gezeigt, dass sich diese Verschiebung in der neuronalen Aktivität widerspiegelt, die in Regionen der Belohnungsverarbeitung als Reaktion auf kurze Stimmproben gemessen wurde. Mit Hilfe der funktionellen Bildgebung des Gehirns bei der Verarbeitung menschlicher Stimmen bei Kindern und Jugendlichen (im Alter von 7 bis 16 Jahren) konnte man unterschiedliche neuronale Signaturen für die Stimme der Mutter und für nicht-familiäre Stimmen im Laufe der kindlichen und jugendlichen Entwicklung in Belohnungs- und sozialen Bewertungssystemen nachweisen, die im Nucleus accumbens und im ventromedialen präfrontalen Cortex verankert sind. Während jüngere Kinder eine höhere Aktivität in diesen Gehirnsystemen für die Stimme der Mutter im Vergleich zu nichtfamiliären Stimmen aufwiesen, zeigten ältere Jugendliche den gegenteiligen Effekt mit erhöhter Aktivität für nichtfamiliäre Stimmen im Vergleich zu Mutterstimmen. Die Ergebnisse zeigen, dass die Belohnungs- und sozialen Bewertungssysteme des Gehirns eine entscheidende Rolle bei den ausgeprägten Veränderungen in der Orientierung von Jugendlichen auf nichtfamiliäre soziale Ziele spielen.

Mimik kann das Verständnis von Gefühlen erschweren

Kraus (2017) hat einander unbekannte Menschen in einem dunklen oder beleuchteten Raum in verschiedene Gesprächssituationen gebracht, um zu überprüfen, ob der Gesichtsausdruck notwendig ist, um die Emotionen anderer Menschen zu erkennen. Wenn die Probanden den Gesprächspartner nicht sahen, sondern nur hörten, konnten sie dessen Emotionen am genauesten einschätzen. Daher ist es möglicherweise nicht die beste Strategie, aus der Mimik oder aus der Kombination von Stimme und Mimik die Stimmung oder die Absichten des Gegenübers richtig einzuschätzen. Nach dem Studienautor ist daher genaues Zuhören die beste Methode, um die Gefühle des anderen zu verstehen. Das liegt auch daran, dass in der Stimme Gefühle besonders schwer zu verschleiern sind, d. h., es erfordert sehr viel Selbstkontrolle, denn in der Stimme werden auch kleinste Nuancen vom Gegenüber wahrgenommen, während Mimik und Gestik viel besser kontrolliert und gesteuert werden können, nicht zuletzt auch um andere zu täuschen. Beim Zuhören hat auch das Gehirn einen Vorteil, wenn es sich nur auf ein Signal konzentrieren muss und daher die Informationen schneller und genauer verarbeiten kann.

Erfolgreich kommunizieren

Die Rhetoriklehrerin Ingrid Amon gibt in den OÖN vom 4. Jänner 2018 einige Trainingstipps, um in Gesprächen erfolgreicher kommunizieren zu können:

Überblick: Was ist Kommunikation?



inhalt :::: nachricht :::: news :::: impressum :::: datenschutz :::: autor :::: copyright :::: zitieren ::::


navigation: