Kommunikation: Sprache, Emotion und Persönlichkeit
Sprache ist nicht das, womit man etwas beschreibt, sondern womit man denkt.
Peter Bichsel
Die Sprache ist die Kleidung der Gedanken.
Samuel Johnson
Literatur
Abrams, Daniel A., Mistry, Percy K., Baker, Amanda E., Padmanabhan,
Aarthi & Menon, Vinod (2022). A Neurodevelopmental Shift in Reward
Circuitry from Mother’s to Nonfamilial Voices in Adolescence. The
Journal of Neuroscience, 42, 4164-4173.
Bohn, Manuel, Kachel, Gregor & Tomasello, Michael (2019). Young
children spontaneously recreate core properties of language in a new
modality. Proceedings of the National Academy of Sciences, 116,
26072-26077.
Burra, Nicolas, Kerzel, Dirk, Munoz Tord, David, Grandjean,
Didier & Ceravolo, Leonardo (2018). Early spatial attention
deployment toward and away from aggressive voices. Social Cognitive and
Affective Neuroscience, doi: 10.1093/scan/nsy100.
Frühholz, S., Dietziker, J., Staib, M. & Trost, W. (2021).
Neurocognitive processing efficiency for discriminating human non-alarm
rather than alarm scream calls. PLoS Biology, 19,
doi:10.1371/journal.pbio.3000751.
Kraus, W. (2017). Voice-Only Communication Enhances Empathic Accuracy. American Psychologist, 72, 644–654.
Matzinger, T., Placinski, M., Gutowski, A., Lewandowski, M., Zywiczynski, P., & Wacewicz, S. (2024). Inherent linguistic preference outcompetes incidental alignment in cooperative partner choice. Language and Cognition, 1-18, doi:10.1017/langcog.2024.27.
Nuno-Perez, A., Mondoloni, S., Tchenio, A., Lecca, S. & Mameli, M.
(2021). Biophysical and synaptic properties of NMDA receptors in the
lateral habenula. Neuropharmacology, 196, 108718.
https://doi.org/10.1016/j.neuropharm.2021.108718.
Krumpholz, Christina, Quigley, Cliodhna, Ameen, Karsan, Reuter, Christoph, Fusani, Leonida & Leder, Helmut (2022). The Effects of Pitch Manipulation on Male Ratings of Female Speakers and Their Voices. Frontiers in Psychology, 13, doi:10.3389/fpsyg.2022.911854.
Pennebaker, J. W. & Francis, M. E. (1999). Linguistic Inquiry and Word Count. Lawrence Erlbaum.
Stern, Julia, Schild, Christoph, Jones, Benedict C., DeBruine, Lisa M., Hahn, Amanda, Puts, David A., Zettler, Ingo, Kordsmeyer, Tobias L., Feinberg, David, Zamfir, Dan, Penke, Lars &Arslan, Ruben C. (2021). Do voices carry valid information about a speaker’s personality? Journal of Research in Personality, 92, doi:10.1016/j.jrp.2021.104092.
Stangl, W. (2015). Paraverbale Kommunikation. Online Lexikon für Psychologie und Pädagogik. WWW: https://lexikon.stangl.eu/12100/ paraverbale-kommunikation/ (15-11-12)
Stangl, W. (2022, 12. August). Die Stimme der Mutter wird mit dem Alter immer unwichtiger. Stangl notiert ….
https://notiert.stangl-taller.at/gehirnforschung/die-stimme-der-mutter-wird-mit-dem-alter-immer-unwichtiger/
Stangl, W. (2022, 24. November). Stimme und Persönlichkeit. Stangl notiert …
https://www.mpg.de/14204907/wie-entsteht-sprache (20-02-03)
Stangl, W. (2022, 2. Februar). Elterliche Fürsorge im Gehirn verankert. Stangl notiert …
(Stangl, 2024).
Stangl, W. (2024, 5. August). Ähnliche Sprachmuster schaffen Vertrauen in einer Kommunikation. arbeitsblätter news.
https://arbeitsblaetter-news.stangl-taller.at/aehnliche-sprachmuster-schaffen-vertrauen-in-einer-kommunikation/.
Die elektronische Sprachanalyse ist allerdings keine Erfindung Pennebakers, denn schon Philip Stone hat 1966 ein computergestütztes Zählverfahren (General Inquirer) entwickelt, Louis Gottschalk und Goldine Gleser die Gottschalk-Gleser-Skalen entwickelt, mit denen man automatisch einordnen wollte, wie sehr etwa Angst oder Aggressivität die Mitteilungen eines Menschen prägen.
Bekannt wurde Pennebaker durch die Analyse der US-Präsidentschaftswahl 2008, bei der er ein sprachliches Psychogramm der Kandidaten veröffentlichte. Sowohl in den Debatten als auch in Interviews zeigten sich klare Tendenzen: John McCain sprach seine Wähler sehr direkt und persönlich an, seine Wortwahl erwies sich als emotionsgeladen und impulsiv. Barack Obama hingegen verwendete häufig Kausalbeziehungen, was auf komplexe Gedankengänge hindeute. Tendenziell äußerte er sich auch vager als sein republikanischer Konkurrent.
Allerdings ist es erst heute mit steigenden Rechnerkapazitäten möglich, größere Datenmengen zu sammeln, zu speichern und zu verarbeiten und somit letztlich die Analyse treffsicherer zu machen. So wurde etwa für das Analysenprogramm Precire mit Textproben von über fünftausend Menschen trainiert, bei denen wesentliche psychologische Kategorien bekannt waren. Das System misst dabei mehr als dreitausend Kategorien.
In einer Untersuchung der Universität Amsterdam unterzogen sich
Probanden einem Persönlichkeitstest und mussten dann Texte vorlesen,
etwa Fabeln von Äsop. Es zeigte sich, dass wer besonders neugierig und
offen für neue Erfahrungen war, im Durchschnitt auch dynamischer sprach,
also an manchen Textstellen etwas lauter und an anderen leiser wurde.
Besonders gewissenhafte Menschen lasen alle Passagen der Texte
tendenziell in ein und derselben Lautstärke. Stimme, Sprechweise und
Persönlichkeit haben daher durchaus etwas miteinander zu tun, doch
umfassende Rückschlüsse von der Stimme auf die Persönlichkeit sind wohl
dennoch nicht möglich.
Der Schrei
Eine besondere Form das menschlichen Kommunikation ist der Schrei, der Menschen warnen und aufrütteln soll. Nun hat man untersucht, was Schreie im Rahmen der sprachlichen Kommunikation so einzigartig unter den menschlichen Lautäußerungen macht. In einer Studie hat man herausgefunden, dass Schreie ganz besondere akustische Eigenschaften besitzen, denn sie sind laut, hoch und schrill, doch das allein reicht nicht aus, sondern sie besitzen darüber hinaus noch eine einzigartige Modulation, die sie von anderen Lauten unterscheidet. Dieses Merkmal kann man als Rauigkeit bezeichnen, wobei Laute dann rau klingen, wenn sich ihre Amplitude oder ihre Frequenz so rasch ändert, dass das Gehör diese Veränderungen nicht mehr auflösen kann. Während normale Sprache eine Modulationsfrequenz von etwa 4 bis 5 Hertz hat, weist Rauigkeit Frequenzwechsel zwischen 30 und 150 Hertz auf, d. h., die zeitlichen Veränderungen sind wesentlich schneller und beunruhigen dadurch jene Menschen, die sie vernehmen. Übrigens ahmen Weckerhersteller diese akustischen Eigenarten eines menschlichen Schreies mit ihren Alarmtönen sehr gut nach. Menschen empfinden Schreie und Alarmgeräusche dabei umso beängstigender, je deutlicher ihre akustische Rauigkeit ist, und zwar mit der Folge, dass solche alarmierende Laute und Klänge das Angstzentrum des Gehirns erregen. Die Einzigartigkeit des Schreis gestattet es Menschen, aus einem Schrei ohne jedes Nachdenken wichtige, womöglich lebensentscheidende Informationen herauszuhören.
Es wird angenommen, dass markante Vokalisierungen, insbesondere aggressive Stimmen, durch ein automatisches Bedrohungserkennungssystem bei Menschen erhöhte Aufmerksamkeit erregen. Burra et al. (2018) haben nun gezeigt, dass die Aufmerksamkeitsverarbeitung bedrohlicher Stimmsignale in zwei verschiedenen Phasen der auditorischen Verarbeitung optimiert wird. Das Gehirn bemerkt eine wütende Stimme schneller als eine fröhliche oder neutrale Intonation und schenkt ihr auch länger Aufmerksamkeit, indem potenziell gefährliche Laute im Gehirn länger als positiv konnotierte analysiert werden. Mittels EEG konnte man diese Verzögerungen deutlich beobachten, offenbar will das Gehirn diese Laute länger untersuchen, um eine mögliche Gefahr zu beurteilen und adäquat zu reagieren. Weil die Aufmerksamkeit auf dem bedrohlichen Laut länger verbleibt, verzögert sich dadurch aber die motorische Reaktion. Diese erweiterte Aufmerksamkeit war übrigens nur bei weiblichen und nicht bei männlichen Probanden nachweisbar.
Das Schreien von Babys
Elterliche Fürsorge beim Schreien eines Babys wird von einer Gehirnstruktur für die Verarbeitung negativer Emotionen gesteuert, was sich in einem Experiment (Nuno-Perez et al., 2021) an Mäusen zeigte, als man weibliche, kinderlose Mäuse mit schreienden Jungtieren im Alter von zwei bis fünf Tagen zusammenbrachte. Etwa fünfundsiebzig Prozent der Tiere näherten sich dem Baby und brachten es in das sichere Nest zurück, wobei in den Gehirnen der Mäuse dabei die Aktivität in der lateralen Habenula stieg. Das deutet darauf hin, dass sich erwachsene Mäuse gegenüber Neugeborenen fürsorglich verhalten, um die psychische Belastung durch Schreie zu vermeiden, wobei das wohl allein nicht ausreicht, um das Verhalten der Nagetiere völlig zu erklären, denn wurden die Mäuse nämlich anderen unangenehmen Tönen ausgesetzt, flohen sie einfach vor der Schallquelle, d. h., ohne ein Mäusebaby in der Nähe flüchteten sie nur. Offenbar gibt also eine genetische Basis, die sich in der lateralen Habenula befindet, die erklären könnte, warum Mäuse sich den Jungen nähern und sich ihrer annehmen.
Die Habenulae, auch Epiphysenstiele, sind ein Teil des Epithalamus und damit des Zwischenhirns, wobei die Habenula in mediale Habenula und laterale Habenula eingeteilt wird. Es handelt sich um zwei dünne Markbündel, die die Zirbeldrüse mit dem Thalamus verbinden, wobei sich beide Habenulae als Stria medullaris thalami fortsetzen, die das olfaktorische Zentrum im Riechhirn mit den Kernen der Habenulae verbindet. Dieser Bereich des Gehirns wird auch als Zentrum der Enttäuschung bezeichnet, da es etwa beim Hören des Geschreis eines Babys aktiviert wird, was Menschen einerseits auf die Nerven gehen kann, andererseits aber auch das Bedürfnis auslöst, das Kind zu trösten.
Die vermutete Attraktivität von Frauen auf Grund ihrer Stimmen
In der Regel treten Stimme und Gesicht von Menschen in einer natürlichen Umgebung gemeinsam auf, und die multisensorische Verarbeitung von Stimme und Gesicht hängt dabei von ihrer synchronen Präsentation ab. In der psychologischen Forschung wurden verschiedene gesichts- und stimmliche Hinweise auf die Attraktivität sowie auf die Beurteilung von Geschlechtsdimorphismus, Gesundheit und Alter untersucht. Es gibt jedoch nur wenige Studien, die das Zusammenspiel von stimmlichen und mimischen Hinweisen bei der Beurteilung der Attraktivität unter naturalistischen Bedingungen mit dynamischen, ökologisch gültigen Reizen untersucht haben. In einer Studie von Krumpholz et al. (2022) wurden nun kurze Videos oder Audiospuren von Frauen eingesetzt, die ganze Sätze sprechen, und dabei die Stimmlage manipuliert, um die intermodalen Wechselwirkungen der Stimmlage auf die Gesichtsattraktivität und die damit verbundenen Bewertungen zu untersuchen. Männliche Teilnehmer mussten dann die Attraktivität, die Weiblichkeit, das Alter und die Gesundheit von synchronisierten Audio-Video-Aufnahmen oder nur von Stimmen bewerten, die entweder die ursprüngliche oder eine veränderte Stimmlage aufwiesen.
Man erwartete dabei, dass Audiostimuli mit erhöhter Stimmlage als attraktiver, weiblicher, gesünder und jünger eingestuft werden, bzw. wenn auditive Beurteilungen die Beurteilung von Gesichtsmerkmalen crossmodal beeinflussen, erwarteten man zusätzlich, dass die Manipulation der Stimmlage die Beurteilung von audiovisuellem Stimulusmaterial beeinflusst. Die Analysen an über 100 männlichen Probanden ergaben aber, dass Stimmaufnahmen mit erhöhter Stimmlage zwar als weiblicher und jünger, aber nicht als attraktiver oder gesünder wahrgenommen wurden. In Verbindung mit Videoaufnahmen senkte eine erhöhte Stimmlage das vermutete Alter der Gesichter, hatte aber keinen signifikanten Einfluss auf die wahrgenommene Attraktivität, Weiblichkeit oder Gesundheit. Diese Ergebnisse deuten nun darauf hin, dass die Manipulation der Stimmlage einen messbaren Einfluss auf die Beurteilung von Weiblichkeit und Alter hat, aber keinen messbaren Einfluss auf die stimmliche und gesichtliche Attraktivität unter natürlichen Bedingungen.
Persönlichkeit und Stimmlage
Untersuchungen über Zusammenhänge zwischen Persönlichkeitsmerkmalen von Menschen und ihren Stimmen haben sich in erster Linie auf die Persönlichkeitsurteile anderer Menschen über eine Zielperson konzentriert, die auf den stimmlichen Merkmalen der Zielperson, insbesondere der Stimmlage, basieren. Menschen nehmen also allein aufgrund der Stimme wahr, ob jemand interessiert, freundlich, traurig, nervös klingt, wobei auch Annahmen über Vertrauen und Dominanz getroffen werden. Es ist jedoch nach wie vor unklar, ob individuelle Unterschiede in der Stimme mit tatsächlichen individuellen Unterschieden in den Persönlichkeitsmerkmalen verbunden sind, und ob stimmliche Merkmale tatsächlich richtige Hinweise auf die Persönlichkeit darstellen.
Stern et al. (2021) untersuchten nun genauer, wie die Persönlichkeitsmerkmale des Fünf-Faktoren-Modells der Persönlichkeit, Soziosexualität und Dominanz mit der gemessenen Grundfrequenz (Stimmhöhe) und den Formantenfrequenzen (Formantenposition) zusammenhängen. Zu diesem Zweck hat man eine Sekundärdatenanalyse einer großen Stichprobe aus elf verschiedenen, unabhängigen Datensätzen mit durchgeführt. Die Ergebnisse deuten auf substanzielle negative Zusammenhänge zwischen der Stimmlage und selbstberichteter Soziosexualität, Dominanz und Extraversion hin. Menschen - Männer wie Frauen - mit tieferen Stimmen sind also in der Regel dominanter und extravertierter. Außerdem gaben Studienteilnehmer und -teilnehmerinnen mit tieferen Stimmen häufiger an, an Gelegenheitssex außerhalb einer romantischen Beziehung interessiert zu sein. Bei anderen Persönlichkeitsmerkmalen wie Umgänglichkeit, Neurotizismus, Gewissenhaftigkeit oder Offenheit, die durch die Befragung ebenfalls erfasst worden waren, konnte man keinen Zusammenhang mit der Stimmlage finden.
Angstschreie
Durch eine besonders schnelle Modulationsfrequenz weisen die
Schreie von Menschen eine Rauigkeit auf, die sie in der Wahrnehmung so
unangenehm macht, wobei je höher die Modulationsfrequenz, desto mehr
vibriert ein Ton und desto rauer klingt er. Da das Gehirn Geräusche als
umso beängstigender wahrnimmt, je rauer sie seien, wird auch jenes
Gehirnzentrum aktiviert, das für Verarbeitung und Erinnerung von Angst
zuständig ist. Untersuchungen zeigen, dass Schreie dabei eine bevorzugte
akustische Nische belegen, wobei neben menschlichen Schreien auch Alarmtöne von Weckern
eine ähnliche akustische Struktur aufweisen, sodass die Hersteller
vermutlich damit die menschliche Stimme nachahmen wollen. Die Frequenz
von normaler Sprache liegt zwischen vier und fünf Hertz, die von
Schreien oder geschrienen Sätzen aber zwischen 30 und 150 Hertz, sodass
sie auf diese Weise aus anderen Rufen herausstechen und vom Gehirn
sofort als alarmierend wahrgenommen werden.
In welchen Schritten entstehen menschliche Sprachen?
Das soziale und kulturelle Leben des Menschen beruht auf einer einzigartigen Reihe von kommunikativen Fähigkeiten, wobei neu entstehende Kommunikationssysteme einen Einblick in die kognitiven und interaktionellen Grundlagen dieser Fähigkeiten bieten. Zwar ist weitgehend unbekannt, wie die mehr als 6000 natürlichen Sprachen der Welt entstanden sind, doch in jüngster Zeit sind neue Gebärdensprachen unter Gehörlosen entstanden, die sich in einer Gemeinschaft zusammengeschlossen haben, was Einblicke in die Dynamik der Sprachevolution bietet. Bei der Dokumentation der Entstehung dieser Sprachen wurde jedoch meist nur das Endprodukt untersucht, d. h., der Prozess, durch den Ad-hoc-Zeichen in ein strukturiertes Kommunikationssystem umgewandelt werden, wurde nicht direkt beobachtet. In einem Versuch von Bohn et al. (2019) mussten Kinder in einem stummen Videogespräch einem Partner eine Bedeutung vermitteln, obwohl sie nicht in der Lage waren, gesprochene Sprache zu verwenden. Die gestischen Codesysteme, die die Kinder innerhalb einer 30-minütigen Testsitzung ad hoc erzeugten, wiesen zentrale Merkmale einer natürlichen Sprache bzw. einer entstehenden Gebärdensprachen auf: Referenzsignale für Objekte, Handlungen und abstrakte Konzepte, konventionelle Verwendung dieser Signale und eine grammatikalische Struktur. Um neuartige Botschaften, einschließlich abstrakter Konzepte, zu kommunizieren, schufen Kinder in Zweiergruppen spontan neuartige gestische Zeichen, wobei diese mit der Zeit diese Zeichen zunehmend willkürlich und konventionalisiert wurden. Als die Kinder mit der Notwendigkeit konfrontiert wurden, komplexere Bedeutungen zu kommunizieren, begannen sie, ihre Gesten grammatikalisch zu strukturieren.
Offenbar verfügen Kinder über die grundlegenden Fähigkeiten, die nicht nur für den Erwerb einer natürlichen Sprache, sondern auch für die spontane Schaffung einer neuen Sprache erforderlich sind. Auf Basis der vorliegenden Studie erscheinen daher folgende Schritte für die Entwicklung von Sprache plausibel: Zunächst werden Personen, Handlungen oder Gegenstände durch Zeichen dargestellt, die den Dingen ähneln. Voraussetzung hierfür ist ein gemeinsamer Erfahrungsschatz der Interaktionspartner, wobei die Gesprächspartner auch einander nachahmen, sodass sie die gleichen Zeichen für die gleichen Dinge verwenden, d. h., die Zeichen gewinnen eine Bedeutung. Im Laufe der Zeit werden die Beziehungen zwischen den Zeichen und den Dingen immer abstrakter und die Bedeutung der einzelnen Zeichen spezieller, wobei nach und nach auch grammatikalische Strukturen eingeführt werden, wenn das Bedürfnis besteht komplexere Sachverhalte zwischen Dingen zu kommunizieren. Bemerkenswert ist, dass man diese Prozesse schon innerhalb einer halben Stunde beobachten kann, d. h., die Geschwindigkeit, mit der Kinder diese strukturierten Systeme schafften, könnte tiefgreifende Auswirkungen auf die Theorien über die Evolution der Sprache, einen Prozess, von dem man im Allgemeinen annimmt, dass er sich über viele Generationen, wenn nicht gar Jahrtausende erstreckt. Die Ergebnisse dieser Untersuchung zeigen aber, dass sprachähnliche Kommunikationssysteme schnell aus sozialer Interaktion entstehen können.
Siehe dazu auch Paraverbale Kommunikation.
Auf gleicher Wellenlänge
Übrigens haben Untersuchungen gezeigt, das sich im EEG die
Gehirnströme zweier Menschen, die miteinander reden, ohne einander zu
sehen, schon nach kurzer Zeit synchronisieren. Zwei Menschen, die
nebeneinandersitzen und nicht miteinander kommunizieren, weisen im
Vergleich dazu deutlich unterschiedliche Gehirnströme auf, sodass man
von einem gesprächsbasierten Abgleichungseffekt ausgehen kann.
Die Stimme der Mutter verliert mit dem Alter an Bedeutung
Die sozialen Welten von Kleinkindern drehen sich in erster Linie um
Eltern und Betreuungspersonen, die eine Schlüsselrolle bei der Steuerung
der sozialen und kognitiven Entwicklung spielen. Ein Kennzeichen der
Adoleszenz ist jedoch die Verlagerung der Orientierung auf
außerfamiliäre soziale Ziele, ein adaptiver Prozess, der die
Jugendlichen auf ihre Unabhängigkeit vorbereitet. Die Adoleszenz ist
durch eine Verschiebung der sozialen Orientierung hin zu außerfamiliären
Sozialpartnern gekennzeichnet.
Abrams et al. (2022) haben gezeigt, dass sich diese Verschiebung in der
neuronalen Aktivität widerspiegelt, die in Regionen der
Belohnungsverarbeitung als Reaktion auf kurze Stimmproben gemessen
wurde. Mit Hilfe der funktionellen Bildgebung des Gehirns bei der
Verarbeitung menschlicher Stimmen bei Kindern und Jugendlichen (im Alter
von 7 bis 16 Jahren) konnte man unterschiedliche neuronale Signaturen
für die Stimme der Mutter und für nicht-familiäre Stimmen im Laufe der
kindlichen und jugendlichen Entwicklung in Belohnungs- und sozialen
Bewertungssystemen nachweisen, die im Nucleus accumbens und im
ventromedialen präfrontalen Cortex verankert sind. Während jüngere
Kinder eine höhere Aktivität in diesen Gehirnsystemen für die Stimme der
Mutter im Vergleich zu nichtfamiliären Stimmen aufwiesen, zeigten
ältere Jugendliche den gegenteiligen Effekt mit erhöhter Aktivität für
nichtfamiliäre Stimmen im Vergleich zu Mutterstimmen. Die Ergebnisse
zeigen, dass die Belohnungs- und sozialen Bewertungssysteme des Gehirns
eine entscheidende Rolle bei den ausgeprägten Veränderungen in der
Orientierung von Jugendlichen auf nichtfamiliäre soziale Ziele spielen.
Mimik kann das Verständnis von Gefühlen erschweren
Kraus (2017) hat einander unbekannte Menschen in einem dunklen oder beleuchteten Raum in verschiedene Gesprächssituationen gebracht, um zu überprüfen, ob der Gesichtsausdruck notwendig ist, um die Emotionen anderer Menschen zu erkennen. Wenn die Probanden den Gesprächspartner nicht sahen, sondern nur hörten, konnten sie dessen Emotionen am genauesten einschätzen. Daher ist es möglicherweise nicht die beste Strategie, aus der Mimik oder aus der Kombination von Stimme und Mimik die Stimmung oder die Absichten des Gegenübers richtig einzuschätzen. Nach dem Studienautor ist daher genaues Zuhören die beste Methode, um die Gefühle des anderen zu verstehen. Das liegt auch daran, dass in der Stimme Gefühle besonders schwer zu verschleiern sind, d. h., es erfordert sehr viel Selbstkontrolle, denn in der Stimme werden auch kleinste Nuancen vom Gegenüber wahrgenommen, während Mimik und Gestik viel besser kontrolliert und gesteuert werden können, nicht zuletzt auch um andere zu täuschen. Beim Zuhören hat auch das Gehirn einen Vorteil, wenn es sich nur auf ein Signal konzentrieren muss und daher die Informationen schneller und genauer verarbeiten kann.
Erfolgreich kommunizieren
Die Rhetoriklehrerin Ingrid Amon gibt in den OÖN vom 4. Jänner 2018 einige Trainingstipps, um in Gesprächen erfolgreicher kommunizieren zu können:
- Hören Sie anderen Menschen bewusst zu und achten Sie auf deren Sprechtechnik. Was finden Sie sympathisch? Was stört Sie? Ist die Stimme zu leise, zu monoton? Wie gefällt Ihnen die Gestik?
- Die Meisterklasse des Hörens ist aber nicht, anderen, sondern sich selbst zuzuhören. Die meisten Menschen werden dabei einen heilsamen Schock erleben. Dieser sei jedoch wichtig, um die eigenen Sprechmängel zu erkennen und an seiner Technik feilen zu können.
- Achten Sie beim Reden darauf, dass Sie nicht zu schnell werden. Wichtig ist, dass man sich selbst zuhört, dann gelingt es leichter, in der richtigen Geschwindigkeit zu reden. Das nenne man Denksprechen oder Sprechdenken.
- Trainieren Sie das Zwerchfell, um die Stimme zu stärken. Eine wirksame Übung dafür ist es, zweimal täglich jeweils fünf Kerzen kraftvoll auszublasen.
Überblick: Was ist Kommunikation?
inhalt :::: nachricht :::: news :::: impressum :::: datenschutz :::: autor :::: copyright :::: zitieren ::::