[werner.stangl]s arbeitsblätter 

Neuronen und Gehirn in der Computersimulation

Vorbemerkung

Um zu verstehen, was die Funktionsweise des menschlichen Geistes bzw. des Gehirns ausmacht, sind seit jeher Vergleiche herangezogen worden. Erst nahm man an, der Mensch werde aus Lehm geformt und ein Gott hauche ihm seinen Geist ein. Später fand man an einem hydraulischen Modell Gefallen, etwa der Vorstellung, dass der Fluss der Säfte im Körper für das körperliche und geistige Geschehen verantwortlich sei. Als im 16. Jahrhundert Automaten aus Federn, Zahnrädern und Getrieben gebaut wurden, kamen Denker wie der französische Philosoph René Descartes zu der Ansicht, Menschen seien komplexe Maschinen. Die Entdeckung der Elektrizität gab der Geistesmetaphorik neuen Schwung, denn Mitte des 19. Jahrhunderts verglich der deutsche Physiker Hermann von Helmholtz das Gehirn mit einem Telegrafen. Der Mathematiker John von Neumann konstatierte, dass die Funktion des menschlichen Nervensystems digital sei und zog immer neue Parallelen zwischen den Bestandteilen der damaligen Rechenmaschinen und den Komponenten des menschlichen Gehirns. Nun ist die Vorstellung, das Gehirn arbeite wie ein Computer, die aktuellste Metapher, die in jeder Debatte über Künstliche Intelligenz auftaucht, doch der Vergleich hat weder etwas mit dem aktuellen Wissen über das Gehirn zu tun noch mit der menschlichen Intelligenz oder einem persönlichen Selbst, denn es gibt einen unüberbrückbaren Unterschied zwischen Mensch und Maschine, denn um mit der Komplexität der Welt umzugehen, ist ein neugeborener Mensch bereits mit komplexen evolutionär weitergereichten Potenzialen ausgestattet, etwa mit seinen Sinnen, einer Vielzahl Reflexen, die für das Überleben wichtig sind und mit Lernmechanismen, die es ihm ermöglichen, sich schnell zu verändern, so dass er mit seiner Welt immer besser interagieren kann, auch wenn diese Welt sich permanent verändert.

Gehirn und Computer haben zwar gemeinsam, dass beide Informationen verarbeiten, doch die enormen Leistungen des Gehirns durch einen Computer zu simulieren ist vor allem deshalb schwierig, da im Wesentlichen immer noch unklar ist, wie diese Leistungen überhaupt zustande kommen. Zwar kann man einzelne Funktionselemente nachahmen, etwa bestimmte Zelltypen, doch Gehirn und Computer unterscheiden sich eben doch in vielem, denn im Gehirn bilden die fest miteinander verbundenen Neuronen immer wieder neue funktionelle Netzwerke, indem sie einmal mit dem einen Nachbarn kommunizieren und dann wieder mit einem anderen, je nachdem, auf welchen Reiz das Gehirn gerade reagiert. Die Verbindungen zwischen den Nervenzellen arbeiten also einmal mehr, einmal weniger, abhängig davon, welche Netzwerke gerade gebraucht werden. In diesen neuronalen Netzen überlagern sich Erinnerungsspuren, die nach assoziativen Regeln abrufbar sind, gleichgültig, ob es sich um ein Ereignis aus der frühen Kindheit oder von gestern Abend handelt. Computer hingegen müssen gespeicherte Inhalte der Reihe nach suchen, während die Prozesse im Gehirn hoch parallel ablaufen und eine extrem komplexe Dynamik aufweisen. Das Gehirn erzeugt hochdimensionale Zustände und führt in diesen seine Rechenoperationen aus, wobei die Evolution eine Verarbeitungsstrategie verwirklicht hat, die bis heute weitgehend unklar ist. Im Gehirn gibt es eine große Anzahl von positiven Rückkopplungsschleifen, d. h., A spricht erregend mit B und B wieder erregend mit A. Dadurch entsteht eine Dynamik, die man analytisch nicht beschreiben und damit auch nicht ingenieurmäßig beherrschen kann. Die Natur hat offenbar einen riesigen Aufwand betrieben, diese Rückkopplungsschleifen mit einer Hierarchie von Überwachungssystemen zu dämpfen, die dafür sorgen, dass das System einerseits nicht ständig überreagiert und andererseits nicht ständig unter die kritische Erregungsschwelle fällt, wo es dann komatös wird. Diese Stabilitätsprobleme zu lösen ist eine ingenieurtechnische Herausforderung, die sich vermutlich nur über Selbstorganisationsprinzipien lösen lässt, die wohl einem lebenden Organismus vorbehalten bleiben werden. Die Evolution hat mit der Großhirnrinde offenbar eine Verarbeitungsstrategie erfunden, die auf einer analogen Ebene verwirklicht, was Quantencomputer thepretisch könnten, nämlich sehr viele Zustände bereithalten, die dann sehr schnell abgerufen werden können. Daher ist etwa die Grundidee des Human Brain Projects, die immense Komplexität des Gehirns mit seinen Milliarden Nervenzellen in einen Simulierungsansatz in Kombination mit Hochleistungsrechnern zu verfolgen, um die Organisationsprinzipien des Gehirns zu analysieren, grundsätzlich zum Scheitern verurteilt. Es ist schlicht dem Untersuchungsgegenstand "menschliches Gehirn" nicht angemessen, in einem solchen Big-Data-Projekt die vorhandenen große Mengen an Informationen über Nervenzellen und ihre Verknüpfungen untereinander zusammenzuführen, denn diese können die Funktionsprinzipien des Gehirns substanziell nicht verständlicher machen.

Aus einem Interview zum Thema Computer und Gehirn mit dem Hirnforscher Wolf Singer und dem Computerexperten Thomas Lippert.
http://www.helmholtz.de/gesundheit/das-ist-wie-eine-blackbox-3026/ (14-09-30)

Glaser, Peter (2018). Was Menschen der Künstlichen Intelligenz voraus haben.
WWW: https://www.stuttgarter-nachrichten.de/inhalt.kolumne-glasers-perlen-was-menschen-der-kuenstlichen-intelligenz-voraus-haben.8603ac79-09ff-4a8c-b406-5237ee2b06fb.html (18-08-30)

Siehe dazu auch Warum das Human-Brain-Projekt scheitern muss.

Grundsätzlich: Die Erwartung, die manche Menschen in Big Data setzen, also dass man nur genug Daten haben muss, und dann fällt das Ergebnis automatisch irgendwie heraus, ist eine Illusion. Zwar lassen sich kleine Bereiche des Gehirns im Computer darstellen und auch simulieren, doch die Zusammenarbeit von Gehirnstrukturen, die weit von einander entfernt liegen, ist nicht so einfach zu erfassen. Außerdem geht es ja nicht nur um die Verdrahtung der Nervenzellen und Nervennetzwerke, denn das Problem ist vielmehr, dass sich diese Netzwerke ständig verändern, d. h., die Art und Weise wie Nervenzellen miteinander kommunizieren ist nicht stabil, sondern sie hängt davon ab, welche Erfahrungen dieses Gehirn davor gemacht hat. All diese permanenten Veränderungen führen dazu, dass das Gehirn seine Funktion ständig anpassen muss, was sich mit immer größeren Superrechnern nicht simulieren lässt, sodass sich daher allein auf Grund von Datenmassen das Gehirn nicht verstehen lässt.

Stellt man einem Computer zehnmal die gleiche Aufgabe, so wird er auch zehnmal genau die gleichen Rechenschritte absolvieren. Beim menschlichen Gehirn jedoch funktioniert die Verarbeitung jedes Mal unterschiedlich, denn die Muster der elektrischen Impulse der Neuronen im menschlichen Gehirn variieren mitunter so stark, dass es schwierig ist, Ähnlichkeiten zu entdecken. Buesing, Bill, Nessler & Maass (2011) haben dafür eine Theorie entwickelt, die zeigen soll, dass auch Neuronen, die mehr oder weniger zufällig ihre Impulse (spikes) an andere Neuronen aussenden, sehr gezielt Berechnungen durchführen können. Diese neu entwickelte Theorie beschreibt, wie solche an und für sich unzuverlässigen Neuronen zu einem Netzwerk verschaltet werden können, dass das Gehirn eine große Zahl an verschiedenen Möglichkeiten quasi spontan, also zufallsgesteuert, durchspielen kann, um eine geeignete Lösung eines Problems zu ermitteln. Mit dieser Theorie hofft man künftig auch ein Netzwerk elektronischer Bausteine mit neuronenartigem Verhalten dazu bringen zu können, aus einer großen Anzahl von unsicheren Fakten und Vermutungen intelligente Schlüsse zu ziehen.

WissenschaftlerInnen haben ein mathematisches Modell entwickelt, mit dem sich überprüfen lässt, wie der Austausch zwischen Zellverbänden im Gehirn stattfindet. Eine Nervenzelle im Neocortex nimmt bekanntlich Kontakt zu Tausenden anderen Neuronen auf und empfängt von diesen auch eine große Zahl von Signalen, allerdings lässt sich aus den gemessenen Signalen nur schwer interpretieren, wie die Neuronen dadurch zusammenarbeiten. Aus den vielen gleichzeitig gemessenen Signalen filtert das nun entwickelte mathematische Verfahren Informationen heraus, ob die Neuronen einzeln kommunizieren oder als Verbund, wobei diese Zellverbände keine festen Gruppierungen sein müssen, sondern sich innerhalb von Millisekunden flexibel umgruppieren können, jeweils abhängig von den aktuellen Anforderungen im Gehirn. Man hofft mit diesem statistischen Verfahren, die Existenz dynamischer Zellverbände nachzuweisen und deren Aktivität eindeutig bestimmten Verhaltensweisen zuzuordnen zu können. Immerhin konnte man in Tierversuchen bereits zeigen, dass Nervenzellen zusammenfinden, wenn Tiere ein Signal erwarten, sodass die Tiere dadurch schneller beziehungsweise empfindlicher reagieren (vgl. Shimazaki, Amari, Brown & Grün, 2012).

Seit einiger Zeit versucht man neurologische Modelle in digitalen Speichersystemen abzubilden, um so deren Funktionsweise zu verstehen. Klampfl & Maass (2013) ist es gelungen, in Computermodellen von neuronalen Schaltkreisen Erinnerungsspuren, wie sie auch im Gehirn durch raum-zeitliche Aktivierungsmuster entstehen, zu erzeugen. Bekanntlich hinterlassen Erlebnisse eine Art Spur in Form von raum-zeitlichen Aktivierungsmustern in den neuronalen Netzwerken, wobei raum-zeitlich bedeutet, dass man sich die Erinnerungsspur als Prozess mit zeitlichem Verlauf vorstellen muss, denn bisher hat man meist angenommen, eine Gedächtnisspur wäre ähnlich wie ein Foto als ein statischer Eintrag im Gehirn abgebildet. So haben bisher Forschungen im Bereich der Neuropsychologie vorwiegend mit statischen Modellen neuronaler Netzwerke gearbeitet. Klampfl & Maass konnten erstmals unter der Annahme der Erinnerungsspuren als zeitliche Prozesse auch in Computermodellen ein derartiges Aktivierungsmuster in simulierten neuronalen Schaltkreisen erzeugen. Erinnerungsspuren sind dabei eine Abfolge von neuronalem Feuern, die in den Synapsen als Muster gespeichert und bei ähnlichen Aktivierungen der Neuronen wieder hervorgerufen werden. Unter den einzelnen Nervenzellen im Gehirn herrscht dabei eine Art Wettbewerb, denn das jeweils aktivierte Neuron unterdrückt die Aktivität anderer Neuronen in der unmittelbaren Umgebung, um ungesteuerte neuronale Feuerwerke zu verhindern, die das Gehirn nicht mehr verarbeiten könnte. Diese Erinnerungsspuren kommen ebenfalls dank des Verdrängungswettbewerbes unter den Neuronen zustande, der dazu führt, dass nur die beste zum Erlebnis passende Aktivierungsmuster der Neuronen in den Synapsen eingraviert wird.

Künstliche Intelligenz ist nach Ansicht von Sabine Köszegi (Interview in der Presse vom 13. Juni 2020) weit weniger intelligent als viele Menschen glauben, wobei sich vor allem viele ethische Fragen stellen, aber auch praktische, denn neuronale Netze sind viel zu komplex, um sie nachvollziehen und verstehen zu können. Die künstliche Intelligenz kann zwar bestimmte Dinge besser als Menschen, denn sie basiert auf guten Rechenmaschinen, die sehr viele Daten, sehr viele Variablen berücksichtigen und präzise verarbeiten können, wodurch sie besser und schneller als Menschen sind, die von solchen Datenmengen überfordert wären. Aber: Maschinen verstehen nicht, was sie tun, denn es sind nach wie vor mathematische Modelle, Wahrscheinlichkeitsberechnungen, wobei es den Maschinen ganz gleich ist, ob sie ein Vorhersagemodell für die Wetterprognose berechnen oder dafür, ob ein Mensch gut in den Arbeitsmarkt integrierbar ist, ob jemand Krebs hat oder nicht. Bei einer Entscheidungsunterstützung ist es aber wichtig zu wissen, warum man etwas tut, in welchem Kontext eine Entscheidung steht, welches Ziel verfolgt wird, welche Konsequenzen diese Entscheidung hat. Dieser Teil muss immer vom Menschen kommen.

Neuromorphe Chips

Aufgaben aus dem Bereich der künstlichen Intelligenz verlangen nach leistungsfähigen und dabei gleichzeitig sparsamen Computerchips, um etwa Robotern das Laufen zu lehren oder präzise automatische Bilderkennung zu ermöglichen. Während die Optimierung herkömmlicher Mikroelektronik immer näher an ihre physikalische Grenzen kommt, zeigt die Natur am Beispiel des Gehirns, wie sich Informationen schnell und energieeffizient verarbeiten und speichern lassen. Die heute übliche Methode, um die Leistungsfähigkeit von Mikroelektronik weiter zu erhöhen, liegt in der Verkleinerung der Komponenten, insbesondere der einzelnen Transistoren auf den Computerchips aus Silizium, was aber nicht unendlich möglich ist. Nun ist es Baek et al. (2020) erstmals gelungen, die Funktionsweise von Neuronen des Gehirns mit Halbleitermaterialien nachzuahmen, indem man die Eigenschaften der Neuronen mit den Prinzipien von Biosensoren simulierte und einen klassischen Feldeffekttransistor so veränderte, dass ein künstlicher Neurotransistor entsteht. Der Vorteil einer solchen Architektur liegt in der gleichzeitigen Speicherung und Verarbeitung von Informationen in ein und demselben Bauelement, diese bei herkömmlicher Transistortechnik getrennt sind, was der Verarbeitungszeit und damit letztendlich auch der Leistungsfähigkeit Grenzen setzt. Dabei brachte man eine zähflüssige Substanz (Solgel) auf einen herkömmlichen Siliziumwafer mit den Schaltungen auf, wobei dieses Polymer aushärtet und zu einer porösen Keramik wird. Zwischen den Löchern der Keramik bewegen sich Ionen, die schwerer als Elektronen sind und nach einer Anregung langsamer auf ihre Position zurückspringen. Diese Verzögerung (Hysterese) ist dabei für den Speichereffekt verantwortlich. Je stärker der einzelne Transistor angeregt wird, umso eher öffnet er und lässt den Strom fließen, womit sich die entsprechende Verbindung verstärkt, d. h., das System lernt. Computer auf Basis solcher Chips wären sind präzise und schätzen mathematische Berechnungen eher als diese bis in die letzte Nachkommastelle zu berechnen. Ein Roboter mit solchen Prozessoren könnte damit beispielsweise laufen oder greifen lernen, ein optisches System besitzen und lernen, Zusammenhänge zu erkennen, und zwar alles, ohne Software entwickeln zu müssen. Diese Plastizität neuromorpher Computer, die der des menschlichen Gehirns ähnelt, können sich im laufenden Betrieb an veränderte Aufgabenstellungen anpassen und auch solche Probleme lösen, für die sie ursprünglich nicht programmiert wurden.

 

Literatur

Baek, Eunhye, Das, Nikhil Ranjan, Cannistraci, Carlo Vittorio, Rim, Taiuk, Bermúdez, Gilbert Santiago Cañón, Nych, Khrystyna, Cho, Hyeonsu, Kim, Kihyun, Baek, Chang-Ki, Makarov, Denys, Tetzlaff, Ronald, Chua, Leon, Baraban, Larysa & Cuniberti, Gianaurelio (2020). Intrinsic plasticity of silicon nanowire neurotransistors for dynamic memory and learning functions. Nature Electronics, doi:10.1038/s41928-020-0412-1.

Buesing. L., Bill. J., Nessler.,B. & Maass, W. (2011). Neural Dynamics as Sampling: A Model for Stochastic Computation in Recurrent Networks of Spiking Neurons. PLoS Comput Biol 7(11): e1002211. doi:10.1371/journal.pcbi.1002211

Klampfl, S. & Maass, W. (2013). Emergence of dynamic memory traces in cortical microcircuit models through STDP. The Journal of Neuroscience, 33, 11515-11529.

Shimazaki H., Amari S-i., Brown E. N., Grün S. (2012). State-Space Analysis of Time-Varying Higher-Order Spike Correlation for Multiple Neural Spike Train Data. PLoS Comput Biol 8(3): e1002385. doi:10.1371/journal.pcbi.1002385.
WWW: http://www.ploscompbiol.org/
article/info:doi/10.1371/journal.pcbi.1002385 (12-03-07)

Stangl, B. (2019, 30. März). Unterschied Mensch und Computer. roboter lexikon.

https://roboter.stangl.wien/unterschied-mensch-und-computer/


Überblick über weitere Arbeitsblätter zum Thema Gehirn



inhalt :::: nachricht :::: news :::: impressum :::: datenschutz :::: autor :::: copyright :::: zitieren ::::


navigation: