Akademik

neuronale Netze
I
neuronale Netze,
 
Bezeichnung für Rechnerarchitekturen beziehungsweise Rechnernetzarchitekturen, deren Struktur und Funktion sich an den Nervennetzen lebender Organismen orientiert. Das Ziel solcher Architekturen ist es, bei der elektronischen Informationsverarbeitung ähnliche Leistungsfähigkeit zu erreichen wie die natürlichen Systeme, besonders bei Problemstellungen wie Mustererkennung und Lernfähigkeit, für die sich sequenziell arbeitende Rechner als nicht zweckmäßig erwiesen haben.
 
Beim gegenwärtigen Entwicklungsstand ist es nicht möglich zu beurteilen, inwieweit das angestrebte Ziel zu erreichen ist. Nahezu völlig unbeantwortet ist die Frage, wie beziehungsweise ob die Fähigkeit des Gehirns, mit Inhalten oder Bedeutungen umzugehen, mithilfe neuronaler Netze erreicht werden kann.
II
neuronale Netze,
 
künstliche neuronale Netze, Abkürzung KNN, künstliche Intelligenz: in Anlehnung an Neuronen (die Nervenzellen des Gehirns) gebildete Bezeichnung für ein künstliches Netzwerk, das aus einer Vielzahl einfacher uniformer Verarbeitungselemente besteht, die alle gleichzeitig untereinander elektrische Impulse austauschen. Ziel neuronaler Netze ist die Simulation der massiv parallelen Informationsverarbeitung im Gehirn. Neuronale Netze werden meist durch spezielle Softwaresimulatoren für Parallelverarbeitung unterstützt. Sie zeichnen sich besonders durch ihre Lernfähigkeit (lernender Automat) aus. Sie sind in der Lage, stark verrauschte oder unvollständige Informationen zu klassifizieren und werden daher oft im Bereich der Mustererkennung oder für Prognoseaufgaben eingesetzt.
 
Es gibt unterschiedliche Netztopologien. In der Regel bestehen künstliche neuronale Netze aus mehreren Schichten von Elementen (Eingabe- und Ausgabeschicht entsprechend den Dendriten und Axonen des Gehirns sowie ein oder mehrere verborgene Schichten), wobei Elemente einer Schicht mit Elementen anderer Schichten verbunden sind. Es gibt gerichtete und ungerichtete Verbindungstypen. Jede Verbindung zwischen Elementen ist gewichtet. Impulse werden von der Eingabeschicht, entlang der Verbindungen, auf Elemente nachgeschalteter Schichten übertragen und können je nach Gewicht hemmende oder verstärkende Wirkung haben. Dieses Prinzip entspricht der synaptischen Plastizität der Neuronen im Gehirn und ist wesentliche Voraussetzung für die Lernfähigkeit. Aus den bei einem Element eingehenden gewichteten Impulsen wird der Aktivierungszustand berechnet. Überschreitet dieser einen gewissen Schwellenwert, so »feuert« das neuronale Element über seine Ausgangsverbindung(en) einen Impuls an die nachgeschalteten Netzwerkelemente. Auf dem Zusammenwirken divergenter und konvergenter Netzwerkverbindungen sowie von Verstärkung und Hemmung beruht die Fähigkeit neuronaler Netze, komplexe Strukturen beziehungsweise Zusammenhänge schnell zu erkennen und sich die wesentlichen Merkmale der zu klassifizierenden Muster einzuprägen (zu lernen). Dies geschieht oft in einer Trainingsphase, in der sich die Netzgewichte an die Klassifikationsaufgabe anpassen.
 
Das zugrunde liegende Funktionsprinzip unterscheidet sich wesentlich von der herkömmlichen symbolischen Informationsverarbeitung auf der Basis klassischer Rechnerarchitekturen wie der Von-Neumann-Rechner; es gibt in neuronalen Netze keine Trennung zwischen Programm und Daten oder zwischen Prozessor und Speicher. Jedes neuronale Element fungiert zugleich als Prozessor und (in Form der Gewichte an den Verbindungen) als Speicher; ferner sind die gespeicherten Informationen nicht an bestimmte neuronale Elemente gebunden, sondern codiert in den Verbindungsgewichten über das gesamte Netz verstreut. Im Gegensatz zum biologischen Vorbild wird derzeit ein neuronales Netze meist durch einen zentralen Takt gesteuert; die Gründe hierfür liegen in technischen Bedingungen und den Lernverfahren für solche Netze.
 
Die Ursprünge dieser Forschungsrichtung liegen in Arbeiten von W. S. McCulloch und W. Pitts (1943); sie gingen von der stark vereinfachenden Vorstellung aus, die Nervenzellen des Gehirns seien boolesche Schaltelemente (Schaltalgebra), die die binären Signale 0 und 1 verarbeiten, im Übrigen aber »gedächtnislos« sind. Weitere Arbeiten stammen von M. Minsky (1954), J. von Neumann (1956) und F. Rosenblatt (1958). Erst in den 1980er-Jahren erhielt die Neuroinformatik wieder Auftrieb, insbesondere durch die Entwicklung leistungsfähigerer Rechner- und Softwaresysteme. In der Folge entstand eine Fülle neuer Modellbildungen und Realisierungen, die jeweils auf unterschiedlichen Theorien über die Arbeitsweise des Gehirns basierten. Wichtige Vertreter dieses häufig neuerer Konnektionismus genannten Gebiets sind in den USA u. a. J. A. Feldman, J. L. McClelland, J. J. Hopfield und D. E. Rumelhart.
 
Auf der Basis der Trainingsphase bewältigen neuronale Netze ihre Aufgaben weitgehend ohne die sehr aufwendigen Softwareentwicklungsarbeiten, die bei der klassischen Programmierung von Rechnersystemen erforderlich sind. Wegen der hohen Komplexität sind bisher allerdings nur für wenige Netzmodelle und Lernverfahren theoretische Aussagen über deren Verhalten hergeleitet worden. Wie neuronale Netze v. a. in Grenzbereichen reagieren, kann daher bei heutigen Systemen meist nur durch experimentelle Tests bestimmt werden. Nahezu völlig offen ist auch das Problem, wie beziehungsweise ob die Fähigkeit des Gehirns, mit Inhalten, Bedeutungen oder Emotionen umzugehen, mithilfe künstlicher neuronaler Netze erreicht werden kann. (künstliche Intelligenz)
 
Hier finden Sie in Überblicksartikeln weiterführende Informationen:
 
 
künstliche Intelligenz: Denken mit dem Computer
 
künstliche Intelligenz: Informationsverarbeitung durch den Computer
 
künstliche Intelligenz: Arbeits- und Anwendungsgebiete
 

Universal-Lexikon. 2012.