Bild 10.7 zeigt ein einfaches Netzwerk mit einer Inputschicht, einer verborgenen Schicht und einer Outputschicht. Der Signalverlauf ist von 'links' nach 'rechts', d.h. die Endstücke der Axone, die aus den Neuronen austreten, enden kurz vor dem Zielneuron. Das Endstück mit dem Zielneuron bilden dann eine sogenannte Synapse. Die biologischen Details dieser Synapsen sind beliebig komplex. Für die Modellierung der tatsächlichen Funktion genügt es meist, ein sehr stark abstrahiertes Modell dieser Synapsen zu konstruieren. Ein solches stark vereinfachtes -aber 'typisches'- Modell zeigt Bild 3.2.
Das Bild 3.2 zeigt ein Neuron als eine Funktion , die aus drei verketteten Teilfunktionen besteht, die hintereinander ausgeführt die Gesamtleistung der Neuronfunktion beschreiben:
Die einzelnen Teilfunktionen kann man im einfachen Fall wie folgt charakterisieren: die Funktion integriert die Werte, die von sendenden Neuronen stammen. Zusätzlich werden diese Werte mit Gewichten gewichtet. Dabei steht der Index hier für das sendende Neuron und der Index für das empfangende Neuron.
Die integrierten Inputwerte werden dann mittels einer Aktivierungsfunktion in einen spezifischen Aktivierungswert umgerechnet:
Die Aktivierungsfunktion kann dabei sehr unterschiedlich sein. Charakteristisch ist aber, daß der aktuelle integtrierte Wert aller Inputwerte, der letzte Aktivierungswert, sowie ein Schwellwert als Ausgangspunkt genommen werden. Das Ergebnis der Aktivierungsfunktion, nämlich der neue Aktivierungswert , wird dann mittels der Ausgabefunktion weiter umgeformt:
Zu beachten ist hier, daß diese allgemeine Fassung der Aktivierungsfunktion den Fall einbezieht, daß der 'neue' Aktivierungswert zum Zeitpunkt t den 'alten' Aktivierungswert zum vorausgehenden Zeitpunkt voraussetzt. Im nachfolgenden Beispiel einer Aktivierungsfunktion (vgl. Bild 10.10) handelt es sich um eine sogenannte binäre Aktivierungsfunktion, die als Ausgangswerte nur '1' oder '0' kennt, bei der der vorausgehende Wert der Aktivierungsfunktion nicht benutzt wird!
Nimmt man als Ausgabefunktion dann noch die einfache Identitätsfunktion
Mit den bisherigen Zutaten könnte man dann das künstliche Neuron von der Art () wie folgt definieren:
mit
d.h. ein künstliches Neuron von der Art besteht einmal aus den Mengen der Eingabewerte , dem aktuellen Aktivierungszustand , dem Schwellwert sowie der Menge der Ausgabewerte , dann aus der Neuronfunktion , die über diesen Mengen operiert. Die Neuronfunktion bildet die aktuellen Eingabewerte samt dem aktuellen Aktivierungszustand und dem Schwellwert auf den neuen Aktivierungszustand samt dem neuen Ausgabewert ab. Interessant dabei ist, daß der Aktivierungszustand in dieser Struktur quasi ein minimlaes Gedächtnis darstellt, das den letzten Zeitpunkt mit dem aktuellen Zeitpunkt verknüpft.
In dieser theoretischen Rekonstruktion ist ein künstliches Neuron ein Input-Output-System, das weitere unterschiedliche Formalisierungen zuläßt. So kann man ein künstliches Neuron z.B. auch verstehen als einen Automaten , dessen Band ('tape') die beteiligten Mengen repräsentiert. Man könnte ein künstliches Neuron aber auch als eine formale Grammatik auffassen, bei der die Mengen als Mengen von Ausdrücken über einem Alphabet gedeutet werden, und die Neuronfunktion stellt die Transformationsregeln dar. Zahlreiche weitere Deutungen sind möglich.