Veränderungsregel

Innerhalb des Lernprozesses spielt die Veränderungsregel die entscheidende Rolle. Sie legt fest, was genau wann und wie geändert werden soll. Bei Zell [133] findet sich folgende algorithmische Fassung der Hebbschen Lernregel:

for each j in OutputNeurons do
if $o_{j} \textbf{=} t_{j}$ then ``do nothing''
else if $o_{j} == 0$ then for each i in InputNeurons do $w_{ij}:= w_{ij}+o_{i}$
else if $o_{j} == 1$ then for each i in InputNeurons do $w_{ij}:= w_{ij}-o_{i}$
endif
endfor

Der Ausgabewert $o_{j}$ des Zielneurons $j \in N$ wird während des Trainings mit dem Trainingswert $t_{j}$ verglichen. Stimmen beide überein, passiert nichts. Weichen sie aber voneinander ab, dann wird unter Berücksichtigung des Ausgabewertes des sendenden Neurons $o_{i}$ mit $i \in INP$ und des Gewichtes $w_{ij}$ zwischen $o_{i}$ und $o_{j}$ das betreffende Gewicht entweder um den Outputwert des sendenden Neurons erhöht oder vermindert.

Wir bauen zu diesen Überlegungen jetzt eine kleine Versuchsanordnung mit dem mathematischen Programmierwerkzeug scilab6.2 auf und analysieren dann diesen Lernansatz weiter.

Gerd Doeben-Henisch 2013-01-17