Lernexperiment

Will man nun systematisch untersuchen, ob ein System überhaupt lernt, und falls ja, was es lernt, muß man ein geeignetes Lernexperiment durchführen. Das Lernexperiment soll sichtbar machen, daß das Auftreten bestimmter Umweltereignisse $S_{E}$ dazu führen kann, daß ein System $SYS$ zunächst ein bestimmtes Verhalten $R_{SOLL}$ nicht zeigt, dann aber, wenn es Kontakt mit bestimmten lernkritischen Ereignissen $S_{E.Learn}$ bekommen hatte, mit einem Male das Verhalten $R_{SOLL}$ doch zeigt, und zwar über eine längere Zeit hin konstant. Die Konfrontation des Systems mit den lernkritischen Ereignissen soll hier Training $T$ genannt werden. Man kann dann grob drei unterschiedliche Mengen von Ereignis-Antwort-Paaren $M_{S-R}$ unterscheiden:


$\displaystyle M_{S-R.Before}$ $\textstyle :$ $\displaystyle SYS_{f} react \& (s,r) \in T \& s = S_{E} \Longrightarrow r \neq R_{L}$ (6.8)
$\displaystyle M_{S-R.Training}$ $\textstyle :$ $\displaystyle SYS_{f^{*}} learning \& (s,r) \in T$ (6.9)
$\displaystyle M_{S-R.After}$ $\textstyle :$ $\displaystyle SYS_{f^{+}} react \&(s,r) \in T \& s = S_{E} \Longrightarrow r = R_{L}$ (6.10)

Dabei wird die Annahme gemacht, daß das lernende System nur in bestimmten Zeitabständen lernt, in anderen nur reagiert. Verglichen mit biologishen Systemen ist dies jedoch eine idealisierende Annahme, da biologische Systeme immer lernen; sie können nicht nichtlernen.

Figure 6.4: Allgemeine Lernstruktur mit neuronalen Netzen
\includegraphics[width=3.5in]{ann1_learn_architecture2.eps}

Im folgenden Beispiel werden die Annahmen gemacht (vgl. Bild 6.4) daß man bei einem neuronalen Netz $N$ bezüglich der Beschaffenheit der Gewichtsmatrix $W$ verschiedene Zustände unterscheiden kann. Ein bestimmter Zustand der Matrix $W$ entspricht dann genau einem Zustand des Netzwerkes, durch den die Systemfunktion $f$ definiert wird. Solange die Struktur des Systemes nicht verändert wird bleibt die Systemfunktion $f: S \longrightarrow R$ konstant. Für die aktuellen Lernexperimente wird angenommen, daß im Lernmodus nur Werte aus der Gewichtsmatrix $W$ geändert werden dürfen, Die dadurch induzierte Dynamik soll hier deshalb W-Dynamik (w-dynamics) genannt werden. Ein Stimulus $S$ ist ein Eingabewert, der hier als Vektor mit binären Werten angenommen wird. Analog wird auch für die Systemantwort $R$ angenommen, dass es sich hier um einen Vektor mit binären Werten handelt. Ohne Lernen ist das System statisch. Im Falle der Hebb-Regel wird angenommn, daß die Lernregel $\cal{L}$ $: F \longrightarrow F$ in der Lage ist, die Systemfunktion $f$ zu ändern, indem sie die Werte der Gewichtsmatrix $W$ abändert. Diese Änderung basiert auf dem Vergleich der tatsächlichen Systemantwort $R$ mit der erwarteten Systemantwort repräsentiert durch einen Trainingswert $tr \in TR$. Liegt hier eine hinreichende Differenz vor, dann werden alle Gewichte, die vom Eingangsstimulus $S$ zu dem Neuron mit dem abweichenden Antwortwert $R_{i}$ unter Zuhilfenahme der jeweiligen Eingangswerte $S$ abgeändert. Eine der ältesten Vorschriften, wie man solch eine Abänderung vornehmen kann, findet sich in den verschiedenen Varianten der sogenannten Hebbschen Lernregel wieder. Im Beispiel wird die Version von Zell (1994)[133]:S.103 benutzt, die dann später weiter analysiert werden wird.

Gerd Doeben-Henisch 2013-01-17