Lernen und Idealfunktion

Die Fähigkeit des Lernens kann man sehr unterschiedlich beschreiben. Eine Sicht besteht darin (vgl. auch Schaubild 2.7; hier ist für den allgemeinen Begriff lernendes System das konkrete Beispiel eines lernenden Systems mit einem künstlichen neuronalen Netz (KNN) eingesetzt worden), daß man davon ausgeht, daß man das Verhalten eines Systems, das auf Stimuli $S \in IN$ mit Responses $R \in OUT$ reagiert abstrakt mit einer Funktion $f_{source}: IN \longmapsto OUT$ beschreibt, die die Stimuli auf die Responses abbildet. Ein lernendes neuronales Netz wäre dann nichts anderes als eine Repräsentation dieser originalen Funktion $f_{source}$. Lernen bestände dann darin, daß es eine Metafunktion Learning $\mathcal{L}: \mathcal{F}_{sys} \longmapsto \mathcal{F}_{sys}$ gibt, die aus einer Menge möglicher SYS-Funktionen $\mathcal{F}_{sys}$ jeweils die 'heraussucht', die geeignet ist, die Aufgabe zu lösen. Damit stellen sich mindestens zwei Fragen:

  1. Welche Quellenfunktionen $f_{source}$ kann ein lernendes System $SYS$ überhaupt lernen?
  2. Zu welchen realistischen Aufgaben gibt es überhaupt adäquat beschreibende Quellfunktionen?

Letztlich sind die Quellfunktionen auch nichts anderes als formale Modelle mit Beschreibungsanspruch -also letztlich empirische Theorien- und die Verfügbarkeit solcher Theorien für dynamische Prozesse im Rahmen des maschinellen Lernens ist begrenzt.

Figure 2.7: KNNs als repräsentierende Funktionen
\includegraphics[width=4.5in]{ann-as-representing-function.eps}

Gerd Doeben-Henisch 2013-01-17