Gegenstandsbereich

Innerhalb des Masterprogramms Intelligente Systeme (IS) bilden die dynamischen selbstlernenden Strukturen ein zentrales Thema. Die einzigen bekannten erprobten realen Exemplare selbstlernender Strukturen sind bis heute biologische Systeme ($M_{BIOL}$), die als Untermenge jene Systeme enthalten, die wir als intelligent bezeichnen; diese wiederum lassen sich idealerweise auf noch einfachere grundlegende intelligente Verhaltenseinheiten (Basic Intelligent Units, $M_{BIU}$) zurückführen, die sich messen lassen2.1. Vor diesem Hintergrund macht es Sinn, die biologischen Systeme als primären Referenzpunkt für Theoriebildung und Evaluation zu wählen.


$\displaystyle M_{BIU} \in M_{I} \subseteq M_{S-R}$ $\textstyle \Longleftrightarrow$ $\displaystyle M_{BIOL}$ (2.1)

Mit dieser Interessensbekundung für intelligente Syteme spannt sich ein großes Forschungsfeld auf (vgl. Bild 2.1): einmal sind es die intelligenten Systeme selbst, die, ausgestattet mit den unterschiedlichsten Eigenschaften, auf eine Umwelt reagieren, in der sie sich vorfinden. Diese Umwelt kann durch zufällige oder durch regelhafte Ereignisse gekennzeichnet sein. In dieser Umgebung müssen intelligente Systeme Aufgaben lösen können. Ausgehend von bestimmten Startzuständen müssen sie in der Lage sein, bestimmte für eine Aufgabe charakteristische Zielzustände in einer bestimmten Zeit zu erreichen. Dazu müssen sie durch Aktivitäten auf die Umgebung einwirken, was in der Regel dazu führt, daß sie diese Umgebung partiell verändern.

Figure 2.1: Ein sich verhaltendes System in einer Umgebung
\includegraphics[width=4.5in]{env_action_sys.eps}

Im Laufe der Jahrhunderte haben sich unterschiedliche wissenschaftliche (und technische) Disziplinen herausgebildet, die sich mit intelligenten Systemen und deren Verhalten beschäftigen (vgl. Bild 2.2). Eine mögliche Klassifizierung besteht darin, diese Disziplinen anhand ihrer Meßmethoden und ihren Objekten zu klassifizieren. So beschäftigt sich z.B. primär die Psychologie (und auch die Biologie) mit dem beobachtbaren Verhalten von intelligenten Systemen. Viele andere Disziplinen schließen sich hier auf unterschiedliche Weise an (Soziologie, Kulturanthropologie,....). Mit der Struktur des Erlebens (aus der subjektiven Innensicht) beschäftigt sich primär die Phänomenologie, eine Teildisziplin der Philosophie. Mit der Struktur und Funktion des Nervensystems, einem wesentlichen Teilsystem der Informationsverarbeitung in einem Organismus, beschäftigt sich primär die Neurowissenschaft als Teil der allgemeinen Physiologie (und damit dann auch wieder der Biologie). Aspekte des Zeichengebrauchs werden von der Semiotik untersucht, die sich methodisch mit verhaltensbasierter Psychologie, Phänomenologie und Neurowissenschaften überlappt. Die Biologie untersucht über das individuelle Verhalten hinaus ganze Populationen und deren Entwicklung (Evolution, s.u.).

Obwohl dies nur eine stark vereinfachende Charakterisierung ist läßt sich aber vielleicht erahnen, wie komplex die wissenschaftliche Situation im Umfeld von intelligenten Systemen ist.

Figure 2.2: Wissenschaftliche Diziplinen im Umfeld Intelligenter Systeme
\includegraphics[width=4.5in]{scientific_dimensions.eps}

Das primäre Erkenntnisinteresse im Masterstudiengang Intelligente Systeme ist es, solche Strukturen zu finden, die es Systemen ermöglichen, intelligentes Verhalten zu zeigen. Die zu bestimmende Unbekannte besteht also in den Intelligenz ermöglichenden Strukturen. Die Identifizierung von Verhalten, das üblicherweise -wer sagt, was das ist?- als intelligent bezeichnet wird, bildet in dieser Untersuchung daher einen ersten Ausgangspunkt. Wie die Geschichte der Psychologie in den letzten 100 Jahren zeigt, gibt das beobachtbare Verhalten als solches kaum nützliche Hinweise, über die Inhalte und Strukturen des Wissens, das diesem Verhalten zugrunde liegt, geschweige denn von den ermöglichenden Strukturen2.2. Eine reichhaltige Quelle von Hinweisen bietet eigentlich der Raum des menschlichen Bewußtseins, von der Philosophie auch phänomenologischer Raum genannt (vgl. Bild 2.3).


$\displaystyle M_{BIU} \in M_{I} \subseteq M_{S-R}\Longleftrightarrow M_{PhenSpace}$ $\textstyle \Longleftrightarrow$ $\displaystyle M_{BIOL}$ (2.2)

Aus der Sicht der Wissenschaft hat er den großen Nachteil, dass er sich einer direkten empirischen Beobachtung entzieht. Allerdings, mit den modernen Methoden formaler Strukturtheorien korreliert mit Verhaltensbeobachtungen (Psychologie, Biologie, ...) und neurowissenschaftlichen Befunden scheint es dennoch möglich zu sein, wenigstens zu hilfreichen Modellvorstellungen zu kommen, die als Bezugssystem für die Konstruktion und Evaluation von Systemstrukturen dienen können. Ob und in welchem Umfang dies tatsächlich möglich ist, soll in den nächsten Jahren getestet werden 2.3.

Figure 2.3: Der phänomenologische Raum
\includegraphics[width=4.5in]{phen_sys.eps}

Im Schaubild phänomenologischer Raum2.3 ist jedenfall angedeutet, daß sich die Struktur unseres bewußten Wissens -ausgehend von einigen Grundeigenschaften- induktiv in immer komplexere Einheiten und Strukturen entwickeln läßt. Unter den Voraussetzungen, (i) daß diese Modellvorstellungen bzgl. der Inhalte des phänomenologischen Raumes angemessen sind und (ii) daß der phänomenologische Raum ein Produkt der neuronalen Aktivitäten ist kann man diese Strukturen in Form von Arbeitshypothesen nutzen, um solche künstlichen neuronalen Strukturen zu finden, die u.a. diese phänomenalen Strukturen generieren.

Für die Frage nach der inneren Beschaffenheit von intelligenten biologischen Systemen hat die evolutionäre Biologie (vgl. z.B. [9], [50], [124]) in den letzten 100 Jahren nicht nur herausgearbeitet, daß es die Nervennetze und Gehirne sind, die das Verhalten steuern, sondern mehr und mehr auch, daß und wie die aktuelle Struktur der Nervennetze das Ergebnis eines langandauernden Entwicklungsprozesses von letztlich bis zu 3.8 Mrd. Jahren sind (wenn man die Entwicklung der Zellen selbst mit einbezieht). Es macht daher sehr wohl Sinn, speziell die Struktur und das Verhalten von Nervennetzen ins Zentrum der Theorie - und Modellbildung zu stellen (vgl. z.B. [133], [28], [86], [41], [2] ).

Ausgehend vom empirischen Gehirn wird man also künstliche neuronale Netze (artificial neural networks, ANNs) $ANN$ bilden, denen spezielle Verhaltensmodelle $M_{S-R.ANN}$ entsprechen:


$\displaystyle M_{S-R.ANN} \Longleftrightarrow M_{ANN}$     (2.3)

Man muß dann zeigen, in welchem Umfang sich das Verhalten $M_{S-R.ANN}$ eines $M_{ANN}$ mit zuvor ausgezeichnetem intelligentem Verhalten $M_{I}$ überlappt. Wenn sich also zeigen sollte, daß sich das Verhalten der künstlichen neuronalen Netzes mit jenen von qualifizierten Intelligenzprofilen $M_{IP}$ hinreichend überschneidet

\begin{displaymath}M_{S-R.ANN} \cap M_{IP} = M_{IP} \Longleftrightarrow M_{ANN}\end{displaymath}

dann könnten wir sagen, daß ein bestimmtes künstliches neuronales Netz bezüglich des beobachtbaren Verhaltens äquivalent ist zu einem biologischen Nervennetz.

Das allgemeine Format eines neuronalen Netzes wird gewöhnlich als eine Struktur angenommen


$\displaystyle ANN = \langle N, CON, dyn\rangle$     (2.4)

die aus einer Menge individueller Neuronen $N$ besteht, die durch Verbindungen (connections) $CON$ verbunden sind.


$\displaystyle CON_{ANN} \subseteq N \times W \times N$     (2.5)

Eine Verbindung $\langle n_{i}, w_{ij}, n_{j}\rangle$ ist dann ein 3-Tupel der Art, daß ein sendendes Neuron $n_{i}$ mit einem empfangenden Neuron $n_{j}$ verknüpft wird. Zusätzlich kann diese Verknüpfung ein Gewicht $w_{ij}$ besitzen (allgemein ein Label, das beliebig komplex sein kann). Mathematisch bietet sich als Interpretation dieser Struktur dann an, ein künstliches neuronales Netzwerk $ANN$ als einen gerichteten Graphen zu betrachten2.4.

Das Verhalten dieser verbundenen Neuronen ist über einen dynamischen Prozeß $dyn$ definiert (vgl. Bild 2.4):


$\displaystyle dyn: CON_{ANN} \longmapsto CON_{ANN}$     (2.6)

Figure 2.4: Die Ausführungsfunktion dyn eines Netzwerkes
\includegraphics[width=4.0in]{dyn_schema_lernen.eps}

Dies bedeutet, daß die Ausführungsfunktion $dyn$ ein Netzwerk auf sich selbst abbildet. Bedenkt man, daß intelligente Systeme aber nur überleben können, wenn sie sich hinreichend gut in ihre Umgebung einpassen, bedeutet dies, dass diese dynamische Selbstabbildung $dyn$ in der Lage sein muß, hinreichend viele und geeignete Informationen aus der Umgebung des Systems gewinnen zu können (Wahrnehmung), diese dann in geeigneter Weise intern repräsentieren2.5 und verarbeiten könnn muß (Denken, Erinnern, Klassifizieren, Vergleichen,....), um dann geeignet auf die Umgebung zurückwirken zu können. Die Frage ist, auf welche Weise ein intelligentes System dies tun kann? Dazu ist bekannt, dass es dramatische Wachstumsprozesse durchläuft, durch die all diese Strukturen erst generiert werden. Zum Teil gleichzeitig, zum Teil anschließendtreten unterschiedliche Lernprozesse auf, innerhalb deren die intelligenten Systeme unterschiedliche Funktionalitäten intern neu einstellen. Zusätzlich gibt es eine Reihe von angeborenen reaktiven Verhaltensmuster, die mit dem genetischen Programm mitgeliefert werden.

In der nachfolgende Tabelle wird am Beispiel von adaptiven Systemen mit neuronalen Netzen angedeutet, welche Art von internen strukturellen Veränderungen jeweils mit einem bestimmten Verhaltensphänomen korreliert werden könnten2.6.

MIT Wachstum Generieren von Neuronen $n_{j}$
MIT Wachstum Einführung von Verbindungen $\langle n_{i}, W_{ij}, n_{j}\rangle$
MIT Wachstum Löschen von Verbindungen $\langle n_{i}, W_{ij}, n_{j}\rangle$
MIT Wachstum Löschen von Neuronen $n_{j}$
OHNE Lernen, REAKTIV Keine Änderungen; Nutzung von vorgefertigten Strukturen
MIT Lernen Änderung der internen Funktionen $net_{j}, a_{j}, o_{j}$
MIT Lernen Änderung der Gewichte $W_{ij}$
MIT Lernen Änderung des Schwellwertes $\theta_{j}$

Mit Blick auf einen evolutionären Prozeß muß man weiterhin annehmen, daß jedes künstliche neuronale Netz $ANN$ einen möglichen Wert innerhalb des Wertebereiches eines evolutionären Prozesses darstellt. Ein konkretes künstliches neuronales Netz $ann_{i}$ wird beständig durch eine bestimmte Umgebung $ENV$ (auch verstehbar als das zu lösende Problem $\cal{P}$ ) auf Überlebensfähigkeit getestet. Zusätzlich kann es Konkurrenzsituationen geben. Die minimalen Annahmen, die man hier dann machen muß, wird in folgender Struktur wiedergegeben:


$\displaystyle f_{GA}: ENV \times ANNs \longmapsto ANNs$     (2.7)

mit $ANNs$ als Menge von künstlichen neuronalen Netzen, die von einem genetischen Algorithmus $f_{GA}$ verändert werden.

Bis heute ist nicht geklärt, welches Modell eines künstlichen neuronalen Netzes das 'beste' Modell ist. Dazu müßte man wissen, welches die definitive Menge der zu lösenden Aufgaben ist. Da sich diese Menge aber -aus unterschiedlichen Gründen- beständig verändert, bewegen wir uns mit der Konstruktion eines 'besten' Modells in einem fliessenden Feld von Möglichkeiten. Statt von einer Optimierung hin zum 'besten' Modell, wie es die klassische Evolutionstheorie möglicherweise mit ihrem Selektionskonzept nahelegte, sollte man daher vielleicht eher von einer minimalistischen Flexibilisierung sprechen; nur so viel wird an Strukturen geändert, wie es notwendig ist, um möglichst viele Überlebenschancen zu wahren. Dazu kommt das Phänomen der Koevolution, d.h. die genetisch basierte Natur entwickelt sich z.T. kontextsensitiv (vgl. dazu z.B. Varela et al.(1991)[]).

Gerd Doeben-Henisch 2013-01-17