Feinstruktur für die Welt

Für die nachfolgenden Experimente benutzen wir eine Modellwelt, die sich weitgehend an ein Konzept von Wilson (1994) [473] und Tolman (1948) [425] anlehnt.

Figure 4.7: Wilson 'wood1'-Umgebung, hier als Welt W1
\includegraphics[width=4.0in]{env_wood1_complete.eps}

Die Modellwelt $ W1$ besteht mit den Spezifikationen von Wilson (vgl. das Diagramm 4.7) aus einem einfache 2-dimensionalen Gitter, in dem jeder Kreuzungspunkt eine mögliche Position (X,Y) darstellt. Eine Position kann genau ein Objekt besitzen: ein Hindernis $O$ (für 'obstacle'), Futter $F$ (für 'food'), leerer Raum bzw. ein Weg $.$ (markiert durch einen Punkt), sowie ein lernendes semiotisches System $n$ ($n \in [1,9]$).

Ferner benutzen wir Aufgaben im Stile der frühen Verhaltenspsychologie. Insbesondere benutzen wir Aufgabenstellungen, wie sie Tolman (1948) unter dem Titel Cognitive Maps in Rats and Men[425] beschrieben hat. Dies sind spezielle Fälle von W1-Welten im Stile von Wilson: die Hindernisse sind so angeordnet, dass sie eine Art Labyrinth ergeben. Die Aufgabe besteht darin, das Futter im Labyrinth zu finden, und zwar mit immer weniger Fehlern. Zwei Beispiele solcher Labyrinth-Welten sind nachfolgend vorgestellt.

Das erste Beispiel nennen wir W1-Tolman-Labyrinth1:

 TOLMAN1  =
 
!O  O  O  O  O  O  O  !
!                     !
!O  .  O  O  O  F  O  !
!                     !
!O  .  O  O  O  .  O  !
!                     !
!O  .  .  .  .  .  O  !
!                     !
!O  O  O  .  O  O  O  !
!                     !
!O  O  O  O  O  O  O  !

Das zweite Beispiel nennen wir W1-Tolman-Labyrinth2:

 
!.   .  .  .  .  .  .  .  O  O  O  .  .  .  .  .  .  .  .  .  .  !
!                                                                !
!.   .  .  .  .  .  .  .  O  .  O  .  .  .  .  .  .  .  .  .  .  !
!                                                                !
!.   .  .  .  .  .  .  .  O  .  O  .  .  .  .  .  .  .  .  .  .  !
!                                                                !
!O   O  O  O  O  O  O  O  O  .  O  O  O  O  O  O  O  O  O  O  O  !
!                                                                !
!O   .  .  .  .  .  .  .  .  .  O  .  .  .  .  .  .  .  .  F  O  !
!                                                                !
!O   O  O  O  .  O  O  O  O  .  O  O  O  O  .  O  O  O  O  O  O  !
!                                                                !
!.   .  .  O  .  O  .  .  O  .  O  .  .  O  .  O  .  .  .  .  .  !
!                                                                !
!.   .  .  O  .  O  .  .  O  .  O  .  .  O  .  O  .  .  .  .  .  !
!                                                                !
!O   O  O  O  .  O  O  O  O  .  O  O  O  O  .  O  .  .  .  .  .  !
!                                                                !
!*1  .  .  .  .  O  .  .  .  .  .  .  .  .  .  O  .  .  .  .  .  !
!                                                                !
!O   O  O  O  .  O  O  O  O  O  O  O  O  O  .  O  .  .  .  .  .  !
!                                                                !
!.   .  .  O  .  O  .  .  .  .  .  .  .  O  .  O  .  .  .  .  .  !
!                                                                !
!.   .  .  O  .  O  .  .  .  .  .  .  .  O  .  O  .  .  .  .  .  !
!                                                                !
!.   .  .  O  O  O  .  .  .  .  .  .  .  O  O  O  .  .  .  .  .  !
 
 ----------------------------------------------------

In der ersten Version der Welt nehmn wir an, dass es mindestens drei lernende semitoische Systeme $l_{i}, i \in 3$ geben kann, die sich in der Welt begegnen können. Äußerlich unterscheiden sie sich anhand der Indizes $'*i', i \in 3$. Ferner unterscheiden wir in dieser Welt - abweichend von Wilson - zwischen dem Sehfeld und dem Handlungsfeld. In der einfachen Welt soll gelten, dass Aktionen sich nur entweder auf das eigene Objekt beziehen können oder auf Objekte in der unmittelbaren Nachbarschaft, also kann z.B. das lernende semiotische System $l_{1}$ (vgl. Bild 4.8) das Objekt $'F'$ essen ('eat'), genauso gut aber auch das System $l_{2}$. Damit nun ein System in der Lage sein kann, zwischen dem Essen eines Objektes $'F'$ durch sich selbst oder durch ein anderes unterscheiden zu können, muss die visuelle Wahrnehmung mindestens so umfangreich sein, dass es das andere Objekt in der Umgebung in Aktionsnähe wahrnehmen kann. Dies bedeutet, die Aktionsfläche ist $3 \times 3$ Felder groß, die visuelle Wahrnehmungsfläche aber $5 \times 5$ Felder.

Figure 4.8: Elementare Sachverhalte, die abbildbar sein sollten
\includegraphics[width=4.0in]{Weltausschnitt_Sehen_Handeln.eps}

Wenn man diese Voraussetzung macht, dann könnte das System $l_{1}$ z.B. unterscheiden zwischen selber essen (das Futter verschwindet nach eigener Aktion 'eat') oder das andere System isst das Futter (d.h. das Futter verschwindet ohne eigene Aktion 'eat').

Ganz allgemein kann ein System $l_{i}$ unterscheiden zwischen einer Eigenbewegung, wenn es selber eine Aktion 'move' macht und relativ zu ihm verändern alle anderen Objekte ihre Position, oder einer Fremdbewegung, wenn es selber keine Aktion 'move' macht, aber mindestens ein anderes Objekt verändert seine Position.

Ferner ist zu beachten, dass sprachliche Ausdrücke $e_{i} \in EXPR$ sich entweder auf einzelne Objekte und deren Eigenschaften zu einem bestimmten Zeitpunkt beziehen oder auf Veränderungen, die sich über mindestens zwei Zeitpunkte $(t,t+n), n > 0$ erstrecken.

So kann das Objekt $'O'$ z.B. 'Hindernis' genannt werden oder das Objekt $'F'$ 'Futter'. Mit 'Essen' ist dann aber gemeint, dass es zu einem Zeitpunkt $t$ das Objekt $'F'$ 'Futter' bei einem System $l_{i}$ gab und nach der Aktion 'Essen' ist das Objekt $'F'$ zum Zeitpunkt $t+1$ verschwunden.

Beide Sachverhalte müssen durch ein lernendes semiotisches System intern repräsentiert werden können.



Gerd Doeben-Henisch 2014-01-14