Beschränkung auf KZG; Kapazität

Für die vorliegende Modellierungsaufgabe soll der Gegenstandsbereich auf das KZG und seine unmittelbaren Schnittstellen beschränkt bleiben. Bevor wir zur eigentlichen Modellierungsaufgabe übergehen, soll aber die Frage nach der endlichen Kapazität noch etwas mehr geklärt werden. Dazu konsultieren wir speziell Miller (1956)[179]. Diese Arbeit hebt sich von vielen anderen Arbeiten in diesem Umfeld dadurch ab, dass in ihr umfassend und systematisch Konzepte der Informationstheorie (grundlegend siehe Shannon (1948)[236]) im psychologischen Kontext angewandt werden. Dieser Ansatz führt zu neuen und weitreichenden Hypothesen.

Die Grundidee von Miller besteht darin, die Versuchsperson als ein Input-Output-System -oder einfach in unserer Terminologie: als System- zu betrachten und das Verhältnis von Input zu Output -oder umgekehrt- mit informationstheoretischen Größen zu analysieren.

Als informationstheoretischen Grundbegriff benutzt er den Begriff Bit verstanden als die Maßzahl für die Anzahl der notwendigen Fragen, die mit Ja oder Nein beantwortet werden müssen, um das Auftreten bzw. Vorliegen oder Nichtauftreten bzw. Nichtvorliegens eines Sachverhaltes zu klären. 'Schneit es bei euch oder nicht'?: Ja/ Nein. $2^{1}$, 1 Bit, das sind 2 Alternativen. Falls es schneit: 'Ist der Schnee naß?': Ja/Nein. $2^{2}$, 2 Bits. Das sind insgesamt 4 Alternativen. Falls es nass ist: 'Heizt ihr schon?': Ja/Nein. $2^{3} $, 3 Bits, das sind 8 Alternativen. Usw. .

In einer ersten Serie von Experimenten, die Miller als 'abolute Judgement (absolutes Urteil)' (vgl. Bild 5.4) bezeichne, versucht er -auch in Kooperation mit anderen Kollegen- herauszufinden, bis zu welcher Menge an Informationen die Vpn fehlerfrei ist und ab welcher Menge die Fehler einsetzen. Folgende Befunde werden berichtet:

Figure 5.4: Miller: Absolute Judgement
\includegraphics[width=4.0in]{miller_absolute_judgement.eps}

EINDIMENSIONAL (UNIDIMENSIONAL)
Tonhöhe (auditory pitch):
Obere Grenze liegt bei maximal 2.5 Bit
Lautstärke (auditory loudness):
Obere Grenze liegt bei maximal 2.5 Bit
Salzigkeit (saline concentration):
Obere Grenze liegt bei maximal 1.9 Bit
Visuelle Position in einem Intervall (points on a line):
Obere Grenze liegt bei maximal 3.25 Bit
Fläche (area):
Obere Grenze liegt bei maximal 2.6 Bit
Länge einer Linie (length of a line):
Obere Grenze liegt bei maximal 2.6 Bit
Neigungswinkel (angle of inclination):
Obere Grenze liegt bei maximal 2.8 Bit
Krümmung (curvature):
Obere Grenze liegt bei maximal 2.2 Bit

Allerdings zeigte sich, dass die Verarbeitungsmenge steigen kann, wenn man die Verarbeitungsdauer von ca. 30 ms ausdehnt auf 5 s. Die dann erzielten

erhöhten Verarbeitungsmengen konnten bis 18% größer sein. Miller errechnete aus all seinen Daten für eindimensionale Eigenschaften einen mittleren Wert ('mean') von 2.6 Bit mit einer Standardabweichung von 0.6, also 2.6 $\pm$ 0.6. Dies entspricht einem Intervall von [2.0,3.2] Bits, d.h. [4 Alternativen, 9.19 Alternativen].

Bei Experimenten mit mehr als einer Dimension (multidimensional) zeigte sich dann das überraschende Ergebnis, dass die Verarbeitungsmenge gemessen am Output in der Kombination zwar größer war als die Menge jeder Dimension für sich alleine genommen - $output(C_{i}) < output(\{C_{1}, \cdots, C_{n} \})$-, daß aber der Output von n-vielen Dimensionen auch kleiner war als die arithmetische Summe - $output(\{C_{1}, \cdots, C_{n} \}) < \sum_{i=1}^{n}C_{i}$-. Dies deutet darauf hin, dass die Informationsverarbeitung der verschiedenen Dimensionen nicht einfach addiert wird, sondern nochmals -scheinbar auf nicht-lineare Weise- zu einer Kapaziät zusammengeführt wird, die eine globale obere Schranke kennt. Zugleich wird aber auch eine Abnahme der Genauigkeit (accuracy) konstatiert. Die Genauigkeit kann durch den Faktor Erwartung bzw. Vorausinformiertheit beeinflußt werden: wenn vorausinformiert, dann eine grössere und genauere Erkennungsleistung.

Figure 5.5: Miller: Judgement Immediate memory
\includegraphics[width=4.0in]{miller_judgement_immediate_memory.eps}

Miller berichtet von einer weiteren Serie von Experimenten, bei der es nicht um die Verarbeitungsmenge zu einem Zeitpunkt ging, sondern um die Verarbeitungsmenge nach einer endlichen Zeitspanne $\Delta(t,t')$. Miller nennt das hier zur Anwendung kommende Paradigma 'immediate memory' (direktes Gedächtnis). Ohne irgend ein Gedächtnis über die sensorischen Register $SR_{i}$ hinaus müßte die Verarbeitungsmenge gegen 0 streben. Tut sie das nicht, ist dies ein Hinweis auf Speichermedien (Gedächtnis, memory), die die Inputinformationen während des Zeitintervalls irgendwie aufbewahren (speichern, store). Miller zitiert dann ein berühmtes Experiment von Hayes (1952)[107],in dem er den Vpn's zunächst nur Serien von Nullen '0' und einsen '1' präsentiert; später trainiert er seine Vpn's, so daß sie in der Lage waren, Gruppen von binären Ziffern als eine Dezimalzahl zu interpretieren (also zweiergruppen '10' als 2; Dreiergruppen '100' als 8, Vierergruppen '1001' als 15 usw. Ferner wurden dann auch noch Buchstaben und Wörter benutzt. Es zeigte sich dann, dass die Anzahl der erkannten 'Größen' ('chunks') relativ konstant ist, unabhängig davon, ob die Dichte der Information gemessen in Bits in den Chunks variieren kann (z.B. lernen wir beim Sprachelernen, die unterschiedlichen Lauteigenschaften bestimmten Phonemen zuzuordnen, und die verschiedenen Phonemen wiederum werden Wörtern zugeordnet. Was erinnert wird, das sind -falls man sie schon gelernt hat- die Wörter, nicht die Phoneme!).

Gerd Doeben-Henisch 2010-12-16