Für die vorliegende Modellierungsaufgabe soll der Gegenstandsbereich auf das KZG und seine unmittelbaren Schnittstellen beschränkt bleiben. Bevor wir zur eigentlichen Modellierungsaufgabe übergehen, soll aber die Frage nach der endlichen Kapazität noch etwas mehr geklärt werden. Dazu konsultieren wir speziell Miller (1956)[179]. Diese Arbeit hebt sich von vielen anderen Arbeiten in diesem Umfeld dadurch ab, dass in ihr umfassend und systematisch Konzepte der Informationstheorie (grundlegend siehe Shannon (1948)[236]) im psychologischen Kontext angewandt werden. Dieser Ansatz führt zu neuen und weitreichenden Hypothesen.
Die Grundidee von Miller besteht darin, die Versuchsperson als ein Input-Output-System -oder einfach in unserer Terminologie: als System- zu betrachten und das Verhältnis von Input zu Output -oder umgekehrt- mit informationstheoretischen Größen zu analysieren.
Als informationstheoretischen Grundbegriff benutzt er den Begriff Bit verstanden als die Maßzahl für die Anzahl der notwendigen Fragen, die
mit Ja oder Nein beantwortet werden müssen, um das Auftreten bzw. Vorliegen oder Nichtauftreten bzw. Nichtvorliegens eines Sachverhaltes zu klären.
'Schneit es bei euch oder nicht'?: Ja/ Nein. , 1 Bit, das sind 2 Alternativen. Falls es schneit: 'Ist der Schnee naß?': Ja/Nein.
, 2
Bits. Das sind insgesamt 4 Alternativen. Falls es nass ist: 'Heizt ihr schon?': Ja/Nein.
, 3 Bits, das sind 8 Alternativen. Usw. .
In einer ersten Serie von Experimenten, die Miller als 'abolute Judgement (absolutes Urteil)' (vgl. Bild 5.4) bezeichne, versucht er -auch in Kooperation mit anderen Kollegen- herauszufinden, bis zu welcher Menge an Informationen die Vpn fehlerfrei ist und ab welcher Menge die Fehler einsetzen. Folgende Befunde werden berichtet:
Allerdings zeigte sich, dass die Verarbeitungsmenge steigen kann, wenn man die Verarbeitungsdauer von ca. 30 ms ausdehnt auf 5 s. Die dann erzielten
erhöhten Verarbeitungsmengen konnten bis 18% größer sein. Miller errechnete aus all seinen Daten für eindimensionale Eigenschaften einen mittleren
Wert ('mean') von 2.6 Bit mit einer Standardabweichung von 0.6, also 2.6 0.6. Dies entspricht einem Intervall von [2.0,3.2] Bits, d.h. [4
Alternativen, 9.19 Alternativen].
Bei Experimenten mit mehr als einer Dimension (multidimensional) zeigte sich dann das überraschende Ergebnis, dass die Verarbeitungsmenge
gemessen
am Output in der Kombination zwar größer war als die Menge jeder Dimension für sich alleine genommen -
-, daß aber der Output von n-vielen Dimensionen auch kleiner war als die arithmetische Summe -
-. Dies deutet darauf hin, dass die Informationsverarbeitung der verschiedenen Dimensionen nicht einfach addiert wird, sondern
nochmals -scheinbar auf nicht-lineare Weise- zu einer Kapaziät zusammengeführt wird, die eine globale obere Schranke kennt. Zugleich wird aber auch
eine Abnahme der Genauigkeit (accuracy) konstatiert. Die Genauigkeit kann durch den Faktor Erwartung bzw.
Vorausinformiertheit beeinflußt werden: wenn vorausinformiert, dann eine grössere und genauere Erkennungsleistung.
Miller berichtet von einer weiteren Serie von Experimenten, bei der es nicht um die Verarbeitungsmenge zu einem Zeitpunkt ging, sondern um die
Verarbeitungsmenge nach einer endlichen Zeitspanne . Miller nennt das hier zur Anwendung kommende Paradigma 'immediate
memory' (direktes Gedächtnis). Ohne irgend ein Gedächtnis über die sensorischen Register
hinaus müßte die Verarbeitungsmenge gegen 0
streben. Tut sie das nicht, ist dies ein Hinweis auf Speichermedien (Gedächtnis, memory), die die Inputinformationen während des
Zeitintervalls irgendwie aufbewahren (speichern, store). Miller zitiert dann ein berühmtes Experiment von Hayes (1952)[107],in
dem er den Vpn's zunächst nur Serien von Nullen '0' und einsen '1' präsentiert; später trainiert er seine Vpn's, so daß sie in der Lage waren, Gruppen
von binären Ziffern als eine Dezimalzahl zu interpretieren (also zweiergruppen '10' als 2; Dreiergruppen '100' als 8, Vierergruppen '1001' als 15 usw.
Ferner wurden dann auch noch Buchstaben und Wörter benutzt. Es zeigte sich dann, dass die Anzahl der erkannten 'Größen' ('chunks') relativ konstant
ist, unabhängig davon, ob die Dichte der Information gemessen in Bits in den Chunks variieren kann (z.B. lernen wir beim Sprachelernen, die
unterschiedlichen Lauteigenschaften bestimmten Phonemen zuzuordnen, und die verschiedenen Phonemen wiederum werden Wörtern zugeordnet. Was erinnert
wird, das sind -falls man sie schon gelernt hat- die Wörter, nicht die Phoneme!).
Gerd Doeben-Henisch 2010-12-16