Beispiele von psychologischen Intelligenztheorien

Als Alfred Binet sich vor das Problem gestellt sah, die geistige Leistungsfï¿12igkeit von Kindern 'objektiv' zu diagnostizieren, erfand er ein Verfahren, bei dem er eine Reihe von Alltagsaufgaben identifizierte, die für ein bestimmtes Alter als 'typisch' identifiziert wurden. Es wurde dann getestet, wie lange Kindern brauchten, um diese Aufgabe zu lösen und mit welcher Korrektheit sie abschlossen (vgl. [21]). Die gemessenen Ergebnisse wurden dann als Intelligenzalter, IA interpretiert. Wenn ein Kind alle Aufgaben duchschnittlich gut löste, die ein Kind mit einem bestimmten Alter A 'normalerweise' lösen sollte, dann hatte das Kind ein Intelligenzalter von A, auch wenn sein biologisches Alter möglicherweise kleiner oder grösser war. Die unterstellte 'Intelligenz', das unterstellte 'Wissen' oder das unterstellte 'Lernen' wurde also indirekt charakterisiert.

William Stern transformierte dieses Konzept 1912 in das Konzept des heute bekannten Intelligenzquotienten, IQ, indem er das Intelligenzalter (IA) zum Lebensalter (LA) in Beziehung setzte: IQ = (IA / LA)100 (siehe: [261]).

David Wechsler (vgl. [302]) modifizierte das Konzept des IQ von Stern dahingehend, dass bei im die Leistung des Einzelnen nun auf den Mittelwert der entsprechenden Altersklasse bezogen wird. Der mittlere IQ liegt nach dieser Definition, ebenso wie bei Stern, zwischen 85 und 115 (bei in Deutschland blichen Intelligenztests mit einer Standardabweichung von 15, in anderen Ländern abweichend!). Nur ca. 2,2 % der Bevölkerung haben einen IQ ber 130 (oft benutzt als Grenzwert fr Hochbegabung) oder unter 70, was als Grenze zur geistigen Behinderung betrachtet wird. Da die Zuverlässigkeit der Testergebnisse mit zunehmender Abweichung vom statistischen Mittel sinkt, hat der IQ ausserhalb der Grenzen zwischen 55 und 145 praktisch keine Bedeutung mehr. Es wäre zwar theoretisch denkbar, entsprechende Tests zu konstruieren, allerdings praktisch nicht durchfhrbar, da sich in diesem Bereich nur 0,26 % der Bevölkerung befinden. Ausserdem ändert sich die Höhe der Intelligenz und Intelligenzstruktur mit zunehmendem Lebensalter.

Ohne jetzt auf die Vielzahl seitdem weiter entwickelter sogenannter Intelligenztests hier weiter einzugehen, sei nur festgehalten, dass das Prinzip der Messung von geistigen Leistungen immer dem gleichen Muster folgt (vereinfacht):

  1. Man identifiziert eine Reihe von Verhaltenssituationen, die fr eine bestimmte Altersgruppe als 'typisch'/ 'normal' gilt.
  2. Man protokolliert das Verhalten der Versuchspersonen bzgl. Ausfhrungszeit und inhaltlicher Vollständigkeit und Korrektheit der zuvor identifizierten normierten Lösungen.
  3. Man bildet die Durchschnittswerte einer Untersuchungsgruppe und positioniert die einzelnen Versuchspersonen relativ zur Gesamtheit.
  4. Man bekommt Kennzahlen, die indirekte Hinweise liefern, wie gut bzw. wie schlecht eine bestimmte Versuchsperson die Menge der Aufgaben relativ zur unterstellten Norm einer Normgesamtheit bearbeitet hat.

Neben vielen technischen Problemen im Detail hat diese Vorgehensweise zwei grosse Schwachstellen: (i) Sie liefert keinerlei direkte Hinweise auf die in der Versuchsperson anzunehmenden Strukturen, die fr das beobachtbare Verhalten ursächlich verantwortlich sind und (ii) das, was man beobachten kann, hängt unmittelbar ab von den zuvor ausgewählten Aufgaben. Sofern diese Aufgaben nur einen Teilausschnitt der relevanten Handlungssituationen darstellen, liefern sie natrlich nur partielle Hinweise. Ferner spricht vieles dafr, dass Menschen grundlegend lernende Systeme sind, streckenweise noch verknpft mit Wachstum. Daraus folgt, dass das Verhalten zu einem bestimmten Zeitpunkt nicht als abschliessende Aussage darber gewertet werden darf, wie dieses Verhalten sich zu einem späteren Zeitpunkt darstellen kann (schon die blosse Wiederholung eines IQ-Tests kann eine Verschiebung der Werte zeigen).

Allen diesen Beispielen ist gemeinsam, dass sie versuchen, auf der Basis der protokollierten Verhaltensdaten Rückschlsse zu ziehen auf mögliche Strukturen im erzeugenden System. M.a.W. man versucht, auf der Basis von Input-Output-Daten eines Systems mit statistischen Methoden die Funktionen zu rekonstruieren, die im handelnden System genau den Output erzeugen, den man bei einem bestimmten Input beobachten kann. Sei f mit f: I $\longrightarrow$ O die gesuchte Verhaltensfunktion, dann soll jetzt aus der Geschwindigkeit der Ausführung einer Aufgabe sowie aus ihrer Korrektheit auf die 'innere Struktur' von f geschlossen werden.

So vergleicht Spearman (1904, 1914) (siehe [257], [258], [259]) die Leistungen von Menschen in verschiedenen Leistungstests und stellte fest, dass diejenigen, die in einem Test gut waren, tendenziell auch in anderen Tests gut abschnitten. Deshalb nahm er eine 'einheitliche Fähigkeit' der Intelligenz an, die allen intellektuellen Leistungen zugrunde liegt. Sie drückte sich in einem Allgemeinen Faktor (Generalfaktor: g-Faktor) aus, der ein Mass der allgemeinen und angeborenen 'geistigen Energie' sein sollte. Bei der Bearbeitung der verschiedenen Tests kommen zusätzlich noch jeweils spezifische, voneinander unabhängige Fähigkeiten zum Tragen: die s-Faktoren (z.B. verbale Fertigkeiten, rïäumliche Vorstellungskraft). Diese Zwei-Faktoren-Theorie der Intelligenz untermauerte er durch die Ergebnisse seiner Faktorenanalysen. Allerdings konnten in Folgeuntersuchungen die behauptete Unabhängigkeit der s-Faktoren nicht bestätigt werden. Deshalb sprach Spearman später auch von Gruppenfaktoren, die mehreren Leistungen gemeinsam zugrunde liegen.

Spearman wird von Thurstone kritisiert, der im Prinzip zwar auch mit der Faktorenanalyse arbeitet, diese aber erweitert zur multiplen Faktorenanalyse (Zentroidmethode) (vgl. [278], [279], [280], [282], [283] ). Statt zwei Faktoren beschreibt Thurstone sieben Primärfaktoren (primary mental abilities), die jeweils in unterschiedlichem Ausmass an Intelligenzleistungen beteiligt sein sollen. Zu diesen Primärfaktoren gehören: Umgang mit Zahlen, Sprachverständnis, Raumvorstellung, Gedächtnis, schlussfolgerndes Denken, Wortflüssigkeit und die Auffassungsgeschwindigkeit.

Auch Cattell kritisiert den 2 Faktoren-Ansatz von Spearmann mit seinem g Faktor-Modell und unterscheidet in seiner Zweikomponententheorie der Intelligenz 1963 (siehe: [42]) im Rahmen seiner Faktorenanalyse zwei Faktoren zweiter Ordnung, die fluide und die kristalline Intelligenz. Die fluide Intelligenz -die genetisch bedingt sein soll- stellt die Fähigkeit zur Situationsorientierung, des Schlussfolgerns, der Problemlösung und der Verarbeitungsgeschwindigkeit dar, die kristalline Intelligenz -die erworben (gelernt) sein soll- besteht aus dem Wissen, dem Wortschatz und den gesammelten Erfahrungen zu Problemlösewegen. Während die fluide Intelligenz nach einem Höhepunkt im Alter wieder abnehmen soll, so der amerikanische Psychologe John L. Horn, wächst die kristalline Intelligenz weiter an.

J.P.Guilford verfolgt demgegenber 1961 (siehe: [92], aber auch [91], [93], [94] und [95]) wieder einen anderen Ansatz. Er postuliert, dass man Verhalten nach drei Dimensionen beschreiben muss: Inhalt ('Content'), Operationen, ('Operations') und die Produkte ('Productions') als Ergebnis der Operationen. Als Inhalte gelten z.B. visuell, auditiv, symbolisch, semantisch, behavioral. Als Operationen: Kognition, Gedächtnis, konvergente oder divergente Produktion, Evaluation. Als Produkte gelten: Einheiten, Klassen, Beziehungen, Systeme, Klassifikationen, Transformationen.

Robert Sternberg setzt dem (1985, 1988)(siehe: [264], [263],[262]) einen triadischen Ansatz entgegen. Er postuliert eine komponentielle, eine erfahrungsbasierte, und eine kontextuelle Intelligenz. Mit der kontextuellen oder praktischen Intelligenz ist eine individuellspezifische Fähigkeit gemeint, die sich an die kulturbeeinflusste Umwelt anpasst, mit dem Ziel des Überlebens und der Bedürfnisbefriedigung, sowie Umwelten auszuwählen und falls möglich, zu verändern. Ferner eine komponentenbezogene oder analytische Intelligenz. Damit sind universelle, die Kontextuelle Intelligenz untersttzende, psychometrisch erfassbare Aspekte des Wissenserwerbs gemeint (wie Integration neuer Erfahrungen, Vergleiche, Kombinationen), sowie Aspekte der Metakognition (Kontrollprozesse bezglich Planung, Vorgehen, Überprüfung und Schlussfolgerung) und Verarbeitung (Kodierung, Zuordnung). Die dritte Komponente ist die erfahrungsbezogene (kreative) Intelligenz. Dies ist eine mit der analytischen Intelligenz interagierende, universelle Fähigkeit des Austausches zwischen neuen Anforderungen und bestehenden Erfahrungen, automatisierten Denk- und Handlungsabläufen.

Wieder einen anderen Ansatz vertritt Howard Gardner (1983, 1999) (siehe: [81][80]), dem die Beschränkung auf wenige Faktoren (ermittelt aus der Faktoranalyse) zu starr erscheint. Er setzt diesen Sichten seine Sicht der multiplen Intelligenz entgegen. So postuliert Gardner 8 verschiedene Typen von Intelligenzen, die alle im Gesamtphämomen Intelligenz zusammenwirken: (i) sprachlich-linguistische Intelligenz, (ii) logisch-mathemathische Intelligenz, (iii) musikalisch-rhythmische Intelligenz , (iv) bildlich-räumliche Intelligenz , (v) körperlich-kinästhetische Intelligenz , (vi) naturalistische Intelligenz , (vii) interpersonale Intelligenz , (iix) intrapersonale (emotionale) Intelligenz

Neben diesen acht von ihm identifizierten Formen der Intelligenz zieht Gardner noch eine weitere neunte in Betracht, die existenzielle Intelligenz oder spirituelle Intelligenz, bei der es um grundlegende Fragen der Existenz geht. Vertreter dieser potentiellen Intelligenz wären v. a. religiöse und geistige Führer, Philosophen: der Dalai Lama etwa, oder Jean-Paul Sartre.

Aus methodischer Rcksicht ist zu beachten, dass alle diese psychologische Intelligenztheorien zwar explizit Bezug nahmen auf Verhaltensdaten, S-R-Daten, aber bei der Formulierung der Verhaltensfunktion f mit f: S $\longrightarrow$ R wird keinerlei Bezug genommen auf die zugrundeliegende biologische Maschinerie, z.B. die Nervensysteme, die Verhalten letztlich ermöglichen. Es handelt sich also um rein abstrakte, sehr hypothetische Annahmen. Dazu kommt, dass alle diese Annahmen von sehr allgemeiner Natur sind; sie erlauben praktische keine konkreten Prognosen fr das Verhalten eines bestimmten Menschen.

Gerd Doeben-Henisch 2010-12-16