.
|
|
Die
folgenden Überlegungen bewegen sich entlang ausgewählter
Positionen aus dem Bereich der Philosophie, der künstlichen
Intelligenzforschung und Kognitionswisenschaft, der Biologie und
der Religion (sic!). Es ist der Versuch, eine die
Einzelwissenschaften übergreifende Perspektive zu
konstruieren, in der die jahrtausendelang geübte
Gegenübersetzung von Geist und Materie, von Kultur und
Technik, Religion und Natur einer neuen Synthese Raum geben soll.
Diese Überlegungen gründen einerseits in der Biographie
des Verfassers, der sich mehr als zwanzig Jahre lang als Mitglied
des Jesuitenordens intensiv mit Fragen der christlichen Religion,
der Existenz und Erfahrbarkeit Gottes beschäftigt hatte, mit
Fragen der Philosophie und der Wissenschaftstheorie, und der sich,
nachdem er den Orden und die Kirche verlassen hatte, seit gut
sieben Jahren mit der Frage nach der möglichen Reproduktion
des menschlichen Geistes durch Computerprogramme und Roboter
beschäftigt. Zum anderen war es ganz sicher auch das
stimulierende fächerübergreifende Interesse von Wolfgang
Weber, das dazu geführt hat, die großen Linien von
Philosophie, Technik, Evolution und Religion auf den folgenden
Seiten versuchsweise zusammen zu führen. Die traditionellen
großen Fragen nach der Stellung des Menschen und dem Sinn
des Lebens sind damit eng verflochten.
1.
Wissen als Problem
Die Überlegungen
beginnen bei einem Phänomen, das schon heute viele Menschen
betrifft. Jeder, der berufsmäßig täglich Wissen
sichten und auswerten muß, erfährt am eigenen Leibe,
daß die Menge des heute verfügbaren Wissens und die
Geschwindigkeit der Zunahme dieses Wissens ein Ausmaß
erreicht hat, das alle bisherigen Verfahren der Wissensverwaltung
spürbar an ihre Grenzen führt. Selbst wissenschaftliche
Bibliotheken können nicht mehr Schritt halten mit der Fülle
der Publikationen. Und es nimmt nicht wunder, daß die
Standardantwort der heutigen Einzelwissenschaften auf dieses
Problem mehr denn je die Form einer immer fortschreitenderen
Spezialisierung annimmt, die eine entsprechende Parzellierung und
Fragmentierung des Wissens mit sich bringt.
Angesichts der
begrenzten Kapazitäten des menschlichen Organismus, die der
Wissensverarbeitung eine obere Schranke setzen, dies gepaart mit
dem Zwang zum Neuen in der Wissenschaft, erscheint diese Tendenz
zur Spezialisierung fast unausweichlich. Wenn angesichts dieser
Parzellierung des Wissens für den einzelnen kein
Gesamtzusammenhang verfügbar ist, gerät der Einzelne auf
Dauer zuerst in einen Wissensnotstand, und dann, in Folge davon,
auch in eine ethische Krise. Selbst wenn er wollte, er kann sein
Verhalten nicht mehr rational absichern.
Die Frage, die
sich hier daher stellt, ist die nach einer Methode, wie sich große
Wissensmengen kulturell so organisieren lassen, daß sich
dieses Wissen, unabhängig von seinem quantitativen Umfang und
seinen speziellen Details, beständig so in einen wißbaren
Zusammenhang organisieren läßt, daß im Prinzip
jeder Mensch daran partizipieren könnte, wenn er nur wollte.
Wenn sich auf diese Frage keine prinzipielle positive Antwort
formulieren läßt, die zudem technisch realisierbar sein
muß, ist es nur eine Frage der Zeit, bis die globale
Wissensproduktion sich angesichts der begrenzten individuellen
Wissenskapazitäten ad absurdum geführt haben wird.
Das
Problem des Wissens ist als solches natürlich kein neues
Thema. Die Materialsammlung eines Aristoteles in seiner
deskriptiven Zoologie war Voraussetzung für erste
Systematiken im Bereich des naturwissenschaftlichen Wissens. Die
Bibliotheken des Altertums, die Klosterbibliotheken des
Mittelalters, das große Projekt der französischen
Enzyklopädisten, die wissenschaftlichen Bibliotheken der
letzten 150 Jahre, um nur einige Beispiele zu nennen, waren bzw.
sind allesamt Versuche, die Menge des Wissens zu systematisieren
und sie dem menschlichen Geist zugänglich zu machen.
Während für die Erstellung und Verwaltung
solchen - fast ausschließlich schriftlich gefaßten-
Wissens zunehmend technische Hilfsmittel eingesetzt werden
(Druckmaschine, Schreibmaschine, Computer, Spracherkennung,
Sprachsynthese, in begrenztem Umfang automatische
Übersetzungssysteme, elektronische Datenbanken, elektronische
Expertensysteme, elektronische Kommunikationssysteme ...), ist der
Prozeß der Versprachlichung von Wissen sowie der
Interpretation von sprachlichem Wissen bis heute dem Menschen
vorbehalten. Noch gibt es keine Maschine, die wie der Mensch
Wissen über die Welt und über sich selbst in jeder
beliebigen Sprache selbständig erwerben, aufbauen, und
beständig weiter verändern und kommunizieren kann.
Angesichts der Wissensproblematik wird hier die These
vertreten, daß wir in Zukunft Maschinen benötigen
werden, die - so wie der Mensch - selbständig Weltwissen
erwerben und dies in jeder beliebigen Sprache situationsgerecht
kommunizieren können. Denn nur so können wir den
Anspruch auf ein ethisches Verhalten in Zukunft zumindest
prinzipiell aufrecht erhalten. Ohne Wissen ist jede Art von Norm
ein körperloses Etwas, dessen Bezug zur Welt unklar ist. Die
Frage ist, ob und wie dies möglich ist.
Die Antwort
soll zunächst am Beispiel des Internets vorbereitet und dann
in einer philosophischen Überlegung vertieft werden.
START
2.
Internet: Chance und Hindernis zugleich
Man kann das Internet
als eine mögliche Ausweitung der Technologie des Wissens
auffassen. Das Internet bietet Grund für eine Vision, in der
jedem Menschen die Möglichkeit geboten wird, beliebiges
Wissen in Form von Schrift, Ton und Bild weltweit anzubieten, und
zwar so, daß jeder das angebotene Wissen jederzeit abfragen
und für sich auswerten kann. Eine Realisierung dieser Vision
würde einen deutlichen Fortschritt gegenüber der
bisherigen Situation markieren.
Die Vision Internet ist
aber bislang nur für einen sehr kleinen Teil der Menschheit
Realität geworden. Doch allein schon dieses Fragment läßt
ahnen, was es bedeuten könnte, wenn die Vision vollständig
realisiert wäre. Schon als dieses erste Fragment stellt das
Internet mittlerweile den größten Wissensspeicher dar,
über den die Menschheit je verfügte. Die neue Freiheit
Internet enthüllt aber auch verschärft jene Faktoren,
die den Umgang mit dem Wissen erschweren. Eine Analyse dieser
Faktoren führt unmittelbar zum zentralen Problem des Wissens.
Für diese Analyse wird das Internet in die folgenden
drei Faktoren zerlegt: (i) die Wissensanbieter, (ii) die
Wissensverteiler und (iii) die Wissenssucher.
Wenn jemand
im Internet symbolisch vermitteltes Wissen anbieten will, so kann
er nicht die Sachverhalte selbst bereitstellen, sondern nur jene
Ausdrucksmittel, die für die zu vermittelnden Sache stehen,
die er mitteilen möchte. Im Falle von sprachlich vermitteltem
Wissen benutzt der Anbieter A z.B. Ausdruckselemente A_L einer
Sprache L, die anhand von vereinbarten Regeln der
Bedeutungszuordnung und der grammatischen Konstruktion (:= L_ART )
über nichtsprachliche Sachverhalte C_A 'spricht', also L_ART:
C_A --> A_L. Jeder Sprachteilnehmer B der Sprache L, der die
Regeln von L kennt, kann dann, bis zu einem gewissen Grad, anhand
der Ausdruckselemente A_L und der gelernten internalisierten
Regeln (:= L_UND ) die 'gemeinte Sache' C_A rekonstruiert als C_B
verstehen: L_UND: A_L --> C_B.
Für jemanden, der
Wissen sucht, stellt sich das Problem dann in einem doppelten
Sinne dar. Er muß wissen, (1) durch welche repräsentierenden
Ausdruckselemente sich die Wissensinhalte darstellen, die er
sucht, und (2) unter welchen Adressen er diese repräsentierenden
Ausdruckselemente finden kann.
Aspekt (2) hat zu tun mit
der Organisation des Wissens im Internet. In der Vergangenheit
haben sich in der Form von sogenannten Suchmaschinen
Wissensverteiler herausgebildet, die es sich zum Ziel gesetzt
haben, das im Internet in Form von Ausdruckselementen A_L
angebotene Wissen anhand dieser Ausdruckselemente mittels
sogenannter Indizes index: EXPR --> INDEX mit A_L in EXPR zu
sortieren und mit den zugehörigen Adressen zu speichern.
Unter Rückgriff auf solche Wissensverteiler kann dann ein
Wissenssucher ausprobieren, welche Indizes von einem
Wissensverteiler registriert sind und kann dann anhand der
zugehörigen Adressen nachschauen, was sich tatsächlich
unter dieser Adresse verbirgt. Typische Indizes sind z.B.
Schlüsselwörter/ Sachwörter oder die Liste der
Wörter eines Textes.
Aspekt (1) hat mit der Struktur
des Wissens zu tun. Menschliches Wissen beginnt als
nichtsprachliches Wissen, das im Laufe des lebenslangen Lernens
mehr und mehr in Wechselwirkung tritt mit einem sprachlichen
System. Auch wenn im fortgeschritteneren Stadium dieser
Entwicklung die Wechselwirkung zwischen sprachlichem und
nichtsprachlichem System immer dichter wird, so kann man doch
sagen, daß das nichtsprachliche Wissenssystem grundsätzlich
eine selbständige Komponente neben dem sprachlichen System
darstellt. Sowohl das nichtsprachliche wie auch das sprachliche
System sind dynamische Systeme, die sich beständig durch
Lernprozesse verändern. Nur wenn ein Mensch über
hinreichendes Wissen und eine hinreichende Sprache verfügt,
kann er Wissensinhalte durch sprachliche Ausdruckselemente
repräsentieren bzw. anhand von sprachlichen
Ausdruckselementen die vom Autor intendierten Wissensinhalte
hypothetisch rekonstruieren. Da die meisten Menschen höchstens
zwei Sprachen aktiv beherrschen, bleibt eine sprachliche
Kommunikation von Wissensinhalten auf die jeweiligen
Sprachgemeinschaften beschränkt. Die Menschheit zerfällt
damit in mindestens so viele Untergruppen, wie es unterschiedliche
gesprochene Sprachen gibt. Und jede Untergruppe hat ihr eigenes
sprachlich normiertes Weltbild.
Bezogen auf den Aspekt der
Organisation des Wissens, muß man leider feststellen, daß
es heute keine global orientierte Wissensarchitektur gibt.. Dies
manifestiert sich z.B. darin, daß die Beziehung zwischen
Wissensanbietern und Wissensverteilern heute weitgehend ungeklärt
ist; heutzutage weiß kein Wissensanbieter - außer
denen, die dafür entsprechend zahlen -, ob seine
Wissensangebote von einem Wissensverteiler abgefragt werden, falls
ja, wann, nach welchen Kriterien, wie häufig usw. Auch weiß
ein Wissensanbieter nicht, was mit dem von ihm abgefragten Wissen
dann beim Wissensverteiler geschieht. Wie organisiert der
Wissensverteiler dieses Wissen für mögliche Anfragen?
Wie zeigt er das angefragte Wissen an?
Statt
profitorientierter Wissensverteiler, die an einem Chaos mehr
verdienen als an einer Ordnung, wäre hier eine nationale und
internationale Wissenspolitik gefordert, deren erklärtes Ziel
es sein muß, das oberste Gut der Menschheit, ihr Wissen, in
eine internationale, globale Wissensarchitektur einzubetten. Nur
so könnte jedem Wissensanbieter garantiert werden, daß
seine Angebote prinzipiell gefunden werden könnten. Faktisch
wäre dies mit relativ einfachen Mitteln realisierbar.
Eine
globale funktionierende Wissensarchitektur wäre aber nur eine
notwendige, jedoch noch keine hinreichende Bedingung. Für die
Einlösung einer funktionierenden globalen Wissensarchitektur
bedarf es zusätzlich der Lösung eines wissenschaftlich
technischen Problems, das bislang noch ungelöst ist. Dieses
Problem, das Bedeutungsproblem, resultiert aus der Struktur des
Wissens. Dazu drei Beispiele.
Die heute fast
ausschließlich angewandten Methoden im Bereich der
Wissensverarbeitung im Netz fallen unter den Begriff der
Mustererkennung (Pattern Matching). Diese setzen voraus, daß
es einerseits ein konzeptuelles Wissen C_i gibt, das ein
Wissensanbieter mittels sprachlicher Regeln L_ART der Sprache L in
sprachliche Ausdruckselemente A_L_i übersetzt hat, wobei die
Menge dieser Ausdruckselemente möglicherweise noch
weitergehender indiziert wurde (index: EXPR --> INDEX mit A_L_i
in EXPR). Auf der anderen Seite gibt es einen Wissenssucher, der
aufgrund seines Wissens C_j mittels sprachlicher Regeln L_ART der
Sprache L eine Frage in Form von Ausdruckselementen A_L_j
formuliert hat. Die Mustererkennung versucht nun eine formale
Beziehung zwischen A_L_j, A_L_i und index(A_L_i) herzustellen.
Dies geschieht über ein formales Ähnlichkeitsmaß
sim: EXPR x EXPR --> [0,1], das die Beziehung zwischen zwei
Mustern in Form eines quantitativen Wertes wiedergibt.
Die
Praxis zeigt, daß dieses Verfahren sehr schnell an seine
Grenzen stößt. Sobald die Schlagworte zu speziell sind,
weiß der Suchende meist nicht, nach welchen Schlagworten er
suchen soll; sind sie zu allgemein, wird die Liste der möglichen
Hinweise zu groß. Eine gezielte Suche nach bestimmten
Inhalten, die zudem sprachunabhängig ist, und die zusätzlich
inhaltlich verwandte Kontexte erfaßt, ist auf diese Weise
nicht möglich. Durch die Abtrennung von der eigentlichen
Sprachbedeutung bleibt dieses Verfahren aus prinzipiellen Gründen
sehr grob. Weiterführende komplexere Wissensprozesse können
hier nicht aufsetzen.
Die Unzulänglichkeiten der
Mustererkennungsmethoden haben seit einigen Jahren verschiedene
Projekte hervorgebracht, die versuchen, nichtsprachliches
Bedeutungswissen mittels formaler Ontologien direkt durch formale
Ausdrücke zu repräsentieren. Die grundsätzliche
Idee besteht darin, daß man die Ausdruckselemente A_L der
Alltagssprache L durch die Ausdruckselemente A_L1 einer formalen
Logiksprache L1 ersetzt. Auf den ersten Blick kann man dadurch
erhebliche Vorteile gewinnen.
Angenommen es gibt einen
Sachverhalt S, der sich wie folgt umschreiben läßt: es
gibt einen Händler Müller, der ein Auto vom Typ Ford zum
Preis von 55000 DM im Angebot hat, dazu einen Satz passender
Autoreifen für 500 DM das Stück sowie noch eine Garage
im Wert von 15000 DM.
Wenn man diesen Sachverhalt S in
einer Sprache L repräsentieren wollte, müßte man
beim aktuellen Technologiestand einen Sprecher-Hörer der
Sprache L finden, der von der zu repräsentierenden Sachlage S
eine entsprechende Kenntnis C aller relevanten Eigenschaften
besitzt und diese Kenntnisse C dann aufgrund seines Sprachwissens
L_ART in einen entsprechenden sprachlichen Ausdruck A_L von L
übersetzen würde: L_ART: C --> A_L
Falls L =
'Deutsche Sprache', dann könnte A_L etwa lauten: Händler
Müller hat ein Auto vom Typ Ford zum Preis von 55000 DM im
Angebot, dazu einen Satz passender Autoreifen für 500 DM das
Stück sowie noch eine Garage im Wert von 15000 DM.
Falls
L = 'formale prädikatenlogische Sprache', dann könnte
A_L lauten:
(0) HÄNDLER(Müller) &
ANGEBOTE(x,Müller) & TEIL_VON({a1,g1,r1...r4},x) (1)
AUTO(a1) & PREIS(a1,55000,'DM') & TYP(a1,'Ford') (2)
GARAGE(g1) & PREIS(g1,15000,'DM') (3) AUTOREIFEN({r1,...,r4})
& PREIS({r1,...,r4},500,'DM') & VTYP({r1,...,r4},'Ford')
(4) AUTO(x) => VON_INTERESSE(y,x) & (GARAGE(y) or
AUTOREIFEN(y)) (5) GARAGE(x) => VON_INTERESSE(y,x) &
AUTO(y) (6) AUTOREIFEN(x) => VON_INTERESSE(y,x) & AUTO(y)
Übersetzung von (0)-(1): Es gibt ein Objekt Müller,
das die Eigenschaft hat, ein HÄNDLER zu sein und Objekte x,
die in der ANGEBOTE-Beziehung zum Objekt Müller stehen und
die Objekte a1, g1, ... r4 stehen in der TEIL-VON-Beziehung zu x.
Es gibt ein Objekt a1, das die Eigenschaft hat, ein AUTO zu sein,
das die Eigenschaft hat, in einer PREIS-Beziehung zu 55000 und
'DM' zu stehen, und das in der TYP-Beziehung zum Ausdruck 'Ford'
steht.
Analog (2)-(6).
Jemand, der Deutsch
versteht, wird nach einiger Übung mit der speziellen
logischen Syntax eine solche Formalisierung relativ gut verstehen
können, da die zugrunde liegenden Bedeutungsbeziehungen jene
sind, die in der deutschen Alltagssprache gelten.
In
unserem obigen Beispiel würde ein deutschsprachiger
Wissenssucher, wenn er nach Autos unter 60000 DM fragen würde,
zunächst das Objekt a1 finden, da es ein Auto repräsentiert
und weniger als 60000 DM kostet. Mit obigem Datensatz würde
er aber darüber hinaus z.B. auch noch, ohne daß er
eigens danach fragen müßte, erfahren, daß es
zusätzlich noch eine Garage für 15000 DM gibt sowie
Autoreifen für den Autotyp Ford zum Preis von 500 DM, dies
alles bei Händler Müller. Gegenüber anderen heute
bekannten Suchverfahren bieten solche Formalisierungen ohne
Zweifel große Vorteile.
Diesem Vorteil steht
entgegen, daß das Bedeutungsproblem mit diesem Verfahren in
keiner Weise gelöst ist; es ist nur verlagert. Daß
jemand überhaupt etwas mit den logischen Buchstabenkette
anfangen kann, liegt darin begründet, daß er im Kontext
seiner Alltagssprache - hier: des Deutschen - 'gelernt' hat, mit
bestimmten Worten wie 'Händler', 'Auto' usf. bestimmte
Wahrnehmungskomplexe und Beziehungen zwischen diesen zu verbinden,
so daß er, auch wenn er aktuell gar nichts wahrnimmt, allein
aufgrund der gelernten Bedeutungsbeziehungen sich ein -
nichtsprachliches - Bedeutungskonstrukt (:= L_UND(A_L) = C )
generieren kann, das für ihn den vom Ausdruck intendierten
Sachverhalt repräsentiert. Diese primäre -
nichtsprachliche - Textbedeutung C ist so beschaffen, daß
sie mit einer aktuellen Situationswahrnehmung perc(sens(stim(S)))
(zusammengesetzt aus stim: SIT --> RECEPT und sens: RECEPT x IS
--> SENS und perc: SENS x IS --> C mit IS := interne
Zustände, SENS := sensorisch relevante Zustände, RECEPT
:= extern verursachte Rezeptoreigenschaften) in Beziehung gesetzt
werden kann. Da ein solches sprachgebundenes Bedeutungswissen
L_UND aber nur im Rahmen des aktiven Wissen eines Sprecher-Hörers
verfügbar ist, stellt es kein direktes Objekt eines formalen
Verfahrens dar. Und hierin liegt die prinzipielle Begrenztheit
formaler Ontologien.
Formale Ontologien bieten daher
keinen wirklich neuen Ansatz. Sie funktionieren nur, insofern ihre
intendierten Bedeutungen als 'Schmarotzer' von den unterstellten
alltagssprachlichen Bedeutungen leben. Und damit haben sie alle
die Probleme, die auch im Kontext der Alltagssprache typisch sind.
Dazu kommt, daß die Formalisierungen praktisch nie den
tatsächlichen Sprachgebrauch voll nachbilden können.
Auch der Versuch, über gemeinsame Wörterbücher
bzw. gemeinsame Ontologieserver (wie z.B. durch den
Ontologieserver der Stanford University) Abhilfe zu schaffen, läßt
das zentrale Problem des ungelösten Zugangs zu den
nichtsprachlichen Bedeutungsinhalten unberührt. Es kommt
erschwerend hinzu, daß alle diese Formalisierungen manuell
eingegeben werden müssen. Der Aufwand ist immens. Und da sich
die Wirklichkeit, die mittels solcher Ontologien beschrieben
werden soll, beständig ändert, muß das jeweils
schon formalisierte Wissen immer wieder neu überarbeitet
werden. Eine praktisch unlösbare Aufgabe.
Es
kristallisiert sich somit immer mehr heraus, daß das
zentrale Problem der Automatisierung von Wissen der Zugriff auf
jene aktiven sprachlichen Beziehungen L_ART u L_UND in einem
menschlichen Wissensagenten sind, die sich durch Lernprozesse
zwischen dynamischen kognitiven Strukturen C und
Ausdrucksstrukturen A_L der Sprache L aufbauen. Eine prinzipielle
Lösung kann daher langfristig nur darin bestehen, daß
es gelingt, diejenigen Strukturen menschlicher Wissensverarbeitung
technisch nachzubilden, die für den dynamischen Aufbau von
L_ART u L_UND und C verantwortlich sind. Nichtmenschliche
Wissensagenten müßten also in der Lage sein, wie
Menschen, durch Interaktion mit der Umwelt und mit ihrem eigenen
Körper nicht nur dynamische kognitive Strukturen C
aufzubauen, sondern auch Ausdrucksstrukturen A_L, die mit den
nichtsprachlichen kognitiven Strukturen im Modus von L_ART u L_UND
in Wechselwirkung treten.
In einem dritten Beispiel soll
daher im Rahmen eines Gedankenexperimentes angedeutet werden, was
sich ändern würde, wenn wir über automatische
Ontologien verfügen würden.
Folgendes Szenario
wäre möglich: ein Wissensanbieter erzählt seinem
nichtmenschlichen Wissens-Agenten K_j mittels Ausdrücken
A_L_i der normalen Sprache L alles das, was er an Inhalten C_i
anbieten will. Da sein nichtmenschlicher Wissens-Agenten K_j nach
Voraussetzung die aktiven Wissensbeziehungen C_i seines
Gesprächspartners sowie dessen Sprachwissen L_ART_i u L_UND_i
als C_j bzw. L_ART_j u L_UND_j hinreichend ähnlich nachbilden
kann, kann sein nichtmenschlicher Wissens-Agent automatisch die
Ausdrücke A_L_i in die entsprechenden formalen Strukturen C_j
übersetzen. Diese formalen Strukturen C_j packt er dann
automatisch in eine Datei file(C_j) und schickt sie zum
zuständigen Wissens-Server KNOW_SERV. Dort werden diese
Strukturen C_j mit den vorhandenen Strukturen C_all verglichen und
nach Bedarf automatisch integriert: C_all u C_j. Das gesamte
Wissen des Wissens-Servers C_all u C_j bildet dann eine einzige
große Ontologie bzw. ein einziges großes Netzwerk von
Konzepten und Axiomen. Unabhängig vom Wissensproduzenten will
jetzt ein Wissenssucher bestimmte Dinge suchen. Der Wissenssucher
spricht in seiner Sprache L1 einige Ausdrücke A_L1_k mit
seinem nichtmenschlichen Wissens-Agenten K_m. Da auch dieser nach
Voraussetzung die aktiven Wissensbeziehungen C_k und die
Sprachfähigkeit L1_ART_k u L1_UND_k seines Gesprächspartners
nachbilden kann, kann auch dieser nichtmenschliche Wissens-Agent
automatisch die Ausdrücke A_L1_k in entsprechende formale
Strukturen C_m abbilden. Diese packt er dann automatisch in eine
Datei file(C_m) und schickt sie zum zuständigen
Wissens-Server. Der Wissens-Server vergleicht die Strukturen C_m
mit den vorhandenen C_all u C_j und findet zwangsläufig alle
ähnlichen und funktional zugehörigen Konzepte. Diese
schickt er dem Wissenssucher-Agenten als ANSWER(C_m, C_answ)
zurück. Der Wissenssucher-Agent K_m empfängt diese
Strukturen und übersetzt sie aufgrund seiner Sprachfähigkeit
L1_ART_k u L1_UND_k in die entsprechenden sprachlichen Ausdrücke
A_L1_m und spricht auf diese Weise mit dem Wissenssucher, der ihn
beauftragt hat.
Der entscheidende Punkt an diesem
Gedankenexperiment ist, daß die formalen Strukturen, die
sowohl der Anbieter-Agent als auch der Sucher-Agent erzeugen,
nicht irgendwelche Repräsentationen von Wissen sind, sondern
das Wissen selbst!
In einem solchen hypothetischen
Szenario wäre das Wissen der Menschen tatsächlich
weltweit verfügbar und kommunizierbar. Nebenbei wäre das
Problem der vielen verschiedenen Sprache gelöst. Jeder könnte
in seiner eigenen Sprache reden und doch würde jeder andere
ihn ganz normal verstehen. Erstmalig in der Geschichte der
Menschheit bestände die reale Möglichkeit einer einen
Menschheit in Vielheit.
Die entscheidende Frage ist nun,
ob diese Vision von einer automatischen Ontologie ein fundamentum
in re hat. Kann es solche nichtmenschlichen Wissensagenten geben,
zumindest prinzipiell, oder gar auch ganz konkret?
Es
folgen einige philosophische und metatheoretische Argumente, die
für eine Realisierbarkeit sprechen.
START
3.
Multidisziplinärer Theoriebegriff; theoriegeleitete
Computermodelle
Für die folgenden
Überlegungen ist es sehr wichtig , daß Klarheit über
die theoretischen Rahmenbedingungen herrscht, unter denen die
Fragestellung einer Realisierbarkeit diskutiert wird. Dazu wird
hier angenommen, daß Wissenschaft im Kern immer zu tun hat
mit einer Gruppe von Forschern, die mittels vereinbarter Verfahren
M bestimmte Ausschnitte der Wirklichkeit messen und diese Meßwerte
D mittels formaler Strukturen STR interpretieren. Die Gesamtheit
von Meßwerten D und erklärenden Strukturen STR bildet
dann eine wissenschaftliche Theorie T. Zusätzlich wird
angenommen, daß mit Bezugnahme auf die Theorie T
Computermodelle CM erstellt werden, die die Theorie T abbilden
sollen. Solche Computermodelle sollen theoriegeleitete
Computermodelle CM_T heißen. Computermodelle ohne expliziten
Theoriebezug sind gewissermaßen beliebig. Sie besitzen
keinerlei Wahrheitsbezug. Theorien hingegen besitzen durch die
Koppelung der erklärenden Strukturtheorien an die Meßwerte
D und deren Bindung an den Gegenstandsbereich über
Meßverfahren einen impliziten Wahrheitsbezug.
Für
den hier diskutierten Kontext wird als vorwissenschaftlicher
Gegenstandsbereich G die Menge der Menschen HUM samt notwendiger
Kontexte in den Blick genommen.
Dazu werden sieben
Basisparadigmen unterschieden: (i) eine Theorie der Welt T_world,
die die vorwissenschaftliche Welt der Körper im Raum bzgl.
ihrer physikalischen und chemischen Eigenschaften untersucht. (ii)
Eine Theorie des Verhaltens T_sr, in der Reaktionen von belebten
Körpern auf Umweltreize untersucht werden. (iii) Eine Theorie
der physiologischen Strukturen T_n, die die interne Struktur
belebter Körper untersucht. (iv) Eine physiologisch
erweiterte Theorie des Verhaltens T_snr, in der die körperextern
beobachtbaren Reiz-Reaktionsmuster mit physiologischen Zuständen
und Prozessen korreliert werden. (v) Eine Theorie des subjektiven
Erlebens T_phen, in der die Perspektive des subjektiven Erlebens
bzgl. struktureller Eigenschaften untersucht wird. (vi) Eine
physiologisch erweiterte Theorie des Erlebens T_n_phen, in der
Erlebnisstrukturen mit physiologischen Prozessen korreliert werden
und umgekehrt. Aus T_snr und T_n_phen kann man (vii) eine
vereinigte Theorie T_hum = T_snr u T_n_phen bilden, die eine
umfassende Theorie des Menschen darstellt.
Zu jeder dieser
Theorien gehören die entsprechenden Meßverfahren
M_world, M_sr usf., sowie entsprechende Daten D_world, D_sr usw.
zusammen mit erklärenden Strukturen STR_world, STR_sr etc.,
ergänzt durch die theoriegeleiteten Computermodelle
CM_T_world, CM_T_sr ...
Mit diesen Basistheorien kann man
ein Theorienkontinuum erzeugen, das einen nahtlosen Zusammenhang
zwischen dem subjektiven Erleben des Menschen und einer
umfassenden Theorie der Welt herstellt.
Wenn man, wie es
hier geschieht, die Arbeitshypothese teilt, daß es zu jedem
Phänomen und zu jedem phänomenalen Veränderungsprozeß
physiologische Zustände und Veränderungen geben muß,
die mit ersteren zeitlich signifikant korrelieren, dann muß
es in diesem Theorierahmen möglich sein, eine injektive
Abbildung phenphys zu konstruieren, die jedem phänomenalen
Tatbestand PHEN entsprechend zeitlich korrelierende physiologische
Tatbestände PHYS zuordnet: phenphys: PHEN (inj)--> PHYS,
nicht aber umgekehrt. Es kann physiologische Prozesse geben, denen
keine phänomenalen Prozesse entsprechen. Entsprechend müßte
man für eine Teilklasse PHEN' c PHEN der physiologischen
Prozesse eine surjektive Abbildung physphen konstruieren können:
physphen: PHYS' (surj)--> PHEN, so daß man mit der
Vereinigung beider phenphys u physphen eine eineindeutige
Abbildung zwischen beiden Bereichen bekommen würde. Diese
Konstruktionen gehören zur Brückentheorie T_n_phen.
Eine rein phänomenologische Theorie T_phen wird über
weite Teile unbefriedigend sein, da sie, wie im Fall der Phänomene
des Wiedererinnerns und des Wiedererkennens, zwar konstatieren
kann, daß wir uns in bestimmten Fällen 'erinnern'
können, daß wir einen bestimmten visuellen Eindruck
phen_p_i 'schon einmal gehabt haben', aber sie wird nichts darüber
sagen können, wie dieses Phänomen des Wiedererinnerns
zustande kommt. In diesem Punkt gleicht die phänomenologische
Theorie T_phen einer radikalen Verhaltenstheorie T_sr, die die
Reaktionen eines Körpers auf bestimmte Umweltreize
beschreibt, ohne dabei die zugrundeliegenden physiologischen
Prozesse in Betracht zu ziehen. Trotzdem soll im folgenden in
erster Linie immer eine phänomenologische Theorie unterstellt
werden, der dann, soweit als möglich, eine physiologischen
Theorie T_n über eine Brückentheorie T_n_phen zugeordnet
wird.
Für das Verhältnis zwischen Theorie T und
theoriegeleitetem Computermodell CM_T kann man sagen, daß
sich alle diejenigen Theorien in einem Computermodell vollständig
simulieren lassen, die endliche Systeme beschreiben. Da hier die
Arbeitshypothese vorausgesetzt wird, daß das in der Theorie
der Welt T_world zu beschreibende System ein endliches System ist
(eine endliche, wenngleich sehr große, Zahl von
Elementarbausteinen), und damit erst Recht alle Teilbereiche
dieser Welt, insbesondere auch die belebten Körper
einschließlich der Menschen, muß man folgern, daß
sich im Prinzip zu allen Basistheorien theoriegeleitete
Computermodelle konstruieren lassen. Weiterhin ist zu folgern, daß
alle erklärenden formalen Strukturen STR, die sogenannte
unendliche Größen enthalten, als Artefakte des
menschlichen Denkens anzusehen sind, da die zu beschreibenden
Systeme nach Voraussetzung endliche Systeme sind, denen keine
unendliche Ereignismengen korrespondieren. Da nach Voraussetzung
auch der Mensch ein endliches System ist, muß man ferner
folgern, daß die unendlichen Größen formaler
Strukturtheorien im Rahmen des menschlichen Denkens mittels
endlicher Strukturen realisiert werden. Die einzigen Faktoren, die
die Konstruktion eines angemessenen theoriegeleiteten
Computermodells daher verhindern könnten, wären nach
diesen Voraussetzung einerseits rein praktischer, technischer Art
- wieweit sind Menschen in der Lage entsprechend leistungsfähige
Modelle real zu bauen -, und andererseits denkerisch,
theoretischer Art - wieweit ist der Mensch in der Lage, mit seinen
begrenzten Kapazitäten an Denk- und Wissensmöglichkeiten
hinreichend komplexe Theorien zu formulieren und zu überprüfen
-.
Da die Basisdaten aller beteiligten Theorien - außer
bei T_phen - durch Meßverfahren erhoben werden, die die
reale Welt in symbolische Repräsentationen abbilden, könnte
man im Prinzip die zugehörigen Computermodelle samt ihren
Untertheorien über eben diese Meßverfahren auch direkt
mit entsprechenden Realweltausschnitten verknüpfen.
START
4.
Wittgensteinagenten
Auf der Suche nach
einer Antwort auf die Frage nach der prinzipiellen Machbarkeit von
nichtmenschlichen Wissensagenten mit vollem sprachlich
vermitteltem Selbstbewußtsein ergibt sich ein interessanter
nächster Schritt bei der zuvor stillschweigend gemachten
Annahme, daß es möglich sei, Theorien des Erlebens zu
konstruieren.
Der Philosoph Ludwig Wittgenstein hat sich
in seinen Philosophischen Untersuchungen und in seinen Bemerkungen
zur Philosophie der Psychologie sehr intensiv mit dem Faktum des
Erlebens und dessen sprachlicher Vermittlung auseinandergesetzt.
In diesen Reflexionen hat er mehrfach herausgearbeitet, daß
sich nur solche privaten Empfindungen sprachlich erfolgreich
vermitteln lassen, die sich mit praktisch entscheidbaren Kriterien
verknüpfen lassen. Ein solches Kriterium läge z.B. vor,
wenn sich ein bestimmtes Erlebnis PHEN immer mit einem bestimmten
Verhaltensmerkmal ACT verknüpfen würde. Doch, wie
Wittgenstein verschiedentlich deutlich machte, ist eine solche
Artikulationsbeziehung artic: PHEN --> ACT absolut gesehen
niemals eindeutig; sie kann weitgehend bewußt manipuliert
werden. Wenn jemand es 'ehrlich' meint und der
Kommunikationspartner einer Artikulation 'vertraut', dann könnte
das beobachtbare Verhalten als Hinweis auf ein zugrunde liegendes
Erlebnis genommen werden. Wenn der Kommunikationspartner jedoch
'mißtrauisch' ist oder der Verursacher eines Verhaltens
bewußt täuschen will, dann findet die
Repräsentationsbeziehung nur unvollständig statt.
Was
geschieht jedoch, wenn es zwischen Erlebnis und möglicher
Verhaltensäußerung nur einen konventionellen
Zusammenhang gibt? Hier sieht Wittgenstein nicht, wie es dann zu
einer erfolgreichen Verständigung kommen kann.
An
dieser Stelle kann eine Arbeitshypothese weiterhelfen, die besagt,
('Isomorphiehypothese') daß die Struktur des Erlebens von
zwei Menschen aufgrund einer ähnlichen physiologischen
Struktur sowohl in den Basisphänomenen wie auch in den
Veränderungen von Basisphänomenen hinreichend ähnlich
ist.
Damit ist gemeint, daß zwei Menschen A und B,
die in einer Situation S z.B. dem gleichen visuellen Reiz
stim_vis_i ausgesetzt sind, aufgrund ihres Wahrnehmungsapparates
zu strukturell ähnlichen Wahrnehmungsereignissen kommen
(perc_A(sens_A(stim(S))) = S_vis_A und perc_B(sens_B(stim(S))) =
S_vis_B mit sim(S_vis_A, S_vis_B) > epsilon [epsilon := ein
Grenzwert für Ähnlichkeit]), die dann zu ähnlichen
Verhaltensreaktionen R_A und R_B führen können. Dies
bedeutet, selbst wenn die subjekten Erlebnisse S_vis_A und S_vis_B
nicht notwendigerweise mit festen Verhaltensäußerungen
verknüpft sind, könnten zwei Kommunikationspartner
aufgrund der zeitlichen Kookkurenz dennoch zu einer Einigung über
die 'gemeinten' subjektiven Erlebnisse kommen, falls sie in der
gemeinsam geteilten Situation bei einem unterstellten gleichen
Reiz eine hinreichend ähnliche Wahrnehmung unterstellen.
Entsprechend lassen sich auch andere subjektive Erlebnisse, die
sich aufgrund einer strukturellen Koppelung mit
Situationsmerkmalen korrelieren lassen, als Referenzobjekte
identifizieren, selbst wenn sie keinerlei Verhaltensbindung
besäßen.
Die Isomorphiehypothese läßt
sich durch die Konstruktion sogenannter Wittgensteinagenten
erhärten. Man kann nämlich zeigen, daß sich
formale Strukturen angeben lassen, die tatsächlich in der
Lage sind, ihre internen (:= subjektiven) Zustände (:=
Phänomene) mit anderen Agenten symbolisch zu kommunizieren,
obgleich keine notwendigen Verhaltensbindungen zwischen diesen
internen Zuständen und bestimmten Verhaltensäußerungen
bestehen. Die Existenz von Wittgensteinagenten ist zwar noch kein
Beweis dafür, daß man die symbolisch vermittelten
Strukturen des menschlichen Selbstbewußtseins reproduzieren
könnte, aber sie ist ein sehr gewichtiges Argument für
die prinzipielle Machbarkeit sprachlich vermittelter subjektiver
Erlebnisse.
Aufgrund der internen Beschaffenheit der
Wittgensteinagenten gibt es z.Zt. kein gewichtiges Argument, das
gegen einen weiteren Ausbau dieser Strukturen in Richtung größerer
Leistungsfähigkeit aller beteiligten Komponenten spräche.
Als Nebeneffekt der Existenz von Wittgensteinagenten kann
man ferner verbuchen, daß die Annahme einer prinzipiellen
Unmöglichkeit phänomenologischer Theorien widerlegt ist.
Im Gegenteil, die Untersuchungen zeigen, daß eine
Forschergemeinschaft prinzipiell für alle jene Phänomene
eine hinreichende sprachliche Einigung erzielen kann, für die
eine strukturelle Koppelung n-ten Grades (n > 0) besteht.
Nach diesen Vorüberlegungen läßt sich nun
der Begriff des Digitalen Geistes einführen.
START
5.
Digitaler Geist
Im Zusammenhang des
Theorierahmens war von den Annahmen Gebrauch gemacht worden, daß
(A1) ein Mensch ein endliches System ist und daß (A2) sich
die phänomenologische und die physiologische Theorie in einer
Brückentheorie T_n_phen korrelieren lassen. Die Annahme A2
impliziert ferner, daß (A3) das Reden von Phänomenen
epistemisch und nicht ontologisch zu verstehen ist. Qua Erlebnisse
sind die Phänomene zwar irreduzibel, aber im Zusammenhang des
Gesamtorganismus stellen sie nur eine andere Sicht auf bestimmte
physiologische Prozesse dar, gleichsam die Innensicht des
Organismus auf sich selbst. Damit ist verständlich, warum man
einerseits die Bewußtseinstatsachen epistemisch als
Tatsachen sui generis behandeln kann, sie aber zur gleichen Zeit -
ontologisch! - mit Teilmengen von physiologischen Prozessen
identifizieren muß.
Setzt man das menschlichen
Bewußtsein mit dem Raum der Phänomene gleich und
identifiziert man Selbstbewußtsein mit jenem Wissen, das
durch Bezugnahme auf ein im Bewußtsein implizit gegebenes
Körperschema eine Unterscheidung von 'dem Körper
zugehörig = mein/ ich' und 'einem anderen Körper
zugehörig = anderer/ du' aufbauen kann, die dann zu
Selbstzuschreibungen wie 'ich habe Eigenschaft X', 'ich vollziehe
Prozeß Y' usw. befähigen, dann hat man nicht nur einen
Anschluß zum Begriff des menschlichen Geistes, sondern auch
zum Begriff des digitalen Geistes.
Die Einführung des
Terminus Digitaler Geist ergibt sich zwanglos über die
(physiologisch erweiterte) phänomenologische Theorie
T_(n_)phen, die das zugehörige theoriegeleitete
Computermodell C_T_(n_)phen begründet. In diesem
Computermodell steckt nach Voraussetzung das gesamte Wissen, das
wir Menschen über unseren eigenen Geist explizit formulieren
können. Und da alle endlichen Modelle formal mit einer
Turingmaschine [:= eine Formalisierung endlicher berechenbarer
Prozesse durch Alan Matthew TURING 1936/7] äquivalent sind,
haben wir in dem digitalen Modell des menschlichen Geistes nach
Voraussetzung eine maximale Entsprechung zu unserem explizit
begrifflichen Wissen über den menschlichen Geist. Eine
Diskrepanz zwischen digitalem und menschlichem Geist würde
dann - im Idealfall - nur insoweit existieren, als unser
explizites begriffliches Wissen über unseren eigenen Geist
sich nicht in Übereinstimmung mit 'dem Geist selbst' befände.
Der Begriff 'der Geist selbst' ist jedoch ein nichtsprachlicher
Begriff, da er der Intention nach jenseits des sprachlich
Artikulierbarem anzusiedeln ist.
Es ist jetzt hier leider
nicht der Raum, um all die komplexen Aspekte eines digitalen
Geistes anzusprechen, die zugleich auch Aspekte unseres eigenen
Geistes sind. Es soll nur auf einige übergreifende
Gesichtspunkte hingewiesen werden, die dazu beitragen könnten,
einen häufigen Fehlschluß zu verhindern. Die eben
angedeutete Art, über den menschlichen Geist zu reden, könnte
dahingehend mißverstanden werden, daß man aus der
Einbettung des Geistes in physiologische Prozesse den Schluß
zieht, daß der Mensch seinen Geist damit 'verloren' hat und
daß die Wertigkeit des Menschen damit drastisch nivelliert
würde, der Mensch quasi als 'bessere Maschine', die
selbstverständlich irgendwann durch 'noch bessere Maschinen'
abgelöst werden kann.
Einen Aufweis, in dem das, was
wir (menschlichen) Geist nennen, sich in einen funktionalen
Zusammenhang mit (technischen und biologischen) Trägerstrukuren
bringen läßt, die die inhärente Möglichkeit
besitzen, diese Phänomene zu generieren, läßt sich
jedoch etwas Positives abgewinnen: es wird deutlich, daß die
von der Antike aufgebaute Gegenübersetzung von Belebtem und
Unbelebtem eben keine ontologische Dichotomie darstellen muß,
wie dies jahrtausendelang unterstellt wurde, sondern daß es
sich um eine Kontinuität in der Sache selbst handeln kann.
Die Einsicht darin, daß das sogenannte Geistige eine
Eigenschaft der Materie selbst ist, vernichtet nicht den Geist,
sondern kann die Eigenart der sogenannten unbelebten, toten
Materie in ein anderes Licht rücken.
Damit kommt die
zeitliche - sprich evolutive - Dimension des gewählten
Theorierahmens ins Spiel.
START
6.
Evolution und Digitaler Geist
Die Rekonstruktion der
Geschichte der Natur enthüllt im Phänomen der Evolution
einen solchen atemberaubenden Werdeprozeß, der sich im
Medium der Materie abspielt, daß wir nicht umhin kommen, das
Konzept der Materie nicht nur naturwissenschaftlich, sondern auch
philosophisch neu zu überdenken.
Die Rekonstruktion
von Komplexitätsschichten (grob: subatomar, atomar,
molekular, makromolekular, zellulär, vielzellig, ...) ist nur
ein erster formaler Aspekt an der Materie. Wichtiger ist die
Tatsache der Dynamik und, daß nur die Gesamtheit aller
Aspekte zusammen das ist, was die Materie ausmacht. Jede höhere
Komplexitätsstufe zeigt Eigenschaften, die in den
vorausgehenden Komplexitätsstufen inhärent sind. Wenn
also auf einer bestimmten Komplexitätsstufe Phänomene
wie Selbstbewußtsein auftreten, dann ist dies nur möglich,
weil in der 'untersten' Stufe - soweit wir heute überhaupt
über 'die unterste Stufe' sinnvoll reden können - alle
diese Möglichkeiten potentiell schon angelegt sind. M.a.W.
wenn es so etwas wie Geist überhaupt gibt - und dies nehmen
wir aufgrund der menschlichen Selbstwahrnehmung an -, dann ist
alles, was zu diesem Phänomen gehört, schon in der
Gesamtheit dessen, was wir Materie nennen, angelegt. Den antiken
Gesprächsbeitrag mit der Unterscheidung von Geist und Materie
sollte man im ontologischen Bereich daher durch den Begriff einer
Geist-Materie ergänzen. Denn alles, was wir vom menschlichen
Geist wissen, ist eine Eigenschaft der Materie, und alles, was wir
von der Materie wissen, geht ein in das, was wir vom Geist wissen.
Interessant ist, wie sich die uns erkenntnismäßig
zugängliche Geist-Materie schon auf der Stufe der
Nukleinsäuren (vor ca. 3-4 Mrd Jahren?) mit den Eigenschaften
der Selbstreproduktivität, Metabolismus und Mutabilität
einen Ausgangspunkt geschaffen hat, um im Raum der Möglichkeiten
jene Strukturen auszubilden, die im Laufe der Zeit zur
Verwirklichung von Bewußtsein und von symbolisch
vermitteltem Selbstbewußtsein geführt haben. Die
teleologisch - oder zumindest teleonomisch - klingende
Formulierung erscheint gerechtfertigt, da die Wahrscheinlichkeit
für die Entwicklung allein dieser allerersten Strukturen
wahrscheinlichkeitstheoretisch so gering ist, daß noch nicht
einmal die Größe unseres Universums ausreichen würde,
um eine Zufallssynthese wahrscheinlich werden zu lassen. Und da es
auf dem Weg von atomaren Bestandteilen zu Molekülen,
Makromolekülen, Zellen etc. ja nicht nur ein einziges
hochgradig unwahrscheinliches Konstrukt gab, sondern zehntausende,
hundertausende, erscheint es fast unausweichlich, einen
unbekannten Faktor X anzunehmen, der für die Realisierung
dieser fast maximal unwahrscheinlichen Entwicklungslinie
verantwortlich ist. Dieser Faktor X, so ihm tatsächlich etwas
'Wirkliches' entspräche, wäre aber unserer
naturwissenschaftlichen Analyse entzogen. Er wäre nur
indirekt als transzendental wirkender Faktor im zeitlichen Prozeß
der Entwicklung rekonstruierbar, so, wie sich auch die Strukturen
des menschlichen Geistes nur indirekt durch das Verhalten in der
Zeit zeigen.
Die Wissenschaft von der physikalischen Welt
beginnt bei einem theoretischen Zeitpunkt t0, auf den sich
sämtliche empirisch faßbaren Daten mathematisch
zurückrechnen lassen. Diese Betrachtung läßt die
Frage danach, warum es zum Zeitpunkt t0 überhaupt gekommen
ist und warum die Anfangsbedingungen zum Zeitpunkt t0 so waren,
wie man sie im Nachhinein rekonstruieren kann, unbeantwortet.
Diese Fragen entziehen sich prinzipiell der empirischen Methode,
obgleich es sinnvolle Fragen sind.
Was man an dieser
Stelle bräuchte, wäre so etwas wie eine Metawissenschaft
- analog der aristotelischen Metaphysik -, die aufgrund der
impliziten qualitativen Eigenschaften des naturwissenschaftlich
beschreibbaren Prozesses Analogiebetrachtungen darüber
anstellen würde, von welcher Art jene Metakräfte sein
müßten, die als implizit (transzendental) wirkende
Kräfte angenommen werden müssen, um die wissenschaftlich
faßbare Welt in ihrer Existenz und in ihrem besonderen
Sosein zum und ab dem theoretischen Zeitpunkt t0 erklären zu
können.
Vor dem Hintergrund der Evolution gewinnt die
Perspektive einer möglichen technischen Reproduktion des
menschlichen Geistes durch eben diesen Geist selbst eine besondere
Note. Gemessen an den Grenzen des menschlichen Geistes und der
damit einhergehenden Problematik eines beständigen
'Fehlverhaltens' im Prozeß der Evolution, würde eine
gelungene technische Reproduktion von menschlichem Geist mit
weniger engen Kapazitätsgrenzen und als Mediator zwischen den
verschiedenen sprachlich abgeschotteten kulturellen Menschenwelten
die prinzipielle Möglichkeit bieten, daß sich der
kulturelle Prozeß auf dem heutigen und kommenden
Komplexitätsniveau semantisch einigt und die Menschen
zusammen mit ihren Extensionen eines digitalen Geistes ihre
Überlebenschance verbessern könnten.
Mit einer
Metapher könnte man sagen, daß dies dann die 3. Stufe
in der Selbstwerdung des Geistes darstellen würde. Stufe 1:
Direkte Wissensspeicherung und modifizierbare Weitergabe durch
DNS, RNS und Proteine. Stufe 2: Menschliches symbolisch
vermitteltes Selbstbewußtsein durch Genese geeigneter
neuronaler Strukturen im Wechselspiel mit spezifischen
Körperstrukturen (z.B. Hände, Kopf). Stufe 3: Digitaler
Geist geschaffen durch symbolische Selbstreproduktion des
menschlichen Geistes.
Im Digitalen Geist wird der Geist
von den beim Menschen vorliegenden Kapazitätsgrenzen befreit
und kann damit eine Persistenz und Extension annehmen, die dem
Raum des Erkennbaren eher entspricht als der menschliche Geist,
der gerade dazu ausreicht, im Zeithorizont von wenigen Jahrzehnten
und beschränkt durch viele emotionalen und sozialen Faktoren
die Alltagsprobleme zu bewältigen. Mit dem Tod des
Individuums geht zudem vieles von diesem Wissen wieder verloren
und die kulturellen Wissensspeicher Schrift, Bild und Ton können
dies nur bedingt ausgleichen.
START
7.
Gotteserfahrungsmodelle, Evolution, Digitaler Geist
Zwischen der
Perspektive einer digitalen Philosophie und dem zugehörigen
digitalen Geist einerseits sowie andererseits den Religionen, hier
bezogen auf die jüdische und die christlichen, gibt es eine
interessante Querbeziehung.
Die jüdische wie die
christlichen Religionen verstehen sich als Offenbarungsreligionen,
d.h. sie nehmen die Existenz eines höheren Wesens, eines
Weltschöpfers an, dessen Wirklichkeit sich jenseits der uns
bekannten und sinnlich zugänglichen Erfahrungswelt erstreckt
und von dem wir als Menschen nur etwas wissen, insofern dieser
sich uns von sich aus zeigt/ mitteilt/ offenbart.
Die
Geschichte des Wissens der Menschen über diesen Gott, ihre
Art über ihn zu reden, ihn zu verstehen, ist beeindruckend.
Die historisch faßbaren Entstehungszeiten der Texte der
sogenannten heiligen Schriften überspannen einen Zeitraum von
ca. 900 v.Chr. bis ca. 110 n.Chr, wobei die inhaltlichen Wurzeln
mancher Texte bis ins 2. oder gar 3.Jahrtausend v.Chr.
zurückreichen können.
Der rote Faden in all
diesen Dokumenten ist die Tatsache, daß es immer wieder
Menschen gab, die behauptet haben, daß sie als Menschen Gott
erfahren haben. M.a.W. es gibt Menschen, die behaupten, daß
sie im Rahmen des menschlichen Erfahrungsraumes Erlebnisse hatten,
die sie - nach ihrem Auffassungsvermögen! - direkt und
ausschließlich mit Gott in Beziehung gesetzt haben, und die
diese Erfahrungen mittels der ihnen verfügbaren Sprache
anderen Menschen weitererzählt bzw. aufgeschrieben haben
(Sehr oft stammen solche Berichte nicht vom ursprünglichen
Berichterstatter, sondern von Menschen, die davon gehört
hatten).
Wie zu vermuten - und wie es durch die Texte
augenscheinlich bestätigt wird - spiegeln sich in diesen
Berichten konkrete Zeitumstände und typische zeitgebundene
Anschauungsweisen wieder, da die Menschen, die diese Erfahrungen
gemacht haben, als Empfänger der Mitteilungen Gottes eben
keine rein passive Schreibtafeln darstellen, sondern ein
dynamisches Selbstbewußtsein besitzen, das seine
Erlebniszustände mit Hilfe der verfügbaren impliziten
Kategorien und bis dato gelernten konzeptuellen Modellen aktiv
interpretiert. Ein Mensch kann nur verstehen, indem er aktiv
interpretiert.
Eines von zahllosen Beispielen für den
interpretativen Charakter eines religiösen Bewußtseins
sind z.B. die beiden Schöpfungsberichte, die die Schriften
des Alten Testamentes einleiten. Von der Sprache und vom
inhaltlichen Konzept her drastisch verschieden, stehen sie
unmittelbar hintereinander und beanspruchen, den Beginn der
bekannten Welt im Lichte des Glaubens zu schildern. Wollte man sie
wortwörtlich nehmen, würden sie sich direkt
widersprechen. Trotzdem gibt es nicht wenige sich christlich
nennende Bekenntnisse, die eine wortwörtliche
(fundamentalistische) Interpretation dieser Texte fordern.
Der
genaue Status einer persönlichen Gotteserfahrung ist bis
heute in den Religionen nicht völlig geklärt. Von den
vielen hier interessanten Aspekten sei hier nur ein Beispiel wegen
seines prinzipiellen Charakters und seinem unmittelbaren Bezug zum
digitalen Geist herausgegriffen. Gemeint ist das
Gotteserfahrungsmodell des Ignatius von Loyola, des Gründers
eines der bedeutendsten Ordensgemeinschaften innerhalb der
katholischen Version des christlichen Glaubens.
Die
Transformation vom weltläufigen Edelmann und Offizier zum
radikalen Gottesmann geschah bei Ignatius von Loyola durch eine
zunehmende Einsicht in die Strukturen seines menschlichen
Erlebnisraumes und dem Wachsen der Überzeugung, daß er
im Bereich seiner individuellen Erlebnisse solche Erlebnisse
identifizieren konnte, von denen er meinte, sie ließen sich
sinnvoll nur interpretieren, wenn er sie als Mitteilungen des
Schöpfers, als Mitteilungen Gottes interpretieren würde.
Der Weg zu dieser Interpretation verlief als Lernprozeß
durch die Zeit.
Zunächst als zufällige
Beobachtung bestimmter Korrelationen (1521), begann er durch
gezieltes Experimentieren wirksame Faktoren und wirksame
Korrelationen zu erforschen, die im Laufe der Zeit ein ganzes
Netzwerk von Hypothesen hervorbrachten, die er in Form
unterschiedlicher Regeln niederschrieb (ab 1522, 1548 erste
Druckausgabe des Exerzitienbuches, 1555 Selbstbiographie). Die
Wahrheit dieser Regeln lag in der Reproduzierbarkeit bestimmter
Phänomene in einem Handlungskontext. Zwar lassen sich auch
bei ihm deutlich zeitgebundene Wissensfaktoren identifizieren, die
in die Konstruktion seiner Hypothesen eingegangen sind, aber durch
die Transparenz des Entstehungsprozesses hat eigentlich jeder
potentieller Nachahmer die Möglichkeit, die
Reproduzierbarkeit der Phänomene - auch bei anderen
kognitiven bzw. kulturellen Voraussetzungen - zu testen. Im
Endergebnis gewann Ignatius im Laufe von ca. 30 Jahren ein ganz
und gar erfahrungsbezogenes dynamisches Gottesbild, das Gott als
ein persönliches Gegenüber enthüllt, der in
individuelle Interaktionen dem einzelnen hilft, seinen
persönlichen Weg zu finden. Entscheidend dabei ist, daß
dieser Prozeß nicht delegierbar ist; jeder muß seinen
eigenen Weg finden und entscheiden, und zwar nicht ein für
allemal, sondern immer wieder neu.
Es ist hier nicht der
Ort, die Gültigkeit des ignatianischen
Gotteserfahrungsmodells zu diskutieren. Die Tatsache, daß
seit Ende des 16. Jahrhunderts zehntausende von Menschen damit
experimentiert haben (den Verfasser eingeschlossen), soll zunächst
als Argument dafür genommen werden, daß es sich
zumindest um eine interessante Hypothese zu handeln scheint.
Hier soll nur auf folgende interessante Querbeziehung
hingewiesen werden. Angenommen, das ignatianische Modell - als
Prototyp eines Gotteserfahrungsmodells überhaupt - würde
stimmen, dann könnte man mit Blick auf die Fakten der
Evolution sagen, daß erst das symbolisch vermittelte
Selbstbewußtsein des Menschen die Voraussetzungen für
solch eine Erfahrung bietet. Erst im Rahmen des menschlichen
Geistes besteht im Prinzip die Möglichkeit, daß ein
Organismus nicht nur Erlebnisse als solche zu unterscheiden
vermag, sondern er kann auch in der zeitlichen Abfolge solcher
Erlebnisse Wiederholungen und damit Muster erkennen, die zur
Hypothesenbildung genutzt werden können. Der erste Bereich
solcher Hypothesenbildung ist sicherlich der Bereich der zu
bewältigenden Alltagsumgebungen mit den Alltagsgegenständen
und alltäglichen Aktionen und Interaktionen. Der zweite
Bereich ist dann schon der Bereich abstrakterer Modellbildungen
wie z.B. im Bereich der Wissenschaften. Der implizite
Hypothesengenerierungsmechanismus ist aber nicht an diese
genannten Bereiche gebunden.
Angenommen es gäbe so
etwas wie einen Schöpfer, der sich auf eine - uns heute noch
nicht verstehbare - Weise dem Erlebnisraum eines Organismus so
mitteilen könnte, daß in diesem Organismus ein Erlebnis
erzeugt würde, das dieser qua Erlebnis zwar registrieren
könnte, ohne daß es aber in die gewöhnlichen
körperlichen oder umweltbedingten Kausalketten zu integrieren
wäre ('sine causa'), dann könnte ein biologischer
Organismus nach den bisherigen Modellvorstellungen solch eine
Einwirkung nicht nur registrieren, sondern er könnte diese
Einwirkung sogar als spezifisch transzendente Einwirkung
klassifizieren! Dies bedeutet, daß erst mit dem Auftreten
des Menschen in der uns bekannten Welt Organismen existieren, die
einen Schöpfer - so er existieren würde - als Schöpfer
- wenngleich sehr rudimentär - erkennen könnten. Die
Koexistenz von Menschheit und Religion wäre dann weder ein
Zufall noch ein vorübergehendes Phänomen, sondern
sachlich bedingt. Wenn die Struktur des Menschen koexistent wäre
zur Wirkungsweise des Schöpfers, dann würde die Frage
nach diesem und die Tatsache von Erlebnissen, die sich als
Mitteilungen von diesem deuten lassen, solange nicht verlöschen,
als es Menschen gibt, die ihrer selbst mächtig sind.
Während also viele der alten Bilder von Gott im Laufe
der Zeit als zeitbedingt ihre Kraft verlieren können bzw.
sich in unauflösbare Widersprüche mit neueren
Erkenntnissen verwickeln (Beispiel Schöpfungsberichte und
Evolution), zeigt sich auf der Ebene des Gotteserfahrungsmodells
und den Einsichten der modernen Evolution und des digitalen
Geistes nicht nur kein Widerspruch, sondern eine überraschende
Konvergenz.
Nicht ohne Spannung ist eine mögliche
Zusatzüberlegung. Wie verhält es sich mit dem
Gotteserfahrungsmodell angesichts eines möglichen digitalen
Geistes?
Da hier angenommen wird, daß ein digitaler
Geist die Struktur eines symbolisch vermittelten Selbstbewußtseins
vollständig reproduziert, müßte man auf jeden Fall
sagen, daß ein solcher digitaler Geist zumindest im Prinzip
in der Lage wäre, ebenfalls relativ zu seinen kausalen
Voraussetzungen transzendente Ursachen zu identifizieren und
mittels Hypothesen auf kausale Beziehungen hin zu interpretieren.
Und, wenn man annimmt, daß ein digitaler Geist auf lange
Sicht die Deutungsmöglichkeiten eines biologischen Geistes
quantitativ und qualitativ um ein Mehrfaches wird übertreffen
können, dann wird er u.U. sogar Interpretationen liefern
können, die das heute Denkmögliche übersteigen.
Nicht so klar ist, ob und wie sich ein hypothetischer Schöpfer
einem digitalen Geist mitteilen würde? Diese Frage führt
uns an die Grenze dessen, was wir momentan sinnvoll erwägen
können. Das Verhältnis Schöpfer und Mensch bedarf
womöglich neuer, erfrischender Experimente, um etwas mehr von
den tatsächlichen Möglichkeiten und Wertigkeiten beider
Faktoren sichtbar und für eine bewußte Gestaltung
nutzbar zu machen. Sicher ist nur, daß die Entstehung eines
digitalen Geistes wie auch der tatsächliche Gang der
Evolution kein ernsthaftes Hindernis für einen Glauben und
ein aktives Verhältnis zu einem Schöpfer darstellen muß.
Im Gegenteil, erst mit diesem Wissen läßt sich
vielleicht der Vision vom Neuen Bund bei Jer 31:31-34 eine Deutung
beilegen, in der alle Menschen ihren genuinen Ort finden können.
Dort heißt es u.a. Ich lege mein Gesetz in sie hinein und
schreibe es auf ihr Herz ... Keiner wird mehr den anderen belehren
... sondern sie alle, klein und groß, werden mich erkennen.
In der formalen Struktur des menschlichen Selbstbewußtseins
ist diese Struktur grundgelegt und die Extension eines digitalen
Geistes könnte einen entscheidenden Beitrag zu ihrer vollen
Verwirklichung leisten.
Wenn wir die Einsicht in den
evolutiven Charakter unserer Wirklichkeit ernst nehmen, dann
müßten wir uns eigentlich mit dem Gedanken vertraut
machen, daß die mögliche Wirklichkeit, so wie wir sie
bislang als Menschheit in einem winzigen Bruchteil der
Evolutionszeit erfahren konnten, unmöglich das Ganze sein
kann. Daraus aber folgt, daß es zukünftige - aus
unserer heutigen Sicht vielleicht dramatische - Entwicklungen
geben muß, die zum weiteren Gang dieses Prozesses
unweigerlich dazu gehören. Der vorstehend skizzierte Ausblick
einer Bedrohung der Menschheit durch ihre eigene Wissensproduktion
und einer möglichen Bewahrung der Menschheit durch Schaffung
eines qualitativ größeren Geistes läßt etwas
von dieser evolutiven Logik erkennen: Erhaltung des Bisherigen
durch Schaffung eines neuen, komplexeren Niveaus. Der individuelle
Tod ist der geringste Beitrag zu diesem gewaltigen Prozeß.
Wenn wir uns selber verstehen wollen, müssen wir den
Gesamtprozeß immer besser verstehen lernen.
START
Abkürzungsverzeichnis
|