FH-HOME

  1. Einführung

  2. Philosophische Perspektive - nicht reduzierbar (Schockenhoff)

  3. Selbsttäuschungen des Bewusstseins keine Basis für Erkenntnis (Roth)

  4. Methodische Kritik an den Neurowissenschaften (Olivier)

  5. Metamathematik, Automaten und das Gehirn


DISKUSSION - Gehirn und Willensfreiheit


AUTHOR: Gerd Döben-Henisch
DATE OF FIRST GENERATION: Dec-7, 2003
DATE OF LAST CHANGE: Dec-13, 2003
EMAIL: Gerd Döben-Henisch



1. Einführung

Seit dem 4.November wird in der FAZ (Frankfurter Allgemeine Zeitung) im Wissenschaftsteil des Feuilletons eine Diskussion zum Thema Willensfreiheit geführt, bei der es um die Frage geht, ob die neueren Erkenntnisse der Neurowissenschaften die traditionellen Vorstellungen von Freiheit, Schuld, Verantwortungsfähigkeit aufheben. Dieses Thema ist natürlich von grundlegendem Interesse für uns alle, da wir uns selbst als gesellschaftliche Individuen weitgehend im Deutungsmodell der offiziellen Normen und Gesetze 'konstruieren' --sofern nicht aktuelle Machtkonzentrationen solche allgemein akzeptierte Normen fallweise einfach ausser Kraft setzen--.

Aus Sicht der Informatik ist diese Diskussion von besonderem Interesse, da seit dem fundamentalen Beweis von Kurt Gödel (1931) sowie Alan Matthew Turing (1936) die These im Raum steht, das wissenschaftliche Erkenntnis eine immanente absolute Schranke habe, und diese Schranke damit zu tun hat, dass die 'mächtigste aller berechenbaren' Maschinen --eben die bekannte Turingmaschine-- weder sich selbst noch eine andere berechenbare Maschine in allen Fällen vorhersagen kann! Sofern nun aufweisbar ist, dass sich das Gehirn als solch eine 'mächtigste aller berechenbaren Machinen' erweisen lässt --und alles deutet darauf hin-- wäre letztlich die Informatik die universellste Gehirntheorie, zu der die heutigen Neurowissenschaften sozusagen nur die empirischen Details einer speziellen Instanz dieser allgemeinen Maschine liefern, nämlich unseres Gehirns. Dies ist natürlich eine sehr saloppe Formulierung für einen unendlich komplexen Sachverhalt. Tatsächlich müsste die Informatik noch sehr viel von den Neurowissenschaften lernen und umgekehrt die Neurowissenschaften von der Informatik.

Die Diskussion in der FAZ kann vielleicht die Aufmerksamkeit wieder etwas stärker auf diese Problematik --und Herausforderung-- lenken. In der bisherigen Diskussion gibt es zwar kaum Gedanken, die nicht schon in den letzten 50 -70 Jahren schon einigemale geäussert worden sind, aber man kann wohl kaum annehmen, dass diese wissenschaftliche Debatte über den Expertenkreis hinaus bekannt ist; auch scheinen die radikalen Erkenntnisse von Hilbert, Gödel, Turing und den vielen anderen mathematischen Genies des 20.Jahrhunderts mit ihren Konsequenzen für die Neurowissenschaften dort bislang noch wenig bis garnicht bekannt zu sein.

Im folgenden also Stichworte aus dieser Diskussion, da sie für die Informatik relevant sind.


START



2. Philosophische Perspektive - nicht reduzierbar

Die Beiträge des Strafprozessrechtlers Klaus Lüdersen und des forensischen Psychiaters Hans-Ludwig Kröber werden hier zunächst übersprungen. Die Diskussion setzt ein bei dem Theologen Eberhard Schockenhoff, der sich im beitrag als Philosoph auftritt.

Vorausgegangen war auch eine Kritik von Gerhard Roth, der als Neurobiologe der Philosophie vorwirft, dass Sie die neurobiologischen Erkenntnisse nur ungenügend würdige.

Eberhard Schockenhoff hatte in seinem Beitrag vom 17.November geltend gemacht, dass man methodisch zwischen der Sicht der ersten Person --der Wirklichkeitszugang über das individuelle Bewusstsein, das subjektive Empfinden-- und der Sicht der dritten Person --der Wirklichkeitszugang über objektivierende Messmethoden, jene der Naturwissenschaften, auch der Neurobiologie-- unterscheiden müsse. Ferner hatte Schockenhoff herausgestellt, dass erkenntnistheoretisch eine konstitutive Beziehung zwischen dem subjektiven Empfinden und den objektivierenden Messergebnissen derart besteht, dass die objektivierenden Messergebnisse der Naturwissenschaften (und damit auch der experimentellen Psychologie und Neurobilogie) nur 'innerhalb' eines individuellen Bewusstsein vorkommen können. Jeder Art von objektivierendem Messergebnis liegt daher in dieser Sicht eine subjektive Prämisse zugrunde ("Das Bewusstsein ist Ausgangspunkt, nicht das Ergebnis des Erklärens"). Schockenhoff leitet aus diesen Grundannahmen ab, dass objektivierende Messergebisse prinzipiell nicht geeignet sind, Phänomene des Bewusstseins zu 'erklären'.

Dieses Argument ist in der Philosophie natürlich nicht neu und dient den Philosophen bislang meist dazu, sich einer eingehenderen Diskussion mit den Neurobiologen zu entziehen. Interessanter wäre es, aus diesem fundamentalen Sachverhalt konstruktive Anhaltspunkte für eine Vertiefung der Deutung der neurobiologischen Fakten zu gewinnen. Dies ist auf dem ersten Blick nicht erkennbar.


START



3. Selbsttäuschungen des Bewusstseins keine Basis für Erkenntnis

Die Neurobiologie in Gestalt von Gerhard Roth wehrt sich vehement gegen die These von Schockenhoff und argumentiert zunächst in die Richtung, dass die Korrelation von objektivierenden Messergebnissen der Neurobiologie (neuronale Prozesse) und der Verhaltenspsychologie (Verhaltensdaten) mit subjektiven Empfindungen in vielen Fällen aufweisen konnte, dass die Selbstinterpretation des Bewusstseins sehr oft irreführend sei; Menschen behaupten immer wieder, dass Sie Dinge getan hätten, die sie 'nachweislich' nicht getan haben bzw. dass Menschen Taten abstreiten, die Sie 'nachweislich' getan haben. Die Selbstinterpretation des Bewusstein könnte daher sicher nicht --so Roth-- der einzige Massstab der Wirklichkeitsinterpretation sein. Ausserdem werde --so Roth-- durch die Hypothese der neuronalen Bedingtheit subjektiver Erlebniszustände die Existenz dieser subjektiven Erlebniszustände ja nicht aufgehoben; sie wird nur in einem bestimmten Sinne neu 'interpretiert', 'gedeutet'. So sind die zahlreichen korrelierenden Experimente zur zeitlichen Präzedenz von Bereitschaftspotentialen in handlungsrelevanten Gehirnregionen möglicherweise ein Hinweis auf die Tatsache, dass das 'bewusste Wollen' eine dieser möglichen Selbsttäuschungen unseres Bewusstseins ist, in der wir 'meinen', etwas zu 'wollen', obwohl 'es' schon 'vor unserem Wollen' 'bewirkt' wurde.

Die apostrophierende Wortwahl dieser letzten Sätze zeigt, dass die Neurobiologie methodisch 'ins Schwitzen' gerät, wenn Sie die aus korrelierten Experimenten gewonnenen Messergebnisse im Hinblick auf subjektive Empfindungen 'deuten' will. Denn, so exakt auch die neurobiologischen und verhaltenspsychologischen Messergebniss sein mögen, das 'Gegenstück', die mentalen Tatbestände im Raum des Bewusstseins, sind notorisch vage und prinzipiell nicht so eindeutig fixierbar, dass man eindeutig und unmissverständlich sagen könnte, welche phänomenalen Tatbestände denn nun 'genau' den objektivierenden Messergebnissen entsprechen. Auch dann nicht, wenn man ein 'gutwilliger' Philosoph wäre und geradezu 'begierig' wäre, alle diese neuen Erkenntnisse in die Theoriebildung einzubeziehen.

An dieser Stelle sollte man auch nicht übersehen, dass die drei empirische Diziplinen Verhaltenspsychologie, Neuropsychologie und Neurobiologie/ Hirnforschung junge empirische Diziplinen sind, die in den letzten 100 Jahren zwar eine ungeheure Fülle von Einzelexperimenten und Einzeldaten produziert haben, es bislang aber nicht (!) geschafft haben, eine explizite Theorie zu entwickeln, die aus Sicht der Wissenschaftstheorie diesen Namen verdient. Dies soll kein Vorwurf sein, da die Komplexität des Gegenstandes ungeheurlich ist und die bisherigen Leistungen tief beeindrucken, aber bei aller Begeisterung muss man als Wissenschaftler trotzdem nüchtern bleiben und feststellen, dass keine dieser Disziplinen bis heute in der Lage war, eben eine explizite --und das heisst auch: formale-- Theorie aufzustellen, die eine saubere logische Argumentation ermöglicht. Es gibt nur zahllose Fragmente, die sich um Gruppen von Einzelexperimenten ranken, die halbformalen Charakter besitzen, und deren wissenschaftlicher Status zwar interessante Hypothesen zu formulieren gestattet, aber keinesfalls zwingende Prognosen oder überprüfbare Erklärungen über das Gesamtgehirn zulässt.


START



4. Methodische Kritik an den Neurowissenschaften

Diese wissenschaftstheoretische Schwachstelle der Neurowissenschaften greift dann auch der Mathematiker Reinhard Olivier auf. In seinem Beitrag vom 13.Dezember 2003 beleuchtet er die heute verfügbaren Messmethoden der Neurowissenschaften, spricht ihre Grenzen an und weisst vor allem darauf hin, dass sämtliche neurowissenschaftliche Daten nur so gut sind, wie die Deutungsmodelle, die auf sie angewendet werden; je komplexer die Sachverhalte, umso unausweichlicher die Notwendigkeit, komplexe theoretische Modelle bereitzustellen, um die für sich genommen 'naiven' Einzeldaten in den rechten Zusammenhang zu stellen. Ohne solche komplexen Modelle ist ein Hantieren mit den Daten nicht nur leichtsinnig, sondern sogar unverantwortlich. Aufgrund der geringen Theoriebeladenheit der Neurowissenschaften und ihrem theorieschwachen Umgang mit den Daten äussert er den Verdacht, dass die Neurowissenschaftler möglicherweise von der Überzeugung geleitet werden, "dass es letzten Endes einen einfachen Zugang zum Gehirn gibt, eine Art Urformel".

Am Beispiel der 'Wechselwirkung zwischen Gehirnen', wie sie sich z.B. im Phänomen der Kommunikation zeigt, macht er darauf aufmerksam, dass die impliziten Muster dieser --unserer!-- Gehirne --vor allem auch dann, wenn man Phänomene berücksichtigt, die über längere Zeitintervalle reichen, von einer Komplexität sind, die sich allen bislang benutzen (naiven) neurowissenschaftlichen Deutungsmodellen entziehen. Olivier sieht noch einen sehr langen Weg bis hin zu einer adäquaten neurowissenschaftlichen Theorie mit wohldefinierten Begriffen, der Möglichkeit formaler Ableitungen und kontrollierter Experimente mit Deutungen auf unterschiedlichsten Abstraktionsebenen und unterschiedlich langen Zeitfenstern.


START



5. Metamathematik, Automaten und das Gehirn

Diese methodische Kritik an den Neurowissenschaften ist sehr wichtig, da es seit ca. 70 Jahren bahnbrechende Erkenntnisse in der Meta-Mathematik gibt, die sich unmittelbar auch auf die Ergebnisse der Neurobiologie anwenden liessen, hätte diese überhaupt erst mal eine erste erntzunehmende Theorie formuliert. Das folgende Argument ist daher ein wenig 'futuristisch', weil es so tut, als ob die Neurobilogie schon eine explizite Theorie des gesamten Gehirns entwickelt hätte (was sie definitiv noch nicht hat).

Im wesentlichen handelt es sich um zwei Argumente, die aus Sicht der Metamathematik (die sich heute z.T. auch in der theoretischen Informatik fortpflanzt) die Diskussion um die Willensfeiheit in einem sehr grundsätzlichen Sinne beleuchten.

Zum einen konnte hierdurch bewiesen werden (Kurt Gödel 1931 und die nachfolgende Diskussion), dass alle bekannten interessanten wissenschaftlichen Theorien eine Form haben, die es prinzipiell ausschliesst, dass eine solche Theorie zugleich sowohl 'widerspruchsfrei' wie auch 'vollständig' ist. D.h. mit den bekannten Mitteln des formalen Denkens ist es uns Menschen grundsätzlich verwehrt, 'vollständige' Theorien zu formulieren, unabhängig davon, um welchen Gegenstandsbereich es sich handelt. Alle bisherigen Versuche, den zugehörigen Beweis als 'falsch' zu widerlegen, haben bislang seinen Aussagegehalt nur noch weiter bestärkt.

Auf den ersten Blick mag dieses metamathematische Resultat wie ein 'Glasperlenspiel' von weltentrückten Mathematikern erscheinen. Aber immerhin folgt aus diesem Sachverhalt, dass die Neurobiologie, sollte sie jemals über eine Theorie verfügen, die diesen Namen wissenschaftstheoretisch verdient, niemals eine Theorie haben könnte, die das Gehirn vollständig beschreibt. Absolute Voraussagen über das Verhalten eines Gehirns wären nicht in allen Fällen möglich, und zwar grundsätzlich nicht!

Es gibt aber noch einen zweiten ?auf diesen ersten Beweis aufbauenden-- Beweis, der unserem alltäglichen Argumentieren möglicherweise 'näher' kommt.

Dieser zweite Beweis beruht auf der Einführung des Begriffs der 'mächtigsten berechenbaren Maschine überhaupt' (die bekannte Turingmaschine, die zurückgeht auf die Arbeit von Alan Matthew Turing 1936-7). Die Anwendung dieses Konzeptes auf das menschliche Gehirn beruht auf der Tatsache, dass man die zunehmende Fülle an biochemischen und molekularbiologischen Details des Gehirns und seiner Informationsverarbeitung in den Nervenzellen mit Hilfe der Mathematik auf abstrakte Strukturen abbilden kann, die allgemeine Aussagen über Eigenschaften von Neuronen und deren Wechselwirkungen erlauben. Zwar fehlt bisher --leider-- eine Theorie der Neurobiologie, aber die bislang verfügbaren Fakten lassen es als sehr wahrscheinlich erscheinen, dass man sowohl die einzelne Nervenzelle wie auch beliebige Netzwerke solcher Zellen mit dem Konzept der 'mächtigsten berechenbaren Maschine überhaupt' beschreiben kann. Da man aber von dieser 'mächtigsten berechenbaren Maschine überhaupt' beweisen kann, dass sie nicht in der Lage ist, das Verhalten jeder beliebigen anderen 'mächtigsten berechenbaren Maschine überhaupt' (einschliesslich sich selbst!) für jeden Fall vorauszusagen, würde dies für das Gehirn bedeuten, dass kein Gehirn das Verhalten eines anderen Gehirns (oder sein eigenes) in allen Fällen voraussagen kann! Und zwar prinzipiell nicht!! Noch so viel Detailwissen, noch so viel Training, noch so viele Theorien können diese prinzipielle Unfähigkeit nicht ausgleichen.

Auf dieser Ebene der Argumentation ist es zwar schwierig bis unmöglich, einen direkten Zusammenhang mit dem Phänomen der Willensfreiheit herzustellen, aber die Rothsche Definition von Willensfreiheit des ?Unter-denselben-physiologischen-Bedingungen-willentlich-anders-handeln-Könnenens? lässt immerhin die Interpretation zu, dass man sagen kann, dass ein Gehirn von einem anderen Gehirn (einschliesslich sich selbst) niemals in allen Fällen sagen kann, ob ein Gehirn unter den gleichen physiologischen Bedingungen beim nächsten Mal tatsächlich das 'Gleiche' wieder tun wird wie zuvor!

Dieses Ergebnis ist nicht ohne eine pikante --und natürlich nur scheinbare-- Paradoxie. Übernimmt man nämlich die Hypothese, dass sich das menschliche Gehirn mathematisch mit dem Konzept der 'mächtigsten berechenbaren Maschine überhaupt' beschreiben lässt, dann beinhaltet diese Beschreibung den Sachverhalt, dass diese 'mächtigste berechenbare Maschine überhaupt' im Kern vollständig deterministisch ist. Bei deterministischen Maschinen geht man normalerweise davon aus, dass man jeden Folgezustand eindeutig voraussagen kann. Dass nun die 'mächtigste berechenbare Maschine überhaupt' in ihrem Verhalten nicht voraussagbar ist, liegt an dem Umstand begründet, dass es ihr erlaubt ist, ihre eigenen Zustände 'für sich selbst' 'aufzuschreiben, sie 'wieder zu lesen', und sie wieder 'zu verändern'. Diese Möglichkeit verwandelt die im Kern deterministische Maschine zu einem 'Möglichkeits-Monster', zu einem prinzipiell unberechenbaren Etwas, das unter anderem in Form biologischer Nervensysteme, speziell menschlicher Gehirne, diesen Planeten bevölkert.

Nicht nur die Zukunft insgesamt bleibt damit spannend, sondern auch der Dortgang der Diskussion.


START