Konsequenzen für die Lerntheorie

Obwohl die McCulloch-Pitts Neuronen möglicherweise die Stärke einer Turingmaschine annehmen können, kann man aus Sicht der Lerntheorie versucht sein, einzuwenden, dass sich mit Netzen bestehend aus McCulloch-Pitts-Neuronen Lernprozesse nur begrenzt darstellen lassen, da diese Netze als statisch angenommen werden (vgl. McCulloch und Pitts (1943)[170], P.118). McCulloch und Pitts weisen alerdings selbst darauf hin, dass man das Problem vielleicht dadurch lösen könnte, dass man einfach genügend Neuronen von vornherein bereitstellt. Es ist momentan noch eine offene Frage, ob man für alle notwendigen Fälle von Lernen immer schon im Vorhinein alle potentiell notwendigen Strukturen bereit halten kann. Dies müsste noch weiter geklärt werden.

Ein weiterer Einwand stammt von Kleene in seinem oben erwähnten Artikel, in dem er explizit den Punkt mit dem Gedächtnis aufgreift (vgl. [136]:P.4). Er wäre zwar bereit, eine Lösung von Gedächtnisstrukturen mittels 'reverberating cycles of nerve impulses' für ein Kurzzeitgedächtnis zu akzeptieren, nicht aber für ein Langzeitgedächtnis. Seine Argumente gegen die Realisierung eines Langzeitgedächtnisses mittels aktiver 'Schaltkreise' sind physiologische Gründe wie 'Ermüdung' von Zellen, 'materieller Aufwand' sowie die empirische Evidenz, dass auch bei 'kurzfristigen Unterdrückung von Nervenaktivitäten' die Erinnerungsleistung dennoch erhalten bliebe.

Wieweit diese Argumente letztlich wirklich physiologisch gültig sind, sei hier mal dahingestellt. Aus theoretischer Sicht interessanter ist jedoch die Frage, ob sich -unter Absehung von 'Ermüdung' und 'Aktivitätsunterbrechung' und 'Aufwand'- mit den von McCulloch-Pitts beschriebenen neuronalen Strukturen grundsätzlich Gedächtnisfunktionen derart konstruieren lassen, dass sich ein dynamisches 'Schreiben' = 'Speichern' bzw. ein 'Wiederfinden' und 'Lesen' realisieren lassen würden. Dies hätte zunächst mal den unschätzbaren Vorteil, dass sich mit einer Menge vergleichbar einfacher Elemente komplexe dynamische Wissensstrukturen implementieren liessen (Nebenbei: Solche 'McCulloch-Pitts Neuronen' liessen sich dann mit heutigen Mitteln auch direkt in einfache und billige Neurochips übersetzen).

In dem Moment, wo sich mittels McCulloch-Pitts Neuronen gedächtnisrelevante Strukturen realisieren liessen, würden diese Gedächtnisstrukturen strukturell wie das Schreib-Lese-Band einer Turingmaschine fungieren. Dies bedeutet, dass McCulloch-Pitts Netze, die Gedächtnisstrukturen enthalten, automatisch eine Rechenkraft erlangen, die sich von der Rechenkraft einer Turingmaschine nur in dem Grad unterscheiden würde, in dem die verfügbaren Gedächtnisstrukturen die Gedächtnisstrukturen einer Turingmaschine nicht vollständig erreichen. Vergleicht man das formale Konzept einer Turingmaschine mit dem formalen Konzept eines McCulloch-Pitts Netzes, dann gibt es einzig die Begrenzung durch die endliche Anzahl möglicher Neuronen, wodurch jede denkbare Gedächtnisstruktur in einem McCulloch-Pitts Netz grundsätzlich schwächer ist als eine Turingmaschine, die unbegrenzt viele Zustände haben kann (auch in deutlich eingeschränkteren Versionen wie z.B. eine Turingmaschine mit festem endlichen Input und zwei Zählern (vgl. Hopcroft und Ullmann (1979)[114]:P.172). Im Bereich realisierter Maschinen würde die Turingmaschine ihre Unbegrenztheit verlieren und das Format eines McCulloch-Pitts Netzes annehmen. Das formale Äquivalent zur unbegrenzten Turingmaschine wären McCulloch-Pitts Netze mit der Eigenschaft, dass die Anzahl der Neuronen nach Bedarf vermehrt werden könnte. Diese Art von neuronalen Netzen nennen wir vorläufig Extended McCulloch-Pitts Networks (McCPN+) im Gegensatz zu den 'normalen' McCulloch-Pitts Network (McCPN).

Gerd Doeben-Henisch 2010-12-16