Das Theorem der Unvorhersehbarkeit

Viele Abhandlungen befassen sich mit der Thematik und den Auswirkungen eines mysteriösen, aber allgegenwärtigen Begriffes: der freie Wille. Wieso fällt das Fazit zu dessen Existenz oder Nichtexistenz je nach Autor oder Textvorlage so unterschiedlich aus? Und woran liegt es eigentlich, dass jeder Mensch den Eindruck von Willensfreiheit besitzt?

Das Theorem der Unvorhersehbarkeit

Religionskritiker, Juristen, Naturwissenschaftler, Philosophen, Theologen, Ethiker und manchmal gar Politiker. Von ihnen allen wird man als Zuhörer, respektive Leser von Zeit zu Zeit in mancherlei Diskussionen, Reden, Predigten, Vorlesungen und in einigen Fällen sogar Fachveröffentlichungen mit einem seltsam anmutenden Ausdruck konfrontiert. Er lautet: „Der Freie Wille“. Seltsam ist er deshalb, weil viele Menschen davon reden, aber niemand so recht zu verstehen scheint, was mit diesem Term denn eigentlich genau gemeint ist, geschweige denn, ob so etwas wirklich existiert und wofür man das so zwingend benötigen würde.

Sinn und Zweck

Schon seit Jahrtausenden diskutieren Menschen die Frage, was man unter freiem Willen versteht. Gibt es das überhaupt? Und falls ja, respektive nein, was bedeutet das, was folgt daraus? Das ist eine überaus wichtige Frage, denn die Freiheit des Menschen, eine Handlung oder Entscheidung während ihrer Durchführung zu verändern oder vorhersehen zu können, oder eben auch nicht, ist der Grundpfeiler des Schuldkonzeptes, auf dem einerseits religiöse Weltanschauungen und politische Ideologien basieren, andererseits aber auch manch eine säkulare Ethikkonzeption und Teile der Straf- und Rechtssysteme moderner Zivilisationen. Wer gegen das Gesetz verstößt, wird bestraft, wobei der Grund dafür wohl in einem Mix aus Züchtigung des Gesetzesbrechers, Abschreckung von Nachahmern, Verhütung weiterer Straftaten der gleichen Person und Genugtuung für gesetzestreue Bürger zu suchen ist. Damit vereint unsere Justiz derzeit sowohl konsequentialistische, als auch deontologische Ethikkonzeptionen in ihrer Rechtsprechung. Die Vorstellung des ethischen Egoismus, der innerhalb der Politik als Ideologie seinen Ausdruck in Form des Libertarismus findet, geht in ihren Grundvoraussetzungen ebenfalls von der Existenz eines freien Willens aus. Denn nur unter Zuhilfenahme dessen, lassen sich die in einem solchen Wirtschafts- und Gesellschaftssystem unvermeidlich auftretende soziale Ungerechtigkeit und der massive Mangel an individueller Fairness philosophisch rechtfertigen. Noch stärker gilt dieser Aspekt für theistische Weltanschauungen institutionalisierter Religionen, wie Islam und Christentum. Denn ohne freien Willen ergeben eine binäre Tugendethik zwischen den metaphysischen Bezugspunkten „Gut“ und „Böse“ und Gericht und Verurteilung der eigenen Gegner zu ewiger Verdammnis, oder die Garantie der Anhänger auf Glückseligkeit in etwa so viel Sinn wie „ein Fußballspiel ohne gegnerische Mannschaft“ (Schmidt-Salomon). Auf politische Religionen wie Faschismus oder Kommunismus lässt sich diese Feststellung in ganz ähnlicher Weise übertragen. Ob ein freier Wille existiert, oder nicht, macht also durchaus einen praktischen Unterschied in der sozialen Umwelt des Menschen. Er entscheidet darüber, ob die oben genannten Vorstellungen und Ideen (ungeachtet ihrer sonstigen Schwächen) vom Grundkonzept her überhaupt einen Sinn ergeben und folgerichtig sein können.

Bei der Erörterung dieses Themas muss exakt zwischen Willensfreiheit und Handlungsfreiheit differenziert werden. Die meisten äußerst widersprüchlichen Feststellungen zu diesem Thema rühren nicht zuletzt daher, dass diese Begriffe nicht sorgsam unterschieden, sondern ständig verwechselt werden. Bemerkenswerterweise und im Gegensatz zur lange verbreiteten Meinung hängt nämlich die Existenz oder Nichtexistenz eines metaphysischen freien Willens überhaupt nicht davon ab, ob das Universum einem deterministischen Verlauf folgt und alle Ereignisse der Zukunft durch die Vergangenheit bestimmt werden, oder ob der fundamentale Quantenzufall dem Universum auch auf Makroebene eine vollkommen offene Zukunft beschert. Denn physikalische Handlungsfreiheit für lebendige (genauer: rückgekoppelt informationsverarbeitende) Systeme besteht generell, während eine per Definitionem lediglich metaphysische Freiheit des Willens nie vorhanden sein kann. Ein Unterschied besteht also einzig und allein darin, wie Kausalketten letztendlich entstehen und in Erscheinung treten. Das ist zwar sehr bedeutsam, wenn man verstehen möchte, wie Komplexität im Kosmos entsteht, spielt bei der Erörterung zum freien Willen aber keine unmittelbare Rolle. Für Ausführlicheres dazu siehe in (Quanteninformationstheorie 1 und 2).

Eine Welt, die es nicht geben kann

Wissenschaftshistorisch betrachtet, geht es bei der Suche nach dem freien Willen fast ausschließlich um die Frage, ob die zukünftige Entwicklung unseres Universums von Anfang an vollständig determiniert, das heißt vorherbestimmt ist, oder ob darin tatsächlich auch fundamentale und damit völlig unvorhersehbare Zufallsereignisse stattfinden. Verhält sich der Kosmos mechanisch oder quantenmechanisch? Zwar verschafft die Auskunft über diesen Sachverhalt lediglich Gewissheit darüber, ob bestimmte Ereignisse ohne kausalen Anlass eintreten können oder nicht und sagt gar nichts über die Existenz von Handlungsfreiheit oder gar Willensfreiheit aus. Das ist aber nicht offensichtlich und deshalb ist es interessant die Unterschiede zwischen einem mechanistischen und einem probabilistischen Universum zu betrachten, um zu sehen, warum diese nur vermeintliche Ambivalenz keinen Einfluss auf das Kernthema hat.

Bereits in der Antike postulierte der griechische Philosoph Demokrit von Abdera, dass die gesamte Welt aus kleinsten unteilbaren Teilchen bestünde, die er Atome nannte. Selbstverständlich waren seine Vorstellungen längst nicht so ausgereift, wie unsere heutigen Erkenntnisse über die Welt der Elementarteilchen. Angesichts der Tatsache, dass diese Überlegungen aus dem 5. Jahrhundert v.u.Z stammen, sind sie an Genialität und Weitblick jedoch kaum zu überbieten. Mit dieser naturalistischen Betrachtung der Welt begründete er den sogenannten atomistischen Materialismus und im selben Atemzug scheinbar ein vollständig deterministisches Bild des Universums. Wenn die Welt nur aus Teilchen und Kräften zwischen ihnen besteht, dann ist die Welt letztlich nichts anderes als ein ultra-kompliziertes Billardspiel. Wäre nun ein Mensch oder Computer in der Lage zu einem bestimmten Zeitpunkt alle Positionen und Geschwindigkeiten der Elementarteilchen im Universum fehlerfrei und eindeutig zu messen, so könnte er zumindest prinzipiell berechnen, wo sie sich zum nächsten Zeitpunkt befänden. Bekannt ist diese Vorstellung unter dem Namen „Laplace´scher Daemon“. Damit könnte man, genügend Rechenleistung vorausgesetzt, die gesamte zukünftige Entwicklung des Universums vorausberechnen, gewissermaßen in die Zukunft sehen. Der Verlauf aller Ereignisse im Leben des Kosmos wäre damit ultimativ vorherbestimmt – wenn Laplace und Epikur bei ihren Annahmen nicht so mancherlei übersehen hätten. Seit Mitte des 19. Jahrhunderts kristallisierte sich nach und nach heraus, dass selbst ein komplett mechanistisches Universum im Sinne von Demokrit offenbar trotzdem in keiner Weise determiniert sein kann. Das hat mehrere Gründe:

1.) Das Dreikörperproblem: Mathematische Gleichungen, die eine Bewegung von auch nur 3 miteinander in Wechselwirkung stehenden Körpern beschreiben, lassen sich prinzipiell nicht mehr lösen. Dies ist keine Frage der Rechengeschwindigkeit oder des Speicherplatzes, sondern ein grundlegend mathematisches und damit rein logisches Problem. Bereits das macht es sowohl für den Dämon, als auch jedes andere informationsverarbeitende System unmöglich die Zukunft komplexerer Systeme zu berechnen und vorherzusagen (das gilt ebenso für die Vergangenheit, denn die Richtung der Berechnung spielt keine Rolle).

2.) Die Relativitätstheorie: Information besitzt eine Maximalgeschwindigkeit, mit der sie sich in Zeit und Raum ausbreiten kann, nämlich die Lichtgeschwindigkeit. Das macht es vollkommen unmöglich alle Zustände des Universums gleichzeitig zu erfassen und vorherzusagen. Analog gilt das auch für kleinere physikalische Systeme, auch wenn der Einfluss der RT dabei geringer ausfällt.

3.) Chaos: Ähnlich wie in Punkt 1 können klassische Systeme ab einem bestimmten Komplexitätslevel innerhalb eines physikalischen Systems keine sinnvollen Prognosen, geschweige denn exakte Berechnungen mehr treffen. Nicht zuletzt deshalb ist es auch heute nicht möglich das regional spezifische Wettergeschehen um mehr als circa drei Tage im Voraus halbwegs zuverlässig zu prognostizieren. Für alles weitere ist die Erdatmosphäre zu Komplex und die Rechenleistung der Computer zu gering. Man spricht hier auch von einem deterministischen Chaos. Laplace´ Dämon würde für Vorhersagen bezüglich des ganzen Kosmos eine sehr lange Zeit benötigen. Letztlich genau so lange, dass er für eine Berechnung des Zustandes des Universums mindestens so lange benötigt, wie das Universum selbst benötigt, um den Zustand einzunehmen. Seine Vorhersage, als eine vom System entkoppelte Aussage, käme also immer zu spät. Und ein vorausplanendes Handeln wäre erst recht unmöglich, da dazu ja verschiedene Zukunftsberechnungen verglichen werden müssten. Ein informationsverarbeitendes System, dass das gesamte mechanistische Universum berechnen und prognostizieren wollte, wäre das Universum selbst.

Die oben geschilderten Einwände stellen im Grunde genommen nichts anderes dar, als ein klassisches Reductio ad absurdum: aus der Prämisse, das Universum mit seinen Naturgesetzen sei mechanistisch und damit deterministisch, ergibt sich automatisch die Schlussfolgerung, dass das Universum doch nicht deterministisch und mechanistisch sein kann. Eine solche Welt ist darum logisch nicht existent. Ein Universum muss immer fundamentale Zufallsereignisse beinhalten, da es sonst nicht existieren würde (vgl. auch den weiter oben verlinkten Artikel zur QIT und das Conway-Kochem-Theorem).

Würfeln mit Quanten

Circa 100 Jahre nach Begründung des atomistischen Materialismus beschäftigte sich ein weiterer herausragender griechischer Philosoph kritisch mit der Lehre des Demokit. Obwohl Epikur von Samos ein großer Freund der Philosophie seines Vordenkers war, hatte er den Eindruck, dass eine determinierte Welt nicht im Einklang mit der alltäglichen Lebenserfahrung stehen könne. Davon ausgehend, dass der menschliche Wille erwiesenermaßen frei sei (was auch immer er darunter verstanden haben mag), musste innerhalb der Bewegung der Atome ab und an eine Anomalie auftreten, eine Art „Ausrutscher“, der sich weder im Vorfeld, noch im Nachhinein ergründen und nachvollziehen lässt. Diese Ansicht ging in den folgenden Jahrhunderten mitsamt dem Atomismus völlig unter und spielte selbst während der Aufklärung keine große Rolle mehr. So kam es, dass auch Newton, Kepler, Leibnitz und Laplace die Welt für deterministisch hielten. Der innere Widerspruch in dieser Annahme fiel keinem dieser großen Denker auf. Erst Anfang des 20. Jahrhunderts wurde mit dem Aufkommen der Quantenmechanik unwiderruflich klar, dass absoluter Zufall auf der Ebene sehr kleiner, oder gut voneinander isolierter Teilchen existiert. Bereits in den 30er Jahren vertraten die beiden Physiker Arthur Eddington und Arthur H. Compton die Ansicht, dass eben dieser absolute Zufall, welcher auf Quantenebene heimisch ist, auch Auswirkungen auf die Makrowelt haben könnte und es möglich sein müsse, unter Ausnutzung dieser speziellen Eigenschaft technische Zufallsgeneratoren bauen zu können, deren Ergebnisse in keiner Weise vorherberechnet oder nachverfolgt werden könnten. Das berühmteste Beispiel für einen solchen Mechanismus ist gewiss das Gedankenexperiment bekannt als „Schrödingers Katze“.

Die beiden Männer behielten ultimativ Recht, denn obwohl es, wie sich später herausstellte, in der Mikrowelt auch grundlegende Prozesse gibt, die das Zufallsverhalten von kleinsten Teilchen stark bändigen, wie die Dekohärenz, ist seit dem Ende des 20. Jahrhunderts dank bahnbrechender Experimente (Quantencomputer und Teleportationen) endgültig erwiesen, dass Quantenzufall eine reale Größe ist und einen allgegenwärtigen, oft sogar essentiellen Einfluss auf unsere Umwelt und das Alltagsgeschehen hat. Weil Quantenereignisse letztendlich in jedem Atom und Elementarteilchen auftreten entfalten sie selbstverständlich auch in Lebewesen ihren Einfluss. Unter anderem auch in den Zellen, Organen und Nervensystemen von Menschen, Tieren und Pflanzen (siehe in Quantenbiologie). Diese Feststellung verleitet insbesondere einige Physiker zu der gewagten Aussage, dass elementare Zufallsereignisse im Gehirn einen „Freien Willen“ hervorbringen, der damit auch für alle anderen Lebewesen im Besitz von Nervenzellen gelten muss. Im Grunde genommen spricht auch erst einmal nichts gegen eine solche Definition von Freiheit, sie ist intuitiv sogar sehr angenehm. Wenn man die Konsequenzen/Handlungen und Ereignisse, die durch fundamentalen Zufall entstehen als frei bezeichnen möchte, so wäre auch der menschliche Wille in diesem Sinne frei. Man hätte gewissermaßen eine naturalistische Definition von Willensfreiheit. Es gibt da nur ein Problem: das ist ganz und gar nicht die Art von freiem Willen, den Theologen und Philosophen so gerne ins Feld führen. Für diese stellt ein freier Wille nämlich eine magische Besonderheit dar, über die einzig und allein Menschen verfügen. Auch der ansonsten eigentlich naturalistische Objektivismus von Ayn Rand hegt diese Vorstellung als Grundannahme. Wie der Psychologe Stephen Pinker bereits feststellte: „a random event does not fit the [traditional] concept of free will any more than a lawful one does”. Wenn also weder Determinismus noch Indeterminismus irgendwas an dieser traditionellen Vorstellung von Willensfreiheit ändern, wie kann man dann mit Bestimmtheit eine wissenschaftliche Aussage über das Vorhandensein eines metaphysischen freien Willens treffen? Und warum hat die Überwiegende Mehrheit der Menschen überhaupt den sicheren Eindruck, über einen theologisch-philosophisch definierten freien Willen zu verfügen? Das ist ganz und gar keine Magie und hat einen sehr fundamentalen, nicht unkomplizierten Grund.

Warum sich Entscheidungen stets frei anfühlen

Dieser Grund hat seinen Ursprung in einem Teilgebiet der formalen Logik (der Beweistheorie), aus welcher letztlich auch die moderne wissenschaftliche Erkenntnismethode des kritischen Rationalismus nach Karl Popper entstammt: dem Gödel´schen Unvollständigkeitssatz und darauf aufbauend Alan Turings Halteproblem. Beide Theoreme der zwei wohl wichtigsten Mathematiker der Wissenschaftsgeschichte gehen auf das Lügner-Paradoxon zurück, das im Original (mal wieder) von einem griechischen Philosophen namens Epimenides von Kreta abstammt. Dessen berühmtes Paradoxon ist die Aussage: „Alle Kreter lügen immer“! Eine alternative Version davon, besonders beliebt in der der Science-Fiction, lautet auch: „Dieser Satz ist falsch“. Wenn der Satz wahr ist, so folgt durch seine Selbstreferenz, dass er falsch ist, und umgekehrt. Es lässt sich mittels formaler Logik unmöglich entscheiden, ob dieser Satz wahr oder falsch ist, denn beide Alternativen schließen einander aus. Das klingt auf Anhieb auch ganz lustig und es macht Spaß darüber nachzudenken, scheint aber unwichtig zu sein und keine ernsten Folgen zu haben, weder praktisch noch wissenschaftstheoretisch. Wohl deshalb haben sich Denker über Jahrhunderte auch nicht sonderlich dafür interessiert. Zumindest bis der österreichische Mathematiker Kurt Gödel sich vornahm zu beweisen, dass ein prestigeträchtiges theoretisches Großprojekt seiner Kollegen Alfred North Whitehead und Bertrand Russel (die Principia Mathematica) zum Scheitern verurteilt war. Die beiden Mathematiker hofften mit wenigen Grundaxiomen die gesamte Mathematik herleiten und all ihre Ergebnisse und Aussagen als wahr beweisen zu können.

Gödel hatte den Verdacht, dass das zwar für einfache Systeme wie gewohnt machbar ist, bei komplexeren Berechnungen und Theorien aber prinzipiell unmöglich sei und formulierte zur Überprüfung dessen aus ein paar wenigen Grundannahmen eine mathematische Theorie, beispielhaft für sämtliche wissenschaftliche Gesetzmäßigkeiten und Mechanismen, die an einem Punkt eine mathematische Variation des Lügner-Paradoxons enthielt, die lautete: „Dieses Ergebnis kann – durch Logik allein – nicht als wahr bewiesen werden“. Möglichkeit A. wäre nun, dass dieses Ergebnis einfach falsch ist und sehr wohl bewiesen werden kann. Das ist aber extrem problematisch, denn eine Theorie, deren Axiome zu falschen Ergebnissen führen ist nicht konsistent, selbst fehlerhaft und deshalb wissenschaftlich unbrauchbar. Kein Naturwissenschaftler würde mit einer solch fehlerhaften Theorie praktisch arbeiten können, geschweige denn wollen, da sie entweder gar keinen oder zumindest stellenweise einen zu schwachen Realitätsbezug hätte, um sinnvolle Erkenntnisse zu liefern. Option B. wäre dagegen, dass das Ergebnis wahr ist und wirklich nicht durch formale Logik bewiesen werden kann. Das ist der harmlosere der beiden Fälle, dessen unbefriedigende Auswirkungen sich glücklicherweise elegant kaschieren lassen. Er besagt nämlich nur, dass sich das fragliche Ergebnis nicht allein durch Logik als wahr oder falsch bewerten lässt. In Verbindung mit noch einer anderen Erkenntnismethode ließe sich dieses Problem jedoch entschärfen.

Nur wenige Jahre nachdem Gödel zur großen Enttäuschung seiner Kollegen bewiesen hatte, dass in komplexen Systemen nicht alle auftretenden Ergebnisse und Schlussfolgerungen mittels Logik als wahr bewiesen werden können, erstellte Alan Turing, der Pionier der Informationsverarbeitung und späterer britischer Codehacker und Kriegsheld eine informationstheoretische Version dieses Unvollständigkeitssatzes. Er wollte untersuchen, was er für Auswirkungen auf die Arbeitsweise und Rechenergebnisse von informationsverarbeitenden Systemen, wie der allmählich aufkeimenden Computertechnologie hat. Als theoretischer Informatiker entwickelte Turing einen Formalismus, nach ihm als Turing-Maschine bezeichnet, der die Berechnungen von informationsverarbeitenden Systemen mathematisch darstellt und damit verständlich und überschaubar macht. Auf diese Art konnte er zeigen, dass jedes System, das die Kriterien einer universellen Turing-Maschine erfüllt in der Lage ist, sich selbst und jede andere Turing-Maschine 1:1 perfekt zu simulieren. Jeder universelle Computer ist deshalb in der Lage zu berechnen, was er in Zukunft tun wird; welche Entscheidungen er aufgrund seiner gegenwärtigen Berechnungen in der Zukunft tätigen wird. Turing konnte nun beweisen, dass jede universelle Turing-Maschine zwar dazu logisch in der Lage ist, also auf diese Weise physikalische Handlungsfreiheit besitzt, aber dennoch niemals eine Antwort auf solche Fragen und Entscheidungen finden kann, bevor sie nicht durchgeführt und abgeschlossen wurden. Das kommt daher, weil bei solchen selbstbezogenen Zukunftsberechnungen immer und unvermeidlich der Gödelsche Unvollständigkeitssatz auftritt. Dies ist der Grund weshalb eine rückbezüglich arbeitende Turing-Maschine niemals vorhersehen kann, welche Entscheidungen sie basierend auf vergangenen und gegenwärtigen Handlungen treffen wird. In der Informatik ist dieses Phänomen unter den Begriff Halteproblem bekannt.

Wenn es heißt, dass jedes rückgekoppelt oder rückbezüglich informationsverarbeitende System eine universelle Turing-Maschine oder anders gesagt ein universeller Computer sei, dann verbergen sich hinter diesem Begriff nicht allein schwierige mathematische Mechanismen auf Papier oder moderne elektronische Prozessorchips in unseren Supercomputern, Laptops, Smartphones oder Waschmaschinen. Man sollte sich nicht von den Worten „Computer“ oder „Maschine“ verwirren lassen. Die Begriffe und die Dinge die sie umfassen sind wesentlich fundamentalerer Natur. Indem der amerikanische Physiker und Computerwissenschaftler Seth Lloyd im Jahre 2012 die Theoreme von Gödel und Turing in erweiterte Form brachte und auf die Gesamtheit der bekannten Naturgesetze im Universum anwandte, konnte er beweisen, dass es sich bei jedem physikalischen System unabhängig von Größe und Komplexität um universelle Computer im Sinne Turings handelt. Das bedeutet nichts anderes, als das sämtliche Dinge im Kosmos von einzelnen Atomen über komplexe DNA-Moleküle und organische Nervensysteme, sowie logischerweise auch elektronische und quantenmechanische Computer den gleichen Fähigkeiten und Grenzen der Informationsverarbeitung unterliegen. Und zu diesen Grenzen gehört, dass ein solcher „Entscheider“ im Sinne eines Systems, das Information in Selbstreferenz verarbeitet, nicht wissen kann, wie das Ergebnis dieser Informationsverarbeitung aussehen wird, bevor sie nicht abgeschlossen ist; daher nicht wissen kann, wie seine Entscheidung ausfallen wird, ehe sie nicht endgültig eingetreten ist.

Die Tatsache, dass auch ein menschliches Gehirn im abstrakten Sinne eine universelle Turing-Maschine darstellt macht klar, warum sich Willensentscheidungen bis zuletzt und auch im Nachhinein immer als frei anfühlen und warum die Vorstellung vom freien Willen eine so große Anziehungskraft und Popularität genießt – unter Naturalisten wie Supernaturalisten. Allerdings steht diese aus logisch-informationstheoretischen Gründen wahrgenommene Freiheit des Willens in diametralem Widerspruch zu all den altbekannten Forderungen, Geboten und Ableitungen, die aus einem echten metaphysischen freien Willen hervorgehen würden. Fakt ist nämlich, dass kein Entscheider unter den gleichen Bedingungen seiner Informationsverarbeitung, seiner Erfahrungen, weder während des Prozesses oder im Nachhinein in der Lage ist das Ergebnis vorherzusehen, herzuleiten oder anzupassen. In diesem Sinne ist der gefühlte freie Wille das Gegenteil des theologisch-philosophischen freien Willens. Das was sich hier wie metaphysische („magische“) Willensfreiheit anfühlt, ist nichts anderes als physikalische Handlungsfreiheit. Natürlich könnte man nach wie vor eben diese Handlungsfreiheit arbiträr als Willensfreiheit bezeichnen. Dann allerdings besäßen auch Photonen, Moleküle, Gestein, Sterne, DNA, Computer und Haartrockner einen freien Willen, was den Begriff trivial und nutzlos machen würde. Fazit: hinter dem inflationär gebrauchten Begriff des freien Willens verbirgt sich entweder physikalische Handlungsfreiheit, deren Konsequenzen das genaue Gegenteil der theologisch-philosophischen Vorstellungswelt bedeuten, oder aber eine sinnfreie Trivialität.

In diesem Sinne,

Wer A sagt, der muss nicht unbedingt B sagen. Er kann auch erkennen, dass A falsch war. –Berthold Brecht (1930)

Quellen:

Final Frontier: Mein Wille geschehe WB: Quanteneffekte und freier Wille ArXiv Blog: Halting Problem Proves That A Lethal Robot Cannot Correctly Decide To Kill A Human The ArXiv: Seth Lloyd – A Turing-Test for Free Will
Hier geht's zum Originalartikel...

Kommentare

Neuer Kommentar

(Mögliche Formatierungen**dies** für fett; _dies_ für kursiv und [dies](http://de.richarddawkins.net) für einen Link)

Ich möchte bei Antworten zu meinen Kommentaren benachrichtigt werden.

* Eingabe erforderlich