… Das mit den Fraktalen kann ich übrigens nachvollziehen. So ähnlich wie beim Gehrin, welches letztendlich ja aus sehr wenig genetischem Code gebildet wird, aber schließlich ja extrem komplex wird … Ich nehme an, so ähnlich meinst du das auch mit der Simulation, die dann größer sein könnte als das Universum …
Die Frage ist, was man unter “Simulation” versteht …
Zum Beispiel, ob wirklich zu einem bestimmten Zeitpunkt alles bekannt sein soll (was laut aktueller Quantenmechanik zwar nicht möglich ist, Stichwort Unschärferelation, aber was solls). Es müsste also die Position, die Geschwindigkeit, die Masse/Energie, Spin, usw. von allen Elementarteilchen im Universum bekannt sein (gut, die Simulation könnte sich ja geringfügig vom realen Universum unterscheiden, aber ändert ja nichts), wobei wir auch schon wieder Probleme bekommen, weil auch die Existenz von Elementarteilchen vom Beobachter abhängig ist (Stichwort “alles ist relativ”). Aber mal abgesehen von den vielen Problemen dabei (und ein endliches Universum müssen wir auch annehmen), wären das eben sehr viele Eigenschaften, die der Computer speichern und laufend anpassen müsste. Angenommen, wir beschränken uns auf die Position aller Teilchen, die wir zunächst kennen oder festgelegt haben; dann müssten wir nach einer kurzen Zeit alle Positionen neu berechnen. Die Frage ist dann, was brauchen wir, um die Position eines Teilchens zu berechnen? Wenn wir dafür nur ein einziges Elektron brauchen, welches in einem Schaltkreis umhersaust, dann wäre das schon hoffnungslos zu viel. Denn dann bräuchten wir offensichtlich schon mehr Elektronen, als es im Universum gibt …
Anders sieht es natürlich aus, wenn man nicht das gesamte Universum simuliert und speichert, sondern nur einen Teil, und diesen Teil immer wieder neu anpasst, je nach dem, für welchen Bereich des Universums man sich interessiert (im Computerspiel wird eine Grafische Umgebung ja auch teilweise erst nach und nach erstellt, je nach dem, wo man sich in der simulierten Welt befindet). Aber das wäre dann aber keine vollständige Simulation des ganzen Universums …
Und natürlich kann man das Ganze auch vereinfachen. Zum Beispiel, wie es unser Gehrin beim Erinnern an ein Bild macht. Grob ist es gespeichert, aber eben nicht im Detail (und fehlende Infos werden sinnvoll ergänzt). Analog dazu könnte man sich vorstellen, dass man eben Kleinigkeiten bei der Universum-Simulation vernachlässigt. Aber auch hier gilt wieder: Es wäre keine vollständig korrekte Simulation des Universums.
Ein weiterer Aspekt ist die Energie, die notwendig ist, um Berechnungen durchzuführen (Stichwort: Entropie und Information; Landauer-Limit), und wie sich das (reale) Universum durch die Berechnungen (aber auch generell) verändert. Informationsverarbeitung ist zwar reversibel (benötigt also theoretisch minimal keine Energie), aber das Speichern und Löschen von Informationen benötigt Energie (was ansonsten den 2. Hauptsatz der Thermodynamik verletzten würde, dessen Gültigkeit wir jetzt einfach mal annehmen, auch wenn ja offensichtlich der “AC” in der oben verlinkten Asimov-Kurzgeschichte es im letzten Moment seiner Existenz geschafft hat, die Entropie global zu senken), was auch für Quantencomputer gilt. Das beschränkt die Anzahl der möglichen Operationen, die jemals durchgeführt werden können.
Also zumindest durch die Energieumsetzung sollte sich die Frage
geklärt haben.
Aber was meinst du mit “virtuell”? So, wie im Gehirn eine “bewusste” Wahrnehmung der Welt konstruiert wird? Aber diese “virtuelle Welt” muss ja nun auch wieder erstellt/berechnet werden, bei einer vollständigen Simulation eben auch wirklich vollständig. Und dafür braucht es eben einiges (falls es überhaupt möglich ist) …