Traut man einer neuen Schätzung von Experten, so könnte der sichtbare Kosmos etwa 6 x 10^80 – also ganze 600 Millionen Billionen Billionen Billionen Billionen Billionen Billionen – Bits an Informationen enthalten. Die gefunden Ergebnisse lassen eine ganz besondere Spekulation zu: Das Universum ist in Wirklichkeit eine Computer-Simulation gewaltigen Ausmaßes.

Ist das Universum eine riesige Computer-Simulation?

So verrückt, wie das oben genannte klingen mag, so seltsam ist auch die sich hinter der beeindruckenden Zahl versteckende Hypothese. Vor über sechzig Jahren schlug der deutsch-amerikanische Physiker Rolf Landauer eine Art Äquivalenz zwischen Information und Energie vor, da das Löschen von digitalen Bits innerhalb eines Computers eine winzige Menge an Wärme erzeugt, die durchaus als Form der Energie zu sehen ist.

Dank Albert Einsteins legendärer Gleichung, E = mc^2, welche nichts anderes besagt, als dass die Energie und Materie nur unterschiedliche Formen voneinander sind, kam Melvin Vopson, Physiker der University of Portsmouth in England, bereits früher zu dem Schluss, dass es eine Verbindung zwischen Information, Energie und Masse geben könnte.

„Unter der Verwendung des Äquivalenzprinzips von Masse, Energie und Information habe ich spekuliert, dass Information eine dominante Form der Materie im Universum sein könnte“, ließ er Live Science gegenüber verlauten. Darüber hinaus ergänzte Vopson noch, dass Informationen sogar für die dunkle Materie verantwortlich sein könnten, jene mysteriöse Substanz, die den größten Teil der Materie im Kosmos ausmacht.

Von der Information zum Bit

Vopson machte es sich zur Aufgabe, die Informationsmenge in einem einzigen subatomaren Teilchen, wie beispielsweise einem Proton oder Neutron, zu bestimmen. Derartige Entitäten können durch drei grundlegende Eigenschaften vollständig beschrieben werden: ihre Masse, ihre Ladung und ihr Spin, erklärt der Wissenschaftler. Diese Eigenschaften machen die Elementarteilchen voneinander unterscheidbar und können als „Information“ betrachtet werden, fügte er an.

Auch für Informationen gibt es eine spezifische Definition, von der zuerst von dem amerikanischen Mathematiker und Ingenieur Claude Shannon in einer bahnbrechenden Arbeit von 1948 mit dem Titel „A Mathematical Theory of Communication“ zu lesen ist. Aufgrund der Untersuchung der maximalen Effizienz, mit der Informationen übertragen werden können, führte Shannon das Konzept der Bits ein. Dieses kann entweder den Wert 0 oder 1 haben und wird zur Messung von Informationseinheiten verwendet, ähnlich wie eine Entfernung in Fuß oder Metern oder die Temperatur in Grad gemessen wird, so Vopson.

Anhand von Shannons Gleichungen war es Vopson möglich, eine Rechnung hinsichtlich von Protonen oder Neutronen aufzustellen, die ein Äquivalent von 1.509 Bits kodierter Informationen enthalten sollte. Aus dieser leitete Vopson anschließend eine Schätzung für die Gesamtzahl der Teilchen im beobachtbaren Universum ab. Dies sind in etwa 10^80 und stimmt mit früheren Schätzungen überein, um den gesamten Informationsgehalt des Kosmos zu bestimmen. Seine Ergebnisse veröffentlichte er am 19. Oktober in der Zeitschrift AIP Advances.

Noch immer keine Klärung der Dunklen Materie möglich

Obwohl man mit der sich daraus ergebenden Zahl eine wirklich gewaltige Menge an Informationen hat, ist sie dennoch nicht groß genug, um damit die dunkle Materie im Universum zu erklären, stellt Vopson klar. In einer seiner früheren Arbeiten schätzte er, dass rund 10^93 Informationsbits, also eine Zahl, die noch einmal ganze zehn Billionen Mal größer ist, als die von ihm abgeleitete, dafür nötig sei.

„Die von mir berechnete Zahl ist kleiner als erwartet“, so Vopson selbst. Warum, wisse er jedoch nicht. Es könnte allerdings sein, dass in seinen Berechnungen, die sich auf Teilchen wie Protonen und Neutronen konzentrieren, Entitäten wie Elektronen, neutrinos und Quarks außer acht gelassen werden. Damit fielen wichtige Dinge durch das Raster, weil laut Vopson nur Protonen und Neutronen Informationen über sich selbst speichern können.

Dass seine Annahme möglicherweise falsch sein könnte, räumt er sich selbst ein. Dies könnte auch Grund dafür sein, dass die aktuellen Ergebnisse sich so stark von früheren Berechnungen der Gesamtinformation des Universums unterscheiden. Diese fallen in der Regel sehr viel höher aus, vertraut man Greg Laughlin, einem Astronomen an der Yale University, der allerdings nicht an der Arbeit beteiligt war.

„Zehn Milliarden Elefanten im Raum“

„Man ignoriert nicht den Elefanten im Raum, sondern die zehn Milliarden Elefanten im Raum“, ergänzt Laughlin weiter. Dabei bezog er sich auf die vielen Teilchen, die bei der neuen Schätzung außer Acht gelassen wurden.

Zwar finden derartige Berechnungen vielleicht keine unmittelbare Anwendung, jedoch könnten sie für diejenigen von Nutzen sein, die spekulieren, dass der sichtbare Kosmos in Wirklichkeit eine gigantische Computersimulation ist, so Laughlin. Laut ihm sei diese so genannte Simulationshypothese eine „wirklich faszinierende Idee“. „Die Berechnung des Informationsgehalts – im Grunde die Anzahl der Speicherbits, die für den Betrieb [des Universums] erforderlich wären – ist interessant“ ergänzte er zuletzt.

Bislang bleibt die Simulationshypothese jedoch eben genau das: reine Hypothese. Eine Möglichkeit zu wissen, ob sie wahr ist, gebe es laut dem Wissenschaftler nicht. Doch wie steht es eigentlich um die Technologische Singularität? Ist sie bloß ein Schreckgespinst der Sci-Fi-Fans oder bittere Zukunft? Außerdem haben wir für dich vier Forschungstheorien, die früher belächelt wurden, sich aber heutzutage als zutreffend herausstellen konnten.

Quellen: Space.com, Live Science

Du willst mehr von uns lesen? Folge uns auf Google News.