Sternengeschichten Folge 633: Die Millenium-Simulation
Shownotes
Sternengeschichten Folge 633: Die Millenium-Simulation
Warum sieht das Universum so aus, wie es aussieht? Warum sind die Galaxien in Galaxienhaufen organisiert, die in noch größeren Superhaufen organisiert sind, die wiederum die gigantischen Filamente bilden, die sich durch den ganzen Kosmos erstrecken und durch ebenso gigantische Leerräume voneinander getrennt sind? Das ist eine durchaus fundamentale Frage und eine die Forscherinnen und Forscher - zu Recht - beantworten wollen. Nur: Wie stellt man das an?
Gut, man kann das Universum beobachten. Man kann die Positionen der Galaxien kartografieren und weil Licht, das aus großer Ferne kommt eine entsprechend lange Zeit unterwegs war und wir damit auch entsprechend weit in die Vergangenheit blicken können, können wir so auch vergleichen, wie das Universum früher im Gegensatz zu heute ausgesehen hat. Aber erstens ist das gar nicht so einfach, wie es klingt. Die kosmologische Kartografie ist ein enorm komplexes Vorhaben und wäre ein Thema für eine eigene Folge der Sternengeschichten. Aber auch die beste Kartografie zeigt uns nur einen Zustand und nicht den Prozess, der dazu geführt hat. Wir haben aber auch keine Möglichkeit, die Entwicklung des Universums "in echt" zu beobachten. Seit dem Urknall sind immerhin fast 14 Milliarden Jahre vergangen. Es bleibt nur noch eine Möglichkeit: Eine Computersimulation.
Wir können die realen Beobachtungsdaten, die wir über den frühen Zustand des Universums haben mit den bekannten Naturgesetzen und den vermuteteten Hypothesen zur Entwicklung des Kosmos kombinieren, alles in einen Computer werfen und dann diesem Modell zusehen. Das ist natürlich ebenfalls deutlich komplexer, als es klingt, aber in diesem Fall ist das kein Thema einer zukünftigen Folge des Podcasts, sondern genau das, worum es diesmal geht. Oder genauer gesagt: Heute geht es um eine ganz besondere dieser kosmologischen Simulationen. Ich möchte von der "Millenium-Simulation" erzählen, deren Ergebnisse im Jahr 2005 veröffentlicht worden sind.
Fangen wir dazu mit der wichtigsten Frage an: Wie simuliert man ein komplettes Universum? Wir wissen: Nach dem Urknall gab es jede Menge Wasserstoffatome, ein bisschen weniger Heliumatome, verschwindend geringere Mengen an Lithium und Beryllium, einen Haufen Energie und sonst nichts. Heute ist das Universum voller Sterne, die Galaxien bilden, die Galaxienhaufen bilden, und so weiter. Wir können jetzt aber nicht einfach ein Programm schreiben, dass die Eigenschaften von Wasserstoff- und Heliumatomen simuliert, das laufen lassen und dann warten, bis daraus Sterne und Galaxien werden. Das wäre einerseits zu kompliziert. Kein Computer der Welt wäre in der Lage, gleichzeitig all die Atome zu simulieren, die beim Urknall entstanden sind. So eine Simulation müsste die nuklearen, die chemischen, die elektromagnetischen, die gravitativen und jede Menge andere Vorgänge gleichzeitig behandeln und das für eine unvorstellbare Menge an Atomen. Wir brauchen also einen anderen Ansatz.
Vor allem, weil das, was ich vorhin gesagt habe, auch nicht komplett richtig war. Es gab nicht nur Wasserstoff, Helium und so weiter. Es gab vor allem jede Menge dunkle Materie. Also die Art von Materie, von der wir wissen, dass sie da sein muss, weil wir beobachten können, wie ihre Gravitationskraft sich auf die Sterne und Galaxien auswirkt. Aber wir wissen nicht, um was für eine Art von Materie es sich dabei handelt; die entsprechenden Teilchen haben wir bis jetzt noch nicht entdeckt. Sicher ist nur: Es gibt im Universum sehr, sehr viel mehr dieser dunklen Materie, als es normale Materie gibt, aus der die Sterne und Galaxien bestehen.
Dass wir nicht wissen, woraus die dunkle Materie besteht, spielt in diesem Fall aber keine so große Rolle, wie man denken mag. Denn um zu verstehen, wie das Universum so geworden ist, wie wir es heute sehen können, kommt es eigentlich nur auf die Gravitationskraft an, die diese dunkle Materie ausübt. Und deswegen steht die dunkle Materie auch im Zentrum der Millenium-Simulation. Aus diversen Beobachtungsdaten wissen wir, dass circa 85 Prozent aller Materie aus dunkler Materie besteht. Wir wissen auch, dass diese dunkle Materie nicht mit elektromagnetischer Strahlung wechselwirkt. Das heißt in diesem Fall: Sie wird nicht aufgeheizt, sie gibt auch keine Wärme ab. Oder anders gesagt: Während die normale Materie im frühen Universum durch die viele Energie enorm heiß war und die Teilchen sich wegen der großen Temperatur schnell bewegt haben, haben die Teilchen der dunklen Materie das nicht getan. Oder, ein letztes Mal anders gesagt: Die dunkle Materie ist durch durch die elektromagnetische Strahlung, also durch die Energie nach dem Urknall, weniger stark beeinflusst worden und hat sich deswegen, vereinfacht gesagt, früher "zur Ruhe gesetzt". Die ersten Strukturen im Universum waren Strukturen aus dunkler Materie. Natürlich keine Sterne aus dunkler Materie oder so. Ich will jetzt nicht zu sehr in die Details gehen, aber weil dunkle Materie so ist, wie sie ist, kann sie keine kompakten Objekte wie einen Stern bilden. Aber gigantisch große Wolken schon. Und die Anziehungskraft dieser gigantisch großen Wolken hat dann früher oder später auch die normale Materie beeinflusst, in ihr Zentrum gezogen und dort, in den Zentren dieser großen Wolken, hat die normale Materie dann Sterne und Galaxien gebildet.
Wenn man also weiß, wo sich die dunkle Materie im frühen Universum befunden hat, ist es auch ein vergleichsweise kleines Problem, daraus zu bestimmen, wo sich die Galaxien und Galaxienhaufen befinden müssen. Die Millenium-Simulation hat sich also auf die Simulation der Bewegung der dunklen Materie beschränkt. Allerdings nicht im gesamten Universum; auch das wäre zu viel für die Computer gewesen. Man hat sich auf einen würfelförmigen Ausschnitt konzentriert, der eine Kantenlänge von 2 Milliarden Lichtjahren hat. Aber das ist schon ordentlich groß, da passt einiges rein. Die gesamte Masse an dunkler Materie in diesem Würfel, die in der Simulation untersucht worden ist, hat 10 Trillionen Sonnenmassen entsprochen. Aber wie gesagt: Diese Masse ist nicht in Form einzelner Teilchen simuliert worden. Auch nicht in Form von Stücken von zum Beispiel einem Gramm oder einem Kilogramm. Es wäre für die Computer auch viel zu viel gewesen, hätte man 10 Trillionen Objekte mit einer Sonnenmasse in den Würfel gesetzt und geschaut was passiert. Man hat die Mase auf gut 10 Milliarden Teilchen aufgeteilt. Die Simulation ist also aus 10 Milliarden "Teilchen" bestanden, von denen jedes eine Masse von knapp einer Milliarde Sonnenmasse gehabt hat. Die Bezeichnung "Teilchen" ist also ein bisschen irreführend, angesichts der Tatsache, dass die Masse unserer Milchstraße nur circa 10 Mal größer ist als die eines solchen "Teilchens".
Aber angesichts der Größe des Universums und der vorhandenen Computertechnik war das, das was möglich war. Dieser 2 Milliarden Lichtjahre große Würfel mit seinen 10 Milliarden Teilchen aus dunkle Materie war der beste Kompromiss aus Größe und Detailreichtum, den man hoffen konnte, zu schaffen. Jetzt kann man diese Teilchen aber auch nicht einfach irgendwie in den Würfel werfen und die Simulation starten. Wir wissen - wieder aus Beobachtungsdaten des ganz frühen Universums - dass die Materie damals nicht völlig gleichförmig im Universum verteilt war. Es hat kleine Schwankungen gegeben, in manchen Regionen war ein bisschen mehr als anderswo; in anderen Regionen ein bisschen weniger. Diese Schwankungen gehen auf die quantenmechanischen Prozesse unmittelbar beim Urknall zurück, aber das würde jetzt zu weit führen. Diese Unregelmäßigkeiten hat man auf jeden Fall in der Simulation berücksichtigt und die dunkle Materie entsprechend verteilt.
Und dann? Dann berechnet man einfach die Gravitationskräfte, die zwischen all diesen Teilchen wirken und die daraus resultierenden Bewegungen. Und schaut, wie sich das alles im Laufe der Zeit entwickelt! Wenn es so einfach wäre, dann wäre es super. Das Prinzip ist natürlich korrekt, genau das ist es, was man jetzt eigentlich tun muss. Nur: Wenn ich 10 Milliarden Teilchen habe, die sich gegenseitig über ihre Gravitationskraft beeinflussen, dann muss ich zuerst berechnen, wie zb Teilchen Nummer 2 auf Teilchen Nummer 1 wirkt. Und dann Teilchen Nummer 3 auf Teilchen Nummer 1. Und so weiter, bis zur Wirkung von Teilchen Nummer 10 Milliarden auf Teilchen Nummer 1. Und wenn ich damit durch bin, muss ich die selbe Rechnung anstellen, um herauszufinden, wie die 10 Milliarden Teilchen das Teilchen Nummer 2 beeinflussen, und so weiter, bis ich das für alle 10 Milliarden Teilchen erledigt habe. Und wenn DAS erledigt ist, und ich weiß, wie sich die Teilchen alle bewegt haben, haben sie ja jetzt ihre Position verändert, wodurch sich auch ihre Gravitationskraft aufeinander verändert. Ich muss das Spiel also von vorne beginnen und das so lange, bis ich die ganzen 14 Milliarden Jahre der bisherigen Lebensdauer des Universums abgedeckt habe. Man kann so etwas zwar prinzipiell machen; ein entsprechendes Computerprogramm zu schreiben ist nicht sonderlich schwer. Aber es würde absurd lange dauern, bis es durchgelaufen ist. Man kann so etwas machen, wenn man es zum Beispiel nur mit der Handvoll an Planeten des Sonnensystems zu tun hat. Aber nicht bei einem ganzen Universum, selbst wenn da nur 10 Milliarden Teilchen drin sind.
Für solche kosmologischen Simulationen muss man einen anderen Ansatz wählen und bei der Millenium-Simulation war das etwas, was man als Tree-PM-Methode bezeichnet. Das im Detail zu erklären, würde zu weit führen. Aber die kurze Version geht so. "PM" steht für "Particle-Mesh", also für "Teilchen-Netz". Das soll folgendes bedeuten: Wir berechnen nicht die konkrete wechselseitige Anziehungskraft zwischen allen Teilchen. Sondern legen quasi ein "Netz" über das simulierte Universum. Und schauen dann für jede Zelle in diesem dreidimensionalen Netz nach, wie viel Masse da im Moment drin ist. Dann benutzen wir mathematische Methoden, unter anderem die Poisson-Gleichung, aber ich lasse diese Details jetzt wirklich aus, um das Gravitationspotential in jeder Zelle und über das ganze Netz zu berechnen. Das Gravitationspotential sagt uns, welche Gravitationskraft in jeder Zelle wirkt und diese Information kann man nutzen, um zu berechnen, wie sich die einzelnen Teilchen einer Zelle bewegen. Dann wird geschaut, wie viele Teilchen sich jetzt in den Zellen des Netzes befinden, ich keine wieder die Dichte für all diese Zellen berechnen, aus dieser Dichte mit der Poissongleichung wieder das Gravitationspotenzial, und so weiter, bis ich mit der Simulation bei dem Zeitpunkt angekommen bin, den ich erreichen möchte.
Das ist natürlich alles nicht ganz so genau, wie die direkte Berechnung aller Kräfte. Aber anders geht es eben nicht und als Ausgleich gibt es noch den "Tree". Das "Tree", also das englische Wort für "Baum", das ja auch Teil der "Tree-PM-Methode" ist, bedeutet folgendes. Das Netz hat nicht einfach Zellen, die alle gleich groß sind. Sondern die Größe der Zellen hängt davon ab, was darin so los ist. Wenn wir jetzt eine Region im simulierten Universum haben, in der sich nur ein paar verstreute Teilchen befinden, dann kann ich da eine sehr große Zelle daraus machen. Wenn ich aber sehr viele Teilchen in einer Gegend habe, dann werden die Zellen dort immer feiner unterteilt. Die Zellengröße verästelt sich also wie die Äste eines Baumes und im Prinzip nutzt diese Methode die Tatsache aus, dass man die gravitative Wechselwirkung zwischen sehr weit entfernten Teilchen vernachlässigen kann, die Kräfte zwischen nahen Teilchen aber wichtig sind.
Wie gesagt: In Wahrheit sind diese kosmologischen Simulationen sehr, sehr viel komplexer als ich sie jetzt hier dargestellt habe. Aber das war das Prinzip hinter der ersten Millenium-Simulation. Man hat damit den Kosmos - beziehungsweise den 2 Milliarden Lichtjahre großen Würfel - in 11.000 Schritten vom Anfang des Universums bis in die Gegenwart simuliert (und, das habe ich noch nicht dazu gesagt, dabei auch die Expansion des Universums berücksichtigt). Aus der Verteilung der dunklen Materie konnte man dann, so wie ich es vorhin beschrieben habe, berechnen, wo sich die Galaxien befinden müssen. Das ganze hat auf einen Supercomputer 28 Tage lang gedauert und im Juni 2005 hat man die Ergebnisse dann veröffentlicht. Und "man" war in diesem Fall das "Virgo-Konsortium", zu dem unter der Führung des Max-Planck-Instituts für Astrophysik in Garching bei München auch Teams aus Großbritannen, Kanada, Japan und der USA gehört haben.
Diese Resultate waren höchst beeindruckend. Man hat in der Simulation die tatsächlich beobachtete Verteilung der Galaxien und Galaxienhaufen sehr gut nachvollziehen können. Das Computeruniversum hat genau so ausgesehen wie das echte. Nicht im Detail, aber im Prinzip: Mit lauter Galaxien, die sich in Galaxienhaufen organisieren, die Superhaufen bilden, die sich entlang von Filamenten anordnen, und riesigen Leerräumen dazwischen. Das hat zuallererst einmal bestätigt, dass unsere Annahmen über den frühen Zustand des Universums und die Gesetze, die seine Entwicklung beschreiben, korrekt sind, denn sonst hätte die Simulation ein anderes Ergebnis geliefert. Man hat mit den Resultaten aber auch ein paar offene Fragen klären können: Zum Beispiel hat man bei Beobachtungen des frühen Universums Galaxien gesehen, in deren Zentren sich enorm massereiche schwarze Löcher befunden haben. Und dachte damals, dass sich solche großen Objekte so schnell gar nicht bilden können. In der Millenium-Simulation ist aber genau das passiert und man hat dadurch besser verstehen können, wie diese Prozesse ablaufen, die wir im echten Universum nicht beobachten können, im simulierten Universum aber so gut und lange, wie wir wollen. In der Millenium-Simulation konnte man quasi "live" dabei zusehen, wie Galaxien miteinander verschmelzen, wie sich Galaxienhaufen bilden, wie sie in den Zentren der Wolken aus dunkler Materie entstehen, und so weiter.
Es gab natürlich auch schon davor kosmologische Simulationen, aber die Millenium-Simulation war viel detailreicher und das für einen enorm großen Ausschnitt des Universums. Auf diese ursprüngliche Simulation aus dem Jahr 2005 sind weitere gefolgt und man hat mit den Daten sogar ein virtuelles Observatorium eingerichtet. Man kann dort mit einem virtuellen Teleskop die Beobachtung des Universums anhand der Millenium-Daten simulieren, was ein wenig sinnlos klingt. Aber durchaus wichtig ist, wenn man zum Beispiel in Ruhe die Beobachtung mit echten Teleskope planen und vorbereiten möchte, ohne die knapp bemessene Beobachtungszeit an den realen Instrumenten dafür verschwenden zu müssen.
Auf die Millenium-Simulation sind natürlich noch weitere, bessere Simulationen gefolgt, zum Beispiel das "Illustris-Projekt". Immerhin werden ja auch die Computer immer besser und je besser sie werden, desto genauer kann man die Simulationen auch durchführen. Für das gesamte Universum wird es aber trotzdem nie reichen. Am Ende müssen wir immer noch schauen, was wirklich dort draußen ist.
Neuer Kommentar