Grid-Rechenzentrum für gigantische Datenmengen
Die Bergische Universität hat ihr neues Grid-Rechenzentrum für experimentelle Teilchenphysik eingeweiht. Das Zentrum umfasst ca. 1000 Rechner mit insgesamt 750 Terabyte Speichervolumen – was dem 3.000-fachen eines normalen PCs entspricht! – und ein superschnelles Netzwerk.
Dazu wurden ca. 700.000 Euro Drittmittel von den Physikern Prof. Dr. Peter Mättig und Prof. Dr. Christian Zeitnitz eingeworben. Genutzt wird das Zentrum in einem weltweiten Computing-Verbund (Grid), zu dessen Pfeilern die Bergische Universität gehört. Das Grid-Zentrum soll die gigantischen Datenmengen des Large Hadron Colliders (LHC) in Genf untersuchen, die ab Sommer 2009 aufgenommen werden. Rechner und Konfiguration kommen von Hewlett Packard.
Mit 750 Terabyte Wuppertaler Speichervolumen im weltweiten Grid-Rechnerverbund (v.l.n.r.): Rektor Prof. Dr. Lambert T. Koch, Dr. Torsten Harenberg, Hewlett-Packard-Repräsentant Daniel Koczorek, Prof. Dr. Peter Mättig, Dr. Klaus Hamacher, Forschungs-Prorektor Prof. Dr. Michael Scheffel und der Dekan des Fachbereichs Mathematik und Naturwissenschaften, Prof. Dr. Peter Wiesen. Klick auf das Foto: Größere Version (3008 x 2000 pix; 3,28 MB) Fotos Maren Wagner
Mit dem beim europäischen Kernforschungszentrum CERN angesiedelten LHC in Genf, der „größten Forschungsmaschine der Welt“, wollen tausende Wissenschaftler aus der ganzen Welt die Kräfte und Teilchen in einem 10.000stel eines Atomkerns erforschen. Sie produzieren dafür in einem winzigen Bereich Temperaturen, die kurz nach dem „Big Bang“, dem auch als „Urknall“ bezeichneten Ursprung unseres Universums, herrschten.
Die Physiker erhoffen sich Erkenntnisse darüber, wie sich das Weltall entwickelt hat. Dafür müssen aus der riesigen Menge von ca. 2 Milliarden Teilchenreaktionen pro Jahr die wenigen tausend herausgefischt werden, die neu sind. Prof. Mättig sagt es so: „Aus einer Datenmenge, die 1,5 Millionen Filmen auf DVDs entspricht, wollen wir hundert verstreute Szenen finden, in denen eine Ampel auf rot steht - die sprichwörtliche Suche nach der Nadel im Heuhaufen also...“
Die LHC-Experimente erzeugen pro Jahr etwa 8.000.000.000.000.000 Byte (15 Nullen = 8 Petabyte = 8 Millionen Gigabyte) Daten. Hinzu kommen jährlich weitere 4 Petabyte Simulationsdaten (Petabyte sind eine Billiarde Byte, also 1.000 Terabyte). Selbst bei optimistischsten Prognosen über die Entwicklung von Prozessorleistungen und Speichersystemen ist kein einzelnes Rechenzentrum auf der Welt in der Lage, für international tausende von Wissenschaftlern ausreichend Kapazitäten zur Auswertung dieser gewaltigen Datenflut bereitzustellen.
Prof. Dr. Peter Mättig mit Rektor Prof. Dr. Lambert T. Koch.Klick auf das Foto: Größere Version (2000 x 1330pix; 1,49 MB)
Mit dem LHC-Computing-Modell werden in mehreren Ländern regionale Rechenzentren aufgebaut und über Hochgeschwindigkeitsleitungen vernetzt. Insgesamt 100.000 Rechner in aller Welt, die zusammen 200 Petabyte Speichervolumen aufweisen, sind so zu einem virtuellen Rechenzentrum verbunden, dem "LHC Computing Grid". Auch an der Entwicklung der Technologie, um das "Grid" zu betreiben, sind Physiker der Bergischen Universität beteiligt. http://www.grid.uni-wuppertal.de/grid/
Ältere Artikel im Archiv
Erschienen am: 06.02.2009
Anzeigen:
|