Dresden ist Hochburg in Europa für GPU-Computing
Dresden, 17. Dezember 2013: Immer mehr Forscher weltweit setzen GPU-Supercomputer ein, um zu simulieren, welche Prozesse sich zum Beispiel in kosmischen schwarzen Löchern, in glühend heißen Schmelzen oder im Verkehrschaos urbaner Metropolen abspielen – und Dresden zählt in dieser noch jungen Disziplin zu den Hochburgen in Europa. Das hat Physiker Michael Bussmann vom Helmholtz-Zentrum Dresden-Rossendorf (HZDR) eingeschätzt, der selbst solch eine darauf spezialisierte Nachwuchsforscher-Gruppe leitet. International mische Sachsen da ganz vorne mit, betonte er.
Grafikkarten sind vielkernige Meister im Parallel-Rechnen
Hinter GPU steckt in diesem Fall allerdings nicht der ehemalige sowjetische Geheimdienst, sondern dies steht in der Informationstechnologie für „Graphic Processing Unit“. Was heißt: Statt energiehungrige klassische arithmetische Computerrechenwerke setzen Bussmann und seine Kollegen die selben Chips ein, die auf Grafikkarten (Graka), wie sie in jedem PC stecken, werkeln. Denn anders als bei ihren Prozessor-Kollegen aus dem klassischen Computer-Lager teilen sich auf Grafikprozessoren nicht nur zwei bis acht, sondern oft gleich Hunderte oder gar Tausende Prozessorkerne die Rechenarbeit untereinander auf. Zudem wurden Grafikkarten in den vergangenen Jahren vor allem mit Blick auf die Königsdisziplin unter den PC-Programmen weiterentwickelt, die vielgescholtenen 3D-Egoshooter – und die sind darauf angewiesen, dass die Grafikprozessoren enorm schnell auf den Chip-Speicher zugreifen können.
Die GPU-Rechner in Rossendorf (Video: Heiko Weckbrodt):
Viel-Agenten-Systeme besonders für Graka-Systeme geeignet
All dies hat findige Tüftler auf den Gedanken gebracht, Grafikkarten-Chips auch für wissenschaftliche Zwecke einzuspannen: überall dort, wo in aufwendigen mathematischen Modellen das Verhalten und Zusammenspiel unzähliger Einzelakteure („Agenten“) parallel zueinander simuliert werden muss. Diese „Akteure“ können zum Beispiel die Tausenden von Autos sein, die zeitgleich in einer Großstadt unterwegs sein, oder auch Milliarden von Elektronen und Atomkerne, die in einem Teilchenstrahl einer Schwerkraftfalle im All zu entfliehen versuchen. „Sehr gut eignen sich Grafikprozessoren beispielsweise auch für die Simulation von Flussprozessen oder für die Millionen von Ereignissen, die sich in einem Teilchendetektor abspielen“, sagt Bussmann. Solche Detektoren spielten im europäischen Kernforschungszentrums CERN erst kürzlich eine zentrale Rolle beim Nachweis des Superteilchens „Higgs-Boson“, das nie direkt sichtbar ist, sondern nur an seinen Spuren in gigantischen Bild-Datensätzen identifizierbar war.
Als Wetterfrosch schwach
Eher auf klassische Supercomputer mit „Central Processing Units“ (CPUs) setzen die Forscher immer dann, wenn riesige Systeme virtuell und im Ganzen in die Rechnerspeicher geladen werden. Etwa bei der Prognose von globalen Wetterphänomenen, bei denen große Kaltluftfronten ebenso wie der Flügelschlag des legendären Chaos-Schmetterlings in einem Gebirgstal zusammengebracht werden müssen.
GPU-Supercomputing auf dem Vormarsch
Dennoch glaubt Bussmann, dass sich GPU-Supercomputing in nächster Zukunft immer mehr Forschungsgebiete erobern wird. „Als wir damit angefangen haben, ein kosmisches Phänomen zu simulieren, hat uns ein ,Jugend forscht’-Gewinner, der bei uns eigentlich nur ein Praktikum machen wollte, auf die Idee mit den Grafikkarten gebracht“, erzählt der Physiker. „Damals haben wir gar nicht gewusst, dass alle Fachleute damals überzeugt waren, dass gerade diese Simulationen, die wir vorhatten, als vollkommen ungeeignet für Grafikprozessoren galten. Hätten wir das gewusst, hätten wir das wahrscheinlich gar nicht erst versucht.“
Milliarden Elektronen in kosmischem Strahl berechnet
Doch das Konzept ging auf und bescherte den Rossendorfern internationale Erfolge: Mit ihrer Graka-Simulation des Flusses von Milliarden Elektronen in heißen Gasstrahlen aus Sternen wurden sie für den „Gordon-Bell-Preis“ der „Association for Computing Machinery“ (ACM) nominiert. Gewonnen haben sie zwar letztlich nicht, „aber schon die Nominierung war eine große Ehre“, betont Bussmann.
Junges Team bringt Informatiker, Physiker und andere Nachwuchsforscher zusammen
Verwendet hatten sie dafür den Titan-Supercomputer am „Oak Ridge National Laboratory“ in den USA, den sie 16 Stunden lang mit insgesamt 18 000 Grafikkarten schwitzen ließen. „Das war ein total spannendes Projekt“, erzählt der 24-jährige Diplomand Axel Hübl von der Rossendorfer Nachwuchsgruppe begeistert. „An solche Technik wie hier in der Gruppe kommt man sonst kaum ran.“ Toll sei vor allem die interdisziplinäre Zusammenarbeit: „Wir sind ein junges Team, in dem Physiker, Informatiker und viele andere kooperieren, in der jeder seine ganz eigenen Ideen in die Konzepte und die Auswertung einbringt.“
Hypnos: Mehr Leistung auf kleinstem Raum
Da allerdings nur selten ein Rankommen an den „Titan“ ist, haben die Forscher einen eigenen Grafik-Supercomputer in Rossendorf installiert – ein paar Nummern kleiner zwar als der US-Bolide, aber leistungsstark genug, um neue Simulationskonzepte ausprobieren zu können. Der „Hypnos“-Supercomputerkomplex in einem gut gesicherten Gebäude auf dem HZDR-Campus enthält sowohl klassische Rechenwerke wie auch den GPU-Computer der Nachwuchsgruppe. Und als Bussmann in dem vom Lüftergebrüll erfüllten Rechenzentrum beide Rechner vorführt, wird auch schnell ein weiterer Vorteil der Grafikprozessoren deutlich: Der klassische Supercomputer-Teil nimmt etwa den Platz von drei Schwankwänden ein und schafft eine Rechenleistung von 71,9 Billionen Rechenoperationen pro Sekunde (Teraflops). Der GPU-Supercomputer dagegen, in dem 68 „Kepler“-K20-Grafikprozessoren von Nvidia rechnen, füllt noch nicht mal einen Schrank aus – und kommt mit 84,1 Teraflops sogar auf mehr Leistung – bei deutlich weniger Stromverbrauch. „Auch die Anschaffungskosten sind deutlich niedriger“, betont Bussmann. Bei vergleichbarer Leistung sei ein klassischer Supercomputer etwa zwei- bis dreimal so teuer wie ein CPU-Rechner.
Von Nvdia als Exzellenz-Zentrum gekürt
Diese und weitere Argumente führen den Physiker zu der Prognose, dass Grafikprozessor-Supercomputing im Kommen ist. International setzen zum Beispiel die Chinesen und Amerikaner zunehmend auf diese noch junge Technik. Und in Dresden hat sich ein richtiges GPU-Cluster gebildet: Neben dem HZDR setzen auch Forscher der TU, die Max-Planck-Genetiker in Johannstadt und viele andere inzwischen Grafik-Supercomputer ein. Die TU selbst hat einen eigenen GPU-Rechner mit 88 „Keplers“ installiert. Und die zusammen entwickelten Algorithmen und Programme für diese Plattform werden von den Wissenschaftlern dann als „Open Source“, als Gemeingut, der gesamten Forschergemeinde kostenlos zur Verfügung gestellt. Grafikprozessor-Designer „Nvidia“ Dresden mittlerweile als „Center of Excellence“ für seine Programmiersprache CUDA eingestuft.
Nächstes Ziel: Röntgenlaser als Tumorskalpell
Und im Bussmann-Team schwirren bereits die nächsten Ideen durch die Köpfe: „Wir wollen simulieren, was ein Laser mit mehreren Milliarden Elektronenvolt in ein Gas schießt“, verrät Bussmann. Was zunächst sehr theoretisch klingt, zielt perspektivisch auf sehr praktische Verbesserungen für Krebspatienten: Die Idee dabei ist, letztlich sehr kompakte Röntgenlaser zu konstruieren, die sich jedes Krankenhaus leisten kann, um wie mit einem Super-Präzisionsskalpell Tumore zu entfernen. Bis dahin sei es freilich noch ein langer Weg, betont der Gruppenleiter.
Die HZDR-Leitung schaut jedenfalls voller Hoffnungen auf ihre Nachwuchs-Wissenschaftler. „Von den jungen Leuten erwarten wir noch Großes“, sagte Zentrums-Sprecherin Christine Bohnet. Autor: Heiko Weckbrodt
Ihre Unterstützung für Oiger.de!
Ohne hinreichende Finanzierung ist unabhängiger Journalismus nach professionellen Maßstäben nicht dauerhaft möglich. Bitte unterstützen Sie daher unsere Arbeit! Wenn Sie helfen wollen, Oiger.de aufrecht zu erhalten, senden Sie Ihren Beitrag mit dem Betreff „freiwilliges Honorar“ via Paypal an:
Vielen Dank!