Forschung, News, zAufi

Kaum noch Großforschung ohne Automatisierung

Blick ins Cern-Rechenzentrum. Foto: Robert Hradil, Monika Majer/ProStudio22.ch für das Cern

Blick ins Cern-Rechenzentrum. Foto: Robert Hradil, Monika Majer/ProStudio22.ch für das Cern

„Cern“ filtert mit mehrstufigen Systemen die Datenfluten aus dem weltweit größten Beschleunigerring

Genf, 14. Februar 2023. Moderne Grundlagenforschung spielt sich in Teilen bereits hochautomatisiert ab. Darauf hat Dr. Erik Butz vom Karlsruher Institut für Technologie (KIT) mit Blick auf die Arbeit am europäischen Teilchenphysik-Forschungszentrum „Cern“ bei Genf hingewiesen. Gefragt ist dabei auch nahe Rechentechnik („Edge Computing“), um die Datenfluten moderner Experimentieranlagen am weltweit größten Teilchenbeschleuniger, dem „Large Hadron Collider“ (LHC) unterm Cern, überhaupt bewältigen zu können.

„LHC liefert mehr Daten als wir auswerten können“

„Der LHC liefert mehr Daten als wir gleich auswerten können“, betont Butz. Denn der Ringbeschleuniger und seine Sensoren produzieren bis zu 40 Millionen Bilder von Teilchenkollisionen pro Sekunde. Daher ist in den riesigen Detektoren spezielle Elektronik installiert, die aus diesem Datenwust zum Beispiel Doppelungen und „Fehlschüsse“ vorab aussortiert: Nur die Bilder, auf denen wirklich interessante Teilchen zerfallen oder entstanden sind, leitet die Detektor-Elektronik an das Cern-Rechenzentrum an der Oberfläche weiter. Durch diese Selektion reduziert sich der Datenstrom auf etwa 100.000 Ereignisse pro Sekunde. Müsste das überirdische Rechenzentrum auch schon diese Vorauswahl übernehmen, wäre allein schon der Weg der Signale bis dorthin wegen der Grenzen der Lichtgeschwindigkeit ein viel zu enger Flaschenhals.

Europäisches Teilchenphysik-Zentrum gilt seit Dekaden als Vorreiter

Das Rechenzentrum selbst sortiert aber danach auch noch mal kräftig aus und legt den Wissenschaftlern dann „nur“ 1000 Ereignisse pro Sekunde vor – wobei auch dies natürlich zu viel für einen Menschen wäre, aber von lokalen Computern und Software bewältigt werden kann.

Diese Analysetechniken für große Datenfluten („Big Data“) ist keineswegs eine Domäne des Cern, betrifft vielmehr fast alle Großforschungseinrichtungen – in Sachsen zum Beispiel das Helmholtz-Zentrum Dresden-Rossendorf (HZDR), das deshalb über eigene Rechenzentren, starke Datenleitungen und ganze Abteilungen unterhält, die sich ganz auf die Datenanalyse spezialsiert haben. Allerdings galt und gilt das Cern seit jeher als Vorreiter dieses Trends und hat bereits oft als Pionier neue Forschungstechnologien dafür entwickelt.

Autor: hw

Quelle: Cern, Oiger-Archiv

Repro: Oiger, Original: Madeleine Arndt