Berlin, 21.5.2012: In Deutschland werden immer mehr Server und Rechenzentren installiert: Zwischen 2008 und 2011 ist die Zahl der Server um sieben Prozent auf etwa 2,3 Millionen gestiegen, teilte der Hightech-Verband „Bitkom“ in Berlin mit. Beflügelt wurde diese Entwicklung in jüngster Zeit vor allem durch den Trend zum „Cloud Computing“, also zur Auslagerung von Hard- und Software aus den Unternehmen auf per Internet abrufbare und anmietbare Rechenkapazitäten.
Mittlerweile verbrauchen diese Rechenzentren und Server soviel Strom, wie vier durchschnittliche Kohlekraftwerke produzieren: rund 9,7 Terawattstunden im Jahr, was etwa 1,8 Prozent des gesamten deutschen Stromverbrauchs entspricht. Vor allem sparsamere Prozessoren, Speicher, aber auch modernere Klimatechnik und Notstromversorger (USVs) machten dies möglich.
Allerdings haben diese Ersparnisse allenfalls zu einer Kostenbremse, nicht aber zu Ersparnissen in den IT-Unternehmen geführt, denn zwischen 2008 und 2012 haben sich wegen steigender Energiepreise die Stromkosten in den Rechenzentren um zwölf Prozent erhöht, wie der Bitkom ermittelt hat. Laut einer Studie des Borderstep-Instituts werden die Stromkosten bis 2015 um weitere 200 Millionen Euro steigen. „Stromkosten sind mittlerweile mit Abstand der größte Kostenblock in Rechenzentren“, betonte Bitkom-Vizepräsident Volker Smid. hw
Ihre Unterstützung für Oiger.de!
Ohne hinreichende Finanzierung ist unabhängiger Journalismus nach professionellen Maßstäben nicht dauerhaft möglich. Bitte unterstützen Sie daher unsere Arbeit! Wenn Sie helfen wollen, Oiger.de aufrecht zu erhalten, senden Sie Ihren Beitrag mit dem Betreff „freiwilliges Honorar“ via Paypal an:
Vielen Dank!