Beginnen wir mit der wohl größten sprichwörtlichen Sau, die seit Jahren durch die IT-Community getrieben wird: Durch die Umstellung auf Gleichstrom sollen Wandlerverluste und Co. verschwinden. Doch mögen die aus physikalischer Sicht durchaus validen Argumente wie etwa der sogenannte Skin-Effekt bei einer Übertragungsleitung mit mehreren Kilometern Kabellänge durchaus relevant sein – bei den wenigen Metern im Rechenzentrum bringt Gleichstrom indes nur wenig bis keinen Effizienzzugewinn.
Unter dem Begriff "Thermal-aware workload assignment" finden sich Algorithmen, die Lasten an Server abhängig von der thermischen Situation verteilen. Die dahinterstehende Idee ist einfach: Wieso soll sich ein Server verausgaben, während sein Kollege kühl im Wartezustand dämmert. Im Moment gibt es keine schlüsselfertigen Implementierungen – es spricht allerdings nichts dagegen, die Temperatur der Systeme in hauseigene Load Balancer einzubinden. Der Komplexität sind hierbei übrigens keine Grenzen gesetzt. Arbeiten einfache Systeme etwa nach dem Prinzip des "coolest server first", bilden weitreichendere Modelle eine komplexe Lastverteilung anhand thermodynamischer Aspekte des Rechenzentrums ab. Forscher im Iran treiben dieses Konzept auf die Spitze, indem sie neben den thermischen Gegebenheiten auch die Situation regenerativer Energien an den diversen Standorten in ihr Scheduling einbeziehen. Auf diese Art und Weise lässt sich Rechenleistung auf die effizienteste Art und Weise bereitstellen.
Das Design eines Temperatur-Regelungssystems beginnt mit dem Festlegen der Sollwerte. Manche neigen hier zur Reflexreaktion "je niedriger, desto besser". Im Data Center gilt dies insofern nicht, als niedrigere Temperaturen mehr Energie verbrauchen und die Weiterverwendung der
...Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.