Löst Powermanagement wirklich ein Problem?

Es ist jetzt schon eine kleine Ewigkeit her, das ich darüber geschrieben habe, das Powermanagement eigentlich nichts in Servern zu suchen hat. Ich schrieb damals in Leapfrogging:

Strom wird dadurch gespart, das jene Komponenten ausgeschaltet werden, die durch Nichtgebrauch oder durch Ineffizenz (es mach keinen Sinn einen Core mit Strom zu versorgen, wenn dieser gerade auf den Arbeitsspeicher wartet) nicht benötigt werden.

Stromsparen funktioniert nur, wenn sich die Ineffizienzen eines konfigurierten Systems zunutze macht. Diese sollte es aber eigentlich auf Servern nicht geben. Das Weblog BM Seers wirf dazu jetzt noch eine weitere interessante Sichtweise: Es ist ein Trugschluss, wenn man glaubt, das Stromsparmechanismen helfen Energie zu sparen, besonders wenn man den Stromverbrauch in Relation zur erbrachten Rechenleistung sieht. Ist ja auch einleuchtend: Ein Server der 400 Watt verbraucht bei hundert Prozent Utilisation, verbraucht 4 Watt pro Prozent. Verbraucht ein Server bei 10% Utilisation meinetwegen 100 Watt, sind das 10 Watt pro Prozent. Es sollte klar sein, das man im Serverbereich an der ersten Schraube (Utilisation) drehen sollte, und die andere Schraube daran orientieren sollte, das bei hundert Prozent Auslastung möglichst wenig Strom verbraucht wird. Am Ende noch: Will man wirklich durch Energiesparmassnahmen Strom sparen gibt es eine einzige Möglichkeit die valide ist. Merkt man das die Maschine nicht ausgelastet genug sind, dann bedient man sich mitteln wie XEN Live Migration, fasst einige Maschinen auf einer zusammen und schaltet die leergeräumte Maschine schlichtweg aus. Denn dann braucht ein System bei 0% auch wirklich fast 0 Watt. Ansonsten lösen Stromsparmechanismen und teure Steuerungsprogramme (Heise berichtet dieser Tage über ein von IBM) kein wirkliches Problem.