Guten Tag,
ich finde es Ihrerseits sehr lobenswert, dass sie einen Artikel über Energiesparen bei Computern abgedruckt haben. Auch ich beobachte schon seit einiger Zeit, dass diese Geräte immer mehr Energie unsinnig verheizen.
Jedoch habe ich zu ihrem Artikel einige wichtige Anmerkungen, die ich ihnen nicht vorenthalten möchte.
Vorweg möchte ich noch erwähnen, dass Energie nicht erzeugt oder
zerstört werden kann. Energie kann nur in andere Formen umgewandelt werden, hierbei wird die Energie vielfach in Wärmeenergie umgewandelt.
Man kommt daher auch zu so Begriffen wie "Stromfresser".
Aber der Strom, der in ein Gerät hineinfließt, fließt auch wieder heraus. Würde
nicht mehr der gleiche Strom herausfließen, so würde der Fi-Schutzschalter in der Hauptverteilung auslösen - denn dieser misst den hereinfließenden und herausfließenden Strom. Stellt er einen Unterschied von mehr als 30mA (das ist ein häufiger Wert) fest, so unterbricht er die Stromzufuhr aus Sicherheitsgründen. Denn der "fehlende Strom" könnte ja über einen Menschen wegen eines defekten Gerätes abfließen, sprich dieser "steht unter Strom".
Nun aber zum eigentlichen Thema.
Es wird im Artikel einerseits erwähnt, dass Laptops Energiesparwunder seien. Andererseits wird gesagt, dass diese 60 bis 100 Watt Leistung benötigen.
Bei diesen hohen Leistungen kann man aber nicht von energiesparend die Rede sein! Zudem sind diese Angaben auch falsch. Die meisten Laptops benötigen im normalen Windowsbetrieb nur ca. 30 bis 40 Watt. Sind die Laptops hingegen voll ausgelastet, z.B. bei rechenintensiven Videokonvertierungen, so kann die Leistung bis zu 100 Watt sein. Aber wie gesagt ist die Leistungsaufnahme im Normalfall geringer.
Im weiteren Verlauf des Artikels wird gesagt, dass neuere Intel und AMD
automatisch heruntertakten. Dies ist nur teilweise richtig.
Hier möchte ich zuerst erwähnen, dass man bei Desktop-Computern auf AMD-Prozessoren setzen sollte, da diese von Grund auf schon um einiges sparsamer als Intel-Prozessoren rechnen.
Zudem ist Intel auch nicht so bemüht wie AMD, die Prozessoren automatisch herunterzutakten.
Anders sieht es bei Laptops aus: Hier sind beide Hersteller bzgl. Effizienz und automatische Heruntertaktung sehr gut.
Was auch wichtig ist: Prozessoren takten zwar automatisch herunter, doch dies muss das Mainboard, das Bios und das Betriebssystem unterstützen. Auch muss
der Anwender dieses Feature zuerst selbst aktivieren, woran leider viele scheitern. Solange es wie bisher noch so schwierig ist, Prozessoren dazu zu bringen, dass diese automatisch heruntertakten, bringen diese ganzen Sparmechanismen nur recht wenig.
Prozessoren sollten meiner Meinung nach von sich selbst heruntertakten - unabhängig von Bios, Mainboard, Betriebssytem und Anwender.
Leider ist dies nicht der Fall.
Bei den Flachbildschirmen wird davon gesprochen, dass diese "weniger Strom
benötigen, nur ca. 30 bis 50 Watt". Hierzu möchte ich sagen, dass die Einheit "Watt" nicht zu "Strom" gehört, denn die Einheit von Strom ist Ampere.
Redet man von Watt, so meint man die "Leistungsaufnahme". Das sollte man auf jeden Fall unterscheiden.
Bei Flachbildschirmen habe ich herausgefunden, dass man deren Leistungsaufnahme auf ca. 20 Watt drosseln kann. Hierzu muss man einfach die Helligkeit herunterstellen auf ca. 20%. Oftmals sind Flachbildschirme von Werk aus auf eine sehr hohe Helligkeit eingestellt, die aber nur selten benötigt wird.
Die Aussage im Artikel, dass sich die Anschaffung eines Flachbildschirmes nach 3 Jahren amortisiert hätte habe ich gerade nochmal überprüft.
Ich habe angenommen, dass ein Röhrenbildschirm 100 Watt benötigt,
der Flachbildschirm 30 Watt.
Die tägliche Nutzungsdauer nehme ich als 8 Stunden an und dies 365 Tage im Jahr.
Stromkosten 17 Cent pro kWh.
Nehme ich als Anschaffungskosten für einen Flachbildschirm 220 Euro an,
so hätte sich die Anschaffung in diesem Fall erst in 6,3 Jahren amortisiert.
Nehme ich nun aber an, dass jemand noch keinen Bildschirm besitzt und die Wahl zwischen einem Röhrenbildschirm und einem Flachbildschirm hat,
so beträgt die Differenz der Anschaffungskosten 220 Euro - 100 Euro = 120 Euro.
Bei diesem Betrag hätte sich der Flachbildschirm dann in 3,5 Jahren amortisiert.
Aber nicht in 3 Jahren!
Der Leser denkt nach dem lesen dieses Artikel bestimmt, dass sich nun einen Flachbildschirm kaufen müsste, um Energie zu sparen. Doch nur wenige private Anwender haben ihren Computer täglich mehr als 8 Stunden an.
Die Behauptung mit der Amortisationszeit von 3 Jahren im Artikel ist also schlichtweg irreführend! Es kommt immer auf die Nutzungsdauer an, die aber i Artikel nicht erwähnt wird.
Bei den Netzteilen wird im Artikel gesagt, dass man "kein 300 Watt Netzteil für einen Rechner mit 240 Watt Höchstleistung benötigt".
Dies stimmt so auch nicht, denn ein Computer benötigt beim Einschalten etwas mehr Leistung, da hier die Festplatten zuerst hochfahren müssen und dabei mehr Leistung benötigen (vgl. anfahren beim Auto im ersten Gang!).
Zum anderen gibt es heutzutage fast gar keine Netzteile mehr mit weniger als 300 Watt Leistung zu kaufen!
Was jedoch stimmt, dass man in einen Rechner mit z.B. 250 Watt Höchstleistung kein Netzteil mit 500 Watt (und mehr) einbauen sollte. Dies tun Spieler gerne, da sie sich so eine bessere Performance erhoffen. Doch dies bringt nichts, es bringt nur eine höhere Stromrechnung.
Dies liegt daran, dass ein Netzteil bei geringer Auslastung einen geringeren Wirkungsgrad hat (billige Netzteile nur ca. 50%, gute Netzteile etwa 60%). Bei hoher Auslastung hingegen können Netzteile sehr hohe Wirkungsgrade von bis zu 80% erreichen. Man sollte daher immer darauf achten, dass das Netzteil möglichst gut ausgelastet ist. Hierbei sollte man Markennetzteile verwenden, da diese
von Grund auf schon um einiges effizienter arbeiten.
Auch wird erwähnt, dass Tintenstrahldrucker gerne einen Reinigungslauf machen, wenn man diese nach einem kompletten trennen vom Stromnetz wiedereinschaltet.
Dies stimmt leider. Daher rate ich allen, die viel drucken zu einem Laserdrucker, denn diese haben viel geringere Betriebskosten, da der Toner ca. 6000 Seiten drucken kann. Eine Tintenpatrone hingegen nur ca. 600 Seiten. Dabei ist der Toner nur etwas teurer wie eine Tintenpatrone!
(Details dazu:
http://www.rettet-unsere-welt.de/forum/index.php?action=vthread&forum= 3&topic=80#4 )
Gegen Ende ihres Artikels wird noch auf den Standby und Ruhemodus eingegangen.
Wie kommen sie da auf die 80 Watt Ersparnis im Ruhemodus?
Im Ruhemodus wird soviel Energie eingepart, wie der Rechner normalerweise im eingeschalteten Zustand benötigt. Denn im Ruhemodus wird ja der aktuelle Desktop auf der Festplatten gespeichert, der Rechner ganz abgeschaltet und beim erneuten einschalten wird der alte Desktop mit allen vorher geöffneten Programmen wieder geladen. Man spart durch diese Maßnahme viel Energie. Das lohnt sich schon bei Arbeitspausen von mehr als 15 Minuten, da das hoch- und herunterfahren eigentlich sehr schnell geht.
Hier möchte ich gerade noch hinzufügen, dass man den Bildschirm in kurzen Arbeitspausen ausschalten sollte, anstatt unsinnige Bildschirmschoner laufen zu lassen. So ein Bildschirmschon bringt nämlich rein gar nichts - nur unnnötige Stromkosten!
PS: Weitere Tipps zu Energiesparen bei Computern findet ihr hier:
http://www.rettet-unsere-welt.de/index.php?page=tipps_keine_kosten&p2= computer
Für Rückfragen stehe ich gerne zur Verfügung.
Gerne könnt ihr auch in meinem Forum nachfragen:
http://www.rettet-unsere-welt.de/forum/
PS: Der Link zu ihrem Artikel, damit sie ihn schneller finden
http://www.sol.de/sz/mehrwert/art10805,1467717.html
Freundliche Grüße
Andreas Morawietz
--------------------------------------
http://www.rettet-unsere-welt.de
Das Energie- und Umweltportal