Frage
Antwort
Lösung
am 28.10.2024 22:24
Hallo,
hat jemand von euch eine Idee, warum die Hardware so ineffizient ist? 17 Watt ist der geringste Stromverbrauch der Vodafone Station (und das sogar mit abgeschaltetem WLAN). Wenn man ein paar mehr Features aktiviert oder WLAN aktiver ist geht der Verbrauch locker auf 20-30 Watt hoch.
Wenn man vergleicht:
ein Smartphone verbraucht ein paar Milliwatt bei zeitgleich zigfach höhrer Leistungsfährigkeit.
Selbst ein x86 Homeserver auf Basis von einem effizienten Core i3 oder einem guten AMD liegt bei 2-3 Watt im leerlauf und 5-6 Watt wenn man mit mehreren Gigabit Daten umherschaufelt. Und ein Core i3 kann sicherlich hundertfach mehr als was auch immer in der Station verbaut ist.
Hat jemand tiefere Einblicke was so extrem Strom verbraucht? Warum gibt es keine Kabel-Router die im Leerlauf bei einem Watt oder so liegen?
Docsis decoding und Leitung halten kann man ja in Hardware abbilden das sollte sicher im Milliwatt-Bereich machbar sein?
Gelöst! Gehe zu Lösung.
am 02.11.2024 13:32
Ich habe mal ChatGPT 4.0 gefragt und die Antwort scheint tatsächlich im großen und ganzen zu stimmen (zumindest kann man nichts finden das falsch wäre oder inkorrekt).
Also ChatGPT hat mir erstmal bestätigt, das z.B. 5G deutlich höhere Anforderungen and Processing und Transmit-power hat (over Air benötigt einfach mal mehr Sendeleistung als über ein Kabel).
Aber es gibt einen zentralen Faktor warum DOCSIS mehr Strom verbraucht als 5G: den Stromverbrauch interessiert bei Kabelgebundenen Geräten keiner, bei 5G wird viel Geld in die Optimierung gesteckt, was bei DOCSIS nicht der Fall ist.
Das ist am deutlichsten bei der Art wie der Kanal gehalten wird: DOCSIS arbeitet immer mit 100%, alle 48 Kanäle werden konstant betrieben, es gibt kein Low-Power Mode oder ein adaptives Anpassen der Pakete. Dadurch wird 24/7 ein Decoding betrieben auch wenn keine Daten übertragen werden. 5G hat zwar mehr Bandbreite (mehr Daten übertragen und mehr Frequenzbandbreite) aber die werden dynamisch allokiert wenn sie benötigt werden.
Und wie man bei 5G sieht, obwohl es höhere Anforderungen hat an die Hardware, selbst bei über 1GBit/s Download verbraucht es im schlimmsten Fall ~3 Watt (Batterielaufzeit von 3-4 Stunden von einem iPhone bei dauerhaftem Download über 5G als Referenz)
D.h. der einzige Weg scheint wohl ein langwieriger sein, einfach so vielen Leuten wie möglich klar machen, das Strom Geld kostet und über lang der Industrie ein Signal geben, das es so nicht weiter gehen kann. In vielen anderen Bereichen funktioniert es ja auch nach und nach (wie meine korrekten Beispielen ja mehr als deutlich zeigen, wie ein x86 mit 3 Watt Stromverbrauch oder eben Smartphones die man auf einen Verbrauch im MilliWatt Bereich hin optimieren kann (und ja einstelliger Milliwattbereich wurde schon erreicht)
28.10.2024 22:57 - bearbeitet 28.10.2024 23:04
Also bei einem Watt geht da nichts mehr. Und ja, die VF Station ist kein Stromsparer, darum bin ich auch kein Fan vom Bridge Modus und dahinter einen Router. Da ist man ganz schnell bei einem Stromverbrauch von 30 Watt und mehr.
Mein Glasfaser ONT (Modem) braucht da gerade mal 3-5 Watt. Die Fritzbox 4060 könnt sich im Schnitt so um die 10 Watt.
Gruß Kurt
29.10.2024 02:05 - bearbeitet 29.10.2024 02:07
Das ein "Heimserver mit x86-CPU" gerade mal 2..3 Watt verbraucht, ist völlig utopisch - selbst die sparsamsten x86-CPUs bekommst du kaum unter 5W, und da ist dann die ganze Peripherie (z.B. Chipsatz, RAM und Speichermedien) noch gar nicht mit drin.
Und Smartphones brauchen auch wesentlich mehr als ein paar Milliwatt - ansonsten wäre ja der 30 Wh-Akku nicht binnen einem Tag leer.
Davon abgesehen muss man auch den internen Aufbau eines Kabelmodems kennen, um zu wissen, dass dort mehrere Tuner für den Empfang gleichzeitig arbeiten - und die Sendeleistung im Kabelnetz ebenfalls bedacht werden muss. Das ist wesentlich mehr Power, als es das "stinknormale 08-15-Ethernetkabel" nimmt.
Davon abgesehen: DOCSIS-Decoding und Leitung halten SIND IN HARDWARE abgebildet!
Was glaubst du denn, was der Intel Puma-Chipsatz macht!
By the way: Der Intel-Puma-Chipsatz, auf dem fast alle Kabelgeräte beruhen, enthält neben den ARM-Kernen auch x86-Kerne -- und einen dedizierten Teil für DOCSIS.
am 29.10.2024 09:42
Die Kabelrouter sind seit jeher so lala was die Effizienz im Stromverbrauch betrifft. Etwas besser kommen die Fritzboxen mit Kabelmodem daher. Wobei auch die aufgrund der HF Technik nicht bei DSl oder ONT Versionen aus dem selben Haus mithalten können.
Bei Kabel kommen dann auch noch der HAV mit ~4-10 Watt dazu.
Da lohnt es sich allemal wenn man nicht zu Hause ist, auch Mal das Modem vom Stromnetz zu nehmen.
am 29.10.2024 13:02
2-3 Watt ist nicht utopisch sonder praktischer Alltag. Die heutigen MiniPCs sind sehr effizient geworden und die Low-Power Versionen von AMD und Intel ebenfalls. Man darf aber kein Windows drauf laufen lassen, sondern das geht nur mit Linux ohne UI.
Smartphones brauchen auch nur soviel Leistung wenn man sie durchgehend nutzt. Im Standby liegt die Leistung deutlich niedriger, 5-6 Tage Akkulaufzeit mit heutigen Smartphones ist kein Problem wenn man nicht alles im Hintergrund laufen lässt, da ist man durchaus bei unter 100milliWatt. Mit dem Google Pixel 3a das ich gerade noch als reines Heimgerät nutze komme ich auf über eine Woche Akkulaufzeit wenn ich es mal nur liegen lasse. Das sind bei dem Akku also 60-70 Milliwatt.
Da also die ersten zwei Antworten von Dir defacto falsch waren bleibt die Frage offen ob bei dem rest etwas brauchbares dabei ist.
am 31.10.2024 04:34
Hier gibt es eine Übersicht zu dem Stromverbrauch unterschiedlicher Fritzboxen, wie objektiv die Angaben sind, muss jeder für sich selbst entscheiden.
https://www.stromguide.com/ratgeber/stromverbrauch-fritzbox/
am 31.10.2024 15:52
@Robert251 schrieb:
2-3 Watt ist nicht utopisch sonder praktischer Alltag. Die heutigen MiniPCs sind sehr effizient geworden und die Low-Power Versionen von AMD und Intel ebenfalls. Man darf aber kein Windows drauf laufen lassen, sondern das geht nur mit Linux ohne UI.
Und das hat dann genau WELCHE Relevanz? Dann kann ich auch gleich einen ARM-basierten Raspberry dafür nutzen...
Mal davon abgesehen, das 2..3 Watt dann nur im Idle entstehen, da selbst die heutigen U-Prozessoren unter Last sich teils bis zu 15 Watt gönnen - von der Peripherie (z.B. USB-Geräte, aber auch Netzwerkkarten, RAM, SSDs) mal ganz abgesehen.
Real sind diese 2..3 Watt bei x86-basierten Maschinen -insbesondere schon aufgrund der Netzteile- definitiv nicht.
@Robert251 schrieb:
Smartphones brauchen auch nur soviel Leistung wenn man sie durchgehend nutzt. Im Standby liegt die Leistung deutlich niedriger, 5-6 Tage Akkulaufzeit mit heutigen Smartphones ist kein Problem wenn man nicht alles im Hintergrund laufen lässt, da ist man durchaus bei unter 100milliWatt. Mit dem Google Pixel 3a das ich gerade noch als reines Heimgerät nutze komme ich auf über eine Woche Akkulaufzeit wenn ich es mal nur liegen lasse. Das sind bei dem Akku also 60-70 Milliwatt.
Sorry, aber auch das ist völlig an der Realität vorbei. Wer das Gerät "mal nur liegen lässt", der kann es auch gleich ausschalten - das spart mehr Strom.
Die Geräte sind in Nutzung, es wird dauerhaft eine Funkverbindung (für Datenverkehr) gehalten, ergo geht da auch dauerhaft Energie für drauf. Die heutigen Smartphones sind nunmal keine blanken Telefone aus den 2000ern mehr, bei denen die Geräte im Standby lediglich Ping-Nachrichten zur jeweiligen Funkzelle gesendet haben. Mal davon abgesehen, dass mit einer der größten Stromfresser bei heutigen Smartphones nicht die CPU, sondern das Display ist.
Und du relativierst ja auch schon selbst deine Ursprungsaussage, was schon zeigt, dass diese falsch war:
So schriebst du initial: "ein Smartphone verbraucht ein paar Milliwatt bei zeitgleich zigfach höhrer Leistungsfährigkeit."
Jetzt kommst du schon mit "komme ich auf über eine Woche Akkulaufzeit wenn ich es mal nur liegen lasse. Das sind bei dem Akku also 60-70 Milliwatt." -- erst einmal sind 60..70 Milliwatt nicht "ein paar Milliwatt" und weiterhin ist "wenn ich es mal nur liegenlasse" auch was ganz Anderes als aktive Nutzung (bei der dann auch erst die "zigfach höhere Leistungsfähigkeit" freigegeben wird).
Und gerade bei Smartphones hat man ja die Optimierung dergestalt vorgenommen, dass man dort mit sehr effizienten, aber auch extrem langsamen Kernen die Basisfunktionalität (Halten der Mobilfunkverbindung) umsetzt, während man für die eigentliche Nutzerinteraktion dann deutlich schnellere Performance-Kerne zuschaltet (die dann aber auch wesentlich mehr elektrische Leistung ziehen).
Eine ähnliche Optimierung nutzt man auch bei Kabelgeräten - als Kombination aus ARM- und x86-Kernen zusammen mit DOCSIS-Decoding in Hardware. Trotzdem braucht aber gerade der analoge Schaltungsteil sehr viel Energie.
am 31.10.2024 20:20
Die Diskussion hier passt gerade wie die Faust aufs Auge auf das was ich auch heute festgestellt hab.
Will mir demnächst mal ein Balkonkraftwerk anschaffen und hab mir dafür heute schon so n einfachen Energiezähler gekauft den ich dann später nutzen will um die Einspeiseleistung zu messen. Vorher hab ich jetzt aber erst mal alles möglich in meiner Wohnung gemessen und auch festgestellt das die Vodafone Station durchgehend knapp 20 Watt zieht! WLAN aus sind nur etwa 3-4 Watt weniger. Kann halt auch daran liegen das Staubsaugroboter, Smarte Heizungs-Thermostate und der Drucker sowie Smartphone, Tablet und PC ständig verbunden sind.
Aber das ist schon irre das mein Router im Jahr nahezu exakt so viel Strom verbraucht wie meine ganzer Kühlschrank inkl. Gefrierschrank. Die ist mit 171 kWh im Jahr angegeben. Das entspricht ja genau den 20 Watt den die Vodafone Station ja 24 Std am Tag zieht! Hab jetzt mal die Zeitschaltung aktiviert das von 0-6 Uhr das WLAN aus ist. Spart wenigstens ein bisschen. Aber mal schauen ob ich da nicht echt auf ne Fritz Box wechsle oder so. Kleinvieh macht auch Mist!
am 31.10.2024 20:50
Die Zeitschaltung funktioniert bei der VF Station nicht.
Gruß Kurt
am 31.10.2024 22:50
Real sind diese 2..3 Watt bei x86-basierten Maschinen -insbesondere schon aufgrund der Netzteile- definitiv nicht.
Du hast echt wenig Erfahrung, das ist Fakt!
Ich betreibe einen der x86 PCs über einen PoE Splitter. Damit kann ich den Verbrauch als Graph vom PoE Switch ablesen. Selbst wenn ein Update läuft oder mit 1GBit Daten übertragen werden, steigt der Verbrauch nur minimal an (4-5 Watt maximal). Die CPU hat eine TDP von 6 Watt. Der Rest der Hw ist vernachlässigbar. Der andere PC wird mit einem 18W USB-C Netzeil betrieben und taucht mit in der Übersicht vom Smart-Meter auf. Die Werte sind also sehr genau und geben den realistischen Verbrauch wieder.
ich bin bei weitem nicht der einzige User der einen solchen Server betreibt und solche Werte erreicht. Effiziente Netzteile die bei unter 10 Watt >95% Effizienz haben gibt es auch genug.
Und der Kernpunkt vom Smartphone ging Dir verloren, es sind bis zu 3 Zehnerpotenzen an Unterschied bzgl Stromverbrauch bei keinem erkennbaren Unterschied was gemacht werden muss (Smartphone hat extrem viel komplexeres OS laufen und viele verschiedene Radiostacks die alle für sich schneller sind als DOCSIS) und trotzdem liegt man bei mindestens 100x (ein hundert mal) weniger Stromverbrauch.
Btw. moderne Smart-Watches erreichen bis zu 2 Millwatt bei aktiver Funkverbindung aber schon klar die Funkverbindung ist extrem optimiert und wird nur bei Bedarf genutzt. Trotzdem. 2 Milliwatt! Für ein OS das mindestens soviel kann als das auf eine Vodafone station.
Die eigentliche Frage konnte aber noch nicht wirklich konkret beantwortet werden, aber vermutlich geht das so tief in tie Technik das es keinen gibt der es überhaupt beantworten könnte 😞
Weil auch wenn DOCSIS in Hw läuft, dann dürfte das reine Halten der Verbindung sogut wie keine Leistung verbrauchen. Die meiste Zeit wird nur "Empfangen" und lediglich alle paar Sekunden geht laut DOCIS ein Paket zurück zum CMTS raus. D.h. Sendeleistung dürfte nicht relevant sein im Standby.
Und wenn man in die liste schaut, selbst die DOCSIS 3.1 Fritzboxen liegen alle bei 11 Watt minimalem Verbrauch, was echt viel ist (weil vermutlich alles andere ausgeschaltet ist dann).
Gibt es vllt nur einen einzigen DOCSIS 3.1 Chipset (Puma scheinbar) und die Effizienz ist dann eventuell doch noch nicht so gut? !