Die Vorrsetzung ie Google angegeben hatte waren 25Mbit/s für 4K, also:
1080p
25Mbit/s : 8 = 3,125 MByte/s
3,125 MByte/s x 60s = 187,5 MByte/m
187,5 MByte/m x 60m = 11250 MByte/h = 11, 25 GB/h
4K
20GB/h = 20000 MByte/h : 60m = 333,33 MByte/m
333,33 MByte/m :60s = 5,55 MByte/s
5,55 MByte/s x 8 = 44,44 Mbit/s
Hab ich da jetzt irgendwo einen Denkfehler oder bedeuten diese Zahlen das ~20-25% mehr Bandbreite benötigt werden als von Google vorab angegeben und das obwohl nach bisherigen Berichten nicht mal natives 4K ausgegeben wird?
Kann das mal bitte jemand nachrechnen?
In Deutschland mit den (stationären) Internet Flatrates ist das zu vernachlässigen wenn man rein den Verbrauch betrachtet, bei paralleler Nutzung des Internets durch andere macht das aber durchaus eine Menge bei der Bandbreite aus.
Und in den USA, wo Volumenverträge eher die Normalität sind, muss man beides in Betracht ziehen. Und das als Region die zunächst die Kernregion für Stadia sein sollte.
Da hat Google den Mund (ganz unerwarteter Weise) wohl etwaszu voll genommen bei der Ankündigung von High-End Komprimierungstechniken.