Cloud-Computing: Physik-Berechnungen übers Internet im Microsoft-Video

Oh man Nvidia hat 2010 ein Video von einer Brücke gezeigt indem tausend mal mehr details zu sehen sind als in diesen video zu sehen sind. klar kann man sagen es zeigt nur die Möglichkeiten von Cloud berechnungen, aber warum demonstriert man das an einer Szene bei der ein halbwegs mittlerer PC nicht mal mit der Wimper zuckt??
 
Oh man Nvidia hat 2010 ein Video von einer Brücke gezeigt indem tausend mal mehr details zu sehen sind als in diesen video zu sehen sind. klar kann man sagen es zeigt nur die Möglichkeiten von Cloud berechnungen, aber warum demonstriert man das an einer Szene bei der ein halbwegs mittlerer PC nicht mal mit der Wimper zuckt??

Lol, halbwegs mittel. xD

Man kennt ja schon durch die Vergangenheit, das selbst die kleinsten physikfeatures, extreme Hardware benötigen.
 
Das sind die Anfänge einer neuen Ära. Vor 1969 hätte es auch niemand für möglich gehalten, dass ein Mensch jemals den Mond betreten könnte. Aufwachen, ihr Fortschrittsbremsen! ;)
 
Oh man Nvidia hat 2010 ein Video von einer Brücke gezeigt indem tausend mal mehr details zu sehen sind als in diesen video zu sehen sind. klar kann man sagen es zeigt nur die Möglichkeiten von Cloud berechnungen, aber warum demonstriert man das an einer Szene bei der ein halbwegs mittlerer PC nicht mal mit der Wimper zuckt??
Weil Physikberechnungen extem CPU-lastig sind.Natürlich könnte man schicke Texturen draufklatschen,aber es geht dabei der Sinn des ganzen verloren.Es ist ja kein "fishing for compliments" bei dem Otto-Normalkunden (wie bei den völlig unrealistischen Benchmarks), sondern um eine Demonstation für ein Fachpublikum aus Entwicklern etc.
 
Steht und fällt alles mit der beim Kunden verfügbaren breitband Anbindung, es kann kein Erfolg werden wenn jemand mit schlechter oder keiner Internet Anbindung ein wesentlicher schwächeres Spiel bekommt.

und da breitband Internet noch kein Grundrecht ist und erst recht kein Standard hier sehe ich da noch lange keine Möglichkeit für cloud computing, also nicht wie sie sich daa vorstellen
 
Zuletzt bearbeitet:
Steht und fällt alles mit der beim Kunden verfügbaren breitband Anbindung, es kann kein Erfolg werden wenn jemand mit schlechter oder keiner Internet Anbindung ein wesentlicher schwächeres Spiel bekommt.

und da breitband Internet noch kein Grundrecht ist und erst recht kein Standard hier sehe ich da noch lange keine Möglichkeit für cloud computing, also nicht wie sie sich daa vorstellen
Ich glaube die Last für die Leitung wird aber auch maßlos überschätzt - es werden ja nicht GB für GB durch die Leitung geschoben,die Daten um die es geht sind häufig im niedrigen KB-Bereich.Das Problem ist nicht das Ergebnis das am Ende rauskommt sondern der Weg dorthin.
 
Ich glaube die Last für die Leitung wird aber auch maßlos überschätzt - es werden ja nicht GB für GB durch die Leitung geschoben,die Daten um die es geht sind häufig im niedrigen KB-Bereich.Das Problem ist nicht das Ergebnis das am Ende rauskommt sondern der Weg dorthin.

stimmt schon, aber die Latenz ist enorm wichtig. mit irgendeinem funk Internet, was bei lte auch zu breitband zählt, braucht da keiner zu kommen.
 
stimmt schon, aber die Latenz ist enorm wichtig. mit irgendeinem funk Internet, was bei lte auch zu breitband zählt, braucht da keiner zu kommen.
Vieles muss ja auch nicht in Echtzeit berechnet werden - klar,bei dem gezeigten Video braucht man schon optimale Voraussetzungen.Vieles das nach "Echtzeit" aussieht ist eigentlich vorberechnet.
 
Ich glaube die Last für die Leitung wird aber auch maßlos überschätzt - es werden ja nicht GB für GB durch die Leitung geschoben,die Daten um die es geht sind häufig im niedrigen KB-Bereich.Das Problem ist nicht das Ergebnis das am Ende rauskommt sondern der Weg dorthin.

Glaube kaum, dass bei solchen Szene nur kb benötigt werden. Lass noch auf wendige Lichtberechnungen und Shader sowie Texturen hinzukommen und du bis im hohem Megabyte-Bereich. Und dessen kontinuierliche Datenübertragung würde schon Latenzen verursachen.

Wenn du sowas vorberechnest, brauchst du auch keine Cloud mehr. Denn dann brauchst du nur die Animations-Sequenzen auf den Datenträger schieben und fertig. In Battefield sind so sämtliche Zerstörungen inszeniert.

Die Tech-Demo ist sowieso fauler Zauber. Glaube kaum, dass die da auf eine echte Cloud zugreifen, sondern auf einen Server, der hinter der Bühne steht.
 
Ich kenne mich da jetzt wirklich nicht so gut aus aber ich frage mich wie sie die Latenz in den Griff bekommen wollen? Wenn ich Daten von einem PC über den Umweg durch das Internet an einen anderen PC sende wird es schon schwer.
 
Glaube kaum, dass bei solchen Szene nur kb benötigt werden. Lass noch auf wendige Lichtberechnungen und Shader sowie Texturen hinzukommen und du bis im hohem Megabyte-Bereich.
Ich glaube das dort gerne mit einer falschen Denkweise des Prozesses rangegangen wird - natürlich hab ich auch nicht die Weisheit mit Löffeln gefressen.
Wo du aber "Shader und Texturen" erwähnst, es war nie die Rede davon das diese von der Cloud berechnet werden.Es ist ein externes System das die Hardware entlastet und nicht Teile komplett übernimmt.Gerade bei Texturen ist es aufgrund der Größe ziemlich unrealistisch.
Allerdings kann man der CPU viele Schritte mit wenigen KB abnehmen,wodurch ein Spiel entweder mehr oder das Gleiche flüssiger darstellen kann als ohne die Cloud.
Gerade die XO würde davon profitieren wenn das System erstmal richtig funktioniert.Die GPU der PS4 ist größer,aber die Custom GPU/CPU hat ein System das die Last im System anders verteilen lässt und bspw Aufgaben der GPU an die CPU abgeben kann.Wird die CPU durch die Cloud entlastet ist logischerweise mehr Platz für andere Berechnungen.

Klar,das Ganze ist aktuell noch im experimentellen Bereich,aber wenn man es richtig macht kann es einen gravierenden Einfluss haben - bis dahin dauert es aber wohl noch 3-4 Jahre.Die Berechnungstechniken müssen ja erstmal das System begünstigen.
 
Physikberechnungen kann ich mir durch die cloud gut vorstellen. Man könnte es dann so vergleichen, wie die Nvidia PhysX. Das wäre ein ordentlicher Plus für die ONE. Das Spiel an sich kommt von der Konsole, und die Physikeffekt (die meist eh nur Deko sind in Singleplayer games, und nicht wirklich das Gameplay beeinflusst) von der Cloud.
 
Zuletzt bearbeitet:
Ich glaube das dort gerne mit einer falschen Denkweise des Prozesses rangegangen wird - natürlich hab ich auch nicht die Weisheit mit Löffeln gefressen.
Wo du aber "Shader und Texturen" erwähnst, es war nie die Rede davon das diese von der Cloud berechnet werden.Es ist ein externes System das die Hardware entlastet und nicht Teile komplett übernimmt.Gerade bei Texturen ist es aufgrund der Größe ziemlich unrealistisch.

Aber ohne kommst du in einem Spiel nicht aus und wenn eine physikalisch korrekte Explosion errechnet wird, dann muss dementsprechend auch die Daten für Texturen und Licht im Raum berechnet werden. Denn tausende von umherfliegenden Trümmerteilen bestimmen das Licht einer Szene massiv (vor allem die Schatten). Schließlich will das ganze ja auch gerendert und als Gesamtszene dargestellt werden, was die XBOX in dem Umfang wohl kaum alleine schaffen würde. Da reicht es nicht einfach nur ne Textdatei mit Informationen zu den Flugbahnen der einzelnen Teile zu schicken. Denn all das muss gerendert und trotzdem flüssig dargestellt werden. Das wird in dem Video ja auch dargestellt.

Lass noch KI hinzukommen, die auf die Explosionen und Auswirkungen reagieren müssen und der Rest des Spiels, der Einfluss auf solche massiven Szenen nimmt und du hast garantiert keine kb mehr, die du hin- und hersenden musst.
 
Zuletzt bearbeitet:
Aber ohne kommst du in einem Spiel nicht aus und wenn eine physikalisch korrekte Explosion errechnet wird, dann muss dementsprechend auch die Daten für Texturen und Licht im Raum berechnet werden. Denn tausende von umherfliegenden Trümmerteilen bestimmen das Licht einer Szene massiv (vor allem die Schatten). Schließlich will das ganze ja auch gerendert und als Gesamtszene dargestellt werden, was die XBOX in dem Umfang wohl kaum alleine schaffen würde.
Wenn die Last von der CPU genommen wird (die im Falle der XO auch fast alle Aufgaben der GPU übernehmen kann - das Gerät wurde nicht ohne Grund so gebaut und braucht dementsprechend auch weniger GPU-Speicher als bspw die PS4) ist dafür genug Raum.In etwas unvollendeter Form war das auch Sonys Plan bei der PS3 mit dem gleichen Problem - es ist nicht leicht zu programmieren.

Licht und Schatten sind ein Thema für sich - gerade aktuelle Lichtberechnungstechniken sind ein Beispiel dafür wieviel Leistung man verbraten kann um fast garkeinen Effekt zu erzielen :D BF4 ist da ein Paradebeispiel.Oder Crysis 1 seinerzeit.Es wird nicht lange dauern dann wird 50% der Techniken wieder eingemottet oder durch welche ersetzt die effizienter sind.
Auf so eine Masse an Effekten kommt immer ein Haufen dynamischer Berechnungen,aber auch davon sind die meisten garnicht so dynamisch wie einem vorgegaukelt wird.Riddick: Escape from Butcher Bay ist eines der bekanntesten Beispiele.Ohne zu tricksen wäre das Spiel selbstverständlich damals nicht auf einer XBOX möglich gewesen.

Vieles davon ist natürlich noch Zukunftsmusik,aber du hast da noch einen guten Punkt angesprochen: KI - das ist der Ort an dem ich die Cloud in absehbarer Zeit sehe,vorallendingen in Open World-Spielen.KIs sind am Ende zwar auch nur eine Abfolge von Befehlen,aber jeh umfangreicher (damit sie dynamisch wirken) sie ist desto größer der Aufwand.Wenn das dann noch 30+ sein sollen wirds heftig.Dort kann man ohne große Latenzprobleme viel erreichen.

Eine Cloud kann natürlich in allen möglichen Bereichen helfen - möglich wäre auch das bei der Cloud nicht komplette Vorgänge sondern nur mehrere kleine Teilberechnungen übernommen werden.Man weiß es nicht genau.
Viele tun es natürlich als "PR" ab,gerade weil MS so darauf epicht ist etwas damit aufzubauen,aber man darf das ganze nicht unterschätzen und sie haben mit der XO eine Grundplattform mit eindeutigen Spezifikationen um mit den Möglichkeiten rumzuexperimentieren.Ich bin gespannt.
 
Zuletzt bearbeitet:
Auf so eine Masse an Effekten kommt immer ein Haufen dynamischer Berechnungen,aber auch davon sind die meisten garnicht so dynamisch wie einem vorgegaukelt wird.Riddick: Escape from Butcher Bay ist eines der bekanntesten Beispiele.Ohne zu tricksen wäre das Spiel selbstverständlich damals nicht auf einer XBOX möglich gewesen.

Ja, das ist ja bei Battlefield nicht anders. Alles ist vorberechnet und gescriptet. Aber das Endergebnis zählt ja und das hat ja (zumindest visuell) gestimmt.

Vieles davon ist natürlich noch Zukunftsmusik,aber du hast da noch einen guten Punkt angesprochen: KI - das ist der Ort an dem ich die Cloud in absehbarer Zeit sehe,vorallendingen in Open World-Spielen.KIs sind am Ende zwar auch nur eine Abfolge von Befehlen,aber jeh umfangreicher (damit sie dynamisch wirken) sie ist desto größer der Aufwand.Wenn das dann noch 30+ sein sollen wirds heftig.Dort kann man ohne große Latenzprobleme viel erreichen.

Ich fände es ja schonmal cool zu sehen, ob und in wie weit Watch Dogs on der Cloud für die Lebendigkeit der Stadt nutzen kann. Allerdings kann auch eine Cloud immer nur soviel berechnen, wie ihr die Entwickler Futter mitgeben. Aus einem ngängigen KI-Code kann dann auch ne Cloud nix rausholen. Aber das kann was werden, wenn man sich spezifisch darauf ausrichtet.
 
Ich fände es ja schonmal cool zu sehen, ob und in wie weit Watch Dogs on der Cloud für die Lebendigkeit der Stadt nutzen kann. Allerdings kann auch eine Cloud immer nur soviel berechnen, wie ihr die Entwickler Futter mitgeben. Aus einem ngängigen KI-Code kann dann auch ne Cloud nix rausholen. Aber das kann was werden, wenn man sich spezifisch darauf ausrichtet.
Es hieß ja schon vor dieser Generation das die KI auf jeden Fall ein wichtiger Punkt wird - bessere Grafik wird es sicherlich hier und da auch noch geben,aber der Aufwand ist einfach zu groß geworden.
Watch_Dogs wird wohl noch kleine Brötchen backen...es ist imgrundegenommen immernoch ein Release-Titel der nicht auf der Basis der neuen Konsolen entwickelt wurde.Richtig interessant wird es erst wenn sich die Entwickler 1-2 Jahre von der alten Hardware trennen und ihre Ressourcen auf die neuen Geräte konzentrieren können.
 
Zurück