GamesAktuell.de
Redaktion
Jetzt ist Deine Meinung gefragt: Hier kannst Du Deinen Kommentar zum Artikel veröffentlichen und mit anderen Lesern darüber diskutieren.
Gesamten Artikel lesen
Gesamten Artikel lesen
Oh man Nvidia hat 2010 ein Video von einer Brücke gezeigt indem tausend mal mehr details zu sehen sind als in diesen video zu sehen sind. klar kann man sagen es zeigt nur die Möglichkeiten von Cloud berechnungen, aber warum demonstriert man das an einer Szene bei der ein halbwegs mittlerer PC nicht mal mit der Wimper zuckt??
Weil Physikberechnungen extem CPU-lastig sind.Natürlich könnte man schicke Texturen draufklatschen,aber es geht dabei der Sinn des ganzen verloren.Es ist ja kein "fishing for compliments" bei dem Otto-Normalkunden (wie bei den völlig unrealistischen Benchmarks), sondern um eine Demonstation für ein Fachpublikum aus Entwicklern etc.Oh man Nvidia hat 2010 ein Video von einer Brücke gezeigt indem tausend mal mehr details zu sehen sind als in diesen video zu sehen sind. klar kann man sagen es zeigt nur die Möglichkeiten von Cloud berechnungen, aber warum demonstriert man das an einer Szene bei der ein halbwegs mittlerer PC nicht mal mit der Wimper zuckt??
Ich glaube die Last für die Leitung wird aber auch maßlos überschätzt - es werden ja nicht GB für GB durch die Leitung geschoben,die Daten um die es geht sind häufig im niedrigen KB-Bereich.Das Problem ist nicht das Ergebnis das am Ende rauskommt sondern der Weg dorthin.Steht und fällt alles mit der beim Kunden verfügbaren breitband Anbindung, es kann kein Erfolg werden wenn jemand mit schlechter oder keiner Internet Anbindung ein wesentlicher schwächeres Spiel bekommt.
und da breitband Internet noch kein Grundrecht ist und erst recht kein Standard hier sehe ich da noch lange keine Möglichkeit für cloud computing, also nicht wie sie sich daa vorstellen
Ich glaube die Last für die Leitung wird aber auch maßlos überschätzt - es werden ja nicht GB für GB durch die Leitung geschoben,die Daten um die es geht sind häufig im niedrigen KB-Bereich.Das Problem ist nicht das Ergebnis das am Ende rauskommt sondern der Weg dorthin.
Vieles muss ja auch nicht in Echtzeit berechnet werden - klar,bei dem gezeigten Video braucht man schon optimale Voraussetzungen.Vieles das nach "Echtzeit" aussieht ist eigentlich vorberechnet.stimmt schon, aber die Latenz ist enorm wichtig. mit irgendeinem funk Internet, was bei lte auch zu breitband zählt, braucht da keiner zu kommen.
Ich glaube die Last für die Leitung wird aber auch maßlos überschätzt - es werden ja nicht GB für GB durch die Leitung geschoben,die Daten um die es geht sind häufig im niedrigen KB-Bereich.Das Problem ist nicht das Ergebnis das am Ende rauskommt sondern der Weg dorthin.
Ich glaube das dort gerne mit einer falschen Denkweise des Prozesses rangegangen wird - natürlich hab ich auch nicht die Weisheit mit Löffeln gefressen.Glaube kaum, dass bei solchen Szene nur kb benötigt werden. Lass noch auf wendige Lichtberechnungen und Shader sowie Texturen hinzukommen und du bis im hohem Megabyte-Bereich.
Ich glaube das dort gerne mit einer falschen Denkweise des Prozesses rangegangen wird - natürlich hab ich auch nicht die Weisheit mit Löffeln gefressen.
Wo du aber "Shader und Texturen" erwähnst, es war nie die Rede davon das diese von der Cloud berechnet werden.Es ist ein externes System das die Hardware entlastet und nicht Teile komplett übernimmt.Gerade bei Texturen ist es aufgrund der Größe ziemlich unrealistisch.
Wenn die Last von der CPU genommen wird (die im Falle der XO auch fast alle Aufgaben der GPU übernehmen kann - das Gerät wurde nicht ohne Grund so gebaut und braucht dementsprechend auch weniger GPU-Speicher als bspw die PS4) ist dafür genug Raum.In etwas unvollendeter Form war das auch Sonys Plan bei der PS3 mit dem gleichen Problem - es ist nicht leicht zu programmieren.Aber ohne kommst du in einem Spiel nicht aus und wenn eine physikalisch korrekte Explosion errechnet wird, dann muss dementsprechend auch die Daten für Texturen und Licht im Raum berechnet werden. Denn tausende von umherfliegenden Trümmerteilen bestimmen das Licht einer Szene massiv (vor allem die Schatten). Schließlich will das ganze ja auch gerendert und als Gesamtszene dargestellt werden, was die XBOX in dem Umfang wohl kaum alleine schaffen würde.
Auf so eine Masse an Effekten kommt immer ein Haufen dynamischer Berechnungen,aber auch davon sind die meisten garnicht so dynamisch wie einem vorgegaukelt wird.Riddick: Escape from Butcher Bay ist eines der bekanntesten Beispiele.Ohne zu tricksen wäre das Spiel selbstverständlich damals nicht auf einer XBOX möglich gewesen.
Vieles davon ist natürlich noch Zukunftsmusik,aber du hast da noch einen guten Punkt angesprochen: KI - das ist der Ort an dem ich die Cloud in absehbarer Zeit sehe,vorallendingen in Open World-Spielen.KIs sind am Ende zwar auch nur eine Abfolge von Befehlen,aber jeh umfangreicher (damit sie dynamisch wirken) sie ist desto größer der Aufwand.Wenn das dann noch 30+ sein sollen wirds heftig.Dort kann man ohne große Latenzprobleme viel erreichen.
Es hieß ja schon vor dieser Generation das die KI auf jeden Fall ein wichtiger Punkt wird - bessere Grafik wird es sicherlich hier und da auch noch geben,aber der Aufwand ist einfach zu groß geworden.Ich fände es ja schonmal cool zu sehen, ob und in wie weit Watch Dogs on der Cloud für die Lebendigkeit der Stadt nutzen kann. Allerdings kann auch eine Cloud immer nur soviel berechnen, wie ihr die Entwickler Futter mitgeben. Aus einem ngängigen KI-Code kann dann auch ne Cloud nix rausholen. Aber das kann was werden, wenn man sich spezifisch darauf ausrichtet.
Das sind die Anfänge einer neuen Ära. Vor 1969 hätte es auch niemand für möglich gehalten, dass ein Mensch jemals den Mond betreten könnte. Aufwachen, ihr Fortschrittsbremsen!
Mondlandung gleich gesetzt mit der Cloud... holy crap!