Wieviel Hz sind "notwendig"?

Gamerhenne

Benutzer
Mitglied seit
07.08.2009
Beiträge
81
Reaktionspunkte
0
Hallo zusammen,

was mich bei den Diskussionen um die Hz an TVs bzw Monitoren mal interessieren würde:
Irgendwann habe ich mal im TV gesehen, dass jemand gesagt hat, alles, was über 50 Hz liegen würde, wäre schlichtweg einfach unsinnig, da unser Auge regulär eigentlich nur diee 50 Hz erfassen könnte. Ist das so richtig ? Kann mich da mal jemand aufklären ?
Und wenn ja, wieso baut man dann TV etc mit wesentlich mehr ? ( 200... )

Herzlichen Dank für Aufklärung ;)
 
Ne das ist quatsch! Die Hz sind für die Schärfe und noch etwas...(genau weiß ich das auch nicht).

100/120-Hz-Technik bzw.200/240-Technik:
Hier werden synthetische Zwischenbilder berechnet und anschließend zusammen mit den Originalbildern ausgegeben. Dadurch erhöht sich die reale Bildfrequenz um ein ganzzahliges Vielfaches. Aus 24fbs (Kinostandart) werden so 48, 72, 96 oder sogar 129fbs.Schlieren durch Hold-Disblays können so deutlich reduziert werden.Neben der Reduktion von Bewegungsunschärfenwerden auf diese Weise Bewegungen Kamerafahrten deutlich flüssiger wiedergegeben. Allderdings kann durch die Bewegungsinterpolation insbesonders bei leicht rauschenden Bildquellen eine mehr oder weniger deutliche Trennung zwischen Vorder- und Hintergrund im Bild beobachtet werden (Soap-Effekt). Die 240-Hz-Geräte sind jetzt angeküdigt. Ein weiterer Vorteil dieser Technik ist es, dass Overdrive feiner dosiert angewendet werden kann.

Ich selber habe einen Sony mit 200Hz und bin SEHR zufrieden!
 
ja, das mit der Schärfe haben die ungefähr auch so gesagt. Deren Begründung war allerdings eben die: dass das nur relevant ist, wenn man 100 % Sehkraft hat und da das ja so gut wie niemand habe... so ungefähr war das wohl, ich hab leider nicht rechtzeitig geschaltet und das ganze mitbekommen sondern nur eben das mit den 50 Hz
 
Ich persönllich finde das alles über 100 hz ein bisschen übertrieben ist.
Von 100hz auf 200hz ist nicht recht viel unterschied..finde ich!
 
hehe, gute Frage:D, weil das nicht jeder hat, oder:) vielleicht auch ein bisschen zu viel geld...
 
mindestens 60. Die meisten Spiele laufen heute mit 60 Hz. viele unterstützen keine 50 Hz mehr, sodass diese auf einem 50 Hz Monitor schwarz-weiß dargestellt werden. Also, 60 sollten es sein.
 
Bei RÖHREN-GERÄTEN war die Hertz-Zahl noch entscheidend für den Fernsehgenuß. Durch den zeilenweisen Bildaufbau waren mindestens 70 Hz für halbwegs flimmerfreies Bild nötig, optimal waren >100 Hz. Ich habe meinen 17"-Röhrenmonitor immer mit 100 oder 120 Hz betrieben, sonst hat mich das Flimmern gestört.
LCD-Monitore (TVs) arbeiten völlig anders, dort bleibt das Bild stehen bis sich am Bildinhalt etwas ändert, es kann also absolut nichts flimmern, daher braucht man keine hohen Bildraten.
Nur für die Wiedergabe schneller Bewegungen sind jetzt auch möglichst hohe Hertz-Zahlen interessant, allerdings nützt es nichts wenn der Fernseher eine höhere Bildrate hat als das Quellmaterial. Das hat je nach Aufnahme maximal 60 Hz, es macht deshalb nicht so viel Sinn einen TV mit 200 Hz zu kaufen. Da muss dann schon ein sehr teurer Bildprozessor Zwischenbilder berechnen damit ein positiver Effekt eintritt.
Bei Computermonitoren sieht es ganz anders aus, dort wäre es sinnvoll mehr als 60 Hz darstellen zu können, die GraKa kann ja meistens auch mehr als 60 fps berechnen. Dadurch sinkt vor allem die Reaktionszeit. Bei 60 Hz vergehen pro Frame 16,67 ms - in dieser Zeit legt man in einem Rennauto mit 250 km/h bereits 1,16 m zurück. Mit einer höheren Framerate könnte man also präziser fahren.
Eingefleischte Quake3-Spieler schwören auf Röhrenmonitore mit Frameraten von 120 Hz (fps), da werden besonders mit der Railgun die Trefferquoten höher - trainierte Spieler können solch hohe Bildraten auch durchaus verarbeiten, "normale" Menschen können bis ca. 60 fps mithalten.
 
Zurück