Per favore, non dite bestialità affermando che si devono avere gli fps identici alla frequenza di refresh di un monitor per vedere meglio.
Purtroppo tanti progamers di sta ceppa non capiscono un cazzo né di elettronica, né di matematica, né di oculistica.
Primo punto: l'occhio umano, ad essere precisi, è una camera oscura. Come tale, riesce a percepire un massimo framerate dato dalla reazione minima di coni e bastoncelli in termini temporali.
Secondo punto: anche se fossimo in grado di creare un occhio artificiale, con capacità di reazione superiore ai 200 fps, sarebbe INUTILE, in quanto il nostro cervello riesce ad elaborare una quantità di immagini per secondo non superiore agli 80-85. E questo è un limite fisico imprenscindibile.
Terzo punto: la frequenza di refresh di un monitor corrisponde semplicemente a quante singole schermate riesce a disegnare in un secondo il cannone elettronico di un CRT sullo schermo a fosfori. Stare davanti ad un CRT con freq. di refresh pari a 60 significa provocare un affaticamento della vista, se lo settate dagli 85Hz in su non si potrà notare NESSUNA differenza, il nostro cervello, per il punto 2, è incapace di saper gestire più immagini al secondo di quella quantità.
Quarto punto: i frame disegnati dalla scheda video influenzano, in base a come è programmato il motore grafico, la fisica dei movimenti. Ad esempio, in Q3, a 125 fps fissi, si potevano effettuare movimenti impossibili da ottenere a fps inferiori, salendo anche al doppio di fps la fisica non cambia.
Quinto punto: da tutti questi punti, si evince che l'ideale è settare un CRT a 85Hz, e scalare la grafica in modo tale da avere quel minimo di fps (che può essere tranquillamente superiore alla frequenza di refresh del monitor) che garantisce le massime prestazioni della fisica del gioco (ad es., 125fps su Q3).
L'importante, ovviamente, è che gli FPS generati dalla scheda video siano maggiori o uguali alla freq. di refresh del monitor.
Tutte le altre motivazioni sono vaccate allo stato puro.
