Log in

View Full Version : RoG Swift 1440p 27" 120hz G-sync Monitor



Boroming
10th January 2014, 13:31
http://press.asus.com/events/#ROGSwift

The World’s Fastest & First G-SYNC™ WQHD Gaming Monitor
120+ Hz fast refresh rate and 1ms response time for ultra-smooth gaming
Powered by NVIDIA® G-SYNC™
27-inch WQHD display with 2560 x 1440 resolution and 109 PPI
Super narrow 6mm bezel for seamless multi-display surround




WHAT THE FUCK.
1440p 1 ms g-sync e 120hz?

il monitor perfetto per gaming...
finalmente ha senso prendere un monitor 120/144 hz, prima era un rischio inutile dato che non tenevi piu di 120/144 fps rischiavi di avere tearing o pessime prestazioni... con g-sync questo problema è superato

l'unico dubbio che resta sono i colori essendo TN come pannello, ma stavano dicendo che il pannello lo hanno fatto da zero quelli di asus, non penso facciano troppo schifo.


799$

Razj
10th January 2014, 13:44
799$ di monitor per giocarci coi pupazzetti digitali

ci sta

Devon
10th January 2014, 13:46
799$ di monitor per giocarci coi pupazzetti digitali

ci sta

se si trova a 100€ in meno ti puoi comprare 5 costumini su marvel heroes, tanto ne cagano fuori 10 a settimana

Razj
10th January 2014, 13:51
se si trova a 100€ in meno ti puoi comprare 5 costumini su marvel heroes, tanto ne cagano fuori 10 a settimana

3/10

applicati di più

Devon
10th January 2014, 13:54
3/10

applicati di più

non meriti di meglio quindi non vedo perche sforzarmi :confused:

Boroming
10th January 2014, 14:09
799$ di monitor per giocarci coi pupazzetti digitali

ci sta

non ti interessa? non postare

semplice :)

Hador
10th January 2014, 14:21
799$ di monitor per giocarci coi pupazzetti digitali

ci stase siete poveri non è colpa nostra :nod:

L'unico problema è che per avere effetti attivi a quella ris ti serve una scheda video top gamma, il 1080p ci ha viziato in questo senso dato che alla fine su un 23-24" è una buona risoluzione e ti permette di avere AA ed effetti con schede video che non costano 500 euro.

Razj
10th January 2014, 14:56
non ti interessa? non postare

semplice :)

why so mad?


se siete poveri non è colpa nostra :nod:

L'unico problema è che per avere effetti attivi a quella ris ti serve una scheda video top gamma, il 1080p ci ha viziato in questo senso dato che alla fine su un 23-24" è una buona risoluzione e ti permette di avere AA ed effetti con schede video che non costano 500 euro.

Ma no è questione di valore relativo non assoluto. Sti monitor non li hanno manco ai tornei mondiali di FPS/picchiaduro non vedo come possa essere un buon acquisto per il gaming casalingo e non "professionale" a meno di non farne una questione di moda/elite iocell'hoevvoino stile apple fanboy.
Se poi metti in conto che un buon 80% dei giochi è fatto per girare decentemente su piattaforme """"next gen"""" a 720p e 30fps max allora apposto proprio :sneer:

Boroming
10th January 2014, 15:17
se siete poveri non è colpa nostra :nod:

L'unico problema è che per avere effetti attivi a quella ris ti serve una scheda video top gamma, il 1080p ci ha viziato in questo senso dato che alla fine su un 23-24" è una buona risoluzione e ti permette di avere AA ed effetti con schede video che non costano 500 euro.

yep quello che pensavo... tenere almeno 100+ fps a quella res è tosta

Tunnel
10th January 2014, 15:39
Toni leggermente sopra l'accettabile. Conteniamo un po' per cortesia

Hador
10th January 2014, 16:42
cmq il valore mi sembra buono, monitor simili a 1440p non costano molto meno.

Jiinn
10th January 2014, 17:29
sinceramente il prezzo mi sembra onesto considerando che non ce ne sono molti di monitor con quelle prestazioni..... 1600$ per 2 pero' al momento so' troppi :sneer:

ormai da quando ho 2 monitor da 23 al lavoro e 2 27 a casa non posso stare al pc con un'unico monitor...

Hador
10th January 2014, 17:32
io ho due monitor e ne uso solo uno invece... 2 non mi servono proprio a un cazzo :|

Boroming
10th January 2014, 17:37
sinceramente il prezzo mi sembra onesto considerando che non ce ne sono molti di monitor con quelle prestazioni..... 1600$ per 2 pero' al momento so' troppi :sneer:

ormai da quando ho 2 monitor da 23 al lavoro e 2 27 a casa non posso stare al pc con un'unico monitor...

anche io ne ho 2 e sono ips quindi i colori sono uno spettacolo... potrei vendere il principale e prendere una cosa del genere e lasciare l'altro ips per film & co.... unico problema uno sarebbe 1440p e l'altro 1080p :|

Dryden
10th January 2014, 17:38
Dipende sempre quello che ci fai, a lavoro senza 2 monitor posso morire, a casa non saprei che farmene.

Jiinn
10th January 2014, 17:38
al lavoro devo avere 2 browser sempre aperti oppure 1 browser + sessione remota sull'altro.... per casa normalmente ho gioco su un monitor e forum,broadcast app o altra roba sull'altro...

Sylent
10th January 2014, 18:47
considerando che l'occhio sopra i 30-35 fps non vede la differenza, a cosa servono 100fps?

Hador
10th January 2014, 18:56
ogni tanto ciclicamente riescono ste fregnacce... ._.

Galandil
10th January 2014, 19:35
considerando che l'occhio sopra i 30-35 fps non vede la differenza, a cosa servono 100fps?

So non vedi sopra i 30-35 fps, hai dei seri problemi al sistema di elaborazione visiva del tuo cervello ainec.

Marphil
10th January 2014, 19:36
No è che tutti noi abbiamo i superpoteri rispetto a chi scrive quella frase

true story.

Boroming
10th January 2014, 19:42
se ti riferisci al limite teorizzato degli fps del nostro occhio, in recenti (ma mica poi tanto) studi hanno visto che l'occhio percepisce anche fino a 1000 (si mille) frame al secondo ma siamo in grado di computarne sui 150-200



mi autoquoto da un 3d di marzo 2013

in sostanza diversi test su piloti dell'aereonautica hanno dimostrato i test sopra citati, che poi sono stati applicati a studi piu generici sugli occhi che li hanno confermati.

Razj
10th January 2014, 21:23
considerando che l'occhio sopra i 30-35 fps non vede la differenza, a cosa servono 100fps?

mi stai dicendo che tra un gioco a 30 fps ed uno a 60 fps tu non noti differenze? lol

Jiinn
10th January 2014, 21:41
Occhio non allenato arriva tra i 50 e i 60 fps.. Quando si e' giovani e con occhi allenati si arriva tranquilli sopra i 100.. Ovvio che questi display sono studiati per gamers e l'eta' e l'abitudine a certi fps fanno notare le differenze...

Estrema
10th January 2014, 21:45
ragazzi state dicendo una cazzata tutti occhio :sneer:

Gramas
10th January 2014, 21:52
ma ancora con sti discorsi?niubbi del cazzo!!!


Sfatiamo i luoghi comuni #1: "30 fps sono abbastanza"
Ciao a tutti!

Stanco di sentire gente che afferma, contro l'evidenza e il buon senso, che sopra i 30 fps "non si notano differenze", mi accingo a demolire tale affermazione, spero una volta per tutte, anche con l'aiuto di mio cognato che fa l'oculista (grazie per il ripasso di come e' fatto l'occhio

La prima premessa d'obbligo e' che ritengo che le persone che affermano questo siano state tratte in inganno da come funzionano le proiezioni dei film nei cinematografi (24 - 25 fps).

Il punto cruciale e' proprio questo, la sostanziale differenza che esiste tra assistere alla proiezione di un film (TV o cinema che sia) ed usare un videogame, data la struttura dell'occhio.

Ma andiamo con ordine.


LA STRUTTURA DELL'OCCHIO

L'occhio non e' altro che un'antenna (avete capito bene, e' proprio una antenna) in grado di decodificare grazie alla sua complessa struttura quelle onde elettromagnetiche che noi chiamiamo "luce visibile" (ma teoricamente potrebbero esistere occhi per vedere a infrarossi, o i raggi X, o gli ultravioletti, o persino i suoni...) grazie a due componenti fondamentali, coni e bastoncelli, che visualizzano sulla corteccia cerebrale quanto da loro analizzato.
I coni sono di tre tipi specializzati per verde, rosso e blu, mentre i bastoncelli (molto piu' sensibili) si occupano della focalizzazione e dell'intensita' della luce "tradotta".
I bastoncelli sono molto piu' fitti agli estremi della retina e questo spiega l'effetto della visione periferica (quando guardate le stelle fioche direttamente non le vedete, se mettete a fuoco un punto vicino invece le scorgete ai bordi del vostro campo visivo).
Infine la cosa piu' importante: il nostro occhio e' ANALOGICO ovvero traduce un flusso continuo di informazioni, non impulsi o "frame" alla volta.

I LIMITI DELL'OCCHIO

Sento gia' i primi mugugni
"Ma come mai allora in certe situazioni non si distinguono i contenuti mentre in altri si' se l'occhio ha una capacita' infinita?" direte voi fans dei 30 fps.
Ora ci arriviamo.
Il "limite" non e' dell'occhio ma del cervello e come infatti vedremo puo' variare da persona a persona (ma non e' comunque 30 fps
Per consentirci di vivere nel mondo reale dandoci la possibilita' di percepire la posizione e il moto degli oggetti (cosa MOLTO piu' importante che distinguere i contenuti, per ovvie ragioni) anche in situazioni particolari (ad esempio, quando ci muoviamo ad alte velocita') il nostro cervello applica alla vista un effetto (che spesso si vede nei demos della "scena" che si chiama "motion blur" ed e' quello che ci fa percepire le gocce di pioggia come linee che si muovo dall'alto verso il basso e non come una sequenza di istantanee in cui distinguiamo le sferette d'acqua sospese nell'aria.
Questo effetto non e' altro che la traduzione visiva del movimento (che e' una cosa ANALOGICA e quindi infinita... ricordate il paradosso di Zenone? da parte di una struttura con dei limiti (anche se elevati) quale e' il cervello.
E che centra questo coi videogames direte voi? Ora arriviamo al punto

DIFFERENZE TRA CINEMA E VIDEOGAMES: OVVERO, IL BLUR

Analizziamo il cinema.
Al cinema siamo in un ambiente buio e osserviamo passivamente una proiezione altamente luminosa riflessa da uno schermo sul nostro occhio. La situazione fa si che i bastoncelli siano superstimolati a scapito dei coni (che distinguono i particolari) e che l'effetto di blur succitato sia amplificato dalla maggiore persistenza delle immagini sulla retina.
Inoltre, ci sono altre 2 cose importanti da notare.
Ogni fotogramma viene proiettato e percepito istantaneamente e non rasterizzato una o piu' volte come nel caso di un monitor CRT.
E seconda e piu' importante cosa, la visione ci appare fluida perche' i fotogrammi CONTENGONO l'informazione di blur!! Se infatti osservate un fotogramma fermo di una scena concitata o di un film di animazione, noterete distintamente questo effetto.
Questo fa si che il film venga percepito esattamente come una situazione reale, anche se bidimensionale.
I piu' intelligenti di voi hanno forse capito dove voglio ora andare a parare
Vediamo infatti il nostro bel quakko 2 (o quello che preferite).
Al contrario del film, il videogame genera immagini dove ogni oggetto occupa una posizione ESATTA... ovvero niente blur. Non mette il blur per due ragioni: la prima puramente tecnica (ci vorrebbero troppi calcoli) e la seconda e' che se lo facesse succederebbe quello che forse alcuni di voi hanno provato se tentano di giocare a un first person shooter su uno schermo LCD, ovvero la visione appare molto piu' fluida (e qui si vi bastano 30 fps!) ma vi risulterebbe molto piu' difficile mirare e sparare.
Il fatto di usare immagini ESATTE e non con blur fa si che il cervello
percepisca come "meglio" quei flussi che piu' si avvicinano alla visione del mondo reale (che e' analogica...) ovvero quei flussi che hanno FPS maggiori e che quindi danno all'occhio (ovvero al cervello!) la sensazione di essere immerso in una situazione reale.
L'errore di fondo e' appunto ragionare sul contenuto e non sulla percezione del movimento!!


NON NE SIETE CONVINTI?

Fatti vostri
Scherzi a parte, il limite oltre il quale non si puo' dire la differenza esiste anche per questo ragionamento, ma e' ben piu' alto dei tanto paventati 30-40; oscilla tra i 75 e i 120-130 (!) a seconda della sensibilita' personale.
Per i San Tommasi basta fare questa prova: settate il monitor a 60 hertz e fissatene il centro per un po'. Noterete flicker e vi si affatichera' la vista.
Ora settatelo ad 85. La cosa non si ripete. Se gia' il buon senso non vi dice che c'e' una differenza percepita dall'occhio, rileggetevi bene quanto detto prima :P
Volete verificare che i bastoncelli sono di piu' ai bordi e quindi la vostra vista e' piu' sensibile "in periferia"?
Mettete il monitor a 75 hertz (un valore in genere di soglia) e guardatelo prima direttamente, poi con la visione periferica.
Se il vostro limite si aggira attorno a quella cifra, guardandolo direttamente lo noterete stabile mentre con la visione periferica lo vedrete flickerare!
Questo metodo puo' essere ovviamente usato per scoprire la vostra sensibilita' ripetendo il giochetto aumentando via via il refresh.