PDA

View Full Version : [X360] Simulatore di guida ESAGERATO



Dan Palmer
4th January 2008, 15:29
Altro che Forza Motosport o Gran Turismo! Da VRX Industries arriva il simulatore di guida definitivo!

http://www.dpcgamers.com/news/Xbox_360/il_primo_simulatore_di_guida_su_quad_screen_al_mon do_il_vrx_mach_4-news.html

Unico problema; servono 4 monitor e 4 360 collegate tra loro. :sneer:

edothebest
4th January 2008, 15:39
Fantastico auahuauhahua

La quarta 360 sarà collegata ad uno schermo da 7" che rappresenta lo specchietto retrovisore :rotfl::rotfl::rotfl:

Evildark
4th January 2008, 18:13
pensa a farci girare AC con i cavalli monchi! fichissimo. needo. :drool:

:confused:

edothebest
4th January 2008, 18:33
pensa a farci girare AC con i cavalli monchi! fichissimo. needo. :drool:

:confused:

:rotfl::rotfl::rotfl::rotfl:











































:scratch::scratch:

Kith
4th January 2008, 21:41
e beh lo compreranno tutti, infondo chi non ha 4 xbox in casa?

Evildark
4th January 2008, 21:54
e beh lo compreranno tutti, infondo chi non ha 4 xbox in casa?

e soprattutto 3 TV sharp acquos :rotfl::rotfl::rotfl:

Darkwarrior
4th January 2008, 22:01
No ma secondo me vendono tutto il pacchetto, comprese ventole sedia amplificatori e tv eh. Deve essere certamente a buon prezzo :nod:

Dan Palmer
4th January 2008, 22:17
No ma secondo me vendono tutto il pacchetto, comprese ventole sedia amplificatori e tv eh. Deve essere certamente a buon prezzo :nod:

Eheh infatti... :sneer:

No comunque voglio seguire lo sviluppo di questo progetto anche perchè, a meno che non lo stiano facendo solo per Bill Gates ed il sultano del Brunei, immagino ci sarà anche l'opzione di giocarselo con una sola 360.

Devon
4th January 2008, 22:26
e beh lo compreranno tutti, infondo chi non ha 4 xbox in casa?
funzionanti magari no, ma conosco qualcuno che ne ha 2-3 anellate e una funzionante

Gate
4th January 2008, 22:58
soprattutto un sistema bose per l'audio e 2 ventole che simulano l'aria
totale :sneer:

Drako
5th January 2008, 00:28
cazzo spendi meno se vai davvero in pista :sneer:

XBoSS
5th January 2008, 13:53
Mio al dei uan :point:

Hador
5th January 2008, 15:32
4 xbox? bastava un pc

gratuita pro fanboysmo :sneer:

Kith
5th January 2008, 17:25
ma poi l'aria a che pro? la mia macchina è dotata di vetri non so...

Evildark
5th January 2008, 17:25
4 xbox? bastava un pc
gratuita pro fanboysmo :sneer:
:sneer::sneer::sneer:

Vaffaflanders
5th January 2008, 17:39
ma poi l'aria a che pro? la mia macchina è dotata di vetri non so...

Le ventole servono a giustificare quei 3,4mila euro in piu rispetto al costo dei pezzi presi singolarmente...

Axet
5th January 2008, 18:28
ma poi l'aria a che pro? la mia macchina è dotata di vetri non so...

Ci sono anche macchine dove l'aria ti arriva eh.. tutte le varie spider, le F1, etc etc

Sintak
5th January 2008, 18:31
Però devi giocare col casco, altrimenti tutta la simulazione va a farsi friggere.

C'è una cosa che manca comunque, ci dovevano mettere un dispenser di moscerini dietro alle ventole. Così è un simulatore da zero a zero

Kith
5th January 2008, 22:02
Ci sono anche macchine dove l'aria ti arriva eh.. tutte le varie spider, le F1, etc etc


si ma o fan un gioco di spider f1 o non ha senso, gran parte delle macchine NON è spider/f1 :sneer: (hudlokese) , è proprio fatto per sprecare soldi sto coso, altrimenti al posto di 4 xbox mettevano 1 pc come ha detto hador.

Dryden
6th January 2008, 02:05
si ma o fan un gioco di spider f1 o non ha senso, gran parte delle macchine NON è spider/f1 :sneer: (hudlokese) , è proprio fatto per sprecare soldi sto coso, altrimenti al posto di 4 xbox mettevano 1 pc come ha detto hador.


E' stato creato per gonfiare l'ego dei seguaci di Zio Bill.

Axet
6th January 2008, 02:06
si ma o fan un gioco di spider f1 o non ha senso, gran parte delle macchine NON è spider/f1 :sneer: (hudlokese) , è proprio fatto per sprecare soldi sto coso, altrimenti al posto di 4 xbox mettevano 1 pc come ha detto hador.

Ma guarda che non penso proprio che un pc possa tenere 4 schermi contemporaneamente tutti ad effetti massimi e risoluzione massima. Schermi che, ovviamente, mostrano cose differenti e non sono semplicemente duplicati.

E posto che vi riesca, ti viene cmq a costare ben più di 4 xbox ^^

Arthu
6th January 2008, 03:02
Un pc quadrimonitor con 4 segnali diversi elaborati cmq in contemporanea.
Ma anche no :sneer:

Kith
6th January 2008, 13:27
Ma guarda che non penso proprio che un pc possa tenere 4 schermi contemporaneamente tutti ad effetti massimi e risoluzione massima. Schermi che, ovviamente, mostrano cose differenti e non sono semplicemente duplicati.


i nuovi penryn hanno potenze di calcolo che le consolle a confronto sembrano gameboy.
Abisso in termini di teraflops.
D'altronde mai visto simulatori per addestramenti su consolle :nod:

Hador
6th January 2008, 13:42
Ma guarda che non penso proprio che un pc possa tenere 4 schermi contemporaneamente tutti ad effetti massimi e risoluzione massima. Schermi che, ovviamente, mostrano cose differenti e non sono semplicemente duplicati.

E posto che vi riesca, ti viene cmq a costare ben più di 4 xbox ^^risoluzione massima per xbox è 720p, checcevole, i segnali non sono diversi semplicemente gli dai una risoluzione di 1280x4 x 720 e usi multimonitor. I problemi sono i costi non tanto quello che puoi fare, triple sli o quad crossfire e passa la paura :sneer:
ma con 1400 euro un sistema SLI di 8800 GTS dovresti riuscire a portartelo a casa :sneer:
O più semplicemente mettere 2 pc da 800 euro che lavorano in dual monitor, li basta una 8800GT e un processore entry level (anche un E4500), li sali pure di risoluzione
E' ben più pesante in questi termini giocare a 2560x1600 come numero di pixel elaborati (le recensioni di hwupgrade vengono fatte su un dell 30" a 2560x1600), il fatto che il segnale venga mandato a 1 monitor graaaande o a 4 non cambia nulla

dangaio
6th January 2008, 13:53
risoluzione massima per xbox è 720p...
Non era 1080P la risoluzione massima che la X360 supporta?

Dan Palmer
6th January 2008, 14:01
Non era 1080P la risoluzione massima che la X360 supporta?

Si, ma il niubbo non lo sa. :nod:

Hador
6th January 2008, 14:05
un conto è supportarla un conto è usarla, credere che l'xbox abbia l'HW per far girare qualcosa di next gen a 1080p è idiozia, basta vedere come gira gow a 720... fa più fps su una 8600...
ovviamente non sono fanboyate, http://www.gametrailers.com/player/27256.html

Axet
6th January 2008, 14:34
i nuovi penryn hanno potenze di calcolo che le consolle a confronto sembrano gameboy.
Abisso in termini di teraflops.
D'altronde mai visto simulatori per addestramenti su consolle :nod:

Penryn sarebbe? Cmq se è una CPU desktop sicuro non è più potente del Cell :nod:

Se parliamo di cose ad hoc per ambito industriale allora sticazzi direi :p

@hador:
si ma quello che voglio dire è che devi gestire 4 schermi che mostrano immagini DIVERSE. Non devono duplicare semplicemente l'immagine per 4 volte, è come se ogni xbox facesse girare una sessione di gioco indipendente.
Così dovrebbe fare anche il pc, e con uno solo non è possibile (e imo manco con due).

Kinson
6th January 2008, 14:39
spetta axet fammi capire . Il cell quando l'han fatto ? due anni fa ? E sarebbe più potente dei processori della intel attuali e di quelli che usciranno con quest'anno nuovo ?

non è che tra un po scopriamo che dentro al cel ci sta un eva-01 ? :D

Hador
6th January 2008, 16:01
Penryn sarebbe? Cmq se è una CPU desktop sicuro non è più potente del Cell :nod:
Se parliamo di cose ad hoc per ambito industriale allora sticazzi direi :p
@hador:
si ma quello che voglio dire è che devi gestire 4 schermi che mostrano immagini DIVERSE. Non devono duplicare semplicemente l'immagine per 4 volte, è come se ogni xbox facesse girare una sessione di gioco indipendente.
Così dovrebbe fare anche il pc, e con uno solo non è possibile (e imo manco con due).penryn che sono i nuovi processori intel a 45nm ovviamente è più potente del cell, anche se "potente" non vuol dire un cazzo anche lo xeon è più potente sia di un conroe sia di un kentsfield ma come già ripetuto la capacità di calcolo brutale serve solo in ambito scientifico, per questo che il processore più veloce in ambito ludico è il 6850 e NON le versioni quad extreme da 900 dollari (con ben maggiore potenza di calcolo). Inoltre sono anni che siamo GPU limited in campo di videogiochi, infatti le prestazioni ad alte risoluzioni differiscono di pochissimo o sono del tutto uguali tra modelli top gamma e modelli entry level, tra l'E2140 che costa 40 dollari e il QX6850 che ne costa 900 ci sono 4 fps di differenza in HL2 a 1600x1200 con filtri attivi, 2 con prey e in fear sono uguali. Questo giusto per ricordare che avere la CPU da ennemila teraflop non serve a un cazzo se devi giocare, e che la CPU NON è una scheda grafica e non può sostituirsi a questa come sono sicuro che ora dirai, altrimenti figurati con i processori di adesso se si sobarcassero il carico della GPU faremmo 400 fps a 1600x1200. Non è quindi che il cell fa tutto il lavoro della scheda grafica e dato che è potentizzimo è uber, non funziona così, non ha senso.
Detto ciò ripeto, il dual monitor ATTUALE con una scheda video sola permette di gestire due monitor contemporaneamente, il tutto si riduce ad una questione di risoluzione, usare due monitor (ipotizzo hd rdy, risoluzione cmq che ormai vecchia anche sui portatili) equivale per la scheda video ad usarne uno a risoluzione 1280x2 x 720, cioè 2360 x 720, il fatto di mandare un segnale di qua e uno di la è un dettaglio tecnico che penso si possa risolvere pure con uno switch. Se io dovessi usare 4 monitor sarebbe 1280x4 x 720, cioè 5120 x 720, essendo attuamente la risoluzione massima supportata 2560x1600 dai monitor 30" (1200 dollari, neanche un enormità se vogliam proprio vedere) ed essendo questa risoluzione documentata in vari beckmark e test (esempio hwupgrade, ma anche i cinema display apple ci arrivano penso) che dimostra essere una risoluzione giocabile con sistemi di livello alto non vedo quale dovrebbe essere la difficoltà a usare una risoluzione di 5120 x 720, essendo 5120*720 < 2560*1600 quindi più bassa.
Ovvio che se li vuoi far tutti girare già a 1280x1024 o 1600x1200 probabilmente ti serve uno sli di ultra se non un triple sli, ma si parla di sistuazioni estreme in cui devi spendere 2k euro di schede video :sneer:
Poi mo tra un mese escono le GX2 con 2 chip gtx con nuovo processo produttivo integrati, come se fosse una scheda SLI in una scheda sola, con due di quelle puoi effettuare un quad SLI... certo devi vendere un rene :sneer:

fonti varie:
comparativa CPU http://www.hwupgrade.it/articoli/cpu/1826/comparativa-tra-cpu-48-processori-a-confronto_8.html
GX2 http://www.hwupgrade.it/news/skvideo/geforce-9800-gx2-i-primi-dettagli_23750.html
tri SLI e SLI a confroto ad alte ris: http://www.hwupgrade.it/articoli/skvideo/1863/nvidia-l-ora-di-triple-sli_3.html
comparative varie di schede singole ad alte ris: http://www.hwupgrade.it/articoli/skvideo/1861/geforce-8800gts-nome-vecchio-scheda-nuova_5.html
comparativa in SLI con nuovi driver ad alte risoluzioni: http://www.hwupgrade.it/articoli/skvideo/1831/nvidia-sli-analisi-con-windows-vista_5.html
notare come con già un sistema SLI in questo caso di GTX, ma ormai lo si può fare con prestazioni se non uguali di poco inferiori con le GT o GTS nuove (si parla alla peggo di 330 euro x 2 ma 660 euro per applicazioni extreme non sono un enormità) a 2560x1600 abbiamo 140fps in HL2, 70 in prey, 60 in lost planet, 50 in fear mentre UT3 ne fa 69 CON SINGOLA SCHEDA GTS.

Axet
6th January 2008, 16:16
Il cell, a livello di teraflop, è più potente degli xeon. Difatti molti ricercatori, per studio scentifico si prendono un tot di PS3 e le mettono in parallelo, andando così ad ottenere una potenza di calcolo superiore ai supercomputer che usavano in precedenza, spendendo un bel po' meno :p

Vero poi che il cell non è una cpu general purpose ma da il suo meglio nel calcolo in virgola mobile (ed è lì che atm è imbattibile), ma è falso invece quando dici che la cpu non si può sostituire alla gpu nel calcolo della grafica.

O meglio, possono collaborare, utilizzando il deferred rendering. Una tecnica che fa fare la parte iniziale del rendering alla cpu e lascia alla gpu la fase di "rifinitura" come l'applicazione di texture etc etc.

Tecnica che verrà usata da killzone2 e che viene già, al momento, usata per alcuni giochi pc (non ricordo quali, dovrei controllare).

Più che altro ci sarebbe da chiederesi se, in ambito console, sia meglio una cpu general purpose piuttosto che una "specializzata".
Se consideri che fisica e grafica sono, ovviamente, in virgola mobile, la risposta dovrebbe essere abbastanza scontata :nod:

Hador
6th January 2008, 16:41
Il cell, a livello di teraflop, è più potente degli xeon. Difatti molti ricercatori, per studio scentifico si prendono un tot di PS3 e le mettono in parallelo, andando così ad ottenere una potenza di calcolo superiore ai supercomputer che usavano in precedenza, spendendo un bel po' meno :p

Vero poi che il cell non è una cpu general purpose ma da il suo meglio nel calcolo in virgola mobile (ed è lì che atm è imbattibile), ma è falso invece quando dici che la cpu non si può sostituire alla gpu nel calcolo della grafica.

O meglio, possono collaborare, utilizzando il deferred rendering. Una tecnica che fa fare la parte iniziale del rendering alla cpu e lascia alla gpu la fase di "rifinitura" come l'applicazione di texture etc etc.

Tecnica che verrà usata da killzone2 e che viene già, al momento, usata per alcuni giochi pc (non ricordo quali, dovrei controllare).

Più che altro ci sarebbe da chiederesi se, in ambito console, sia meglio una cpu general purpose piuttosto che una "specializzata".
Se consideri che fisica e grafica sono, ovviamente, in virgola mobile, la risposta dovrebbe essere abbastanza scontata :nod:ripeto, lo xeon è più potente anche di un kentsfield ma COME HO GIA SCRITTO un CONROE funziona meglio in ambito ludico di un kentsfield (o forse non sai di cosa sto parlando, conroe sono i core duo a 4M di L2, kentsfield sono i quad) la potenza bruta di calcolo non serve a una minchia, inoltre come ho già argomentato con tanto di test grafici disegnini e svariati link tutto il lavoro che può essere delgato alla CPU non è sufficiente a non incappare nel collo di bottiglia delle GPU, nei test è presente HL2 che usa un motore quasi interamente mosso dalla CPU e magia, a 1600 si allineano tutti, non ce n'è axet la grafica la fa la scheda grafica, e sopra certe risoluzioni (già dalla 1600x1200) siamo GPU limited. a 680i il cell sarà potentissimo, a 720p sarà buono, a 1080p sarà ininfluente.
E' questione di architetture e librerie grafiche non è questione di programmazione.

Evildark
6th January 2008, 16:52
penryn che sono i nuovi processori intel a 45nm ovviamente è più potente del cell, anche se "potente" non vuol dire un cazzo anche lo xeon è più potente sia di un conroe sia di un kentsfield ma come già ripetuto la capacità di calcolo brutale serve solo in ambito scientifico, per questo che il processore più veloce in ambito ludico è il 6850 e NON le versioni quad extreme da 900 dollari (con ben maggiore potenza di calcolo). Inoltre sono anni che siamo GPU limited in campo di videogiochi, infatti le prestazioni ad alte risoluzioni differiscono di pochissimo o sono del tutto uguali tra modelli top gamma e modelli entry level, tra l'E2140 che costa 40 dollari e il QX6850 che ne costa 900 ci sono 4 fps di differenza in HL2 a 1600x1200 con filtri attivi, 2 con prey e in fear sono uguali. Questo giusto per ricordare che avere la CPU da ennemila teraflop non serve a un cazzo se devi giocare, e che la CPU NON è una scheda grafica e non può sostituirsi a questa come sono sicuro che ora dirai, altrimenti figurati con i processori di adesso se si sobarcassero il carico della GPU faremmo 400 fps a 1600x1200. Non è quindi che il cell fa tutto il lavoro della scheda grafica e dato che è potentizzimo è uber, non funziona così, non ha senso.
Detto ciò ripeto, il dual monitor ATTUALE con una scheda video sola permette di gestire due monitor contemporaneamente, il tutto si riduce ad una questione di risoluzione, usare due monitor (ipotizzo hd rdy, risoluzione cmq che ormai vecchia anche sui portatili) equivale per la scheda video ad usarne uno a risoluzione 1280x2 x 720, cioè 2360 x 720, il fatto di mandare un segnale di qua e uno di la è un dettaglio tecnico che penso si possa risolvere pure con uno switch. Se io dovessi usare 4 monitor sarebbe 1280x4 x 720, cioè 5120 x 720, essendo attuamente la risoluzione massima supportata 2560x1600 dai monitor 30" (1200 dollari, neanche un enormità se vogliam proprio vedere) ed essendo questa risoluzione documentata in vari beckmark e test (esempio hwupgrade, ma anche i cinema display apple ci arrivano penso) che dimostra essere una risoluzione giocabile con sistemi di livello alto non vedo quale dovrebbe essere la difficoltà a usare una risoluzione di 5120 x 720, essendo 5120*720 < 2560*1600 quindi più bassa.
Ovvio che se li vuoi far tutti girare già a 1280x1024 o 1600x1200 probabilmente ti serve uno sli di ultra se non un triple sli, ma si parla di sistuazioni estreme in cui devi spendere 2k euro di schede video :sneer:
Poi mo tra un mese escono le GX2 con 2 chip gtx con nuovo processo produttivo integrati, come se fosse una scheda SLI in una scheda sola, con due di quelle puoi effettuare un quad SLI... certo devi vendere un rene :sneer:
fonti varie:
comparativa CPU http://www.hwupgrade.it/articoli/cpu/1826/comparativa-tra-cpu-48-processori-a-confronto_8.html
GX2 http://www.hwupgrade.it/news/skvideo/geforce-9800-gx2-i-primi-dettagli_23750.html
tri SLI e SLI a confroto ad alte ris: http://www.hwupgrade.it/articoli/skvideo/1863/nvidia-l-ora-di-triple-sli_3.html
comparative varie di schede singole ad alte ris: http://www.hwupgrade.it/articoli/skvideo/1861/geforce-8800gts-nome-vecchio-scheda-nuova_5.html
comparativa in SLI con nuovi driver ad alte risoluzioni: http://www.hwupgrade.it/articoli/skvideo/1831/nvidia-sli-analisi-con-windows-vista_5.html
notare come con già un sistema SLI in questo caso di GTX, ma ormai lo si può fare con prestazioni se non uguali di poco inferiori con le GT o GTS nuove (si parla alla peggo di 330 euro x 2 ma 660 euro per applicazioni extreme non sono un enormità) a 2560x1600 abbiamo 140fps in HL2, 70 in prey, 60 in lost planet, 50 in fear mentre UT3 ne fa 69 CON SINGOLA SCHEDA GTS.


adoro hador quando fa questi post da mega nerd pieni di link :love::love::love:

Dryden
6th January 2008, 19:16
penryn che sono i nuovi processori intel a 45nm ovviamente è più potente del cell, anche se "potente" non vuol dire un cazzo anche lo xeon è più potente sia di un conroe sia di un kentsfield ma come già ripetuto la capacità di calcolo brutale serve solo in ambito scientifico, per questo che il processore più veloce in ambito ludico è il 6850 e NON le versioni quad extreme da 900 dollari (con ben maggiore potenza di calcolo). Inoltre sono anni che siamo GPU limited in campo di videogiochi, infatti le prestazioni ad alte risoluzioni differiscono di pochissimo o sono del tutto uguali tra modelli top gamma e modelli entry level, tra l'E2140 che costa 40 dollari e il QX6850 che ne costa 900 ci sono 4 fps di differenza in HL2 a 1600x1200 con filtri attivi, 2 con prey e in fear sono uguali. Questo giusto per ricordare che avere la CPU da ennemila teraflop non serve a un cazzo se devi giocare, e che la CPU NON è una scheda grafica e non può sostituirsi a questa come sono sicuro che ora dirai, altrimenti figurati con i processori di adesso se si sobarcassero il carico della GPU faremmo 400 fps a 1600x1200. Non è quindi che il cell fa tutto il lavoro della scheda grafica e dato che è potentizzimo è uber, non funziona così, non ha senso.
Detto ciò ripeto, il dual monitor ATTUALE con una scheda video sola permette di gestire due monitor contemporaneamente, il tutto si riduce ad una questione di risoluzione, usare due monitor (ipotizzo hd rdy, risoluzione cmq che ormai vecchia anche sui portatili) equivale per la scheda video ad usarne uno a risoluzione 1280x2 x 720, cioè 2360 x 720, il fatto di mandare un segnale di qua e uno di la è un dettaglio tecnico che penso si possa risolvere pure con uno switch. Se io dovessi usare 4 monitor sarebbe 1280x4 x 720, cioè 5120 x 720, essendo attuamente la risoluzione massima supportata 2560x1600 dai monitor 30" (1200 dollari, neanche un enormità se vogliam proprio vedere) ed essendo questa risoluzione documentata in vari beckmark e test (esempio hwupgrade, ma anche i cinema display apple ci arrivano penso) che dimostra essere una risoluzione giocabile con sistemi di livello alto non vedo quale dovrebbe essere la difficoltà a usare una risoluzione di 5120 x 720, essendo 5120*720 < 2560*1600 quindi più bassa.
Ovvio che se li vuoi far tutti girare già a 1280x1024 o 1600x1200 probabilmente ti serve uno sli di ultra se non un triple sli, ma si parla di sistuazioni estreme in cui devi spendere 2k euro di schede video :sneer:
Poi mo tra un mese escono le GX2 con 2 chip gtx con nuovo processo produttivo integrati, come se fosse una scheda SLI in una scheda sola, con due di quelle puoi effettuare un quad SLI... certo devi vendere un rene :sneer:
fonti varie:
comparativa CPU http://www.hwupgrade.it/articoli/cpu/1826/comparativa-tra-cpu-48-processori-a-confronto_8.html
GX2 http://www.hwupgrade.it/news/skvideo/geforce-9800-gx2-i-primi-dettagli_23750.html
tri SLI e SLI a confroto ad alte ris: http://www.hwupgrade.it/articoli/skvideo/1863/nvidia-l-ora-di-triple-sli_3.html
comparative varie di schede singole ad alte ris: http://www.hwupgrade.it/articoli/skvideo/1861/geforce-8800gts-nome-vecchio-scheda-nuova_5.html
comparativa in SLI con nuovi driver ad alte risoluzioni: http://www.hwupgrade.it/articoli/skvideo/1831/nvidia-sli-analisi-con-windows-vista_5.html
notare come con già un sistema SLI in questo caso di GTX, ma ormai lo si può fare con prestazioni se non uguali di poco inferiori con le GT o GTS nuove (si parla alla peggo di 330 euro x 2 ma 660 euro per applicazioni extreme non sono un enormità) a 2560x1600 abbiamo 140fps in HL2, 70 in prey, 60 in lost planet, 50 in fear mentre UT3 ne fa 69 CON SINGOLA SCHEDA GTS.

:afraid:

Mi sento pwnato solo a leggerlo, io che non c'entro nulla :afraid:

Zaider
6th January 2008, 19:42
penryn che sono i nuovi processori intel a 45nm ovviamente è più potente del cell, anche se "potente" non vuol dire un cazzo anche lo xeon è più potente sia di un conroe sia di un kentsfield ma come già ripetuto la capacità di calcolo brutale serve solo in ambito scientifico, per questo che il processore più veloce in ambito ludico è il 6850 e NON le versioni quad extreme da 900 dollari (con ben maggiore potenza di calcolo). Inoltre sono anni che siamo GPU limited in campo di videogiochi, infatti le prestazioni ad alte risoluzioni differiscono di pochissimo o sono del tutto uguali tra modelli top gamma e modelli entry level, tra l'E2140 che costa 40 dollari e il QX6850 che ne costa 900 ci sono 4 fps di differenza in HL2 a 1600x1200 con filtri attivi, 2 con prey e in fear sono uguali. Questo giusto per ricordare che avere la CPU da ennemila teraflop non serve a un cazzo se devi giocare, e che la CPU NON è una scheda grafica e non può sostituirsi a questa come sono sicuro che ora dirai, altrimenti figurati con i processori di adesso se si sobarcassero il carico della GPU faremmo 400 fps a 1600x1200. Non è quindi che il cell fa tutto il lavoro della scheda grafica e dato che è potentizzimo è uber, non funziona così, non ha senso.
Detto ciò ripeto, il dual monitor ATTUALE con una scheda video sola permette di gestire due monitor contemporaneamente, il tutto si riduce ad una questione di risoluzione, usare due monitor (ipotizzo hd rdy, risoluzione cmq che ormai vecchia anche sui portatili) equivale per la scheda video ad usarne uno a risoluzione 1280x2 x 720, cioè 2360 x 720, il fatto di mandare un segnale di qua e uno di la è un dettaglio tecnico che penso si possa risolvere pure con uno switch. Se io dovessi usare 4 monitor sarebbe 1280x4 x 720, cioè 5120 x 720, essendo attuamente la risoluzione massima supportata 2560x1600 dai monitor 30" (1200 dollari, neanche un enormità se vogliam proprio vedere) ed essendo questa risoluzione documentata in vari beckmark e test (esempio hwupgrade, ma anche i cinema display apple ci arrivano penso) che dimostra essere una risoluzione giocabile con sistemi di livello alto non vedo quale dovrebbe essere la difficoltà a usare una risoluzione di 5120 x 720, essendo 5120*720 < 2560*1600 quindi più bassa.
Ovvio che se li vuoi far tutti girare già a 1280x1024 o 1600x1200 probabilmente ti serve uno sli di ultra se non un triple sli, ma si parla di sistuazioni estreme in cui devi spendere 2k euro di schede video :sneer:
Poi mo tra un mese escono le GX2 con 2 chip gtx con nuovo processo produttivo integrati, come se fosse una scheda SLI in una scheda sola, con due di quelle puoi effettuare un quad SLI... certo devi vendere un rene :sneer:
fonti varie:
comparativa CPU http://www.hwupgrade.it/articoli/cpu/1826/comparativa-tra-cpu-48-processori-a-confronto_8.html
GX2 http://www.hwupgrade.it/news/skvideo/geforce-9800-gx2-i-primi-dettagli_23750.html
tri SLI e SLI a confroto ad alte ris: http://www.hwupgrade.it/articoli/skvideo/1863/nvidia-l-ora-di-triple-sli_3.html
comparative varie di schede singole ad alte ris: http://www.hwupgrade.it/articoli/skvideo/1861/geforce-8800gts-nome-vecchio-scheda-nuova_5.html
comparativa in SLI con nuovi driver ad alte risoluzioni: http://www.hwupgrade.it/articoli/skvideo/1831/nvidia-sli-analisi-con-windows-vista_5.html
notare come con già un sistema SLI in questo caso di GTX, ma ormai lo si può fare con prestazioni se non uguali di poco inferiori con le GT o GTS nuove (si parla alla peggo di 330 euro x 2 ma 660 euro per applicazioni extreme non sono un enormità) a 2560x1600 abbiamo 140fps in HL2, 70 in prey, 60 in lost planet, 50 in fear mentre UT3 ne fa 69 CON SINGOLA SCHEDA GTS.

discorso trito e ritrito, hai ragione. se n'è discusso a lungo su hwupgrade se te lo ricordi.

Hador
6th January 2008, 20:40
discorso trito e ritrito, hai ragione. se n'è discusso a lungo su hwupgrade se te lo ricordi.
seguo solo la sezione case e sistemi di raffreddamento su hwupgrade :sneer:
cmq la chiave sono i monitor, i crt non erano vincolati alla risoluzione (non così tanto) come gli lcd.

Axet
6th January 2008, 21:13
ripeto, lo xeon è più potente anche di un kentsfield ma COME HO GIA SCRITTO un CONROE funziona meglio in ambito ludico di un kentsfield (o forse non sai di cosa sto parlando, conroe sono i core duo a 4M di L2, kentsfield sono i quad) la potenza bruta di calcolo non serve a una minchia, inoltre come ho già argomentato con tanto di test grafici disegnini e svariati link tutto il lavoro che può essere delgato alla CPU non è sufficiente a non incappare nel collo di bottiglia delle GPU, nei test è presente HL2 che usa un motore quasi interamente mosso dalla CPU e magia, a 1600 si allineano tutti, non ce n'è axet la grafica la fa la scheda grafica, e sopra certe risoluzioni (già dalla 1600x1200) siamo GPU limited. a 680i il cell sarà potentissimo, a 720p sarà buono, a 1080p sarà ininfluente.
E' questione di architetture e librerie grafiche non è questione di programmazione.

Che siamo GPU limited si sa da anni e siamo pienamente d'accordo, il fatto è che non puoi scindere l'architettura dalla programmazione. La programmazione è DIPENDENTE dall'architettura della macchina su cui vai a lavorare, i tool di sviluppo per ps3 non c'entrano na bega con quelli per PC eh.

Ne consegue che il fatto che una cpu general purpose sia più performante in ambito videoludico su un pc, non implica assolutamente che sia più performante in senso assoluto.
Ed è un discorso abbastanza insensato, in quanto come già detto sulle console si può sviluppare ad hoc per una e una sola architettura, sfruttandone tutti i pregi a pieno.
La cosa, al contrario, non è fattibile su pc perchè ogni macchina ha una architettura differente e bisogna quindi mantenersi su una "casistica generale".

Se poi mi vuoi dire che un pc con quad sli sia più potente di una ps3, ti posso pure rispondere sticazzi :D

Marphil
6th January 2008, 21:14
Cmq anche io sono fermamente convinto che il 1080p tanto sponsorizzato sulle console next gen sia un bluff, è molto + verosimile che sia un segnale upscalato (come è stato dimostrato in alcuni casi vedi Cod4). Risoluzione troppo alta per essere gestita in maniera fluida da una console. Ovviamente in giochi con grafica bella pesa.

Axet
6th January 2008, 21:17
Cmq anche io sono fermamente convinto che il 1080p tanto sponsorizzato sulle console next gen sia un bluff, è molto + verosimile che sia un segnale upscalato (come è stato dimostrato in alcuni casi vedi Cod4). Risoluzione troppo alta per essere gestita in maniera fluida da una console.

Per molti giochi (i primi due che mi vengono in mente, GT5 e WipeOut HD) gli sviluppatori però parlano di 1080p NATIVI.

Ora, il significato di nativo è univoco, o sparano minchiate oppure non lo so.

Certo che non ti puoi fidare degli utenti vari che mi dicevi tu in msn, dove ti sapevano dire che livello di anti aliasing c'era attivo sul gioco X perchè glielo diceva la televisione :sneer:

Mez
6th January 2008, 21:46
mi prendo una punto usata, piu real di cosi non si puo

Hador
7th January 2008, 00:01
Che siamo GPU limited si sa da anni e siamo pienamente d'accordo, il fatto è che non puoi scindere l'architettura dalla programmazione. La programmazione è DIPENDENTE dall'architettura della macchina su cui vai a lavorare, i tool di sviluppo per ps3 non c'entrano na bega con quelli per PC eh.

Ne consegue che il fatto che una cpu general purpose sia più performante in ambito videoludico su un pc, non implica assolutamente che sia più performante in senso assoluto.
Ed è un discorso abbastanza insensato, in quanto come già detto sulle console si può sviluppare ad hoc per una e una sola architettura, sfruttandone tutti i pregi a pieno.
La cosa, al contrario, non è fattibile su pc perchè ogni macchina ha una architettura differente e bisogna quindi mantenersi su una "casistica generale".

Se poi mi vuoi dire che un pc con quad sli sia più potente di una ps3, ti posso pure rispondere sticazzi :Daxet dio povero hai anche studiato cosa si intende per architettura, un PC ha un architettura un MAC aveva (ormai sono identici) un altra architettura un xbox ha un ulteriore architettura. Due PC hanno architetture identiche.
Devi seguirmi non puoi partire dal presupposto che i puffi nella tua ps3 la rendono superpowa, sto parlando non di opinioni ma di come stanno le cose, un processore NON PUO SVOLGERE il lavoro di una scheda grafica che è costruita apposta, A DIFFERENZA DEL PROCESSORE (e vale pure per il cell che come tu dici viene usato per N cose e non è stato progettato per la ps3) su delle librerie grafiche. Non puoi usare effetti DX9 su una scheda DX8 perchè le librerie richiedono circuiti diversi e dedicati (mica se lo sono inventati con le DX10, in daoc all'uscita di SI senza scheda DX9 non vedevi l'acqua con effetti fighi ne le ombre e altre amenità), la programmazione non centra nulla siamo ad un livello più basso.
Se fosse come pensi tu perchè useremmo delle schede grafiche? Fai un socket con 6 CPU e ad ognuno dai qualcosa da fare, tanto hanno potenza di calcolo assurda. MA in una CPU, ma in generallare in una PU, non conta SOLO la potenza brutale di calcolo ed è per questo che nessun PC monta xeon, mi segui? chiaro? per questo dire il cell è più veloce a fare X ahah è potenterrimo non ha nessun senso logico.
poi vabbè attualmente il mio PC è ben più potente della PS3, e ci mancherebbe. Ti avevo già proposto di fare dei beckmarks sotto linux, quando vuoi :sneer:

XBoSS
7th January 2008, 00:38
Il cell, a livello di teraflop, è più potente degli xeon.

Il Cell è un TeraFLOP

Axet
7th January 2008, 01:08
axet dio povero hai anche studiato cosa si intende per architettura, un PC ha un architettura un MAC aveva (ormai sono identici) un altra architettura un xbox ha un ulteriore architettura. Due PC hanno architetture identiche.
Devi seguirmi non puoi partire dal presupposto che i puffi nella tua ps3 la rendono superpowa, sto parlando non di opinioni ma di come stanno le cose, un processore NON PUO SVOLGERE il lavoro di una scheda grafica che è costruita apposta, A DIFFERENZA DEL PROCESSORE (e vale pure per il cell che come tu dici viene usato per N cose e non è stato progettato per la ps3) su delle librerie grafiche. Non puoi usare effetti DX9 su una scheda DX8 perchè le librerie richiedono circuiti diversi e dedicati (mica se lo sono inventati con le DX10, in daoc all'uscita di SI senza scheda DX9 non vedevi l'acqua con effetti fighi ne le ombre e altre amenità), la programmazione non centra nulla siamo ad un livello più basso.
Se fosse come pensi tu perchè useremmo delle schede grafiche? Fai un socket con 6 CPU e ad ognuno dai qualcosa da fare, tanto hanno potenza di calcolo assurda. MA in una CPU, ma in generallare in una PU, non conta SOLO la potenza brutale di calcolo ed è per questo che nessun PC monta xeon, mi segui? chiaro? per questo dire il cell è più veloce a fare X ahah è potenterrimo non ha nessun senso logico.
poi vabbè attualmente il mio PC è ben più potente della PS3, e ci mancherebbe. Ti avevo già proposto di fare dei beckmarks sotto linux, quando vuoi :sneer:

La CPU non può, ovviamente, fare TUTTO il lavoro della GPU. Altrimenti, come sottolinei pure te, che senso avrebbero quest'ultime? Però una parte del processo di rendering la possono fare, è dimostrato in quanto tecniche simili vengono e verrano impiegate nel settore videoludico :p

Che un pc non monti xeon è ovvio, ma questo che c'entra con una console, che di "purpose" ne ha uno soltanto? Il PC deve essere un qualcosa di flessibile e piegarsi a 45645645 utilizzi, la console no.
Non sono per nulla convinto che, in senso assoluto, una cpu general purpose sia meglio di una specializzata come il cell, ma manco per un po'.
Questo può aver senso nell'ambito pc, dove i programmatori sviluppano i giochi tenendo a mente una certa famiglia di processori (x86 ad esempio), ma non è una regola valida in senso generale.

La storia del benchmark non me l'avevi mai proposta o magari non ti avevo manco letto, cmq è infattibile in quanto linux su ps3 si ritrova con l'impossibilità di usare il chipset grafico (per impedire l'emulazione dei giochi via linux, da quanto si legge sul web).
Che poi il tuo pc sia, nel complesso, più potente è plausibile (e costa più del doppio di una ps3 ma np :sneer:). Ma come continuo a ribadire da secoli, la programmazione in ambito console è differente da quella pc.
Per console si può sfruttare, spremere fino alla fine tutte le potenzialità dell'hardware. Per PC questo NON ESISTE, non è mai esistito nè mai esisterà.


Il Cell è un TeraFLOP

Tu sei un teraIDIOTA, guarda i casi della vita :point:

Sturm
7th January 2008, 01:53
Ma che state davvero a flammare su ste cagate? :sneer:

Hador
7th January 2008, 01:55
La CPU non può, ovviamente, fare TUTTO il lavoro della GPU. Altrimenti, come sottolinei pure te, che senso avrebbero quest'ultime? Però una parte del processo di rendering la possono fare, è dimostrato in quanto tecniche simili vengono e verrano impiegate nel settore videoludico :p

Che un pc non monti xeon è ovvio, ma questo che c'entra con una console, che di "purpose" ne ha uno soltanto? Il PC deve essere un qualcosa di flessibile e piegarsi a 45645645 utilizzi, la console no.
Non sono per nulla convinto che, in senso assoluto, una cpu general purpose sia meglio di una specializzata come il cell, ma manco per un po'.
Questo può aver senso nell'ambito pc, dove i programmatori sviluppano i giochi tenendo a mente una certa famiglia di processori (x86 ad esempio), ma non è una regola valida in senso generale.

La storia del benchmark non me l'avevi mai proposta o magari non ti avevo manco letto, cmq è infattibile in quanto linux su ps3 si ritrova con l'impossibilità di usare il chipset grafico (per impedire l'emulazione dei giochi via linux, da quanto si legge sul web).
Che poi il tuo pc sia, nel complesso, più potente è plausibile (e costa più del doppio di una ps3 ma np :sneer:). Ma come continuo a ribadire da secoli, la programmazione in ambito console è differente da quella pc.
Per console si può sfruttare, spremere fino alla fine tutte le potenzialità dell'hardware. Per PC questo NON ESISTE, non è mai esistito nè mai esisterà.chiaro essendo l'hw non progettato solo per giocare, ma ciò non cambia le carte in tavola, il discorso non è tanto una CPU general bla è meglio o uguale ad una "scientifica" il discorso è che te la puoi menare quanto vuoi con la CPU ma devi sbattere la testa contro la GPU, perchè ciò che ammazza il framerate sono gli effetti di luce, particelle shaders eccetera e quelli se li smazza in toto la gpu (gpu come scheda grafica, tutte le parti della suddetta avendo questa varie parti dedicate a scopi diversi esattamente come NON funziona una cpu).
Per questo si continua ad essere perplessi sul cell, e non è questione di spremere l'HW dato che su un PC lo ottimizzi di meno ma lo spremi quanto vuoi (se fo andare crysis a 1600x1200 con tutto higt lo spremo che dici?), perchè i limiti attualmente non si sorpassano tramite cpu.
Ti avessero fatto la ps3 con un chip grafico con i controcoglioni e superpowa stile cell avresti avuto molte più occasioni di fanboyare :sneer:

Axet
7th January 2008, 02:03
Ma che state davvero a flammare su ste cagate? :sneer:

Si sta discutendo, non flammando :O


chiaro essendo l'hw non progettato solo per giocare, ma ciò non cambia le carte in tavola, il discorso non è tanto una CPU general bla è meglio o uguale ad una "scientifica" il discorso è che te la puoi menare quanto vuoi con la CPU ma devi sbattere la testa contro la GPU, perchè ciò che ammazza il framerate sono gli effetti di luce, particelle shaders eccetera e quelli se li smazza in toto la gpu (gpu come scheda grafica, tutte le parti della suddetta avendo questa varie parti dedicate a scopi diversi esattamente come NON funziona una cpu).
Per questo si continua ad essere perplessi sul cell, e non è questione di spremere l'HW dato che su un PC lo ottimizzi di meno ma lo spremi quanto vuoi (se fo andare crysis a 1600x1200 con tutto higt lo spremo che dici?), perchè i limiti attualmente non si sorpassano tramite cpu.
Ti avessero fatto la ps3 con un chip grafico con i controcoglioni e superpowa stile cell avresti avuto molte più occasioni di fanboyare :sneer:

Vedremo, la grafica su ps3 è in crescita esponenziale e stando ai vari developer continuerà a crescere con lo stesso tasso di crescita nei prossimi 3 / 4 anni.
Vero? Chi lo sà, l'unica cosa sicura è che hanno più conoscenze di noi per giudicare.

Non è questione di fanboyare, è questione che cmq si parla di uno scenario più che plausibile. Staremo a vedere come sarà killzone2, il primo titolo ps3 a sfruttare il deferred rendering.

Che poi, per certe operazioni, bisogna gioco forza passare dalla GPU è scontato ^^

Btw se setti tutto su veri higt può essere che ti esploda anche il pc! :sneer:

Hador
7th January 2008, 02:09
aho high non lo riesco a scrivere, mi ci sono pure impegnato per non scrivere hight
La grafica su ps3 esponenziale mi pare sinceramente un azzardo, soprattutto perchè ora come ora il best grafica lo vince (o vincerà è uscito? o è per 360 che esce dopo) UT3. Ovviamente migliorerà, si spera, se peggiorasse ci sarebbe da preuccuparsi.
Cmq parlare con te è un sollievo sta sera, sto discutendo con un nerd talmente idiota su hwupgrade che mi sta tirando scemo.

Axet
7th January 2008, 02:19
aho high non lo riesco a scrivere, mi ci sono pure impegnato per non scrivere hight
La grafica su ps3 esponenziale mi pare sinceramente un azzardo, soprattutto perchè ora come ora il best grafica lo vince (o vincerà è uscito? o è per 360 che esce dopo) UT3. Ovviamente migliorerà, si spera, se peggiorasse ci sarebbe da preuccuparsi.

Ma non sarei così sicuro che ut3 vinca la palma del best graphics eh, anzi :p

Btw io parlo di crescita esponenziale della grafica su ps3, ed è innegabile.. se guardi quel che c'era in giro un anno fa e ora guardi a giochi come uncharted, ratchet & clank, unreal, gt5 prologue capisci che c'è un abisso enorme rispetto al passato.

E, come dicevo prima, stando ai developer pare che questo trend di crescita continuerà per 3 o 4 anni ancora.. però è presto per parlare, vedremo coi nostri occhi tra un po' di tempo :nod:


Cmq parlare con te è un sollievo sta sera, sto discutendo con un nerd talmente idiota su hwupgrade che mi sta tirando scemo.

Lo prendo per un complimento :rain:

edothebest
7th January 2008, 14:42
Tu sei un teraIDIOTA, guarda i casi della vita :point:

:rotfl::rotfl::rotfl::rotfl:

Kith
7th January 2008, 15:13
Il Cell è un TeraFLOP

:rotfl::rotfl::rotfl: questa è bella anche se sei fanboyx360