Page 2 of 3 FirstFirst 123 LastLast
Results 16 to 30 of 33

Thread: Consiglio

  1. #16
    Lieutenant Commander Galandil's Avatar
    Join Date
    Jan 2005
    Location
    Somewhere
    Posts
    13.423

    Default

    Quote Originally Posted by Tele
    piccolo OT, anch'io a breve dovrei cambiare scheda video. che mi consigliereste? principalmente per 3d studio (sotto open gl) e per giocare... pensavo una 6800gt
    budget massimo 400€ e sk madre agp!
    Guarda su alternate.de, le 6800GT costano meno di 400 euro.

  2. #17
    Petty Officer 1st Class Tele's Avatar
    Join Date
    Sep 2003
    Posts
    1.031

    Default

    sì ma è in tedesco ;_;

    ah c'è anche in spagnolo, sono a cavallo
    Lugdaag rr7x shaman Karak Azgal
    Tulkion rr80 white lion Karak Norn

  3. #18
    Petty Officer 1st Class Tele's Avatar
    Join Date
    Sep 2003
    Posts
    1.031

    Default

    ma a parte la 6800gt volevo chiedervi se vale la pena di comprare ora o se prevedete un ribasso dei prezzi tra non molto (visto che le nuove schede nvidia stanno uscendo ora eccetera) e se in generale sia meglio prendere una ati o una nvidia considerando la % dei giochi ottimizzati per ciascuna scheda ...
    Lugdaag rr7x shaman Karak Azgal
    Tulkion rr80 white lion Karak Norn

  4. #19
    x4d00m's Avatar
    Join Date
    Oct 2003
    Location
    Brescia (BS)
    Posts
    5.952

    Default

    Quote Originally Posted by Galandil
    Ma allora per quale motivo indicare dei bench "faziosi"?

    Su Tom's HW si trovano dei bench altrettanto veritieri, solo che quelli, come già detto, dimostrano comunque che su Doom 3 le ATI "non ce la fanno" a stare dietro alle nVidia. E Doom 3 significa a breve Quake 4 e tutta una serie di giochi che useranno quel motore in licenza. E' un fattore da non sottovalutare.

    Un po' come dire: bello Linux, ma se uno col PC ci deve giocare, che se ne fa?

    E, ripeto, trovo ridicolo da parte di un sito che posta benchmark "skippare" ad-hoc i test di 2 sk video su Doom 3. Nessuno lo prenderebbe sul serio.

    A parte tutto questo, cmq, è una specie di rincorsa continua. X800 -> 6800 -> X850 -> 7800 (stanno per uscire i primi bench di sta scheda video, da indiscrezioni in giro per la rete pare sia l'ennesimo "mostro" di potenza, ma sarà anche un mostro nel prezzo, sicuro ^^).

    P.S.: Se ci fai girare Doom 3 su una ATI e una nVidia occhio che ti casca il pisello.
    sei troppo fissato su doom3 imho, uno dei giochi con la peggior ottimizzazione grafica/prestazione

    nn per dire nulla ma doom3 e' un gioco diventato di nicchia, semplicemente singleplayer, la parte multiplayer e' giocata da un decimo dei player che giocano online cssource o mod collegati ad hl2

    p.s. quake4 (che sto attendendo con molta impazienza visto che amo gli fps pro) ha poco a che vedere con doom3, te lo assicuro.....stessa base come motore grafico, ma come prodotto finito e' interesse della ID produtte un gioco che abbia prestazioni identiche su entrambe le marche e nn sono voci, sono conferme ufficiali
    Last edited by x4d00m; 26th June 2005 at 04:14.
    <SvX> Xadooom - shaman 8lx - igraine
    <Never> Xadoom - hero 8lx - merlin
    <NoD> Citterosa - sorceress 6lx - lancelot

    Grazie papa', non ti dimentichero'. (17/06/2005)
    Dopo due anni la giustizia si e' ricordata di te....quante lacrime di gioia miste ad amarezza. Mi manchi da morire.

  5. #20
    x4d00m's Avatar
    Join Date
    Oct 2003
    Location
    Brescia (BS)
    Posts
    5.952

    Default

    Quote Originally Posted by Galandil
    Fenomeno il risultato della X850 a 1600x1200 4xAA 8xAF che fa solo 48,56fps, peggio della X800. è___é

    Cmq sto test conferma quello che ho scritto poco fa: Doom 3 in mano ad nVidia, HL2 e FarCry in mano ad ATI.

    Sono anni che lascio perdere i programmi di bench appositi, sono manovre puramente commerciali e alla fin fine inutili, le schede si testano su prodotti da usare imho.

    Risultati simili ottenuti qui: http://graphics.tomshardware.com/gra...222/index.html

    Ma ora attendiamo la nuova risposta nVidia, la 7800...
    la x800>x850xt pe sono in quel test e in quella mappa, palese problema di driver che nn da un allarme "oh mio dio i driver suxano e la sk video e' na merda".....semplicemente un problema che avevano in quella release di driver (il test nn e' molto recente, attualmente sono uscite nuove release dei catalyst)

    cmq il tuo link conferma come la x850xt pe e' superiore alla serie 6800ultra, anche se di poco ma cmq nel 60/70% dei test nn c'e' storia
    <SvX> Xadooom - shaman 8lx - igraine
    <Never> Xadoom - hero 8lx - merlin
    <NoD> Citterosa - sorceress 6lx - lancelot

    Grazie papa', non ti dimentichero'. (17/06/2005)
    Dopo due anni la giustizia si e' ricordata di te....quante lacrime di gioia miste ad amarezza. Mi manchi da morire.

  6. #21
    x4d00m's Avatar
    Join Date
    Oct 2003
    Location
    Brescia (BS)
    Posts
    5.952

    Default

    Quote Originally Posted by Galandil
    Mio dio, leggete qui:

    http://graphics.tomshardware.com/gra...622/index.html

    bench della 7800, in modalità singola e SLI.

    Cosa pregevole, sono riusciti ad aumentare le prestazioni diminuendo la potenza ciucciata (ed è cmq troppa, pz se consumano ^^).
    nulla di cosi' mostruoso a dire il vero, da un chip con 300milioni di transistor, con le features che sono implementate, con 24pipelines mi aspettavo molto di piu' onestamente.......attendiamo l'r520 che debuttera' a fine luglio e speriamo che ati si dimostri piu' rivoluzionaria rispetto a nvidia
    <SvX> Xadooom - shaman 8lx - igraine
    <Never> Xadoom - hero 8lx - merlin
    <NoD> Citterosa - sorceress 6lx - lancelot

    Grazie papa', non ti dimentichero'. (17/06/2005)
    Dopo due anni la giustizia si e' ricordata di te....quante lacrime di gioia miste ad amarezza. Mi manchi da morire.

  7. #22
    x4d00m's Avatar
    Join Date
    Oct 2003
    Location
    Brescia (BS)
    Posts
    5.952

    Default

    Quote Originally Posted by Tele
    ma a parte la 6800gt volevo chiedervi se vale la pena di comprare ora o se prevedete un ribasso dei prezzi tra non molto (visto che le nuove schede nvidia stanno uscendo ora eccetera) e se in generale sia meglio prendere una ati o una nvidia considerando la % dei giochi ottimizzati per ciascuna scheda ...
    e' politica di nvidia (diciamo politica di merda) rimuovere dal mercato la serie vecchia poco dopo il debutto delle nuove gpu.....nei prox 2 o 3 mesi interromperanno la produzione dei chip 6x00 al 70% delle probabilita', ergo se avrai culo troverai fondi di magazzino, il problema e' che molti rivenditori hanno la mania di tenere i prezzi originari anche sui fondi, e cio' nn e' molto bello, ergo nn saprei consigliarti se prenderla ora o dopo

    per scegliere una scheda devi analizzare il tuo target, se nn giochi a doom3 (unico gioco in cui nvidia>ati) prendi ati, altrimenti se sei un accanito fan di un gioco che in singleplayer e' carino e in multiplayer fa cagare il cazzo (doom3? ) prendi una nvidia
    <SvX> Xadooom - shaman 8lx - igraine
    <Never> Xadoom - hero 8lx - merlin
    <NoD> Citterosa - sorceress 6lx - lancelot

    Grazie papa', non ti dimentichero'. (17/06/2005)
    Dopo due anni la giustizia si e' ricordata di te....quante lacrime di gioia miste ad amarezza. Mi manchi da morire.

  8. #23
    Petty Officer 1st Class Tele's Avatar
    Join Date
    Sep 2003
    Posts
    1.031

    Default

    bhe doom3 mi fa cacare, anni luce da hl2 ma ance da giochi come farcry; però è anche vero quel che dice gala a proposito, che il motore grafico di doom3 sarà usato sicuramente in futuro, anche da grosse produzioni

    cmq grazie per i consigli, sempre stato un fan ati ma ultimamente i prezzi delle ultime loro schede m'hanno fatto un po' storcere il naso
    Lugdaag rr7x shaman Karak Azgal
    Tulkion rr80 white lion Karak Norn

  9. #24
    x4d00m's Avatar
    Join Date
    Oct 2003
    Location
    Brescia (BS)
    Posts
    5.952

    Default

    Quote Originally Posted by Tele
    bhe doom3 mi fa cacare, anni luce da hl2 ma ance da giochi come farcry; però è anche vero quel che dice gala a proposito, che il motore grafico di doom3 sarà usato sicuramente in futuro, anche da grosse produzioni

    cmq grazie per i consigli, sempre stato un fan ati ma ultimamente i prezzi delle ultime loro schede m'hanno fatto un po' storcere il naso
    se vuoi una buona scheda direi che una 6800gt puo' bastare, le versioni agp nn costano nemmeno cosi' tanto

    http://www.funcomputer.de/default.as...&do=17&go=2254
    <SvX> Xadooom - shaman 8lx - igraine
    <Never> Xadoom - hero 8lx - merlin
    <NoD> Citterosa - sorceress 6lx - lancelot

    Grazie papa', non ti dimentichero'. (17/06/2005)
    Dopo due anni la giustizia si e' ricordata di te....quante lacrime di gioia miste ad amarezza. Mi manchi da morire.

  10. #25
    Lieutenant Commander Galandil's Avatar
    Join Date
    Jan 2005
    Location
    Somewhere
    Posts
    13.423

    Default

    Quote Originally Posted by Tele
    bhe doom3 mi fa cacare, anni luce da hl2 ma ance da giochi come farcry; però è anche vero quel che dice gala a proposito, che il motore grafico di doom3 sarà usato sicuramente in futuro, anche da grosse produzioni
    E menomale che te l'hai capito, Xad continua a pensare che a me Doom3 piace (mi fa cagare, è noioso, ripetitivo, e senza mordente).
    Però è un dato di fatto che il motore di Doom 3, ora come ora, è il più potente e avanzato fra tutti quelli presenti (su HL2 hanno fatto un gran lavoro di atmosfera, ma il motore è decisamente più arretrato rispetto a quello iD).

    Quindi la valutazione è sempre un po' a "culo". Nel senso che bisogna pensare SE il motore di un certo gioco ottimizzato per una certa sk video sarà utilizzato spesso nel futuro o meno. Con Q3 è successo questo, motore non usato per un anno circa dall'uscita di Q3, poi sono usciti una MAREA di giochi che usavano in licenza il motore iD.

    E mi sa tanto che a breve comincerà la stessa storia col motore di Doom 3.
    Se la iD è foraggiata dalla nVidia, scordiamocelo che le prestazioni saranno alla pari su entrambe le marche (cosa che a me da molto fastidio, perché si inizia a ghettizzare ora una ora l'altra marca, senza tra l'altro un reale motivo visto che le librerie grafiche sono sempre le solite 2, DirectX o OpenGL...).
    Un po' come iD meglio su Intel, è una storia vecchia come il mondo.

    cmq grazie per i consigli, sempre stato un fan ati ma ultimamente i prezzi delle ultime loro schede m'hanno fatto un po' storcere il naso
    Beh pure nVidia non scherza mica, eh.
    Purtroppo hanno entrambe preso la strada puramente commerciale di introdurre ogni 6 mesi una nuova "generazione" di chip, che in realtà aumentano le prestazioni senza introdurre vere rivoluzioni nel modo di fare grafica.
    In fondo nella storia delle schede, solo l'introduzione della Voodoo prima e della GeForce poi sono state vere e proprie rivoluzioni, il resto è stato solo fumo negli occhi...

  11. #26
    x4d00m's Avatar
    Join Date
    Oct 2003
    Location
    Brescia (BS)
    Posts
    5.952

    Default

    Quote Originally Posted by Galandil
    E menomale che te l'hai capito, Xad continua a pensare che a me Doom3 piace (mi fa cagare, è noioso, ripetitivo, e senza mordente).
    Però è un dato di fatto che il motore di Doom 3, ora come ora, è il più potente e avanzato fra tutti quelli presenti (su HL2 hanno fatto un gran lavoro di atmosfera, ma il motore è decisamente più arretrato rispetto a quello iD).
    nn ho sostenuto che a te doom3 piace, anzi il contrario, ho detto che doom3 e' un gioco di merda, nn capisco il perke' del tuo attaccamento ai grafici prestazionali di un gioco che nn ha senso di esistere.
    cmq tornando in topic, su cosa basi la tua tesi, cioe' che il motore di doom3 e' il piu' potente e avanzato di tutti quelli presenti sul mercato? Non per smentirti ma all'E3 dell'anno scorso, Farcry, ha smerdato di anni luce il motore grafico di Doom3 con relativa intervista agli sviluppatori ID Software con l'ammissione che effettivamente Farcry adesso e' uno dei migliori giochi in circolazione relativamente alla grafica e alle features implementate



    Quote Originally Posted by Galandil
    Quindi la valutazione è sempre un po' a "culo". Nel senso che bisogna pensare SE il motore di un certo gioco ottimizzato per una certa sk video sarà utilizzato spesso nel futuro o meno. Con Q3 è successo questo, motore non usato per un anno circa dall'uscita di Q3, poi sono usciti una MAREA di giochi che usavano in licenza il motore iD.
    la MAREA di giochi usciti un anno dopo Q3 con lo stesso motore li hai visti solo te, il primo ad usarlo e' stato solo RTCW, che e' sempre della ID e successivamente, 2 o 3 anni dopo lo stesso motore e' stato concesso all'esterno ad altre case software, peccato che in 2 o 3 anni un motore simile e' talmente obsoleto che nn e' nemmeno da tenere in considerazione che scheda video serve ORA per farlo girare fra 20mila anni.....no sense sry


    Quote Originally Posted by Galandil
    E mi sa tanto che a breve comincerà la stessa storia col motore di Doom 3.
    Se la iD è foraggiata dalla nVidia, scordiamocelo che le prestazioni saranno alla pari su entrambe le marche (cosa che a me da molto fastidio, perché si inizia a ghettizzare ora una ora l'altra marca, senza tra l'altro un reale motivo visto che le librerie grafiche sono sempre le solite 2, DirectX o OpenGL...).
    Un po' come iD meglio su Intel, è una storia vecchia come il mondo.
    e' il marketing informatico, dove contano le prestazioni, e' normale che le societa' cerchino di accaparrarsi le varie software house per i propri piani economici......i "patners" nel mercato esistono da anni e nn vedo perke' nn dovrebbero esistere anche qui
    sta di fatto che stranamente questa politica l'ha adottata per prima NVIDIA dopo il primo flop delle sue ORRIBILI gf5x00 che venivano tranquillamente smerdate dalle ben piu' economiche 9x00 di ati.....nn riescono nella tecnologia? bhe allora agiscono sul mercato



    Quote Originally Posted by Galandil
    Beh pure nVidia non scherza mica, eh.
    Purtroppo hanno entrambe preso la strada puramente commerciale di introdurre ogni 6 mesi una nuova "generazione" di chip, che in realtà aumentano le prestazioni senza introdurre vere rivoluzioni nel modo di fare grafica.
    In fondo nella storia delle schede, solo l'introduzione della Voodoo prima e della GeForce poi sono state vere e proprie rivoluzioni, il resto è stato solo fumo negli occhi...
    sempre stata la politica di NVIDIA, buttare fuori prodotti che come innovazioni avevano poco, ma come prestazioni si superavano ogni volta.....ati spesso e volentieri ha fatto il contrario, cadendo in flop incredibili (8500) perche' voleva avventurarsi in terreni ancora poco sicuri, pero' lode al tentativo
    Last edited by x4d00m; 26th June 2005 at 14:19.
    <SvX> Xadooom - shaman 8lx - igraine
    <Never> Xadoom - hero 8lx - merlin
    <NoD> Citterosa - sorceress 6lx - lancelot

    Grazie papa', non ti dimentichero'. (17/06/2005)
    Dopo due anni la giustizia si e' ricordata di te....quante lacrime di gioia miste ad amarezza. Mi manchi da morire.

  12. #27
    Petty Officer 2nd Class Arkamir's Avatar
    Join Date
    Apr 2004
    Location
    Roma
    Posts
    677

    Default

    Il motore grafico del futuro credo sia questo http://www.unrealtechnology.com/flas...ogy/ue30.shtml
    Ed e' anni luce avanti quello di Doom3.
    Quake 4 la cosa che mi rincuora e'che lo stia sviluppando la Raven che sicuramente si spera aggiusti il motore grafico attuale di Doom3.
    Avendo slot AGP per ora prendero' una X850XT PE che su Ebay si trova sui 400 dollari ed e' di molto superiore secondo tutti alla 6800 Ultra, unica pecca non ha il pixel shader 3.0 ma da quanto ho capito e' stata una scelta voluta dalla Ati stessa.

  13. #28
    Lieutenant Commander Galandil's Avatar
    Join Date
    Jan 2005
    Location
    Somewhere
    Posts
    13.423

    Default

    Quote Originally Posted by x4d00m
    nn ho sostenuto che a te doom3 piace, anzi il contrario, ho detto che doom3 e' un gioco di merda, nn capisco il perke' del tuo attaccamento ai grafici prestazionali di un gioco che nn ha senso di esistere.
    cmq tornando in topic, su cosa basi la tua tesi, cioe' che il motore di doom3 e' il piu' potente e avanzato di tutti quelli presenti sul mercato? Non per smentirti ma all'E3 dell'anno scorso, Farcry, ha smerdato di anni luce il motore grafico di Doom3 con relativa intervista agli sviluppatori ID Software con l'ammissione che effettivamente Farcry adesso e' uno dei migliori giochi in circolazione relativamente alla grafica e alle features implementate
    Dove posso trovare quest'intervista relativa all'E3 dello scorso anno? Sono curioso di leggerla e di sentire come si sia "giustificato" Hollenshead (che è sempre no sborone in qualsiasi intervista ).

    la MAREA di giochi usciti un anno dopo Q3 con lo stesso motore li hai visti solo te, il primo ad usarlo e' stato solo RTCW, che e' sempre della ID e successivamente, 2 o 3 anni dopo lo stesso motore e' stato concesso all'esterno ad altre case software, peccato che in 2 o 3 anni un motore simile e' talmente obsoleto che nn e' nemmeno da tenere in considerazione che scheda video serve ORA per farlo girare fra 20mila anni.....no sense sry
    Allora, cito alcuni titoli giusto a memoria: Alice (American McComecacchiosechiama), Heavy Metal FAKK 2, Soldier of Fortune 2, Star Trek Elite Forces 1 e 2, Call of Duty, Medal of Honor. E questi giochi rispetto al periodo di uscita tutto erano tranne che obsoleti...
    Giusto quelli che mi sono venuti in mente ora, andando a cercare sicuramente ne escono molti altri.
    Il fatto è che all'epoca di motori grafici in licenza ce n'erano, se non ricordo male, solo 3: quello di Q3, quello di UT e il Lithtech della Monolith. La quasi totalità dei giochi usava uno di questi motori.
    Ora la situazione si sta per ripresentare, con il nuovo motore della iD, l'ultimo della Epic e quelli Valve e quello di FarCry.
    Bisogna vedere quale verrà usato più degli altri. E questo noi di certo non lo possiamo sapere.

    e' il marketing informatico, dove contano le prestazioni, e' normale che le societa' cerchino di accaparrarsi le varie software house per i propri piani economici......i "patners" nel mercato esistono da anni e nn vedo perke' nn dovrebbero esistere anche qui
    sta di fatto che stranamente questa politica l'ha adottata per prima NVIDIA dopo il primo flop delle sue ORRIBILI gf5x00 che venivano tranquillamente smerdate dalle ben piu' economiche 9x00 di ati.....nn riescono nella tecnologia? bhe allora agiscono sul mercato
    A dire il vero la prima ad adottare questa "tattica" è stata la 3Dfx, non volendo "passare" dalla sua libreria proprietaria miniGL all'OpenGL completa, castrandosi peraltro da sola con questa mossa (e facendo la fine che ha fatto).
    Il fatto di agire sul mercato è una vecchia storia, vecchia quanto la guerra Intel/AMD, purtroppo.

    sempre stata la politica di NVIDIA, buttare fuori prodotti che come innovazioni avevano poco, ma come prestazioni si superavano ogni volta.....ati spesso e volentieri ha fatto il contrario, cadendo in flop incredibili (8500) perche' voleva avventurarsi in terreni ancora poco sicuri, pero' lode al tentativo
    Ma è quello che sto dicendo anche io.
    Perché hai voglia di flammare? Guarda che qui non sto difendendo nessuno, sono anche io un povero stronzo "consumer" come te, frega nulla se i soldi se li mette in tasca nVidia o ATI.
    Ho appunto detto che le uniche vere rivoluzioni grafiche sono state solo 2 nella storia del 3D, prima la Voodoo e poi la GeForce (e in misura cmq molto minore la GF3 con l'introduzione dei Pixel e Vertex Shaders, oggi strausati in pieno da chiunque).
    Forse sono ignorante in materia, ma la ATI quali "stravolgimenti" a livello tecnologico ha inserito nel suo HW? Illuminami, che non ho voglia di spulciarmi siti su siti per cercare le caratteristiche tecniche di ogni singola famiglia di sk video uscite finora. ^^

  14. #29
    x4d00m's Avatar
    Join Date
    Oct 2003
    Location
    Brescia (BS)
    Posts
    5.952

    Default

    Quote Originally Posted by Galandil
    Dove posso trovare quest'intervista relativa all'E3 dello scorso anno? Sono curioso di leggerla e di sentire come si sia "giustificato" Hollenshead (che è sempre no sborone in qualsiasi intervista ).
    su IGN l'anno scorso, nel servizio sull'E3 relativo agli fps, prova a fare una ricerca nell'archivio se ce l'hanno ancora....




    Quote Originally Posted by Galandil
    Allora, cito alcuni titoli giusto a memoria: Alice (American McComecacchiosechiama), Heavy Metal FAKK 2, Soldier of Fortune 2, Star Trek Elite Forces 1 e 2, Call of Duty, Medal of Honor. E questi giochi rispetto al periodo di uscita tutto erano tranne che obsoleti...
    Giusto quelli che mi sono venuti in mente ora, andando a cercare sicuramente ne escono molti altri.
    Il fatto è che all'epoca di motori grafici in licenza ce n'erano, se non ricordo male, solo 3: quello di Q3, quello di UT e il Lithtech della Monolith. La quasi totalità dei giochi usava uno di questi motori.
    Ora la situazione si sta per ripresentare, con il nuovo motore della iD, l'ultimo della Epic e quelli Valve e quello di FarCry.
    Bisogna vedere quale verrà usato più degli altri. E questo noi di certo non lo possiamo sapere.
    puoi dirmi tutto ma nn puoi dirmi che quei titoli nn erano obsoleti, nonostante fossero stati ammodernati sfruttavano si e no il 70% della potenza video di una scheda media dell'epoca...tradotto? erano obsoleti


    Quote Originally Posted by Galandil
    A dire il vero la prima ad adottare questa "tattica" è stata la 3Dfx, non volendo "passare" dalla sua libreria proprietaria miniGL all'OpenGL completa, castrandosi peraltro da sola con questa mossa (e facendo la fine che ha fatto).
    Il fatto di agire sul mercato è una vecchia storia, vecchia quanto la guerra Intel/AMD, purtroppo.
    a dire il vero le glide erano una libreria a parte che si prefiggeva il compito di ottimizzare al massimo le prestazioni ma utilizzando appunto un codice proprietario.....il che e' molto differente dall'utilizzare un codice gia' presente (e soprattutto unitario) e manipolarlo in modo che su una marca vada in un modo e su un altra vada in un modo diverso
    la fine che fece nn fu per la mancata conversione all'opengl (poi avvenuta anche se in modo tardivo) o alle d3d....ma fu semplicemente un discorso di mercato....microsoft aveva dalla sua parte tutte le case che producevano schede video (s3, ati, nvidia, matrox e cosi' via) d3d......3dfx era sola, aveva poco da fare se nn fallire dato che le software house tendono dove sono i soldi, nn dove c'e' la qualita'.....il colpo di grazia lo diede nvidia (che tra l'altro sfrutta un brevetto ORA che 3dfx studio' e mise in atto ben 6/7 anni fa, lo SLI)


    Quote Originally Posted by Galandil
    Ma è quello che sto dicendo anche io.
    Perché hai voglia di flammare? Guarda che qui non sto difendendo nessuno, sono anche io un povero stronzo "consumer" come te, frega nulla se i soldi se li mette in tasca nVidia o ATI.
    Ho appunto detto che le uniche vere rivoluzioni grafiche sono state solo 2 nella storia del 3D, prima la Voodoo e poi la GeForce (e in misura cmq molto minore la GF3 con l'introduzione dei Pixel e Vertex Shaders, oggi strausati in pieno da chiunque).
    Forse sono ignorante in materia, ma la ATI quali "stravolgimenti" a livello tecnologico ha inserito nel suo HW? Illuminami, che non ho voglia di spulciarmi siti su siti per cercare le caratteristiche tecniche di ogni singola famiglia di sk video uscite finora. ^^
    non ti sono mica venuto contro infatti, ho rafforzato cio' che hai detto, nn vedo dove tu possa immaginare un flame
    cmq precisiamo che pixel e vertex shaders nn sono rivoluzioni proprietarie di nvidia, anzi, sono features che sia ATI che NVIDIA hanno "acquisito" dalle d3d in modo forzato....ergo di rivoluzioni vere e proprie nelle serie gforce nn ce ne son state, idem in ati....tutto e' stato pilotato dalle librerie stesse
    ATI di suo e' stata la prima a utilizzare il tile rendering, poi messo in atto come cavallo di battaglia nel kyro dalla powervr, successivamente ATI l'ha rinominato in hyperz e nvidia di suo l'ha introdotto nella serie gf3 e successive.....inolte ati e' stata la prima a presentare il trueform nella 8500 che di per se fu una rivoluzione INCREDIBILE (nei giochi che lo supportavano sembrava di essere passi avanti nel motore grafico) peccato che era troppo presto (le 8500 faticavano troppo) per presentare una tale rivoluzione, la potenza di calcolo nn era sufficiente.
    <SvX> Xadooom - shaman 8lx - igraine
    <Never> Xadoom - hero 8lx - merlin
    <NoD> Citterosa - sorceress 6lx - lancelot

    Grazie papa', non ti dimentichero'. (17/06/2005)
    Dopo due anni la giustizia si e' ricordata di te....quante lacrime di gioia miste ad amarezza. Mi manchi da morire.

  15. #30
    Sillybee's Avatar
    Join Date
    Aug 2004
    Location
    Reading, Pennsylvania
    Posts
    4.405

    Default

    Benchmark a parte non sforerò mai i 250€ per una S.Video, troppi soldi checcazz...

    Direi che una X800 base o 6600GT sono il mio target massimo... ma per ora la mia 9600XT regge ancora bene...
    Processore Intel Core 2 Duo E6600@3600Mhz; Cooler Zalman CNPS9700Led; RAM 2 GB Teamgroup Xtreem 667@1000Mhz 5-5-5-15; Scheda Madre Asus P5B Deluxe; Scheda Video Twintech Geforce 8800 GTS 640Mb; VGA Cooler Zalman VF1000; Scheda Audio Sound Blaster XFI eXtreme Music; Hard Disk1 WD Raptor 74Gb; Hard Disk2 Seagate Barracuda 320Gb; Case Thermaltake Armor w/25cm fan; Alimentatore Topower 700W; Input Logitech G5+G15+G25; Monitor Samsung 2232BW
    __________________

    *DAOC ITA* Sillybee Shadowmaster <Armata dei Falchi> - Mercenary 8L0 - Deira off
    *DAOC USA* Sillybee <No Fear> - Savage 7L1 - Igraine off
    *WOW EU* Sillybee <Knights of Honor> - lvl 70 Dwarf Warrior - Runetotem off

    *GTR-2* LISGO 07-08 Championship off
    *AoC* Sillybee [Wayners] Cymmerian Barbarian lvl 44 on Crom off
    *WAR* Sillybee <Armata dei Falchi> - White Lion lvl 29 on Gorthor off

Page 2 of 3 FirstFirst 123 LastLast

Posting Permissions

  • You may not post new threads
  • You may not post replies
  • You may not post attachments
  • You may not edit your posts
  •  
[Output: 122.78 Kb. compressed to 107.07 Kb. by saving 15.71 Kb. (12.79%)]