PDA

View Full Version : NVidia RTX 4000



Pages : [1] 2

Axet
21st September 2022, 11:20
Nessuno ne parla?

Annunciate ieri la 4090 e 4080, paiono dei mostri rispetto alla gen precedente.
Il gap tra 90 e 80 sembra essere molto pi? pronunciato che in passato, aspettando bench veri.

Articolo random: https://www.ign.com/articles/nvidia-geforce-rtx-40-series-specs-price-features-release-date

Peccato che l'MSRP ? folle. Oddio per la 4090 ? 1599$, 100$ in pi? della 3090, se il mercato non va in craze come 2 anni fa e si sta attorno a quel prezzo ci sta.
Il problema ? la 4080: MSRP a 899$ per la 12GB, e 1199$ per la 16GB. 2 anni fa la 3080 aveva un MSRP di 700$ se non erro.

Ah la cosa divertente ? che in europa (ho guardato germania e italia ed ? uguale) l'MSRP ? molto pi? alto.
1949 euro per la 4090: https://www.nvidia.com/it-it/geforce/graphics-cards/40-series/rtx-4090/
1479 euro per la 4080 16GB e 1109 euro per la 12GB: https://www.nvidia.com/it-it/geforce/graphics-cards/40-series/rtx-4080/

Coddio

Dryden
21st September 2022, 11:31
Finch? non vedo dei bench non mi esprimo, perch? alle dichiarazioni delle prestazioni (dalle 2 alle 4 volte superiori alla serie 30xx) e dei vari prezzi (pi? quelli EU che quelli US) l'unico commento che mi viene e'

https://www.meme-arsenal.com/memes/f520c38d15782aa3f9f2154fc04ee2b2.jpg

Axet
21st September 2022, 11:59
Non ho visto la conferenza (yet), ma da quel che leggevo il trucco sulle prestazioni ? il DLSS 3, non "vanilla"

Hador
21st September 2022, 12:22
Che poi la 12 giga ha meno tensor core della 3080.
Bho le 3080 sono state un salto enorme, queste sulla carta sembrano molto buone ma non mi pare che al momento ci sia tutto sto hype. Cio? hanno usato gli stessi titoli delle 3080 per i benchmark... Inoltre con il crollo del mondo cripto si troveranno una marea di 3080, anche nuove, in giro.

Hador
21st September 2022, 12:23
Hanno un clock molto alto sicuramente ci sar? un aumento prestazionale anche senza dlss, per? se uno ha una 3080 non vedo tutta sta necessit? a fare l'upgrade al momento

Axet
21st September 2022, 12:31
Pi? che altro io ho una 3080 senza LHR, speravo di rivenderla per un prezzo decente e pi? si va in la meno ci posso fare

Hador
21st September 2022, 12:39
ma tanto ormai c'? solo bitcoin di grosso con proof of work, quello pi? i prezzi crollati e il costo dell'energia hanno buttato il settore in "crisi" (nel senso che ? tornato ad essere normale)

Sulimo
21st September 2022, 12:46
imho con una 3080 ci campi sereno altri 5 anni MINIMO.
I figli di troia di nvidia hanno detto che il nuovissimo e fighissimo dlss 3.0 sar? abilitato dalle 4xxx in poi rendendo "obsolete" le 3xxx che potranno sfruttare solo il dlss 2.0
Stamattina reddit era in pieno di meme che pigliavano per il culo nvidia, e una miriade di utenti inorriditi dai prezzi e dalla questione dlss 3.0

Hador
21st September 2022, 12:55
io ormai gioco poco, ma comunque sui titoli attuali il dlss non lo ho praticamente mai usato se non in Control (dove fare 60 o 90 fps per il tipo di gioco non ti cambia molto). Cyberpunk non lo ho ancora giocato, ma vabb? ad oggi in quanti giochi serve? 10?
In molto dei titoli supportati non serve abilitarlo per avere buone prestazioni comunque.

Zaider
21st September 2022, 13:33
io mi tengo la mia 3090 con custom cooling, mal che vada la clokko un po', che tanto non mi ha mai superato i 48 gradi in un anno e mezzo

Drako
21st September 2022, 13:54
Io ancora vado tranquillo a 1440p con una 2070s :sneer:

Ormai le gpu son roba da ricchi, andr? di usato nel futuro se continuano ad esserci questi prezzi.

Hador
21st September 2022, 14:29
tutto e' roba da ricchi ormai...
comunque raramente c'e' stato bisogno di aggiornare ad ogni cambio di serie.

Axet
21st September 2022, 14:40
imho con una 3080 ci campi sereno altri 5 anni MINIMO.
I figli di troia di nvidia hanno detto che il nuovissimo e fighissimo dlss 3.0 sar? abilitato dalle 4xxx in poi rendendo "obsolete" le 3xxx che potranno sfruttare solo il dlss 2.0
Stamattina reddit era in pieno di meme che pigliavano per il culo nvidia, e una miriade di utenti inorriditi dai prezzi e dalla questione dlss 3.0

Ni, io faccio un sacco di corse online con questo:
https://i.imgur.com/6ciNoJ0.jpg

Passato recentemente a 3 schermi 1440p, ergo risoluzione totale 7680x1440, a tenere i dettagli alti su alcune piste / situazioni di gare il framerate scende anche sui 40.
Magari anche la CPU gioca un ruolo, alla fine ho un 5900x che non ? cos? ottimizzato su sigle thread come intel (che infatti va meglio su iRacing), ma non ho mai visto la CPU cappare.
Guarder? meglio a breve, per? sono abbastaza convinto che un cambio di GPU mi darebbe un uplift notevole in termini di performance.

L'altra alternativa ? il Reverb G2 che comunque ha una risoluzione di 2160x2160 per occhio, su due schermi indipendenti. Pi? tutto l'overhead che il VR genera.

Insomma a me per sto scenario farebbe comodo, chiaramente non fondamentale, per? non sarebbe male.

Su giochi normali invece concordo che la 3080 basta almeno per un altro anno o due (ho monitor 3840?1600)

Hador
21st September 2022, 14:46
si vabbe' si parlava di gente normale, non di quello che si e' fatto la sala giochi in casa :sneer:
comunque sicuramente cambiando gpu guadagni su quelle risoluzioni

Galandil
21st September 2022, 14:49
Nessuno ne parla?

Annunciate ieri la 4090 e 4080, paiono dei mostri rispetto alla gen precedente.
Il gap tra 90 e 80 sembra essere molto pi? pronunciato che in passato, aspettando bench veri.

Articolo random: https://www.ign.com/articles/nvidia-geforce-rtx-40-series-specs-price-features-release-date

Peccato che l'MSRP ? folle. Oddio per la 4090 ? 1599$, 100$ in pi? della 3090, se il mercato non va in craze come 2 anni fa e si sta attorno a quel prezzo ci sta.
Il problema ? la 4080: MSRP a 899$ per la 12GB, e 1199$ per la 16GB. 2 anni fa la 3080 aveva un MSRP di 700$ se non erro.

Ah la cosa divertente ? che in europa (ho guardato germania e italia ed ? uguale) l'MSRP ? molto pi? alto.
1949 euro per la 4090: https://www.nvidia.com/it-it/geforce/graphics-cards/40-series/rtx-4090/
1479 euro per la 4080 16GB e 1109 euro per la 12GB: https://www.nvidia.com/it-it/geforce/graphics-cards/40-series/rtx-4080/

Coddio

L'MSRP non ? + alto, quei prezzi che vedi sono gli MSRP + iva (e infatti tornano con un cambio quasi pari ad 1:1).

Per il resto, una buffonata come poche, soprattutto lo scam delle "doppie" 3080 con bus ad ampiezza differente (192 bit la 12GB e 256 la 16GB). Poi mettiamoci DLSS3 che ? "lockato" sulla serie 4000 (e no, non c'? un singolo motivo tecnico per lockarlo, l'hanno fatto solo per spingere chi soffre di FOMO a prendersi una 4000 a prezzi da ladri invece che una delle tante 3000 che stanno invadendo e invaderanno ulteriormente il mercato dell'usato, oltre quelle rimaste in vendita come nuove). Also, DLSS3 per ora sembra un'idea storpia: ? in grado di aggiungere frames fra una renderizzazione e la successiva dell'engine, sfruttando i motion vectors degli oggetti in scena, ma questo implica che (esagerando coi numeri, ma per far capire) se ho un gioco il cui engine mi tiene 80fps costanti, anche se DLSS3 mi offre 3x quegli fps, quei 2x aggiuntivi sono solo "visivi", visto che non sono in grado di rilevare alcun input da parte del giocatore.

Per finire, tutti gli aumenti prestazionali di cui hanno parlato sono relativi all'RT, della rasterizzazione non hanno detto nulla, quindi sar? interessante vedere quanto migliorano le prestazioni del raster rispetto alle 3000.

Also: a quei prezzi se le possono tenere, obv. Aspetto il 3 novembre per RDNA3, si vedono un po' di benchmarks e poi si decide.

Hador
21st September 2022, 15:02
al netto di tutto le spec sono impressionanti
ma come detto salvo casi particolari non c'? questa esigenza di aggiornare visto i titoli che ci sono in giro, se uno viene gi? da una 3080.
su amd bho fino ad ora han sempre deluso e sicuramente non costavano meno, i prezzi delle nuove cpu e soprattutto MB non lasciano presagire nulla di diverso in tal senso, quindi per me bisogna solo interiorizzare che ti partono 1300 pippi di gpu d'ora in avanti (si parla comunque della fascia alta)

Zaider
21st September 2022, 15:03
Ni, io faccio un sacco di corse online con questo:
https://i.imgur.com/6ciNoJ0.jpg

Passato recentemente a 3 schermi 1440p, ergo risoluzione totale 7680x1440, a tenere i dettagli alti su alcune piste / situazioni di gare il framerate scende anche sui 40.
Magari anche la CPU gioca un ruolo, alla fine ho un 5900x che non ? cos? ottimizzato su sigle thread come intel (che infatti va meglio su iRacing), ma non ho mai visto la CPU cappare.
Guarder? meglio a breve, per? sono abbastaza convinto che un cambio di GPU mi darebbe un uplift notevole in termini di performance.

L'altra alternativa ? il Reverb G2 che comunque ha una risoluzione di 2160x2160 per occhio, su due schermi indipendenti. Pi? tutto l'overhead che il VR genera.

Insomma a me per sto scenario farebbe comodo, chiaramente non fondamentale, per? non sarebbe male.

Su giochi normali invece concordo che la 3080 basta almeno per un altro anno o due (ho monitor 3840?1600)

si vabbe' cristo, tu si che devi cambiare

Sulimo
21st September 2022, 16:54
@axet vabb? tu sei un eccezione magari x te ha senso l upgrade.
Senti visto che anche io (in futuro) vorrei dedicarmi un po ai giochi di guida sul pc mi consigli qualche setup entry Level tra sedia volante pedali etc?
Inoltre tu usi il VR nei giochi di guida in caso lo consigli?
Grazie!

Axet
21st September 2022, 17:16
@axet vabb? tu sei un eccezione magari x te ha senso l upgrade.
Senti visto che anche io (in futuro) vorrei dedicarmi un po ai giochi di guida sul pc mi consigli qualche setup entry Level tra sedia volante pedali etc?
Inoltre tu usi il VR nei giochi di guida in caso lo consigli?
Grazie!

Dipende da cosa definiamo come entry level e qual'? il budget. Dipende poi anche da quanto sei serio, io nel dubbio non sono andato subito su roba super pro e poi dopo un anno e mezzo ho switchato. Fossi andato subito su roba pi? figa avrei risparmiato nel computo totale.

Dipende anche poi da a cosa uno ? interessato, esser veloce o realismo. Ci sono dei diminishing returns importanti, al salire del prezzo migliora il feeling e il realismo, riesci ad esser pi? preciso in alcune circostanze o a riprendere la macchina in certe situazioni, ma il miglioramento ? marginale e l'aumento di prezzo non giustifica l'uplift in performance. Per? ? pi? "vero".

Sul VR, se non vuoi avere screendoor effect devi andare su qualcosa come il Reverb G2 o a salire (i vari Pimax). Anche il Valve Index va abbastanza bene.
L'esperienza ? incredibile tbh, un livello di immersitivt? epico.
Per? ha diversi contro:
- impone uno sforzo importante sul pc che deve essere in grado di reggere certe risoluzioni
- non ? molto plug-n-play. Non vedi dove metti le mani, attaccarlo ogni volta, accendere, etc. Alla lunga la cosa mi ha dato non poco fastidio
- un sacco di piccoli e grandi problemi tecnici: a volte si disconnette, a volte perde il tracking e gira tutto, a volte il framerate va a cazzo, se usi overlay esterni potrebbero non essere supportati o avere performance del cazzo. Nota: io ho un sistema AMD ed ? noto come ci siano problemi con l'USB ancora non risolti, magari con Intel i problemi qua sopra si riducono di non poco
- scomodo scomodo. Io sudo poco di base, con l'headset in faccia dopo 20 minuti inizio a sudare come un maiale e perdere di concentrazione

Prima di 1 mese fa sempre fatto solo gare in VR, per? tra il caldo, la scomodit?, la mancanza di user-friendliness mi son preso il triplo schermo e per ora son molto soddisfatto.
Anche se il wow effect del VR resta impareggiabile

Axet
13th October 2022, 20:50
Ho visto i benchmark della 4090, va pi? del doppio della 3080 in raster :rotfl:
E tipo 70% pi? veloce della 3090ti :rotfl:

Drako
13th October 2022, 20:59
? una potenza che sinceramente non serve al 99% degli utenti :look:

Galandil
13th October 2022, 21:04
Big numbahs!!!one

Axet
13th October 2022, 23:58
? una potenza che sinceramente non serve al 99% degli utenti :look:

Io ho ultrawide e capperei tutto a fps no sense, anzi probabilmente in alcuni giochi andrei anche di bottleneck sul 5900x :rotfl:
Per? per quando uso i 3 schermi 1440p insieme o il VR sarebbe utile :nod:

Son curioso di vedere i prezzi effettivi, se vanno a +80% e passa sul MSRP o meno

Tunnel
14th October 2022, 00:14
Ho visto i benchmark della 4090, va pi? del doppio della 3080 in raster :rotfl:
E tipo 70% pi? veloce della 3090ti :rotfl:

E questo a temperature bassissime. Qualcosa non torna con queste 4090. Sembrano pure depotenziate rispetto a quello che potrebbero fare davvero

Dryden
14th October 2022, 00:40
E questo a temperature bassissime. Qualcosa non torna con queste 4090. Sembrano pure depotenziate rispetto a quello che potrebbero fare davvero

Io ? questo che non capisco, pare abbiano prestazioni sorprendenti con temperature e consumi "contenuti".
Per carit?, parte del merito sara' anche dei pacchi lamellari pi? grandi, per? sono decisamente pi? fredde di quello che ci si aspettava.

Galandil
14th October 2022, 01:28
Io ho ultrawide e capperei tutto a fps no sense, anzi probabilmente in alcuni giochi andrei anche di bottleneck sul 5900x :rotfl:
Per? per quando uso i 3 schermi 1440p insieme o il VR sarebbe utile :nod:

Son curioso di vedere i prezzi effettivi, se vanno a +80% e passa sul MSRP o meno

€2000 MSRP per la Founder., se la trovi. Nonsense, la 4090 va bene, se proprio, a chi ci lavora seriamente.

Per il resto vi lascio spippare in attesa di farmi due risate sulle "4080" e vedere RDNA3.

Galandil
14th October 2022, 01:40
Io ? questo che non capisco, pare abbiano prestazioni sorprendenti con temperature e consumi "contenuti".
Per carit?, parte del merito sara' anche dei pacchi lamellari pi? grandi, per? sono decisamente pi? fredde di quello che ci si aspettava.

No, i dissipatori non c'entrano una sega, il vantaggio ? tutto dato dal nodo usato per la GPU (TSMC 5), che ? lo stesso che user? RDNA3. Non per niente riesce ad ottenere prestazioni superiori consumando quanto una 3090Ti. Inoltre, cos? come ha fatto AMD con i Ryzen 7000, di default usano un power limit buono giusto per fare la sboronata, quando decrementando al 60% la potenza massima utilizzabile, il calo di prestazioni in media ? fra il 5-10% - parliamo di scendere da 450-500W a 300-350W. E questo implica che avrebbero tranquillamente potuto ridurre la potenza, riducendo di conseguenza l'enormit? delle dimensioni per montare i dissipatori adatti a quei 450W.

E' un trend imbarazzante, per? i gamer capiscono una sega, vedono il NUMERONE, e spruzzano nelle mutande, e giacchetta Jensen fa il marketer come si deve. :sneer:

E per favore lasciamo perdere i complottismi "c'? qualquadra che non cosa", per non parlare del "sono depotenziate", aumentare il power limit oltre a quello default gi? elevato di suo ha dei diminishing return assolutamente ridicoli, guardatevi il video di der8auer in merito.

Edit per pic + link al video menzionato:
11700

https://www.youtube.com/watch?v=60yFji_GKak

Hador
14th October 2022, 06:56
Gala fanboy a tutti i costi.
Bisogna vedere come si comportano rispetto alle 4080, perch? pu? essere che gran parte del gain uno lo possa ottenere gi? con le 4080.

Per il resto ad oggi non esistevano schede adeguate per il 4k, ora finalmente pare che ci stiamo avvicinando.
L'unica vera perplessit? delle 4090 ? la display Port 1.4, oltre al prezzo vabb?.
Vedremo come sempre AMD ma le aspettative sono quelle che sono

Drako
14th October 2022, 08:52
Ed il fatto che ? grande come un microonde non ce lo metti? :sneer:

Hador
14th October 2022, 09:05
Ma anche su questo non concordo con Gala. A parte le pere mentali da youtubers (il Power draw deve garantire stabilit? di lungo periodo in tutti gli scenari e su tutto il silicio, non su una scheda sola su un benchmark. Tra l'altro la cosa si ? vista bene con la serie 3xxx AMD dove a seconda del batch dei processori o non downvoltavi nulla, o lo tiravi gi? del 10%), avere un dissipatore adeguato sulle GPU ? finalmente un trend che mi piace. Che senso ha avere dissipatori pi? piccoli che sulle cpu quando consumano il quadruplo. Tanto non ? che su una atx ci metti nulla negli altri PCI slot al giorno d'oggi

Zaider
14th October 2022, 09:44
leggevo che non faranno la 4090ti perche' fonde le PSU

Axet
14th October 2022, 11:08
https://www.digitec.ch/search?q=rtx%204090

Stanno uscendo i primi prezzi in CH, per ora solo Inno3d.
2k per la normale, 2.2k per la AIO. Not bad rispetto al MSRP, vediamo le ASUS & co.

Io ci sto facendo un pensiero, con sto cambio sarei a posto per minimo 3 anni sia con il triplo schermo che col VR. Senza DP 2.0 monitor futuri rimangono un punto di domanda ma sticazzi, non credo di cambiare il mio ultrawide.
E con la nuova PSU da 1200W non ho problemi di potenza.
Anzi il problema a quel punto diventa la CPU che mi sa che il 5900X in alcuni scenari diventa un collo di bottiglia.

Ho gi? un mio amico che mi prende la 3080 a 450 euro, la mia ex mi deve 700 franchi.
Se riesco a vendere la simrig vecchia per 400 franchi il Il prezzo si abbassa drasticamente :confused:

Dryden
14th October 2022, 11:14
Ma guarda non penso proprio che il 5900x ti faccia bottleneck, pi? sali di risoluzione meno conta la cpu, col triplo monitor 2k la baracca se la porta sulle spalle la 4090.

Zaider
14th October 2022, 12:14
auguri a rivedere 700 franchi dalla tua ex

holysmoke
14th October 2022, 12:15
auguri a rivedere 700 franchi dalla tua ex

:rotfl:

Axet
14th October 2022, 12:27
auguri a rivedere 700 franchi dalla tua ex

:sneer:

Quelli li rivedo sicuro, il problema sono gli altri che mi deve che hanno 3 zeri in pi? QQ

Comunque sto cercando giustificazioni per l'esborso, 2k++ per una scheda grafica mi pare assurdo a prescindere dalla disponibilit? economica.
E' proprio un prezzo nosense, per? le performance sono incredibili (e inutili nel 90% dei casi e oltre)

Sulimo
14th October 2022, 12:40
:sneer:

Quelli li rivedo sicuro, il problema sono gli altri che mi deve che hanno 3 zeri in pi? QQ

Comunque sto cercando giustificazioni per l'esborso, 2k++ per una scheda grafica mi pare assurdo a prescindere dalla disponibilit? economica.
E' proprio un prezzo nosense, per? le performance sono incredibili (e inutili nel 90% dei casi e oltre)
Chiama il tutto con il suo nome, uno sfizio.
Uno sfizio costoso ma tant'?..

Dryden
14th October 2022, 12:42
Overall potrebbe essere assurdo di certo ma devi guardare il tuo contesto specifico, fai oggettivamente parte di una fetta di giocatori d'elite che sfrutta soluzioni tecniche costose e molto ingombranti, se c'? un target a cui la 4090 guarda, oltre che ai professionisti, ? ai gamers come te.

Cio? se ti shoppassi una 4090 non ci vedrei nulla di strano, se lo facesse quello che gioca in FHD a Warzone con una 1660 ed un i5 10400 penserei che ? un coglione.

Axet
14th October 2022, 12:51
Chiama il tutto con il suo nome, uno sfizio.
Uno sfizio costoso ma tant'?..

No ma povera, l'ho lasciata io, ? una storia lunga :awk:


Overall potrebbe essere assurdo di certo ma devi guardare il tuo contesto specifico, fai oggettivamente parte di una fetta di giocatori d'elite che sfrutta soluzioni tecniche costose e molto ingombranti, se c'? un target a cui la 4090 guarda, oltre che ai professionisti, ? ai gamers come te.

Cio? se ti shoppassi una 4090 non ci vedrei nulla di strano, se lo facesse quello che gioca in FHD a Warzone con una 1660 ed un i5 10400 penserei che ? un coglione.

Si ma vorrei cambiare anche il portatile, fare entrambi sostanzialmente insieme mi viene male.
Ergo sto cercando di decidere cosa ? pi? importante, se la 4090 per cazzeggiare o il portatile per lavorare pi? sciolto

Pazzo
14th October 2022, 13:44
ma va che sei ricco, striscia

Hador
14th October 2022, 13:51
aspetta le 4080 tanto escono a breve, e' possibile / probabile che come con le 3080 la differenza prestazionale sia nell'ordine del 5% e ti costa 800 franchi in meno.
prendere una 4090 senza vedere la differenza con la 4080 e' una mossa da pirla, la prima gen le 3090 per gaming non avevano senso ed e' possibilissimo che ora sia uguale

Zaider
14th October 2022, 15:20
non ascoltare questi povery e compra la 4090

Devon
14th October 2022, 15:32
La risposta ? sempre semplice: se puoi permettertelo fai entrambi, isi. il resto sono menate, don't overthink

Sulimo
14th October 2022, 19:05
No ma povera, l'ho lasciata io, ? una storia lunga :awk:





Io per "sfizio" intendevo la gpu da 2k mica la tua ex :sneer:

Galandil
14th October 2022, 20:16
Gala fanboy a tutti i costi.

Io: "power limits inutilmente elevati per incrementi borderline insignificanti di prestazioni, implementati sia da nVidia sia da AMD."
Tu: "fanboy"

Fanboy di chi a sto giro? Intel? Apple? Ma manco la comprensione del testo di base c'hai. :rotfl:

Tralasciamo l'ennesimo tuo solito delirio sul "garantire stabilit?" di un power LIMIT (hint nella parola stessa), visto che i Ryzen 7000 sono assolutamente stabili diminuendo il limit a 150/175W invece di farli arrivare a 225W+ (perdendo si e no un 5% sulle performance), e stessa cosa per la 4090.

E' sempre bello vedere che chi a malapena sa mettere una cpu in un socket e una scheda video di uno slot PCIe, e che si guarderebbe in giro spaesato se gli chiedi "deferred o forward?", tralascia tutti i dati di fatto e sproloquia stile anti-vaxxers arancione. :rotfl:

La 4090 ? un prodotto che avrebbe senso prezzato a max 1k, considerando che a) Jensen ? stato beccato con le mani nella marmellata in una call pubblica con gli shareholders quando ha detto che avrebbe intenzionalmente limitato la supply per tenere i prezzi alti e b) continuano ad usare come baseline i prezzi portati alle stelle dalla cryptofrenzy, che ? ormai terminata da mesi.

Ma ? evidente che Barnum aveva ragione, vi truffano e siete felici di farvi truffare. Pi? euro di disposable income che neuroni nel cervello. :confused:

E per concludere: https://videocardz.com/newz/nvidia-cancels-geforce-rtx-4080-12gb

Hador
14th October 2022, 21:18
Un power LIMIT serve a garantire stabilit? se vuoi raggiungere certe frequenze. Non si capisce secondo quale principio dovrebbero offrirle downclockate per fare in modo che abbiano un limit pi? basso (o sulle cpu che boostino a frequenze inferiori). Perch? ti sta in culo il dissipatore grosso? E sticazzi?
Anche perch? non ? che una 4090 consumi pi? di una 3090 (o di alcune 3080 OC senza senso), quindi non capisco sta pera.
Sul pricing: il price-per-performance ? identico alla gen passata, PRE gonfiamento di prezzi, ma il gain prestazionale e' piu' alto. Potevano ridurre il price per performace? Certo. Potevano anche farla costare il doppio pero', la prossima volta diremo al consiglio di amministrazione di chiedere a Gala quale' il prezzo giusto.

Non si capisce come una scheda che arrivi ad andare il 70% della gen prima debba costare, secondo te, MENO di quanto costava la top di gamma della gen prima. Il genio della gestione aziendale. Te non lavori in propio? Mi chiedo come tu faccia a sopravvivere se ragioni cosi' per decidere il tuo pricing. Se usassi un po' di cervello magari riusciresti ad avere 2k per comprarti sta scheda :sneer:

Morale del discorso: per te la scheda non va bene perch? dovrebbe andare di meno (lol), consumare di meno e costare di meno. Va bene gala. Ma non sei fanboy :D

Axet
14th October 2022, 22:12
Io: "power limits inutilmente elevati per incrementi borderline insignificanti di prestazioni, implementati sia da nVidia sia da AMD."
Tu: "fanboy"

Fanboy di chi a sto giro? Intel? Apple? Ma manco la comprensione del testo di base c'hai. :rotfl:

Tralasciamo l'ennesimo tuo solito delirio sul "garantire stabilit?" di un power LIMIT (hint nella parola stessa), visto che i Ryzen 7000 sono assolutamente stabili diminuendo il limit a 150/175W invece di farli arrivare a 225W+ (perdendo si e no un 5% sulle performance), e stessa cosa per la 4090.

E' sempre bello vedere che chi a malapena sa mettere una cpu in un socket e una scheda video di uno slot PCIe, e che si guarderebbe in giro spaesato se gli chiedi "deferred o forward?", tralascia tutti i dati di fatto e sproloquia stile anti-vaxxers arancione. :rotfl:

La 4090 ? un prodotto che avrebbe senso prezzato a max 1k, considerando che a) Jensen ? stato beccato con le mani nella marmellata in una call pubblica con gli shareholders quando ha detto che avrebbe intenzionalmente limitato la supply per tenere i prezzi alti e b) continuano ad usare come baseline i prezzi portati alle stelle dalla cryptofrenzy, che ? ormai terminata da mesi.

Ma ? evidente che Barnum aveva ragione, vi truffano e siete felici di farvi truffare. Pi? euro di disposable income che neuroni nel cervello. :confused:

E per concludere: https://videocardz.com/newz/nvidia-cancels-geforce-rtx-4080-12gb

Beh la 12gb era sostanzialmente una truffa nel peggiore dei casi, marketing estremamente infelice nel migrliore dei casi.

Cmq si, costa tanto ma i prezzi ormai quelli sono.
Cosa deve fare uno, per principio non comprare pi? un cazzo?
La 4080 coster? cmq uno stonfo e pare abbia prestazioni significativamente pi? basse della 90, prezzo per prestazioni siamo l?, a sto punto se uno pu? GG all'all-in per la prima vera scheda 4k.

Io ancora non ho deciso, sono tentato ma non ha abbastanza porte HDMI per quel che faccio io.

Qualcuno sa se avere un set di tre monitor con due attaccati via DP e uno attaccato via HDMI darebbe problemi?
Al momento ho l'ultrawide in DP (che ? obbligatoria, ha solo HDMI 2.0 e non tira le risoluzioni / frequenze giuste senza DP) e i 3 1440p in HDMI.
Per? con la 90 non si pu? fare, non con quelle che ho visto almeno, ergo dovrei mischiare HDMI e DP ma boh.

Posso sempre provare sul pc attuale ma ? una rottura di cazzo :sneer:
Se qualcuno lo sa per certo mi faccia sapere :nod:

Galandil
14th October 2022, 22:28
Non c'? niente di pi? divertente che leggere i deliri sull'elettronica da parte di uno che non sa cosa un filtro RC o la differenza fra un BJT ed un MOSFET, mentre discute con qualcuno che sta roba se l'? sorbita in abbondanza.

Mi segno che il power limit serve a garantire stabilit? perch? ? come la perla del tuo adorato J2C su come funziona la termodinamica e la trasmissione del calore. :rotfl:

Poi ancora fanboy di che, mi sa che non hai neanche idea di cosa significhi la parola fanboy, ma la cosa non stupisce, sei troppo impegnato a descriverci, nei thread sull'hw, i tuoi mobili di stile - ci pomici anche ogni tanto? Vero stile da macellaro che ha fatto un po' di quattrini. :sneer:

Per il resto, aumentare la potenza assorbita di un qualunque dispostivo del 35%-50% per ottenere un incremento di prestazioni del 5-10% ? da ritardati dell'ingegneria di qualsiasi tipo. Ma d'altronde nVidia, AMD, Intel e compagnia cantante campano alle spalle di un pubblico composto da una buona fetta di ritardati, quindi per loro ? solo profit, sbattici il dissipatore alto 3,5 slot, chiedi 2k e via che arrivano gli sbrodoloni ad urlare "take my money". D'altronde vi comprate anche le mobo da €400+, di cosa ci si stupisce.

E lo giustifichi pure con l'ennesimo delirio sul price/performance ratio:


Sul pricing: il price-per-performance ? identico alla gen passata, PRE gonfiamento di prezzi, ma il gain prestazionale e' piu' alto.

Secondo questa meravigliosa logica, applicata in uno span di 10+ anni, dovremmo avere delle CPU/GPU che costano minimo 5k ciascuna.
"Il price/performance ? costante, le performance aumentano, TO THE MOON!". :rotfl:

Per ricordare le sagge parole di un certo Buildzoid - "those people are idiots". Enjoy stufette.

P.S.: Il corporate drone stipendiato che fa lo splendido con chi ? libero professionista ? la ciliegina sulla torta.
P.P.S.: I 2k e passa per prenderla ce li ho, stai sereno, ma l'unico motivo valido per farmela prendere sarebbe quello di scalparla su un qualche coglione che se la ricompra subito a 2.5/3k. :rotfl:

Galandil
14th October 2022, 22:42
Beh la 12gb era sostanzialmente una truffa nel peggiore dei casi, marketing estremamente infelice nel migrliore dei casi.

Cmq si, costa tanto ma i prezzi ormai quelli sono.
Cosa deve fare uno, per principio non comprare pi? un cazzo?
La 4080 coster? cmq uno stonfo e pare abbia prestazioni significativamente pi? basse della 90, prezzo per prestazioni siamo l?, a sto punto se uno pu? GG all'all-in per la prima vera scheda 4k.

Io ancora non ho deciso, sono tentato ma non ha abbastanza porte HDMI per quel che faccio io.

No, il punto qui ? che nVidia (e sono certo anche AMD, anche se un minimo di speranza c'? ancora fino al 3 novembre :sneer: ) sta ancora tentando di cavalcare l'onda della bolla crypto, ma ? una bolla e prima o poi scoppia.
Ti ricordo che:

- nVidia ha, nella sua estrema lungimiranza e grande analisi tecnica, creduto che il cryptoboom potesse continuare indefinitamente, ordinando a TSMC un'enorme quantit? per la produzione delle 4000, salvo poi fare "uh-oh", chiedere a TSMC una riduzione dell'allotment, e sentirsi rispondere "suca".
- Il motivo precedente ? il motivo per cui stanno prezzando in modo indecente la 4090 e la 4080 (la 4080 ha un bump dell'MSRP del 50% rispetto alla 3080, ricordiamolo), perch? vogliono fare in modo di liberarsi prima di una supply non indifferente di serie 3000 che gli sono rimaste sul groppone, e poi passare a liberarsi della supply delle 4000. Ricorda che nVidia non ? un'azienda che ha problemi di liquidit? nel breve termine, quindi possono permettersi di rilasciare le 4000 col "contagocce" per liberarsi dello stock di 3000.
- L'idea di fondo dei miglioramenti tecnologici, checch? ne dica il fintech boy, ? di ottenere dispositivi migliori sotto l'aspetto tecnico ma senza incremento di prezzo (fatti salvi discorsi pi? "globali" a prescindere come inflazione ecc.). Qui invece abbiamo i fenomeni che dicono che se le performance aumentano dopo 2 anni, i prezzi devono aumentare perch? bisogna tenere lo stesso price/performance ratio. :rotfl:
- Quando esce una nuova gen, si attende sempre tutte le release e poi si valuta cosa ha senso prendere o meno in funzione delle proprie necessit?. La 4090 ? una roba inutile perch?, tra l'altro, buona parte del prezzo ? causato dai 24GB di GDDR6X, che per giocare servono esattamente ZERO.


Qualcuno sa se avere un set di tre monitor con due attaccati via DP e uno attaccato via HDMI darebbe problemi?
Al momento ho l'ultrawide in DP (che ? obbligatoria, ha solo HDMI 2.0 e non tira le risoluzioni / frequenze giuste senza DP) e i 3 1440p in HDMI.
Per? con la 90 non si pu? fare, non con quelle che ho visto almeno, ergo dovrei mischiare HDMI e DP ma boh.

Posso sempre provare sul pc attuale ma ? una rottura di cazzo :sneer:
Se qualcuno lo sa per certo mi faccia sapere :nod:

In teoria, non ci dovrebbero essere problemi ad usare uscite miste DP/HDMI. Nella pratica, la gestione multimonitor ? sempre un po' un mezzo palo al culo, soprattutto poi se i monitor hanno risoluzioni differenti e/o alcuni hanno qualche tipo di VRR e altri no.

Per capirci, chi sviluppa games/game engines tipo roba AAA/AA ha spesso due schede video nel PC, una nVidia ed una AMD, per testare sempre al volo compatibilit?/prestazioni su entrambe. Ma ti assicuro che chiunque ha una configurazione del genere, preferirebbe vivere all'inferno.

Axet
14th October 2022, 22:55
No, il punto qui ? che nVidia (e sono certo anche AMD, anche se un minimo di speranza c'? ancora fino al 3 novembre :sneer: ) sta ancora tentando di cavalcare l'onda della bolla crypto, ma ? una bolla e prima o poi scoppia.
Ti ricordo che:

- nVidia ha, nella sua estrema lungimiranza e grande analisi tecnica, creduto che il cryptoboom potesse continuare indefinitamente, ordinando a TSMC un'enorme quantit? per la produzione delle 4000, salvo poi fare "uh-oh", chiedere a TSMC una riduzione dell'allotment, e sentirsi rispondere "suca".
- Il motivo precedente ? il motivo per cui stanno prezzando in modo indecente la 4090 e la 4080 (la 4080 ha un bump dell'MSRP del 50% rispetto alla 3080, ricordiamolo), perch? vogliono fare in modo di liberarsi prima di una supply non indifferente di serie 3000 che gli sono rimaste sul groppone, e poi passare a liberarsi della supply delle 4000. Ricorda che nVidia non ? un'azienda che ha problemi di liquidit? nel breve termine, quindi possono permettersi di rilasciare le 4000 col "contagocce" per liberarsi dello stock di 3000.
- L'idea di fondo dei miglioramenti tecnologici, checch? ne dica il fintech boy, ? di ottenere dispositivi migliori sotto l'aspetto tecnico ma senza incremento di prezzo (fatti salvi discorsi pi? "globali" a prescindere come inflazione ecc.). Qui invece abbiamo i fenomeni che dicono che se le performance aumentano dopo 2 anni, i prezzi devono aumentare perch? bisogna tenere lo stesso price/performance ratio. :rotfl:
- Quando esce una nuova gen, si attende sempre tutte le release e poi si valuta cosa ha senso prendere o meno in funzione delle proprie necessit?. La 4090 ? una roba inutile perch?, tra l'altro, buona parte del prezzo ? causato dai 24GB di GDDR6X, che per giocare servono esattamente ZERO.


Ok, per? ad esser precisi l'MSRP ? salito ma il prezzo reale no. Cio? il problema della scorsa gen, per una serie di ragioni obv, ? che l'MSRP non ? stato rispettato da nessuno.
Le 4090 ad oggi costano quanto se non meno delle 3090 2 anni fa o delle 3090 TI fino a tipo un mese fa.

Che poi costino cmq uno stonfo e siano abbastanza senseless sono d'accordo, infatti il giro passato mi son fatto la 3080 invece che la 3090.
Per? non avevo i 3 schermi. In fin dei conti la differenza tra 80 e 90 non ? solo la RAM, che concordo essere inutile, ma anche pura potenza computazionale.
Da vedere i bench, ma se c'? un minimo di verit? in queli rilasciati da NVidia si parla di una distanza notevole tra 80 e 90, molto pi? che nella gen precedente.




In teoria, non ci dovrebbero essere problemi ad usare uscite miste DP/HDMI. Nella pratica, la gestione multimonitor ? sempre un po' un mezzo palo al culo, prattutto poi se i monitor hanno risoluzioni differenti e/o alcuni hanno qualche tipo di VRR e altri no.

Per capirci, chi sviluppa games/game engines tipo roba AAA/AA ha spesso due schede video nel PC, una nVidia ed una AMD, per testare sempre al volo compatibilit?/prestazioni su entrambe. Ma ti assicuro che chiunque ha una configurazione del genere, preferirebbe vivere all'inferno.

Son 3 schermi identici, stessa marca e stesso modello, gestiti da una sola GPU.
L'unica discriminante sarebbero le connessioni, due andrebbero in DP mentre uno andrebbe in HDMI

Axet
14th October 2022, 23:53
Alla fine l'ho presa che la data di consegna stimata (e plausibilmente fake, ma si spera non fake come 2 anni fa) si stava spostando sempre pi? in l? e volevo bloccare la scheda.
Strix 4090, per la prima volta non una versione OC ma tanto per le prestazioni che offre gi? liscia non ha senso spendere ancora di pi? per una manciata di mhz.
Mhz che plausibilmente si possono tirare fuori cmq con overclock manuale, a livello di dissipazione la scheda ? la stessa.

Non ho idea se facciano binning o meno, per? sticazzi che tanto al livello di performance di cui parliamo la differenza ? risibile e oltretutto la versione OC manco ? disponibile.

In ogni caso come dicevo per ora ? solo bloccata, dovrebbe arrivare tra il 16 e il 25 novembre.
Ho tutto il tempo di vedere la 4080 e come si muove AMD, pi? le verifiche tecniche col triplo schermo e uscite miste tanto l'ordine ? cancellabile istant.
Ah, e vedere se ci sta nel case che non ho ancora controllato :sneer:

Galandil
14th October 2022, 23:54
Ok, per? ad esser precisi l'MSRP ? salito ma il prezzo reale no. Cio? il problema della scorsa gen, per una serie di ragioni obv, ? che l'MSRP non ? stato rispettato da nessuno.
Le 4090 ad oggi costano quanto se non meno delle 3090 2 anni fa o delle 3090 TI fino a tipo un mese fa.

Che poi costino cmq uno stonfo e siano abbastanza senseless sono d'accordo, infatti il giro passato mi son fatto la 3080 invece che la 3090.
Per? non avevo i 3 schermi. In fin dei conti la differenza tra 80 e 90 non ? solo la RAM, che concordo essere inutile, ma anche pura potenza computazionale.
Da vedere i bench, ma se c'? un minimo di verit? in queli rilasciati da NVidia si parla di una distanza notevole tra 80 e 90, molto pi? che nella gen precedente.

Sulla 4080, non c'? da stupirsene: come gi? detto in precedenza, la 4080 NON ha la stessa GPU della 4090 (mentre le gen precedenti si, 3090/3080, 2080/Titan, ecc.), che ? una delle mega truffe a sto giro di nVidia. Per? l'MSRP rispetto alla 3080 ? il 70% superiore ($699 vs $1299). SETTANTA PERCENTO.
Sulla 4090, ? ovvio che l'aumento di MSRP sia molto + contenuto, da $1499 per la 3090 a $1599 per la 4090. Ma sono sicuro che Jensenino abbia sofferto come un cane a non mettere l'MSRP a $2000, e non l'ha fatto di certo perch? ha buon cuore, ma solo perch? a quel punto lo avrebbero preso a verdure marce sul palco durante l'annuncio.
E se guardi la 407... ehm la 4080 12GB cancellata oggi, confrontando l'MSRP a quello della 3070, c'? un aumento dell'80% ($499 -> $899). Dai, di che cazzo stiamo parlando. :sneer:

E in termini poi reali, prova a vedere se trovi una 4090 gi? non scalpata: ? uscita da 2 giorni al pubblico, sul sito nVidia ? gi? "esaurita", idem nei retailers, e se ti fai un giretto su ebay le trovi in sole aste e tutti che raggiungono minimo i €2500 (facendo obv un raffronto con l'MSRP europeo di circa 2k). Per? mantenere bassa la supply ? consentito, e guardacaso puoi trovare "scontate" le schede della serie 3000 anche sullo store nVidia. Come dire... :confused:


Son 3 schermi identici, stessa marca e stesso modello, gestiti da una sola GPU.
L'unica discriminante sarebbero le connessioni, due andrebbero in DP mentre uno andrebbe in HDMI

Come detto prima, in teoria non dovresti avere troppi problemi (limitatamente alla versione della porta HDMI).

-=Rho=-
15th October 2022, 00:50
2500€ , perche alla fine i prezzi andranno li per i modelli aftermarket della 4090 saranno li attorno , e' un pelo oltre quanto mi sento confortabile a pagare una gpu a prescindere da poter spendere quelle cifre o meno .

Rifaro il pc a meta del 2023 e davvero non voglio piu' comprare nvidia per principio ( non per prestazioni ) anche se alla fine non ci credo per nulla , aspetto il 3 novembre con aspettative bassissime

Axet
15th October 2022, 01:48
2500€ , perche alla fine i prezzi andranno li per i modelli aftermarket della 4090 saranno li attorno , e' un pelo oltre quanto mi sento confortabile a pagare una gpu a prescindere da poter spendere quelle cifre o meno .

Rifaro il pc a meta del 2023 e davvero non voglio piu' comprare nvidia per principio ( non per prestazioni ) anche se alla fine non ci credo per nulla , aspetto il 3 novembre con aspettative bassissime

Come detto io ho pagato 2130 la Strix.
Sempre ovviamente overpriced e con poco senso, ma non sono 2500 - ci balla il 20%

Hador
15th October 2022, 07:16
Non c'? niente di pi? divertente che leggere i deliri sull'elettronica da parte di uno che non sa cosa un filtro RC o la differenza fra un BJT ed un MOSFET, mentre discute con qualcuno che sta roba se l'? sorbita in abbondanza.

Mi segno che il power limit serve a garantire stabilit? perch? ? come la perla del tuo adorato J2C su come funziona la termodinamica e la trasmissione del calore. :rotfl:

Poi ancora fanboy di che, mi sa che non hai neanche idea di cosa significhi la parola fanboy, ma la cosa non stupisce, sei troppo impegnato a descriverci, nei thread sull'hw, i tuoi mobili di stile - ci pomici anche ogni tanto? Vero stile da macellaro che ha fatto un po' di quattrini. :sneer:

Per il resto, aumentare la potenza assorbita di un qualunque dispostivo del 35%-50% per ottenere un incremento di prestazioni del 5-10% ? da ritardati dell'ingegneria di qualsiasi tipo. Ma d'altronde nVidia, AMD, Intel e compagnia cantante campano alle spalle di un pubblico composto da una buona fetta di ritardati, quindi per loro ? solo profit, sbattici il dissipatore alto 3,5 slot, chiedi 2k e via che arrivano gli sbrodoloni ad urlare "take my money". D'altronde vi comprate anche le mobo da €400+, di cosa ci si stupisce.

E lo giustifichi pure con l'ennesimo delirio sul price/performance ratio:



Secondo questa meravigliosa logica, applicata in uno span di 10+ anni, dovremmo avere delle CPU/GPU che costano minimo 5k ciascuna.
"Il price/performance ? costante, le performance aumentano, TO THE MOON!". :rotfl:

Per ricordare le sagge parole di un certo Buildzoid - "those people are idiots". Enjoy stufette.

P.S.: Il corporate drone stipendiato che fa lo splendido con chi ? libero professionista ? la ciliegina sulla torta.
P.P.S.: I 2k e passa per prenderla ce li ho, stai sereno, ma l'unico motivo valido per farmela prendere sarebbe quello di scalparla su un qualche coglione che se la ricompra subito a 2.5/3k. :rotfl:Gala sicuramente il mercato globale, tutte le aziende del mondo di hardware E tutti i consumatori non capiscono un cazzo. Meno male che ce lo dici tu su un forum come dovrebbero funzionare le cose. D'altronde sei esperto, hai visto un video di YouTube. ? che devi andare a mangiare le arancine altrimenti andresti a fare il CEO di Nvidia :nod:

Se poi ti parte l'embolo per 300 euro di aumento su una GPU aspetta di vedere quanto costa un automobile oggi :sneer:

Hador
15th October 2022, 08:28
Facendo un discorso sensato e non da esperto di YouTube/so tutto io anche se non so un cazzo, il mercato e' quello che e'.
La gestione della supply chain e' un delirio, non solo Nvidia ma tutti i partner hanno ordinato troppe schede e ora il mercato ha rallentato. (Ma la stessa cosa e' successa in diversi settori.) Dall'altro, la pandemia ha mostrato come i consumatori siano disposti ad accettare prezzi pi? alti, anche prezzi senza senso quali quelli che erano gli street price delle 3080.
In ultimo, Nvidia da sempre ha fatto scelte di marketing e di posizionamento da merde.
In questo contesto scandalizzarsi per i prezzi piu' alti mi pare da polli, considerando che: 1) si parla di roba super entusiasth; 2) le 3080 ora si trovano a prezzi ragionevoli e coprono le esigenze del 99% dei giocatori; 3) il mercato dira chi aveva ragione. Se non le venderanno abbasseranno i prezzi; 4) comunque una titan costava 2k anche 4 anni fa e nessuno rompeva i coglioni.

Molto dipender? dalle offerte di AMD e in futuro di Intel, se AMD sara' pi? aggressiva sui prezzi potrebbe significare che Nvidia sta lucrando tanto, se AMD si omologa invece o sono tutti malvagi o probabilmente la congiunzione globale non gli permette di essere cosi competitivi.

In ultima istanza dovete anche considerare che gli stipendi italiani sono al palo da 20 anni, 2k negli US non sono 2k euro in Italia.

Tunnel
15th October 2022, 23:59
Aggiungici anche il cambio, che non ? proprio nel momento migliore per noi (per l'import ovviamente. Meglio essere precisi cos? non parte un processo)

Hador
16th October 2022, 08:33
Infatti in ch la tuf per dire sta a 1900 CHF, che ? sostanzialmente il prezzo ufficiale pi? tasse, e comunque meno di quanto costassero le 3090 nel periodo di delirio massimo

Zaider
17th October 2022, 06:33
si ma i 700 chf?

Axet io ho firmato il mio lavoro in Svizzera, vengo a cagarti il cazzo presto preparati per un birrino

Axet
17th October 2022, 12:21
I 700 CHF devo ancora recuperarli, ma son tipo 2 anni che li devo recuperare :sneer:

Comunque quando vuoi, fammi un fischio e ci si becca :thumbup:

Hador
17th October 2022, 12:30
Maledetti mangiarane

Zaider
17th October 2022, 13:12
In realta' ho trovato a basel, ma avendo gia' casa trai mangiarane mi tocca star li

Axet
17th October 2022, 14:18
In realta' ho trovato a basel, ma avendo gia' casa trai mangiarane mi tocca star li

A Basilea dove? Perch? pure il mio ufficio ? a Basilea in teoria :sneer:

Zaider
17th October 2022, 15:02
Da Bayer, pero' fanno tipo 2 giorni in ufficio a quanto ho capito, quindi penso terremo la casa a ginevra ed andro' una notte a setitmana in hotel

Axet
17th October 2022, 15:06
Da Bayer, pero' fanno tipo 2 giorni in ufficio a quanto ho capito, quindi penso terremo la casa a ginevra ed andro' una notte a setitmana in hotel

Ah dalla concorrenza :sneer:

Io comunque son sempre da casa, son qua da aprile e son stato in ufficio 3 volte (solo in giornata) :shrug:

Axet
20th October 2022, 11:17
Comunque qua in Svizzera sul maggior sito di elettronica le 4090 sono tutte sold out da mo, la TUF ? salita a 2150 e la data di consegna della mia si ? progressivamente spostata dal 15/11 al 16/11, poi al 17/11 ed oggi al 19/11.

Mi sembra una situazione molto simile a quella del 2020 tbh :rotfl:

Hador
20th October 2022, 12:26
Si ne parlavo in ufficio, eravamo partiti fiduciosi e invece sembra la solita merda :sneer:

Sulimo
20th October 2022, 12:32
Comunque qua in Svizzera sul maggior sito di elettronica le 4090 sono tutte sold out da mo, la TUF ? salita a 2150 e la data di consegna della mia si ? progressivamente spostata dal 15/11 al 16/11, poi al 17/11 ed oggi al 19/11.

Mi sembra una situazione molto simile a quella del 2020 tbh :rotfl:

Ad un certo punto nvidia ti dir?:
"arriva dopo lo SMAU"

holysmoke
20th October 2022, 13:13
Ad un certo punto nvidia ti dir?:
"arriva dopo lo SMAU"

basta aspettare e portarsi una sedia...

Hador
20th October 2022, 20:50
meantime intel...

Axet
21st October 2022, 13:20
Altro update sulla data di consegna, 22 novembre :rotfl:

Axet
25th October 2022, 18:02
Dopo esser slittato al 23 novembre, oggi ? passato al 24.
Zero disponibilit? sul sito e in Svizzera in generale.

Minchia i flashback del 2020 :rotfl:

Galandil
25th October 2022, 18:28
Dopo esser slittato al 23 novembre, oggi ? passato al 24.
Zero disponibilit? sul sito e in Svizzera in generale.

Minchia i flashback del 2020 :rotfl:

Dovresti ringraziare, cos? ti eviti la delusione di quando ti va in fiamme il magnifico connettore da 600W su 12 pins. :sneer:


https://www.youtube.com/watch?v=kRkjUtH4nIE

Axet
26th October 2022, 02:13
Dovresti ringraziare, cos? ti eviti la delusione di quando ti va in fiamme il magnifico connettore da 600W su 12 pins. :sneer:


https://www.youtube.com/watch?v=kRkjUtH4nIE

Sta cosa ? scandalosa tbh.

Non so che cazzo fare, il mio case ? un Lian Li pc011-dynamic, come dimensione della GPU ci sto con un buon centimetro di tolleranza.
Per? non ho 3 centimetri e mezzo per non forzare l'adattatore.

Ho visto che cablemod sta per lanciare un cavo angolato a 90*, ma il connettore di per se ? spesso 2.3 cm quindi non mi ci starebbe in ogni caso.

Cambiare il case ho ZERO voglia, mi piace da morire esteticamente e sta perfetto sulla scrivania. In pi?, soprattutto, non ho cazzi di smontare tutto il pc e rimontarlo da capo.
Quindi ho due soluzioni:
1) tenerlo col pannello laterale smontato. Il pc ? silenzioso quindi non mi cambia un po' un cazzo, anzi mi abbasserebbe le temp, per? prenderebbe un sacco di polvere
2) piegare il cavo per farcelo stare in quel centimetro di clearance e pregare stocazzo che non mi si bruci tutto. Che poi immagino nel caso succeda un episodio del genre la GPU ? coperta da garanzia, ma anche se lo fosse in caso di problemi finirei con lo stare settimane senza pc

Ribadisco che non so che cazzo fare :D

edit:
altra opzione
3) prendere questa: https://www.digitec.ch/en/s1/product/gigabyte-giga-vga-24gb-rtx4090-aorus-xtreme-waterforce-24g-3xdp3xhdmi-aorus-geforce-rtx-4090-xtreme--22826437 che risulta 0.8 cm piu stretta della Strix :scratch:

Axet
26th October 2022, 14:31
Pd invece di scannarvi sul pelo nell'uovo tra 13600k e 5800X 3D datemi una mano qua che sto sbarellando :sneer:

Mi sto aprendo all'idea di cambiare case e prenderne uno pi? grande, meglio farsi la sbatta una volta per rimontare il pc che bruciare la GPU.
In caso per? vorrei qualcosa di figo quando il mio Lian Li O11 Dynamic Razer edition, ma tra quelli che ho visto online non c'? niente che sia parimenti bello (per me, obv).

L'alternativa ? andare su cavi custom, quello di cablemod non dovrebbe starci. Ho visto un video di J2C oggi con un cavo corsair che pare essere fatto meglio e quindi pi? "bendable" (questo: https://www.corsair.com/uk/en/Categories/Products/Accessories-%7C-Parts/PC-Components/Power-Supplies/600W-PCIe-5-0-12VHPWR-Type-4-PSU-Power-Cable/p/CP-8920284), ma non credo vada bene per la mia PSU.

Ho cercato su bequiet (brand della mia PSU) e trovato questo: https://www.bequiet.com/en/accessories/3959. Ogni cavo ha il suo sleeve, ma non so se risolva il problema del bending o meno.

L'alternativa ? aspettare che arrivi la GPU, montarla as-is e vedere quanto stress c'? sull'adattatore e poi decidere di conseguenza andando di case aperto nel frattempo..

Dryden
26th October 2022, 14:42
L'alternativa ? aspettare che arrivi la GPU, montarla as-is e vedere quanto stress c'? sull'adattatore e poi decidere di conseguenza andando di case aperto nel frattempo..

This, inutile fasciarsi la testa prima, non sai ancora quanto il problema sia diffuso, aspetta sviluppi.

Galandil
26th October 2022, 14:58
This, inutile fasciarsi la testa prima, non sai ancora quanto il problema sia diffuso, aspetta sviluppi.

Il problema ? diffuso "al 100%", visto che ? proprio un problema di base di progettazione. Chi l'avrebbe mai detto che usare dei cavi da 12mm di diametro e relativi connettori su cui far passare 100W per cavo avrebbe potuto creare problemi di surriscaldamento alle giunzioni se si piega lievemente il cavo vicino al connettore.

Giusto nVidia poteva pensare ad una "soluzione" simile per risolvere un problema inesistente, invece di utilizzare 4 connettori standard (che hanno una tolleranza di sicurezza elevata, come ? *sacrosanto* che sia quando si tratta di trasmettere potenza) sulla PCB. :sneer:

Hador
26th October 2022, 15:46
Aspetta senza farti tante seghe, al pi? puoi metterla in verticale

Hador
26th October 2022, 15:49
Alla peggio prendi l'evo che ? un filo pi? largo. Ma hai il case che ha tutto reddit, sicuro usciranno pi? info andando in avanti

Dryden
26th October 2022, 15:49
Il problema ? diffuso "al 100%", visto che ? proprio un problema di base di progettazione. Chi l'avrebbe mai detto che usare dei cavi da 12mm di diametro e relativi connettori su cui far passare 100W per cavo avrebbe potuto creare problemi di surriscaldamento alle giunzioni se si piega lievemente il cavo vicino al connettore.

Giusto nVidia poteva pensare ad una "soluzione" simile per risolvere un problema inesistente, invece di utilizzare 4 connettori standard (che hanno una tolleranza di sicurezza elevata, come ? *sacrosanto* che sia quando si tratta di trasmettere potenza) sulla PCB. :sneer:


Lo erano anche il socket lga 1700 che fletteva le cpu o le GDDR6x senza adeguati pad termici nelle 3080 e 90, poi dopo un po' se ne sono scordati tutti perche' nella pratica si ? rivelato un problema che si manifesta in maniera troppo casuale e legata al contesto da poter appunto essere definito come un problema vero, che necessita un richiamo.

Prima di annullare l'ordine di una scheda sulla casistica di 2 unita' su centinaia di migliaia distribuite io aspetterei maggiori sviluppi visto che glie la consegnano tra pi? di un mese (forse piu' :sneer: )

Galandil
26th October 2022, 16:17
Lo erano anche il socket lga 1700 che fletteva le cpu o le GDDR6x senza adeguati pad termici nelle 3080 e 90, poi dopo un po' se ne sono scordati tutti perche' nella pratica si ? rivelato un problema che si manifesta in maniera troppo casuale e legata al contesto da poter appunto essere definito come un problema vero, che necessita un richiamo.

Prima di annullare l'ordine di una scheda sulla casistica di 2 unita' su centinaia di migliaia distribuite io aspetterei maggiori sviluppi visto che glie la consegnano tra pi? di un mese (forse piu' :sneer: )

Neanche i famigerati case NZXT con la schedina con una pista collegata ai 12V invece che terra sono andati TUTTI a fuoco. E' come dire che andare a 300 all'ora in autostrada non ha la garanzia di farti fare un incidente: ovvio che non succede il 100% delle volte, ma il rischio aumenta esponenzialmente.

Smettiamola di difendere pratiche idiote come queste, che noi utenti non abbiamo nulla da guadagnarci, solo da perdere.

Dryden
26th October 2022, 16:39
Gala ma chi cazzo si sogna di difendere le pratiche di questa o qual si voglia azienda, ma che c'entra col discorso enac oid.

Io dico solo di aspettare per valutare meglio la situazione, visto che il tempo c'e', annullare un ordine adesso o tra 30 giorni cambia 0 se non che magari escono altri dati. Oltretutto non esiste ancora alternativa sul mercato, o questa o niente.

Galandil
26th October 2022, 16:50
Gala ma chi cazzo si sogna di difendere le pratiche di questa o qual si voglia azienda, ma che c'entra col discorso enac oid.

Io dico solo di aspettare per valutare meglio la situazione, visto che il tempo c'e', annullare un ordine adesso o tra 30 giorni cambia 0 se non che magari escono altri dati. Oltretutto non esiste ancora alternativa sul mercato, o questa o niente.

E io ti sto dicendo che non c'? nulla da "valutare meglio", il problema ? intrinseco per come ? fatto il connettore in bundle, punto, ? proprio una questione di ingegneria elettrica di base.

Una soluzione con connettore ad angolo di 90? in un casing rigido, considerando dove ? montata la presa femmina sulle schede, ? l'unica soluzione che dovrebbe eliminare ragionevolmente il rischio associato. Ed ? patetico che non sia stata pensata in partenza, soprattutto considerando che ? una scheda che costa $1.5k/€2k minimo: hanno fatto i pezzenti nel non voler usare i connettori standard (che offrono sicurezza al 100%), e neanche aver voluto offrire di default un connettore a 90? (perch? si, farlo a 90? costa ovviamente di pi? di quella porcheria in bundle).

Ma ? nVidia, la scheda ? poTeNTeh!1one, e quindi il pass/minimizzazioni sono automatiche, stile Apple con le sue soluzioni "creative".

Axet
26th October 2022, 16:57
Aspetta senza farti tante seghe, al pi? puoi metterla in verticale

Serve il riser che per? non va in PCI gen 4 ma solo gen 3.
Paiono esserci differenze, seppur minime: https://www.kitguru.net/components/graphic-cards/dominic-moass/nvidia-rtx-3080-pcie-4-0-vs-3-0-scaling-analysis/all/1/

Non ho idea se con la 4090 la differenza si allarghi ulteriormente.

Oltretutto mettendola in verticale la si strozza non poco, vabb? che con quel mega cooler non cambier? un po' un cazzo, but still.


Alla peggio prendi l'evo che ? un filo pi? largo. Ma hai il case che ha tutto reddit, sicuro usciranno pi? info andando in avanti

Si stavo guardando l'evo e l'XL.
L'evo ? molto bellino ma pare che anche l? senza adattatore speciale (tipo cablemod o bequiet) non ci sta se si vuole rispettare i 3.5cm consigliati prima di piegare il cavo.

Sull'XL invece non dovrebbero esserci problemi di sorta, per? ? enorme pd.

Che poi nessuno dei due ha i led belli come il mio che ? edizione speciale Razer :cry:


Gala ma chi cazzo si sogna di difendere le pratiche di questa o qual si voglia azienda, ma che c'entra col discorso enac oid.

Io dico solo di aspettare per valutare meglio la situazione, visto che il tempo c'e', annullare un ordine adesso o tra 30 giorni cambia 0 se non che magari escono altri dati. Oltretutto non esiste ancora alternativa sul mercato, o questa o niente.

Concordo, ma per trasparenza l'idea non era di cancellare l'ordine quanto invece prendere quella AIO che ? pi? piccola di base.
Oppure capire la situazione case / cavi e comprare tutto prima che arrivi la scheda cos? da essere a posto.

Anche perch? il mio amico che si prende la mia 3080 sta cercando pure un case, in caso gli faccio un pacchetto completo :sneer:

Per? avete ragione, mi sto preoccupando pi? del dovuto.
Dovrei comunque avere tempo, monto la 4090 e vedo se ci sta. Se non ci sta lascio il case aperto mentre ordino un adattore ad hoc o un case nuovo (o entrambi) a seconda della situazione.
Una volta che ? tutto ok ed ho un case che riesce a chiudersi e una GPU che funziona senza bruciare cavi, passo la 3080 (e il case, in caso) al mio amico.

Ha senso come approccio.

Axet
26th October 2022, 17:01
E io ti sto dicendo che non c'? nulla da "valutare meglio", il problema ? intrinseco per come ? fatto il connettore in bundle, punto, ? proprio una questione di ingegneria elettrica di base.

Una soluzione con connettore ad angolo di 90? in un casing rigido, considerando dove ? montata la presa femmina sulle schede, ? l'unica soluzione che dovrebbe eliminare ragionevolmente il rischio associato. Ed ? patetico che non sia stata pensata in partenza, soprattutto considerando che ? una scheda che costa $1.5k/€2k minimo: hanno fatto i pezzenti nel non voler usare i connettori standard (che offrono sicurezza al 100%), e neanche aver voluto offrire di default un connettore a 90? (perch? si, farlo a 90? costa ovviamente di pi? di quella porcheria in bundle).

Ma ? nVidia, la scheda ? poTeNTeh!1one, e quindi il pass/minimizzazioni sono automatiche, stile Apple con le sue soluzioni "creative".

Il lavoro fatto col connettore ? una merda e siamo tutti d'accordo. Non so un cazzo di ingegneria elettrica quindi non commento, per? da consumatore l'idea di un qualcosa che si spacca cos? facilmente creando danni cos? gravi e che ? una merda da guardare e gestire non ha senso.
Specialmente sapendo che sarebbero bastati i soliti 2 connettori 8 pin (entrambi i cavi di corsair e bequiet terminano con solo 2 8 pin, non 4).

E s?, siamo tutti d'accordo che il prezzo ? altissimo.

Per? ? innegabile che la scheda sia una bomba (letteralmente, dipendentemente dal connettore :sneer: ) e sia la prima che davvero permette il gioco in 4k (o pi?).
Non ? che il prodotto diventa una merda in toto perch? su alcune cose hanno preso decisioni di merda

Dryden
26th October 2022, 17:09
Ma ? nVidia, la scheda ? poTeNTeh!1one, e quindi il pass/minimizzazioni sono automatiche, stile Apple con le sue soluzioni "creative".

Qui l'unico step automatico ? che vai in ragestorm non appena si tratta di prodotti di azienda N che ti sta sul cazzo, ed il resto del discorso scompare, tipo che Axet ha chiesto un consiglio e ancora non si ? capito quale sia il tuo.
Deduco che sia annulla l'ordine perche' Nvidia merda? Oppure?

Galandil
26th October 2022, 17:21
Il lavoro fatto col connettore ? una merda e siamo tutti d'accordo. Non so un cazzo di ingegneria elettrica quindi non commento, per? da consumatore l'idea di un qualcosa che si spacca cos? facilmente creando danni cos? gravi e che ? una merda da guardare e gestire non ha senso.
Specialmente sapendo che sarebbero bastati i soliti 2 connettori 8 pin (entrambi i cavi di corsair e bequiet terminano con solo 2 8 pin, non 4).

No. Il cavo PCIe 8 pin ? rated per 150W massimo, ed ? il motivo per cui ? sicuro, quindi se vuoi 450W di alimentazione alla scheda ne devi usare tre, 600W quattro ecc.


E s?, siamo tutti d'accordo che il prezzo ? altissimo.

Per? ? innegabile che la scheda sia una bomba (letteralmente, dipendentemente dal connettore :sneer: ) e sia la prima che davvero permette il gioco in 4k (o pi?).
Non ? che il prodotto diventa una merda in toto perch? su alcune cose hanno preso decisioni di merda

Qui non si tratta di un difetto tipo "le ventole fanno un rumore strano" o "si sente un buzz elettrico fastidioso venire dal VRM": qui si tratta di un fottuto SAFETY HAZARD, che non ? giustificabile neanche se una GPU fosse in grado di fare 500fps a 8k. Non c'? proprio altro da aggiungere.

Galandil
26th October 2022, 17:32
Qui l'unico step automatico ? che vai in ragestorm non appena si tratta di prodotti di azienda N che ti sta sul cazzo, ed il resto del discorso scompare, tipo che Axet ha chiesto un consiglio e ancora non si ? capito quale sia il tuo.
Deduco che sia annulla l'ordine perche' Nvidia merda? Oppure?

Il consiglio che darebbe un adulto e non un binbominkia, in questa situazione, sarebbe di aspettare e vedere se vengono fuori cavi con connettori sicuri al 100% (al netto della minchiata di aver voluto spremere 600W massimi su un cavo a 12 pin, ma questa ? un'altra storia). E' da criminali suggerire di tentare di risolvere un safety hazard con soluzioni tipo "prendi un case pi? grande, stai attento a non piegare il cavo troppo" ecc., questa roba NON deve MAI ricadere come responsabilit? sull'utente.

Also, a me stanno sul cazzo TUTTE le aziende di informatica/hardware, tranquillo, non mi faccio incantare dai big numbahs se poi i prezzi (per fare un esempio) sono ridicoli rispetto a quel che offrono, tipo Zen4 o la 4090 (e molto probabilmente anche la 7900XT). Qui per? siamo andati ben oltre un problema di prezzo o minor inconvinience tipo la ventola che fa un rumore fastidioso.

Axet
26th October 2022, 17:42
No. Il cavo PCIe 8 pin ? rated per 150W massimo, ed ? il motivo per cui ? sicuro, quindi se vuoi 450W di alimentazione alla scheda ne devi usare tre, 600W quattro ecc.


Come detto sopra non ? il mio campo ergo mi limito a riportare informazioni, ma il cavo Corsair ? con dual 8-pin: https://www.corsair.com/uk/en/Categories/Products/Accessories-%7C-Parts/PC-Components/Power-Supplies/600W-PCIe-5-0-12VHPWR-Type-4-PSU-Power-Cable/p/CP-8920284
Ho visto un video di J2C dove ne parla, secondo lui c'? un cavo che va alla PSU e gli dice di cacciare pi? potenza sull'8-pin. Ignoro se funzioni davvero cos? o meno, per? ? un fatto che abbia solo due 8-pin e non quattro.

Leggevo altrove che il connettore standard pu? portare molto pi? di 150W ed ? maxato a quella potenza perch? ha un margine di sicurezza enorme. Magari corsair ha deciso di ignorarlo, no idea.

BeQuiet invece ? un doppio 12-pin, errore mio: https://www.bequiet.com/en/accessories/3959



Qui non si tratta di un difetto tipo "le ventole fanno un rumore strano" o "si sente un buzz elettrico fastidioso venire dal VRM": qui si tratta di un fottuto SAFETY HAZARD, che non ? giustificabile neanche se una GPU fosse in grado di fare 500fps a 8k. Non c'? proprio altro da aggiungere.

Concordo, ma la scheda l'han fatta cos? e dubito che faranno modifiche sostanziali.
Ergo visto che l'ho comprata mi tocca trovare una soluzione.
Come dici anche nell'altro post ed hai ragione, una responsabilit? del genere non dovrebbe mai ricadere sull'utente. Per? la situazione ? questa, ? una merdata, ma una soluzione devo trovarla (ad esclusione dell'annullare l'ordine).

Hador
26th October 2022, 17:45
Mha ci sono stati due casi.
Se il problema verra' riconosciuto come tale faranno qualcosa.
E' troppo presto per fasciarsi la testa, manco e' uscito il video denunciah di GN.
Pu? benissimo prendere la scheda, lasciare il case aperto tanto gli cambia una sega, e aspettare che escano pi? info considerando appunto che mezzo mondo ha quel case

Galandil
26th October 2022, 17:55
Per favore smettetela di prendere come riferimento quel che dice J2C, l'unica cosa su cui potrebbe avere il permesso parlare ? come fare i custom loops, per il resto dovrebbe tacere che non capisce un cazzo di nulla.

Quel cavo Corsair mi sembra altrettanto criminale, far andare 300W su singolo 8 pin (anche se la PSU ? in grado di erogarli) ? una cosa mostruosa. I margini di sicurezza non esistono per fare i fighi, diciamo, e si, puoi ignorare quei margini, cos? come puoi andare in auto (per continuare con l'esempio automobilistico) a 250 all'ora senza cintura.

Sul discorso scheda, mi spiace, ma a sto giro io l'unico consiglio che posso dare da persona responsabile ?: non prenderla finquando non venga rilasciato un cavo sicuro (dopo test indipendenti). Che nel caso in cui ti dovesse capitare di rollare il fumble, ci sono 3 outcomes possibili: si fonde solo il connettore del cavetto, si fonde anche il connettore femmina della PCB (quindi RMA per cambiare quello o altri possibili danni ulteriori alla scheda), prende fuoco l'interno del case.

Hador
26th October 2022, 17:59
Il cavo e' sicuro, non va piegato tanto. Se lascia il case aperto no problema. Alla peggio cambia case dopo o aspetta un nuovo adattatore

Galandil
26th October 2022, 18:02
Il cavo e' sicuro, non va piegato tanto. Se lascia il case aperto no problema. Alla peggio cambia case dopo o aspetta un nuovo adattatore

Il cavo ? sicuro, l'ha detto Hador. Il mondo ora ? un posto migliore e i problemi non ci sono pi?.

Siamo al livello dei repubblicani americani negazionisti del cambiamento climatico. :rotfl:

Hador
26th October 2022, 18:14
Sei tu che hai deciso che il cavo ti brucia la casa stando ad un post di reddit. Siamo ai livelli "ho letto uno e' morto col vaccino dei COVID quindi non vacciniamoci".

Non c'? prova ad oggi che il cavo non sia sicuro se usato secondo specifiche.
Che le specifiche siano ridicole etc etc bla Nvidia merda va bene ma non c'entra col consiglio ad axet.

Se uscir? che e' troppo pericoloso, cosa possibile se il problema sara riproducibile, faranno nuovi adattatori o un richiamo, ma mi sentirei sicuro abbastanza non piegando eccessivamente il cavo.

Ad oggi e' presto per strapparsi i capelli

Galandil
26th October 2022, 18:25
Ci sono stati dubbi fra chi ? un pelo pi? esperto di "Reddit random user" su questo cavo e la sua sicurezza ben da prima dell'uscita della 4090.
Poi ho anche linkato il video di uno che potremmo chiamare *lievemente esperto* come Buildzoid.

Cristo santo, questo rischio era stato gi? segnalato a SETTEMBRE: https://wccftech.com/atx-3-0-12vhpwr-gen-5-connector-major-safety-risk-using-adapter-confirms-pci-sig/

Per? no, sono casualit?, ? tutt'apposto, kktnxbai.

Hador
26th October 2022, 18:47
Minchia Gala nessuno sta dicendo nulla. Si sta dicendo che fino a che non sono manco riusciti a replicare il problema FORSE EH e' presto per non comprare una scheda.
Non mi pare un consiglio assurdo.

PS. Il link che hai postato non mi sembra centri nulla col problema di cui si sta parlando

Galandil
26th October 2022, 19:10
E' quello, ne ha parlato anche GN in uno dei video di news a settembre: https://www.gamersnexus.net/news-pc/3692-intel-arc-isnt-dead-melting-gpu-cables

Nello specifico, 3 manufacturers hanno riportato a settembre il problema in questione. No one gave a fuck.

Ora, da un lato abbiamo dei report di produttori che hanno riportato il problema a settembre, dall'altro abbiamo i primi report di utenti che hanno subito il danno, per? mi vieni che "non sono riusciti a replicare il problema".

Oh, pensatela come vi pare, tanto ormai ? chiaro che per dichiarare che un problema di sicurezza esiste c'avete bisogno di vedere i famosi cadaveri. Enjoy.

Galandil
26th October 2022, 19:30
Ah, dimenticavo @Hador: ricordati che Axet ? quello a cui ? partito un embolo e si ? messo a bestemmiarmi qui perch? la prima volta che ha aggiornato il BIOS della mobo il processo non era andato a buon fine.

Non oso immaginare cosa possa succedere se gli si fonde il cavo/connettore della GPU/altro, imo ti viene a menare con booster, catene e cumpa. :sneer:

Zaider
26th October 2022, 19:40
con 700 franchi ci esce la PSU + Mobo nuove, no problemo

Hador
26th October 2022, 19:49
E' quello, ne ha parlato anche GN in uno dei video di news a settembre: https://www.gamersnexus.net/news-pc/3692-intel-arc-isnt-dead-melting-gpu-cables

Nello specifico, 3 manufacturers hanno riportato a settembre il problema in questione. No one gave a fuck.

Ora, da un lato abbiamo dei report di produttori che hanno riportato il problema a settembre, dall'altro abbiamo i primi report di utenti che hanno subito il danno, per? mi vieni che "non sono riusciti a replicare il problema".

Oh, pensatela come vi pare, tanto ormai ? chiaro che per dichiarare che un problema di sicurezza esiste c'avete bisogno di vedere i famosi cadaveri. Enjoy.
Lo hai letto l'articolo? E' il contrario di quello che dici, e' Nvidia che ha riportato i produttori, e i test erano estremi.

Non servono i morti, ma almeno che riproducano il problema, non mi pare sto gran requisito

Axet
26th October 2022, 20:02
con 700 franchi ci esce la PSU + Mobo nuove, no problemo

Sto guardando anche a PSU ATX 3, ma in commercio non ce ne sono. L'unica che ho trovato in svizzera arriva tra fine novembre e la fine dell'anno, ma ? gold invece che titanium come la mia.
Per? mi girerebbe il cazzo cambiare PSU che quella attuale ? costata un sacco ed ? top.

Perch? cambiare mobo btw? Non mi sono informato, ma credevo che una PSU ATX 3.0 funzionasse con le mobo attuali senza problemi.


@Gala
Ma un cavo cos?: https://www.bequiet.com/en/accessories/3959
Non ? un adattatore ma finisce in un doppio 12 pin direttamente nella PSU senza altri connettori di mezzo, secondo te da comunque problemi?

Dicono ogni filo sia "individually sleeved", ma non ho idea se la cosa abbia o meno un impatto positivo sulla situazione.
Ad occhio pare di base fatto meglio di quello che viene con la scheda grafica, ma oltre quello non saprei dire

Zaider
27th October 2022, 09:05
Sto guardando anche a PSU ATX 3, ma in commercio non ce ne sono. L'unica che ho trovato in svizzera arriva tra fine novembre e la fine dell'anno, ma ? gold invece che titanium come la mia.
Per? mi girerebbe il cazzo cambiare PSU che quella attuale ? costata un sacco ed ? top.

Perch? cambiare mobo btw? Non mi sono informato, ma credevo che una PSU ATX 3.0 funzionasse con le mobo attuali senza problemi.




Cosi' su due piedi mi viene da dire che i consumi in picco della 4090 sono astronomici, secondo me senza una mobo di nuova generazione con power delivery di ultima generazione rischi succedano cose strane (ho letto diverse recensioni a review al riguardo).

Hador
27th October 2022, 09:55
I consumi della 4090 sono identici a quelli della 3090. Il fatto che consenta di arrivare a 600W non vuol dire che ci debba andare, in config standard non oc sta a 450W di picco che e' tanto ma nulla di mai visto prima

Sulimo
27th October 2022, 09:57
su reddit la gente ? impazzita, continua a postare foto dei cavi della 4090 per chiedere se sono "piegati bene" o rischia di prendere fuoco tutto.
gg :sneer:

Hador
27th October 2022, 10:01
In ultima istanza, e' un nuovo standard non un cavo proprietario che si e' inventato Nvidia. Next gen Radeon non lo usera', ma prima o poi arriva.

-=Rho=-
27th October 2022, 11:11
Pd invece di scannarvi sul pelo nell'uovo tra 13600k e 5800X 3D datemi una mano qua che sto sbarellando :sneer:



Fatti fare il lato del case su misura con un paio di cm di ringonfio dove ci va le cpu , ci sono tanti modder che lavorano a commissione tanto gli ??? non ti mancano :D

Axet
27th October 2022, 12:23
Fatti fare il lato del case su misura con un paio di cm di ringonfio dove ci va le cpu , ci sono tanti modder che lavorano a commissione tanto gli ??? non ti mancano :D

Non faccio prima a cambiare case invece di storpiare questo? :scratch:

Comunque mi quoto da solo che se sta roba funziona potrebbe risolvere il problema:

Ma un cavo cos?: https://www.bequiet.com/en/accessories/3959
Non ? un adattatore ma finisce in un doppio 12 pin direttamente nella PSU senza altri connettori di mezzo, secondo te da comunque problemi?

Dicono ogni filo sia "individually sleeved", ma non ho idea se la cosa abbia o meno un impatto positivo sulla situazione.
Ad occhio pare di base fatto meglio di quello che viene con la scheda grafica, ma oltre quello non saprei dire

Axet
27th October 2022, 12:52
Vabb? nel mentre l'ho trovato su digitec, consegna (teorica) tra il 18 e il 25 novembre. Posso sempre cancellare l'ordine se ? una brutta idea o non serve a un cazzo, ma immagino la domanda sia alta quindi l'ho bloccato.

Le date cadono a fagiolo, la 4090 ? stata spostata ancora al 26 novembre :rotfl:

https://i.imgur.com/YzsPsiu.png

-=Rho=-
27th October 2022, 13:07
Non faccio prima a cambiare case invece di storpiare questo? :scratch:



Se te che hai detto di non voler rimontare il pc mica io :sneer:

Axet
27th October 2022, 18:18
Se te che hai detto di non voler rimontare il pc mica io :sneer:

Fair enough ma a sto punto sono aperto a tutto :sneer:

Comunque il cavo ? gi? stato posticipato al 29 novembre :rotfl:

Galandil
27th October 2022, 21:30
Toh, guarda un po', pure Igor's Lab conferma che l'adattatore di nVidia ? una merda criminale:

https://www.igorslab.de/en/adapter-of-the-gray-analyzed-nvidias-brand-hot-12vhpwr-adapter-with-built-in-breakpoint/

Ora attendo i bootlicking simps che diranno che non ? colpa di nVidia, poverina, ma del produttore dell'adattatore con cui hanno sottoscritto il contratto di fornitura. :confused:

-=Rho=-
28th October 2022, 07:58
Lo ho letto stamattina presto quell'articolo , probabilmente il migliore sulla questione senza nessuna cazzata da hater o fanboy di mezzo .

La prima startup del cazzo che mette in commercio un cavo di estensione a forma di L ( tipo quegli degli hd per capirci ) per questo tipo di connettori sbanca , non solo per ovviare a questo problema , che sicuramente nvidia fixera presto ma sopratutto per questioni di clearance visto le dimensioni di queste schede . So un cazzo io se sia una cosa fattibile o meno ma venderebbe sicuramente a tromba se lo fosse :D

Hador
28th October 2022, 08:55
Siamo passati da "e' colpa dello standard di merda dovevano usare gli 8 PIN" al "e' colpa dell'adattatore" al e' colpa di quell'adattatore li.
Se cos? fosse pare risolvibile facilmente non piegandolo e aspettando che correggano l'adattatore/che cambino supplier etc.

Axet
28th October 2022, 10:22
Lo ho letto stamattina presto quell'articolo , probabilmente il migliore sulla questione senza nessuna cazzata da hater o fanboy di mezzo .

La prima startup del cazzo che mette in commercio un cavo di estensione a forma di L ( tipo quegli degli hd per capirci ) per questo tipo di connettori sbanca , non solo per ovviare a questo problema , che sicuramente nvidia fixera presto ma sopratutto per questioni di clearance visto le dimensioni di queste schede . So un cazzo io se sia una cosa fattibile o meno ma venderebbe sicuramente a tromba se lo fosse :D

Si l'ho visto pure io ieri l'articolo di Igor e mi ha rassicurato non poco, il cavo che ho preso da Be Quiet ? fatto nello stesso modo del 12VHPWR che ha testato lui e confermato essere safe (solo che finisce con due 12-pin invece che un 12VHPWR).

Btw cablemod l'ha gi? fatto il cavo piegato di 90 gradi, verr? rilasciato a breve. Solo che a me non ci sta comunque nel case :sneer:
Prego che quello Be Quiet sia effettivamente di qualit? e si possa piegare un po', cos? risolvo tutti i problemi :nod:

Dryden
28th October 2022, 10:51
Meanwhile vedo gente che la monta dentro case ITX dove neanche a dirlo ogni cavo sar? piegato alla morte, aspettiamo i famosi cadaveri in giro e su reddit.

Sulimo
28th October 2022, 11:19
Stamattina gi? ho visto 3-4 post su reddit di gente che ha tolto il cavo per vedere in che condizione fosse e l ha trovato sciolto su qualche connettore, anche se la scheda funzionava bene.
Io boh

Axet
28th October 2022, 12:18
Meanwhile vedo gente che la monta dentro case ITX dove neanche a dirlo ogni cavo sar? piegato alla morte, aspettiamo i famosi cadaveri in giro e su reddit.

Si ma alcuni case ITX sono comunque pi? larghi di altri ATX.
Per esempio il Lian Li Air Mini ? pi? largo del mio Lian Li O11 Dynamic, nonostante sia pi? piccolo.

La scheda ci sta al pelo come lunghezza, ma c'? pi? clearance per farci stare il cavo. Poi probabile ? comunque piegato troppo, but still.

In sto video si vede che a livello di larghezza un po' di spazio c'?: https://www.youtube.com/watch?v=v4g8K4K6NKE

edit:
ho sbagliato, sto case ? ATX. Solo molto piccolo :sneer:

Hador
28th October 2022, 12:22
Comunque sta roba di fare le schede cos? larghe e' solo una rottura di coglioni. Ok lunghe, ma larghe no sense proprio soprattutto se il PCB e' comunque cortissimo

Axet
30th October 2022, 10:18
Comunque son curioso di vedere RDNA3, dai rumor pare che la 7900 XTX dovrebbe essere pi? veloce in raster vs 4090, ad un prezzo pi? basso e senza usare il 12VHPWR.
Ci si aspetta performance inferiori in ray tracing e non sono informato su quanto FSR sia indietro rispetto al DLSS (2, che il 3 meh), per? pare molto appetibile

Galandil
30th October 2022, 16:36
Comunque son curioso di vedere RDNA3, dai rumor pare che la 7900 XTX dovrebbe essere pi? veloce in raster vs 4090, ad un prezzo pi? basso e senza usare il 12VHPWR.
Ci si aspetta performance inferiori in ray tracing e non sono informato su quanto FSR sia indietro rispetto al DLSS (2, che il 3 meh), per? pare molto appetibile

Calma i bollenti spiriti, le uniche cose confermate ufficialmente sono l'uso di Display Port 2.0 come uscite e connettori classici PCIe ad 8 pin.

A riguardo delle performance sono cmq solo rumors (apparentemente leakati la sett scorsa mi pare da alcuni AIB che hanno iniziato a ricevere la GPU da AMD), si parla di un 2x circa rispetto ad RDNA2 (non ? specificato se il confronto ? stato fatto fra 7900 e 6900 o 7950 e 6950, si vocifera anche che ci potrebbero essere 3 SKU con Navi31, 7900XT, 7950XT e 7950XTX), mentre a riguardo dell'RT l'unico leak ? stato "more than 2x compared to previous gen" che vuol dire tutto e niente.

Sul prezzo, io temo che AMD seguir? nVidia e prezzer? la 7900XT intorno ai 1.2k/1.3k MSRP invece di mantenere lo stesso prezzo di 1k della 6900.

La cosa che temo di pi? ?, facendo il conto della serva con quel 2x in raster performance, e usando la loro dichiarazione di efficienza migliorata del 50%, la 7900XT consumer? a pieno regime cmq un bel po', intorno ai 430W (partendo dai 320W della 6900XT).

Galandil
31st October 2022, 02:41
Gli ultimi rumors dicono che verranno presentate due schede: 7900XTX e 7900XT, entrambe con Navi31, e la XT con un chiplet in meno della XTX (5 invece di 6), quindi un bus di 320Mbit e 80MB di Infinity Cache vs 384/92 (also 20GB di VRAM vs 24, ma sticazzi).

Puzza abbestia della stessa mossa da purciari di nVidia: chiamare "900" quello che nella gen precedente era una "800", per alzare i prezzi di entrambe. Quindi ? assai probabile che la 7800XT user? Navi32, cos? come la 4080 usa ADA104 invece di ADA102.

Axet
1st November 2022, 23:31
Cmq stando a sto video di GN (https://www.youtube.com/watch?v=EIKjZ1djp8c) il problema individuato da Igor pare non esser il problema.
Non ci si capisce un po' un cazzo tbh.

Nel mentre, la mia 4090 ha scollinato mese, siamo al primo dicembre :sneer:

Dryden
2nd November 2022, 13:55
Problema risolto


https://www.youtube.com/watch?v=JFEnTjl1AxU&ab_channel=NikTek

:sneer:

Dryden
3rd November 2022, 17:54
Dalle parole di Drako.it la MSI gli aveva sospeso gli ordini delle 4090 per testare i connettori ed evitare RMA di massa, oggi lo hanno contattato per avvisarlo che gli ordini ripartono visto che non hanno riscontrato alcun difetto nei loro adattatori.

Sulimo
4th November 2022, 10:22
Presentato ieri RDNA3, su reddit ? gia partita la gpu war :sneer:

Axet
4th November 2022, 12:01
Presentato ieri RDNA3, su reddit ? gia partita la gpu war :sneer:

Si ma non han detto un po' un cazzo, c'? poco di cui parlare al momento se non speculazioni.
Il fatto che non hanno fatto vedere numeri vs NVidia ? "preoccupante", per? l'MSRP di 1k per la XTX ? tanta roba

Hador
4th November 2022, 12:38
probabilmente per i clienti 4090 non cambiera' nulla.
ma e' possibile che siano simili alle 4080 costando 200 dollari in meno, la cosa non sarebbe affatto male

Axet
4th November 2022, 13:47
Meanwhile la consegna della 4090 continua a spostarsi in l?, mo siamo al 6 dicembre :rotfl:

Zaider
4th November 2022, 14:17
ottimo axet, io sono a geneva a sbrigare un po' di cosucce dal 1 al 13 dicembre, cosi' vengo da te a farti scoppiare la casa con la 4090

Galandil
6th November 2022, 17:05
https://www.thefpsreview.com/2022/11/06/multiple-instances-of-native-atx-3-0-12vhpwr-power-connectors-melting-have-now-been-reported/

:confused:

Hador
15th November 2022, 19:39
Uscite le review delle 4080

Zaider
16th November 2022, 07:25
Uscite le review delle 4080

LTT ne parla molto bene, con un consumo molto piu' ragionevole della 4090.
retail price 1200 USD?

Hador
16th November 2022, 08:46
Le schede sono ottime ma il prezzo e' alto (anche se in linea con la precedente serie ti)
Conviene aspettare che escano le AMD e vedere se abbassano il prezzo.
O conviene comprarla al day 1 per evitare scalping
Chi lo sa

Zaider
16th November 2022, 09:30
io comprerei al day 1 prima che parta un altro delirio cryptomining

Sulimo
16th November 2022, 12:04
io comprerei al day 1 prima che parta un altro delirio cryptomining

con la situazione attuale delle crypto dici che c'? la possibilit? di tornare a 2 anni fa?
Io la vedo dura onestamente

Zaider
16th November 2022, 12:26
con la situazione attuale delle crypto dici che c'? la possibilit? di tornare a 2 anni fa?
Io la vedo dura onestamente

Io penso che tornera' al market cap precedente (o ancora piu' alto) e che le attivita' di mining riprenderanno.

Drako
16th November 2022, 12:46
Best buy ora come ora una 3080 usata.

Sulimo
16th November 2022, 12:55
Best buy ora come ora una 3080 usata.

Per natale me la vorrei regalare una gpu, store affidabili (a parte amazon) su cui controllare?
Vorrei evitare ebay perch? spendere 600 euro e magari dopo 1 settimana si fotte non me la sento

Galandil
16th November 2022, 16:12
La 4080 ? uno degli SKU pi? inutili ed insensati di sempre. Quasi al livello della 7900XT.

Jerus
16th November 2022, 16:18
Cmq amd con i nuovi nomi ci ha dato dentro di fantasia... Rimanebdo in tema alla fine se non giochi 4k ultra cazzi e mazzi queste schede rimangono uno sfizio. E poi se la usi in produttivit? non ? meglio la 4090? Perch? non credo siano quesi 500€ in quel caso a fare la differenza.

Galandil
16th November 2022, 16:19
Cmq amd con i nuovi nomi ci ha dato dentro di fantasia... Rimanebdo in tema alla fine se non giochi 4k ultra cazzi e mazzi queste schede rimangono uno sfizio. E poi se la usi in produttivit? non ? meglio la 4090? Perch? non credo siano quesi 500€ in quel caso a fare la differenza.

In che senso? Non ? la prima volta che ATI/AMD usa XTX come suffisso, eh.

Jerus
16th November 2022, 16:24
Che sembra un film di rocco sto naming

Axet
16th November 2022, 17:12
La 4080 ? uno degli SKU pi? inutili ed insensati di sempre. Quasi al livello della 7900XT.

Ne parlavo ieri con un mio amico, ? peculiare come il rapporto prezzo / prestazioni sia a favore della 4090.
Per? anche se non ideale credo che spazio lo trover?, le prestazioni sono comunque di ampio rilievo, costa meno della 3090 ti appena uscita di produzione e va pi? forte.

Il gap con la 4090 ? comunque sensibile a livello di prezzo, non ? detto che se uno decide di togliersi lo sfizio e spendere 1500 sulla GPU ne voglia spendere altri 500 per farsi la 90.
Ergo vedo una potenziale clientela, anche se ampiamente ridotta rispetto a quello che avrebbe potuto essere con un price point diverso.

Per? mi sembra che NVidia stia sostanzialmente spingendo per un gioco al rialzo sui tier, passando da:
- Enthusiast: 3090
- High-end: 3080
a:
- Super enthusiast: 4090
- Enthusiast: 4080
- High-end: 4070 ti

Il problema ? che NVidia domina il mercato e finch? AMD (o Intel) non daranno filo da torcere concreto si possono permettere di fare il cazzo che vogliono coi prezzi.

Meanwhile, sabato dovrebbe arrivarmi il 12VHPWR di Be Quiet, mentre la scheda era arrivata al 15 dicembre come data prevista ma stamattina ? scesa al primo dicembre.
Speriamo sia vero :sneer:

Galandil
16th November 2022, 17:54
Ne parlavo ieri con un mio amico, ? peculiare come il rapporto prezzo / prestazioni sia a favore della 4090.
Per? anche se non ideale credo che spazio lo trover?, le prestazioni sono comunque di ampio rilievo, costa meno della 3090 ti appena uscita di produzione e va pi? forte.

Il gap con la 4090 ? comunque sensibile a livello di prezzo, non ? detto che se uno decide di togliersi lo sfizio e spendere 1500 sulla GPU ne voglia spendere altri 500 per farsi la 90.
Ergo vedo una potenziale clientela, anche se ampiamente ridotta rispetto a quello che avrebbe potuto essere con un price point diverso.

Per? mi sembra che NVidia stia sostanzialmente spingendo per un gioco al rialzo sui tier, passando da:
- Enthusiast: 3090
- High-end: 3080
a:
- Super enthusiast: 4090
- Enthusiast: 4080
- High-end: 4070 ti

Il problema ? che NVidia domina il mercato e finch? AMD (o Intel) non daranno filo da torcere concreto si possono permettere di fare il cazzo che vogliono coi prezzi.

Meanwhile, sabato dovrebbe arrivarmi il 12VHPWR di Be Quiet, mentre la scheda era arrivata al 15 dicembre come data prevista ma stamattina ? scesa al primo dicembre.
Speriamo sia vero :sneer:

Non ? che ? peculiare, ? fatto apposta per spingere all'acquisto della 4090 (cos? come ha fatto AMD fra XT e XTX, con una differenza di prezzo tra l'altro molto + piccola), ? una tecnica ben nota in marketing (ha anche un nome ben preciso, che ora non ricordo).

Il problema qui per? ? che, al 90%, la XTX in rasterization sar?, se le info date da AMD sono corrette (e negli ultimi anni i numeri pubblicati nelle loro first party infos si sono sempre rivelate "oneste"), decisamente meglio della 4080, a $200 in meno di MSRP, andando un po' peggio in RT (e considerando la VAT, per noi in Europa si parla di €250 in media in meno sulle schede first party, sulle AIB la differenza sar? pi? ampia).

Senza considerare che a parit? di SKU, la 4080 offre esattamente zero miglioramenti sotto l'aspetto performance/price rispetto alla 3080. Almeno la 4090, a fronte di un incremento di $100, offre un miglioramento notevole sotto quest'aspetto (se non ti si brucia :confused: ).

La scelta di prezzare la XTX $999 ? stata una furbata (sia chiaro, restano prezzi fuori di cranio eh), perch? rende la 4080 una scheda assolutamente non-sense *a quel prezzo*.

E io bestemmio che son costretto a prendermi la XTX a sti prezzi, mannaggia a jesoo.

Jerus
16th November 2022, 18:00
Vedremo come andranno con le 4070 e 4060 certo che dinsto passo ci troviamo fra un anno con le 4070 a 900$ enle 4060 a 600$

Axet
16th November 2022, 18:10
Non ? che ? peculiare, ? fatto apposta per spingere all'acquisto della 4090 (cos? come ha fatto AMD fra XT e XTX, con una differenza di prezzo tra l'altro molto + piccola), ? una tecnica ben nota in marketing (ha anche un nome ben preciso, che ora non ricordo).

Il problema qui per? ? che, al 90%, la XTX in rasterization sar?, se le info date da AMD sono corrette (e negli ultimi anni i numeri pubblicati nelle loro first party infos si sono sempre rivelate "oneste"), decisamente meglio della 4080, a $200 in meno di MSRP, andando un po' peggio in RT (e considerando la VAT, per noi in Europa si parla di €250 in media in meno sulle schede first party, sulle AIB la differenza sar? pi? ampia).

Senza considerare che a parit? di SKU, la 4080 offre esattamente zero miglioramenti sotto l'aspetto performance/price rispetto alla 3080. Almeno la 4090, a fronte di un incremento di $100, offre un miglioramento notevole sotto quest'aspetto (se non ti si brucia :confused: ).

La scelta di prezzare la XTX $999 ? stata una furbata (sia chiaro, restano prezzi fuori di cranio eh), perch? rende la 4080 una scheda assolutamente non-sense *a quel prezzo*.

E io bestemmio che son costretto a prendermi la XTX a sti prezzi, mannaggia a jesoo.

Probabile, ma a me la presentazione di RDNA3 ha fatto preoccupare per l'assenza di bench.
Cio? sai dove stai andando a parare, sai a spanne dove andr? a cadere la 4080, metti due bench comparativi vs 4090 e 3090 / 3090ti cos? il mercato sa dove ti posizioni.

La totale assenza di bench mi ha dato non poco da pensare, ma probabilmente son prevenuto io

Galandil
16th November 2022, 18:24
Probabile, ma a me la presentazione di RDNA3 ha fatto preoccupare per l'assenza di bench.
Cio? sai dove stai andando a parare, sai a spanne dove andr? a cadere la 4080, metti due bench comparativi vs 4090 e 3090 / 3090ti cos? il mercato sa dove ti posizioni.

La totale assenza di bench mi ha dato non poco da pensare, ma probabilmente son prevenuto io

Si, sei prevenuto. Nessuna azienda sana di mente farebbe confronti in un lancio pubblico se non pu? superare l'unico modello disponibile del competitor. Tant'? che nella seconda presentazione di qualche giorno fa hanno iniziato ad inserire la 4080 nelle slide (sebbene senza numeri perch? non erano ancora disponibili).

Per il resto hanno mostrato numeri relativi alla 6950XT, quindi da quelli si pu? fare un po' di inferenza, e come detto prima, al 90% la 4080 ? gi? DOA a quel prezzo.

Also, la XTX ? diretta competitor della 4080 (graziarcazzo direi, visto l'MSRP) per stessa ammissione di AMD.

Hador
16th November 2022, 18:37
bhe oddio 25% di performance uplift tra 4090 e 4080 in 4k al doppio del prezzo. A scendere di risoluzione la 4090 non ha senso e anche sul 4k normale e' opinabile.
La 4080 va comunque pi? di una 3090ti consumando 150W in meno, ricordiamoci che fino a 2 gen fa la scheda di fascia alta NON andava pi? della super top della gen precedente. Parliamo di 50% su una 3080.

In ultima istanza e' solo un discorso di prezzi, se le nuove AMD costeranno 200 euro in meno probabile che ritocchino i prezzi, o che rilascino una 4070ti intermedia come competitor diretta, non sarebbe la prima volta. Anche se ricordate che le schede ti nvidia di solito costano un 100 euro in pi? per un 10% di performance al massimo, e la gente le compra uguale. Anche gli msrp amd sono alti, non sono convinto che una scheda che andr? il 10% in meno ma coster? 100 dollari in meno su 1300 uccidera' la 4080. Siamo in un territorio di costo talmente alto che 100-150 dollari di gap per me non fanno tutta sta differenza. Nel senso che uno dice "vabbe' gia che ne devo spendere 1100, a sto punto ne butto altri 200 e mi prendo la cosa -percepita come- piu' fica).

Altrimento oggi sarebbero tutti a comprare 6950 XT, che indubbiamente oggi offre in quella fascia il miglior rapporto prestazioni prezzo, ma invece tendenzialmente non se la incula nessuno

Hador
16th November 2022, 19:13
ps. meanwhile ho rubato un 5800x3d a lavoro che stara' posteggiato sulla mia scrivania fino a che non trovo il tempo di montarlo :nod:

Galandil
16th November 2022, 21:42
Non l'ho ancora visto, ma linko sulla fiducia e perch? la thumbnail mi ? parsa divertente. :sneer:


https://www.youtube.com/watch?v=ig2px7ofKhQ

Galandil
16th November 2022, 21:46
bhe oddio 25% di performance uplift tra 4090 e 4080 in 4k al doppio del prezzo. A scendere di risoluzione la 4090 non ha senso e anche sul 4k normale e' opinabile.
La 4080 va comunque pi? di una 3090ti consumando 150W in meno, ricordiamoci che fino a 2 gen fa la scheda di fascia alta NON andava pi? della super top della gen precedente. Parliamo di 50% su una 3080.

In ultima istanza e' solo un discorso di prezzi, se le nuove AMD costeranno 200 euro in meno probabile che ritocchino i prezzi, o che rilascino una 4070ti intermedia come competitor diretta, non sarebbe la prima volta. Anche se ricordate che le schede ti nvidia di solito costano un 100 euro in pi? per un 10% di performance al massimo, e la gente le compra uguale. Anche gli msrp amd sono alti, non sono convinto che una scheda che andr? il 10% in meno ma coster? 100 dollari in meno su 1300 uccidera' la 4080. Siamo in un territorio di costo talmente alto che 100-150 dollari di gap per me non fanno tutta sta differenza. Nel senso che uno dice "vabbe' gia che ne devo spendere 1100, a sto punto ne butto altri 200 e mi prendo la cosa -percepita come- piu' fica).

Altrimento oggi sarebbero tutti a comprare 6950 XT, che indubbiamente oggi offre in quella fascia il miglior rapporto prestazioni prezzo, ma invece tendenzialmente non se la incula nessuno

In realt? i (pochi) dati disponibili finora fanno puntare al fatto che la XTX, on average, abbia fra l'80 e il 90% di rasterization performance della 4090, quindi decisamente superiore alla 4080.

Sull'ultimo punto, ? una storia vecchissima, pi? di 10 anni fa ATI fece uscire una GPU della madonna, la 4870, che distruggeva 280 di nVidia, e ad un prezzo minore, e idem non se l'? inculata nessuno.
Cio?, oggi si legge ancora "AMD video drivers caccapup?", quando ormai sono 4 anni che non solo drivers viaggiano senza problemi (o meglio, non con pi? o meno problemi di quelli nVidia), ma per giunta Adrenaline come frontend ? infinitamente meglio di quel che offre nVidia (e senza richiedere di creare un account).

Laggente ? idiota. (cit.)

Galandil
16th November 2022, 23:18
LOL: https://www.notebookcheck.com/Die-Nvidia-GeForce-RTX-4080-startet-in-Deutschland-zu-Preisen-ab-1-799-Euro.668571.0.html

In Germania l'AIB + "economica" della 4080 sta a 1.8k. Decisamente la situazione ? sfuggita di mano.

Tunnel
17th November 2022, 01:12
Non l'ho ancora visto, ma linko sulla fiducia e perch? la thumbnail mi ? parsa divertente. :sneer:


https://www.youtube.com/watch?v=ig2px7ofKhQ

Scalda pi? il cavo della GPU :-/

Hador
17th November 2022, 08:15
In realt? i (pochi) dati disponibili finora fanno puntare al fatto che la XTX, on average, abbia fra l'80 e il 90% di rasterization performance della 4090, quindi decisamente superiore alla 4080.

Sull'ultimo punto, ? una storia vecchissima, pi? di 10 anni fa ATI fece uscire una GPU della madonna, la 4870, che distruggeva 280 di nVidia, e ad un prezzo minore, e idem non se l'? inculata nessuno.
Cio?, oggi si legge ancora "AMD video drivers caccapup?", quando ormai sono 4 anni che non solo drivers viaggiano senza problemi (o meglio, non con pi? o meno problemi di quelli nVidia), ma per giunta Adrenaline come frontend ? infinitamente meglio di quel che offre nVidia (e senza richiedere di creare un account).

Laggente ? idiota. (cit.)
Non si compra roba sulla carta.
Se la xtx andr? pi? di una 4080 costando meno, Nvidia abbasser? il prezzo. Se invece andr? a competere direttamente dovr? costare meno.

I driver sono sempre stato un problema per amd, so che li hanno finalmente riscritti da capo ma la gente ricorda.
Inoltre Nvidia ha innovato di pi? negli ultimi anni (come amd ha fatto nelle cpu), amd fino ad ora ha seguito e questo sicuramente non gli ha fatto bene.
Ad oggi amd e' ancora vista come l'alternativa che va un po' meno, che ha meno feature e che costa meno. Vedremo se finalmente si presenteranno in modo diverso ma per me sar? uguale anche a sto giro

Hador
18th November 2022, 18:22
1500 franchi le 4080 (ad oggi).
Eh comunque fanno male

Galandil
18th November 2022, 20:11
Su trovaprezzi €1570 la pi? economica, la Palit. Lol.

Galandil
18th November 2022, 20:14
Non si compra roba sulla carta.
Se la xtx andr? pi? di una 4080 costando meno, Nvidia abbasser? il prezzo. Se invece andr? a competere direttamente dovr? costare meno.

I driver sono sempre stato un problema per amd, so che li hanno finalmente riscritti da capo ma la gente ricorda.
Inoltre Nvidia ha innovato di pi? negli ultimi anni (come amd ha fatto nelle cpu), amd fino ad ora ha seguito e questo sicuramente non gli ha fatto bene.
Ad oggi amd e' ancora vista come l'alternativa che va un po' meno, che ha meno feature e che costa meno. Vedremo se finalmente si presenteranno in modo diverso ma per me sar? uguale anche a sto giro

Stronzate: i drivers nVidia hanno una bella valanga di problemi anche loro (la gestione dei monitor, soprattutto se si usa il DSC, ? patetica), se uno non capisce che 5 anni fa != oggi magari ? il caso che vada a zappare i campi.

Per il resto, ovvio che vanno visti i benchmarks indipendenti anche delle AMD, e sul fatto che nVidia poi abbasser? i prezzi ci credo *molto* poco, soprattutto se poi pure AMD tiene la supply bassa come sta facendo giacchetta.

Hador
18th November 2022, 21:02
Si infatti il web e' pieno di gente che si lamenta dei driver Nvidia.
Se compri un auto che ti d? problemi e' improbabile che poi ne compri una nuova della stessa marca, per? bisogna sempre fare i campioni di supponenza.

Ad oggi amd sulle GPU ha inseguito, e gli altri ne approfittano aumentando il prezzo. Bisogna sperare che li raggiungano e che siano veramente competitivi. Sulle cpu e' successo, non e' impossibile.
Sui prezzi se gli altri tirano fuori una scheda che va uguale o meno a 1000 euro li abbassano. Se, come penso succeder?, andr? un filo meno e coster? 1300 euro per me anche a sto giro sucano

Dryden
18th November 2022, 21:34
Avendo a gestione una trentina di workstations molto eterogenee, da intel 2013 ad AMD Threadripper etc, che hanno tutte in comune una cosa (schede video nVidia serie GTX\RTX) posso dirvi che i driver vanno in crisi con determinate task e determinati softwares, nel mio reparto ? comune sentire "oh mi sono andati gli schermi a nero!?" al quale rispondo puntuale "Son crashati i driver video, se torna l'immagine riavvia se no forza il riavvio". E questo indistintamente che siano installati i GamesReady o gli Studio.
C'? una sola scheda video AMD, una gloriosa rx580 8gb, mai un crash o un tentennamento in 4 anni di torchiatura :rotfl:

Tutto questo ovviamente non fa statistica ed ? solo per ridere, ma se mi dicessero "i driver nVidia sono perfetti, meglio degli AMD" francamente avrei da obiettare.

Galandil
18th November 2022, 22:18
Tutto questo ovviamente non fa statistica ed ? solo per ridere, ma se mi dicessero "i driver nVidia sono perfetti, meglio degli AMD" francamente avrei da obiettare.

Quello lo dicono solo i fanboy del team green. In realt? quello che si legge ? "i driver AMD sono peggio", senza specificare che gli nVidia siano perfetti. Cosa palesemente falsa, ma tant'?, laggente come gi? detto ? idiota e parla quando farebbe meglio a tacere.

Tipo i problemi sul DSC dei driver nVidia, di cui AMD non soffre.

Drako
18th November 2022, 22:35
Uno ogni due driver nvidia inserisce qualche casino, di solito aspetto sempre un po' prima di fare l'update. Sicuramente non sono perfetti.

Personalmente ho avuto qualche casino con una scheda AMD, ma non per questo non ne ricomprerei un'altra. A sto giro, non avendo necessit? di grandeur, probabilmente riandrei di AMD. Per ora non prendo proprio un casso ed aspetto, tanto per la res ed i giochi che giro io va bene ancora la 2070s :sneer:

Hador
18th November 2022, 22:48
Avendo a gestione una trentina di workstations molto eterogenee, da intel 2013 ad AMD Threadripper etc, che hanno tutte in comune una cosa (schede video nVidia serie GTX\RTX) posso dirvi che i driver vanno in crisi con determinate task e determinati softwares, nel mio reparto ? comune sentire "oh mi sono andati gli schermi a nero!?" al quale rispondo puntuale "Son crashati i driver video, se torna l'immagine riavvia se no forza il riavvio". E questo indistintamente che siano installati i GamesReady o gli Studio.
C'? una sola scheda video AMD, una gloriosa rx580 8gb, mai un crash o un tentennamento in 4 anni di torchiatura :rotfl:

Tutto questo ovviamente non fa statistica ed ? solo per ridere, ma se mi dicessero "i driver nVidia sono perfetti, meglio degli AMD" francamente avrei da obiettare.quando si parla di questo si parla di episodi principalmente di qualche anno fa (anche molti anni fa) dove i driver amd fallivano nel gestire diversi giochi. Non si parla di crash strani o bug del multimonitor di stocazzo, ma proprio che il gioco si vedeva male/renderizzava le ombre di merda/aggiornavi e perdevi 20 fps cose cosi'. E in generale di una alta variabilita' delle performance a seconda dei driver, cosa che si vedeva meno con nvidia. Ma si parla di secoli fa, tipo io avevo ste cose con la 3850.
Molti hanno riportato problemi fino a pochi anni fa comunque, poi han riscritto tutto da capo. Ma e' successo relativamente di recente, appunto 4-5 anni fa, dove comunque non erano competitivi contro le 20x0.
Non sono cattivi prodotti e hanno un ottimo rapporto performance/costo, pero' nvidia ad oggi ha fornito prodotti piu' completi ad un prezzo non significativamente superiore.
Vedremo come prezzeranno le schede nuove, nonostante quello che gala dice che il mondo non capisce un cazzo tranne lui, non e' cosi.
Quando AMD e' diventata competitiva sulle cpu hanno guadagnato mercato in maniera molto veloce (e anche li venivano da una reputazione discutibile).
Devono solo tirar fuori roba convincente.

Axet
19th November 2022, 01:20
Su trovaprezzi €1570 la pi? economica, la Palit. Lol.

Qua son pi? basse, 1362 la gigabyte eagle (https://www.digitec.ch/it/s1/product/gigabyte-geforce-rtx-4080-16gb-eagle-schede-grafiche-23138899) e la zotac a 1539 (https://www.digitec.ch/it/s1/product/zotac-gaming-geforce-rtx-4080-amp-extreme-airo-16-gb-schede-grafiche-23034110).

Con sta differenza di prezzo ci sto facendo un pensiero, anche se la strix sta a 1720.. quindi like for like stesso brand risparmierei poco pi? di 400 euro che a sto punto boh. Per? sulle altre il risparmio ? sostanziale /ponder

Hador
22nd November 2022, 16:36
La strix non ha un cazzo di senso soprattutto la 4080, prendi la tuf e bona notte.

Oh comunque pare che i cavi si fondano se siano inseriti male...

Axet
23rd November 2022, 19:45
Strix o non Strix continuo ad essere in dubbio se ordinare una 4080 pronta consegna o aspettare la 4090 :scratch:

Galandil
23rd November 2022, 23:31
Strix o non Strix continuo ad essere in dubbio se ordinare una 4080 pronta consegna o aspettare la 4090 :scratch:

"Lol 4080".

Tunnel
24th November 2022, 00:34
La 4080 ? senza senso, attualmente

Hador
24th November 2022, 11:55
La 4080 ? senza senso, attualmente
Come upgrade ha molto senso.
Il problema e' che costa il 50% piu' di quello che dovrebbe.

Tra una 4080 e una 4090 ce un 25% di performance per un 25% teoretico di price gap. Ma con gli street price attuali, e' pi? del 50%, il che non ha senso.

Aspetterei comunque amd, escono tra 2 settimane

Tunnel
25th November 2022, 00:46
Chiaro che si parla in relazione al costo ;-)

Galandil
25th November 2022, 01:10
Chiaro che si parla in relazione al costo ;-)

Siamo al punto di doverlo specificare che il prezzo ? il parametro primario, e tutto il resto ? assolutamente secondario? :sneer:

Hador
25th November 2022, 08:32
Chiaro che si parla in relazione al costo ;-)
costo e performance crescono linearmente tra la 4080 e 4090, quindi o non hanno un cazzo di senso tutte e due, o sono considerabili tutte e due. La 4080 non e' peggio della 4090, come pareva dal tuo commento, era questo il punto
Siamo al punto di doverlo specificare che il prezzo ? il parametro primario, e tutto il resto ? assolutamente secondario? :sneer:
in termini assoluti hai ragione, ma stavo parlando con Axet dove una differenza di 500 euro non fa sta gran differenza

Galandil
25th November 2022, 19:56
Ma cosa stai dicendo che prezzo e costo scalano linearmente fra 4090 e 4080 lol.

La 4090 ?, *at worst*, il 30% pi? veloce della 4080 in rasterization a 4k (e raggiunge in alcuni titoli il 50%, con una media che si attesta sul 40%), basta guardare i benchmarks di GN e HU. In RT idem, parliamo di un 40/50% di differenza. E se prendiamo come prezzi gli street price locali, quindi 2k per la 4090 e 1.5k per la 4080, la 4080 ? un pacco di merda, ma di quelli grossi e fumanti (sorvolando sul fatto che ha solo 16GB di ram vs 24 and stuff).

Edit: c'? un solo titolo in cui la differenza ? inferiore al 30%, e parliamo di una differenza fra 620-630 fps di average vs 550 e rotti, quindi conta come il due di coppe quando comanda bastoni.

Ed ? il motivo per cui, e qui siamo d'accordo, conviene aspettare un altro paio di settimane per vedere la XTX cosa combina, come detto con buona probabilit? in raster si trover? fra la 4080 e la 4090, ad un prezzo decisamente minore. Ok, l'RT non sar? sicuramente all'altezza, ma ? una feature che al momento ha una sua utilit? in si e no 4-5 titoli, e probabilmente nei prossimi due anni se tutto va bene se ne aggiungeranno altri 3-4, quindi sticazzi che ci saranno le nuove gen che partiranno come MSRP da $2k e io continuer? a giocare a titoli indie che tanto sono pi? diveretenti del 99% del pattume AAA. :sneer:

Hador
25th November 2022, 21:26
https://www.techpowerup.com/review/nvidia-geforce-rtx-4080-founders-edition/32.html

Poi oh, per me per axet meglio una 4090 ma normale, non la strix che costa 300 Pippi in pi? a caso.

Io tanto ormai al PC non ci gioco, il principale utilizzo della 3080 e' Nvidia broadcast per fare le call QQ

Axet
25th November 2022, 22:31
https://www.techpowerup.com/review/nvidia-geforce-rtx-4080-founders-edition/32.html

Poi oh, per me per axet meglio una 4090 ma normale, non la strix che costa 300 Pippi in pi? a caso.

Io tanto ormai al PC non ci gioco, il principale utilizzo della 3080 e' Nvidia broadcast per fare le call QQ

C'? una differenza enorme tra quei bench e quelli di GN. Simile a un altro set di bench che avevo visto non ricordo dove, devo cercare.

A naso va in bottleneck sulla CPU, questi usano un 5800x (e quelli nel test con risultati simili usavano un 5950x), GN ha usato il 13900k se non ricordo male.

PD, devo cambiare anche CPU mo?

Galandil
25th November 2022, 23:25
C'? una differenza enorme tra quei bench e quelli di GN. Simile a un altro set di bench che avevo visto non ricordo dove, devo cercare.

A naso va in bottleneck sulla CPU, questi usano un 5800x (e quelli nel test con risultati simili usavano un 5950x), GN ha usato il 13900k se non ricordo male.

PD, devo cambiare anche CPU mo?

Lol la CPU a 4k c'entra una sega, quei risultati sono strani a prescindere dalla CPU usata, tant'? che i risultati di HU, in linea con quelli di GN, sono stati ottenuti con un 5800X3D. Fra il fatto di aver dato un bollino Editor's Choice, e aver ripetuto spesso DIELLESSESSETREEEHH, mi puzza di marchetta, visto che quella relative performance ? un outlier rispetto al resto del mondo.

Anche Optimum Tech conferma il 30% come minimo scarto fra le due, qui sotto una pic riepilogativa presa da OT:
11715

Poi ci sta che qualcuno possa ottenere dei risultati on average lievemente inferiori (tipo Paul's Hardware mostra una differenza del 28% on avg), ma chiaramente questo dipende tantissimo dai giochi usati, i settaggi, la config dell'OS ecc. ecc.

A 4k pure se usi un 5600 la differenza sull'average ? impercettibile, al limite puoi incappare in un po' pi? di 0,1% qui e l?, ma con il VRR sticazzi anche, ? impossibile che ti becchi un frametime > 33ms.

Axet
26th November 2022, 00:01
Lol la CPU a 4k c'entra una sega, quei risultati sono strani a prescindere dalla CPU usata, tant'? che i risultati di HU, in linea con quelli di GN, sono stati ottenuti con un 5800X3D. Fra il fatto di aver dato un bollino Editor's Choice, e aver ripetuto spesso DIELLESSESSETREEEHH, mi puzza di marchetta, visto che quella relative performance ? un outlier rispetto al resto del mondo.

Anche Optimum Tech conferma il 30% come minimo scarto fra le due, qui sotto una pic riepilogativa presa da OT:
11715

Poi ci sta che qualcuno possa ottenere dei risultati on average lievemente inferiori (tipo Paul's Hardware mostra una differenza del 28% on avg), ma chiaramente questo dipende tantissimo dai giochi usati, i settaggi, la config dell'OS ecc. ecc.

A 4k pure se usi un 5600 la differenza sull'average ? impercettibile, al limite puoi incappare in un po' pi? di 0,1% qui e l?, ma con il VRR sticazzi anche, ? impossibile che ti becchi un frametime > 33ms.

Si ma che CPU hanno usato in quel test?

Sono andato un po' in panic mode perch? spendere 2.1k per una GPU e poi capparla a merda con la CPU mi darebbe molto fastidio.
A quel punto risparmio soldi e prendo il tier inferiore.
O faccio un mega upgrade di tutto e via, cosa che per? mi girerebbe il cazzo perch? rifare tutto il pc dopo 2 anni partendo da una CPU top di gamma fa girare il cazzo a mille.

Ho visto sto video, 13900k vs 5900x, con una 3090 TI: https://www.youtube.com/watch?v=txFbE8suBYk
Differenze sostanziali tra 70 FPS e 90/100, un 20% di scarto di media.

Se mi aiuti a provare che con la 4090 non vado in bottleneck sulla CPU (5900x) giocando a 3840x1600 e a 7680x1440 mi fai un favore e mi risparmi un sacco di soldi (1500 CHF per farsi un 13900k, una mobo mid pack z790 e ram DDR5).
Oppure che mi conviene prendere la 4080 se preferisco non cambiare CPU & co.

La cosa che oltretutto mi preoccupa ? che iRacing ? ottimizzato a merda e si basa tantissimo su single core, quindi potrei trovarmi nella spiacevole situazione di cappare la CPU facile.

Edit:
GN ha fatto i bench con un 12700K: https://www.youtube.com/watch?v=j9vC9NBL8zo
Che ? comparabile al mio 5900x.. boh

Tunnel
26th November 2022, 01:44
Non credo esista il problema di cpu limited se hai almeno un gen 11
La 4090 ? "game limited", imho

Galandil
26th November 2022, 03:31
Si ma che CPU hanno usato in quel test?

Sono andato un po' in panic mode perch? spendere 2.1k per una GPU e poi capparla a merda con la CPU mi darebbe molto fastidio.
A quel punto risparmio soldi e prendo il tier inferiore.
O faccio un mega upgrade di tutto e via, cosa che per? mi girerebbe il cazzo perch? rifare tutto il pc dopo 2 anni partendo da una CPU top di gamma fa girare il cazzo a mille.

Ho visto sto video, 13900k vs 5900x, con una 3090 TI: https://www.youtube.com/watch?v=txFbE8suBYk
Differenze sostanziali tra 70 FPS e 90/100, un 20% di scarto di media.

Se mi aiuti a provare che con la 4090 non vado in bottleneck sulla CPU (5900x) giocando a 3840x1600 e a 7680x1440 mi fai un favore e mi risparmi un sacco di soldi (1500 CHF per farsi un 13900k, una mobo mid pack z790 e ram DDR5).
Oppure che mi conviene prendere la 4080 se preferisco non cambiare CPU & co.

La cosa che oltretutto mi preoccupa ? che iRacing ? ottimizzato a merda e si basa tantissimo su single core, quindi potrei trovarmi nella spiacevole situazione di cappare la CPU facile.

Edit:
GN ha fatto i bench con un 12700K: https://www.youtube.com/watch?v=j9vC9NBL8zo
Che ? comparabile al mio 5900x.. boh

Madonna lercia, sei pi? isterica di una comare. :rotfl:

I benchmark di Optimum Tech sono fatti anche loro con il 5800X3D, come HU. Smettila di perdere (e far perdere a noi) tempo andando a cercare il video di cicciopasticcio che non sa cosa sta facendo e posta dei benchmark a caso e che dice che c'? bisogno di un Epyc Genoa per ottimizzare: ? na stronzata, a 4K il collo di bottiglia ? la GPU, pure se ? la 4090. Punto. Period. The End. Sipario.

Ora, l'unico piccolo problema ? che quella roba a cui giochi di racing, se dici che ? full single threaded, POTREBBE abbassare un po' le prestazioni, ma guess what, puoi cambiare il 5900X con un 5800X3D e hai risolto. :sneer:

Oppure potresti anche evitare la binbominkiata della 4090, aspettare il 12 dicembre e decidere fra nGreedya e AMD, se AMD non ha mentito spudoratamente nelle sue slide, la XTX sarebbe la GPU perfetta per le esigenze che hai. Io se avessi la 3080 skipperei sta gen a pi? pari, tra l'altro.

Hador
26th November 2022, 09:42
Bho uno legge tutti sti benchmark, poi astroneer in campo aperto mi fa 120fps con una 3080 e un 5800x3d a 2k.

Ad ogni modo axet meno seghe, anche perch? all'atto pratico se fai 130 o 180 fps nel tuo campo di utilizzo non ti cambia una sega e manco te ne accorgi

Axet
26th November 2022, 16:24
Mi piace complicarmi la vita QQ

Galandil
26th November 2022, 16:40
Bho uno legge tutti sti benchmark, poi astroneer in campo aperto mi fa 120fps con una 3080 e un 5800x3d a 2k.

UE4 non ottimizzato, tutto regolare.


Ad ogni modo axet meno seghe, anche perch? all'atto pratico se fai 130 o 180 fps nel tuo campo di utilizzo non ti cambia una sega e manco te ne accorgi

Beh, insomma, nel suo caso un frametime pi? basso possibile migliora l'esperienza perch? i giochi racing, come anche gli fps competitivi, fighting games, ecc. meno input delay hanno, meglio ?. Tipo coi numeri usati da te, significa portare l'intervallo fra due rilevazioni di input da 7,7ms a 5,55ms (obv non sto considerando tutto il resto che nella catena aumenta questi numeri, parlo solo di frametime).

Hador
26th November 2022, 17:00
Si ma mica stai parlando con gramas

Axet
26th November 2022, 20:33
Si ma mica stai parlando con gramas

Oh non sono un nescional ma sono cmq nel top 10% :nod:
Peccato che tra i top 5% e il resto ci sia un abisso :sneer:

Axet
12th December 2022, 00:16
Io mi sono un po' rotto il cazzo tbh, la 4090 l'hanno spostata ancora al 29 dicembre e OVVIAMENTE verr? posticipata di nuovo. L'ho comprata due mesi fa, insomma, dio cane.

Nel mentre ho trovato una MSI Suprim X 4080 a 1375 CHF.
Ok che il problema della 80 rispetto alla 90 ? il rapporto costo / prestazioni, ma si riferisce al MSRP.
Qua non sono all'MSRP, si parla di una differenza di 770 CHF. Ergo la 90 mi costerebbe il 50% in pi? per andare il 35/40% in pi?, il rapporto si sposta a favore della 4080.
Particolare pi? importante: pare essere pronta consegna, solo da spedire.

Sto facendo un pensiero ad annullare la 4090 e passare a questa. Pareri?

Tunnel
12th December 2022, 01:05
Ma che ? sta poverata, Proton?
Non sei pi? tu. Lo sai che poi te ne penti!

Axet
12th December 2022, 02:22
Ma che ? sta poverata, Proton?
Non sei pi? tu. Lo sai che poi te ne penti!

Son due mesi che aspetto senza avere una minima idea di quando arriver? la 4090, tbh mi sono anche rotto il cazzo di aspettare senza avere indicazioni precise riguardo alla data di consegna.

La 4080 di contro arriverebbe sicuro a breve, il rapporto prezzo / prestazioni torna ad essere sensato (relativamente, obv). Difficile non farci un pensiero

Hador
12th December 2022, 08:50
Daje escono i bench oggi tipo

Hador
12th December 2022, 16:29
usciti.
la xtx va un ~10% in media pi? di una 4080 e costa 200 dollari di msrp in meno. Consuma di pi? ed ? pi? rumorosa. Ancora indietro su ray tracing e upscaling rispetto a nvidia, se ad uno interessa.

come dicevo qualche pagina fa, se la differenza di street price sar? nell'ordine di 150-200 euro, per me comunque la gente andr? a preferire la 4080, se nvidia abbassasse anche di un 100 euro il prezzo per me se li mangiano anche a sto giro

Drako
12th December 2022, 22:04
Io prenderei in considerazione anche una 7900xt (ovviamente non per voi gente coi supermoney) perch? se non erro costa oltre 400€ in meno di una 4080 e dovrebbe starle alle calcagna da vicino. Sopratutto in ottica 1440p.

Axet
13th December 2022, 01:11
Visto la review di GN, la 7900 XTX ? sostanzialmente on par con la 4080, un pelo meglio in raster ma peggio in RT e AI upscaling. Non mi interessa tbh.

Rimango col dubbio se cancellare la 90 (che non si sa quando arriver?) e prendere la 80 (consegna immediata) o meno QQ

Tunnel
13th December 2022, 09:53
Ci sono due 4090 sul warehouse italiano

VGA GIGABYTE GV-N4090AORUSX W-24GD https://amzn.eu/d/borsrPK

Ti arrivano in 2 giorni, credo

Axet
13th December 2022, 10:16
Ci sono due 4090 sul warehouse italiano

VGA GIGABYTE GV-N4090AORUSX W-24GD https://amzn.eu/d/borsrPK

Ti arrivano in 2 giorni, credo

Si, a 3k invece che 2.1. Mi sembra sensato

Dryden
13th December 2022, 10:36
Parla delle usate Warehouse a 2.3k

Comunque non capisco la difficolta' nel reperire una 4090 in Svizzera, in Italia si trova con relativamente poco sbattimento e con prezzi di poco superiori (sempre relativamente).

https://www.nexths.it/Products/details/sku/4711377019217 (ne ce ne sono altri modelli sul sito)
https://www.drako.it/drako_catalog/product_info.php?products_id=27579
https://hardware-roma.com/nvidia-pci-e/2011-msi-geforce-4090-rtx-gaming-x-trio-24gb-pci-e-4711377019217.html
https://www.afkstore.it/prodotto/gigabyte-rtx-4090-gaming-oc/

Drako
13th December 2022, 10:39
Non siamo abbastanza ricchi in Italia. In svizzera c'hanno i bigmoneh e se le comprano :sneer:

Axet
13th December 2022, 11:22
Parla delle usate Warehouse a 2.3k

Comunque non capisco la difficolta' nel reperire una 4090 in Svizzera, in Italia si trova con relativamente poco sbattimento e con prezzi di poco superiori (sempre relativamente).

https://www.nexths.it/Products/details/sku/4711377019217 (ne ce ne sono altri modelli sul sito)
https://www.drako.it/drako_catalog/product_info.php?products_id=27579
https://hardware-roma.com/nvidia-pci-e/2011-msi-geforce-4090-rtx-gaming-x-trio-24gb-pci-e-4711377019217.html
https://www.afkstore.it/prodotto/gigabyte-rtx-4090-gaming-oc/

No idea, questo ? il sito principale in Svizzera: https://www.digitec.ch/de/search?q=rtx+4090&filter=t_pt%3D106&is=rtx+4090
Questo ? un aggregator di (quasi) tutti gli store in CH: https://www.toppreise.ch/browse/Computer-accessories/Computer-components/Graphics-cards-accessories/Graphics-cards-c37?q=rtx%204090

Non ce n'? proprio.

Jerus
13th December 2022, 16:34
Cmq prezzo della 7900xt 1090+9.90? di ss a me sembra competitivo come prezzo

Hador
13th December 2022, 17:02
Bho va il 30% pi? di una 3080 costando quasi 300 euro in pi? rispetto al prezzo di lancio della 3080.
Diciamo che e' competitivo nella merda generale, ma resta merda

Dryden
13th December 2022, 17:12
Aspetterei per vedere come va tra qualche tempo lo street price, per dire le cpu 7000 di AMD non se le incula nessuno e stanno droppando di prezzo considerevolmente, il mercato delle GPU ? saturo potrebbe darsi che calino pure quelle.

Galandil
13th December 2022, 21:12
La 7900XT ? un pacco di merda fumante *all'MSRP attuale*. Come la 4080, per buona pace di Axet. Se avesse l'MSRP giusto, che sarebbe quello della 6800XT, quindi intorno ai 650-700, sarebbe un acquisto sensato.

Cmq io oggi ho preso la XTX direttamente da AMD, a questo prezzo:

Subtotal: 945,84 €
Shipping: 15,54 €
VAT: 211,50 €
Total: 1.172,88 €

Hanno convertito correttamente i $999 in € con lo spot attuale (purtroppo non bid/ask, ma vabb?), aggiunto il 22% di IVA e rubato una valanga sulla spedizione con FedEx (19 euri mortacci loro :sneer: ). E' andato tutto out of stock dopo un 15-20 minuti circa, ora si iniziano a trovare in vendita ai soliti prezzi da strozzini a 1.3k+: evitate e aspettate, a prescindere. E per l'amor del cielo, NON prendete una XT, giusto se la trovate gratis dopo che ? cascata da un camion. :confused:

Jerus
13th December 2022, 21:21
Se segue l'andamento dei prezzi dei ryzen 7000 fra un 2-3 mesi droppano di un paio di centinaia di €

Drako
13th December 2022, 21:26
La 7900XT ? un pacco di merda fumante *all'MSRP attuale*. Come la 4080, per buona pace di Axet. Se avesse l'MSRP giusto, che sarebbe quello della 6800XT, quindi intorno ai 650-700, sarebbe un acquisto sensato.

Cmq io oggi ho preso la XTX direttamente da AMD, a questo prezzo:

Subtotal: 945,84 €
Shipping: 15,54 €
VAT: 211,50 €
Total: 1.172,88 €

Hanno convertito correttamente i $999 in € con lo spot attuale (purtroppo non bid/ask, ma vabb?), aggiunto il 22% di IVA e rubato una valanga sulla spedizione con FedEx (19 euri mortacci loro :sneer: ). E' andato tutto out of stock dopo un 15-20 minuti circa, ora si iniziano a trovare in vendita ai soliti prezzi da strozzini a 1.3k+: evitate e aspettate, a prescindere. E per l'amor del cielo, NON prendete una XT, giusto se la trovate gratis dopo che ? cascata da un camion. :confused:

fan cos? cagare i bench della xt? pensavo meglio dalle premesse. Per? il prezzo ? eccessivo in effetti.

Galandil
13th December 2022, 21:27
Se segue l'andamento dei prezzi dei ryzen 7000 fra un 2-3 mesi droppano di un paio di centinaia di €

Spero di si, ma dubito fortemente che succeda cos? a breve, anche AMD ha tutto l'interessa che spariscano dal mercato le 6000 invendute, quindi le prime a scendere di prezzo dovranno essere quelle (6000/3000).

Quantomeno, non fatevi fregare da prezzi *sopra* MSRP, io avevo l'assoluta necessit? di cambiare GPU che stavo ancora con la RX580 4GB e poverina la sentivo urlare di dolore collegata all'Odyssey G9. :sneer:
Ma non avrei preso neanche sparato la XTX ad un prezzo superiore all'MSRP, di ingrassare pi? del dovuto ste merdose corp non ne ho nessuna intenzione, gi? sti MSRP sono cmq da psicotici, figuriamoci i prezzi scalpati.

In generale, se avete una GPU della scorsa gen, ma anche una di due gen fa imo questa gen la potete skippare a pi? pari, a meno che non vogliate effettuare un upgrade grosso ad un monitor con risoluzione/refresh molto pi? elevati.
E se volete cambiare il monitor, PRENDETENE UNO CON L'HDR SERIO. Altro che 8k e reitresing, l'HDR ? la cosa migliore che ci sia fra le cose "nuove" lato display. Obv i produttori di GPU non sono interessati pi? di tanto a spingerlo perch? tanto ? di competenza del display e di chi produce i giochi (per offrire l'HDR nativo e non tonemappato), la GPU deve giusto poter gestire ed inviare 10bit per canale invece dei soliti 8bit.

Galandil
13th December 2022, 21:30
fan cos? cagare i bench della xt? pensavo meglio dalle premesse. Per? il prezzo ? eccessivo in effetti.

E' un XTX con un 84 SM invece di 96 e soprattutto 5 MCD invece di 6, quindi meno bandwidth a disposizione verso la VRAM. Come ? giusto ricordare, non esistono prodotti di merda (*new 3060 has entered the lobby* :sneer: ), ma prodotti prezzati male, e la XT ? decisamente prezzata malissimo per quel che offre.

Hador
13th December 2022, 22:55
La 7900XT ? un pacco di merda fumante *all'MSRP attuale*. Come la 4080, per buona pace di Axet. Se avesse l'MSRP giusto, che sarebbe quello della 6800XT, quindi intorno ai 650-700, sarebbe un acquisto sensato.

Cmq io oggi ho preso la XTX direttamente da AMD, a questo prezzo:

Subtotal: 945,84 €
Shipping: 15,54 €
VAT: 211,50 €
Total: 1.172,88 €

Hanno convertito correttamente i $999 in € con lo spot attuale (purtroppo non bid/ask, ma vabb?), aggiunto il 22% di IVA e rubato una valanga sulla spedizione con FedEx (19 euri mortacci loro :sneer: ). E' andato tutto out of stock dopo un 15-20 minuti circa, ora si iniziano a trovare in vendita ai soliti prezzi da strozzini a 1.3k+: evitate e aspettate, a prescindere. E per l'amor del cielo, NON prendete una XT, giusto se la trovate gratis dopo che ? cascata da un camion. :confused:ma la reference?
Io non avrei preso una reference amd, anche a costo di dargli un 100 euro in pi?

Galandil
13th December 2022, 23:01
ma la reference?
Io non avrei preso una reference amd, anche a costo di dargli un 100 euro in pi?

Non avevo dubbi.

:confused:

Hador
13th December 2022, 23:07
io ho rivenduto la prima 3080 perch? aveva met? del coil whine della 7900XTX di GN, auguri :sneer:

Galandil
13th December 2022, 23:15
io ho rivenduto la prima 3080 perch? aveva met? del coil whine della 7900XTX di GN, auguri :sneer:

Vedremo se in case chiuso si sente, tanto ho 30gg di tempo per fare un eventuale refund. L'unico a parlarne ? stato Steve di GN, nessun altro ne ha fatto menzione (anche se l'ha detto sia per la XTX sia per la XT). Poi mi dici come hai fatto a misurarli entrambi con precisione, i dB dei coil whine della 3080 e della 7900XTX eh. :point:

Poi per il resto me ne fotte relativamente, tanto se sto giocando uso le cuffie closed ear a volumi inenarrabili. :hidenod:

Axet
14th December 2022, 01:38
Gala il discorso sulla 4080 ? che ? prezzata male all'MSRP, ma se guardiamo i prezzi reali di mercato che mi trovo davanti direi anche no. 1350 vs 2150 (arrotondati entrambi), il rapporto prezzo / prestazioni v? ad appannaggio della 80.
Poi il cambio non l'ho ancora fatto, per? son sempre pi? tentato :nod:

Drako
14th December 2022, 11:01
La mia 2070s non reference ha un coilwhine notevole. Anche se dipende da cosa gira, con Darktide sembra sfrigolare. Ovviamente con le cuffie in testa non sento nulla, ma ? fastidioso.

Hador
14th December 2022, 11:24
Il coil whine e' una piaga di cui pochissimi reviewer parlano, che e' aggravata dal fatto che le schede pi? recenti sono sia molto energivore sia molto pi? silenziose di un tempo.
Si leggono anche un sacco di stronzate tipo colpa dell'impianto elettrico, della psu etc. Ma e' 99% la GPU e dipende dal produttore.
Poi se uno ha un PC da 50dba sticazzi, ma io sono fissato e mi fa impazzire. Qua gran seghe per risparmiare 100 euro su una GPU quando io avr? 600 euro e pi? di componenti 'inutili' nel PC solo per renderlo piu' silenzioso :sneer:

Axet
15th December 2022, 23:42
Ennesimo rinvio della 4090, che ? slittata al 31/12 -> mi sono sfrangiato il cazzo di sta situazione surreale, ho pagato un botto di soldi per avere una tecnologia nuova ASAP e son pi? di 2 mesi che aspetto senza avere la minima idea di quando il calvario andr? a finire. Ordine cancellato, MSI Suprim X 4080 ordinata.

Speriamo non sia una situazione assurda anche questa perch? da sto store non posso annullare l'ordine :rotfl:

San Vegeta
16th December 2022, 12:43
Come ti avevo gi? scritto pagine fa: ma perch? fai cos?? Tanto lo sapevi gi?.... ci sei gi? passato con la scheda precedente...

Sulimo
16th December 2022, 12:49
Ennesimo rinvio della 4090, che ? slittata al 31/12 -> mi sono sfrangiato il cazzo di sta situazione surreale, ho pagato un botto di soldi per avere una tecnologia nuova ASAP e son pi? di 2 mesi che aspetto senza avere la minima idea di quando il calvario andr? a finire. Ordine cancellato, MSI Suprim X 4080 ordinata.

Speriamo non sia una situazione assurda anche questa perch? da sto store non posso annullare l'ordine :rotfl:

Tra 6 mesi te ne penti, rivendi la 4080 e ti prendi la 4090.
quotato a 1.1

Dryden
16th December 2022, 13:13
Non capisco perche' non hai preso la 4090 in Italia, la spedivi dai genitori\amici e poi passavi a prenderla\te la rispedivano. Per una scheda del genere poteva valerne la pena.

Axet
16th December 2022, 16:47
Come ti avevo gi? scritto pagine fa: ma perch? fai cos?? Tanto lo sapevi gi?.... ci sei gi? passato con la scheda precedente...

No, tu hai scritto che avrei preso la pi? costosa. Che ? quello che ho fatto, ho cambiato per il tier inferiore.
Sta situazione non c'entra nulla con quella della scheda precedente dove c'erano scalpers, miners e mancanza di chip in generale.

La 4090 non avrebbe dovuto incorrere in problemi di consegna del genere, tant'? vero che pare essere un problema localizzato solo in Svizzera.

Non capisco il senso del tuo reply tbh.


Tra 6 mesi te ne penti, rivendi la 4080 e ti prendi la 4090.
quotato a 1.1

Spero di no, ho guardato i bench in simracing e dovrei andare a bomba comunque.
Gi? la 3090TI, che ? il 15% pi? lenta, ? pi? che sufficiente per stare fisso a pi? di 120fps con un triplo 1440p


Non capisco perche' non hai preso la 4090 in Italia, la spedivi dai genitori\amici e poi passavi a prenderla\te la rispedivano. Per una scheda del genere poteva valerne la pena.

E' un'opzione che ho valutato, ma da drako & co hanno prezzi nonsense mentre amazon aveva prezzi umani e disponibilit?, ma solo per zotac e palit.
Talmente brutte che nel mio pc non le voglio vedere.

Senza contare che poi avrei dovuto passare in dogana a pagare l'iva, sotto le feste, con l'ufficio che apre solo entro una certa ora ed ? un palo nel culo farlo rientrare nella mia agenda natalizia.
Oltretutto plausibilmente torno pure in treno, quindi ciao proprio.

Tunnel
16th December 2022, 19:03
Tra 6 mesi te ne penti, rivendi la 4080 e ti prendi la 4090.
quotato a 1.1
Ma sicuro. E giustamente, anche

Axet
24th December 2022, 16:15
Arrivata la 4080, installata in fretta e furia e fatto un bench al volo che devo partire.

Risultato:
https://i.imgur.com/NHlTgPU.png

Ho copiato i settaggi da un forum random di uno che ha postato lo score con la 3080TI: https://www.techpowerup.com/forums/threads/unigine-heaven-4-0-benchmark-scores-part-2.222125/page-34#post-4907401

C'è qualquadra che non cosa :sneer:

Anche perchè che io sappia heavenly è praticamente 100% GPU driven, quindi il fatto che il tizio abbia una CPU >> del mio 5900X non dovrebbe impattare. O almeno non in quella misura. WTF?

Galandil
24th December 2022, 17:39
Posto che testare a 1080p su un benchmark di 13 anni fa non ha molto senso di per se:

https://i.imgur.com/2pCED4l.png

Galandil
24th December 2022, 19:22
E questo il bench con la GPU tweakata (+15% Power Limit, Undervolt -995mV, VRAM 2675MHz with Fast Timings)

https://i.imgur.com/VlfN9A4.png

Axet
24th December 2022, 20:20
vabbè ma heaven è un benchmark affidabile anche se vecchio.

I tuoi risultati dimostrano che c’è qualcosa che non torna. Il punto è: cosa? :rotfl:

Galandil
24th December 2022, 21:10
vabbè ma heaven è un benchmark affidabile anche se vecchio.

I tuoi risultati dimostrano che c’è qualcosa che non torna. Il punto è: cosa? :rotfl:

La 4080.

Axet
24th December 2022, 22:41
La 4080.


https://www.meme-arsenal.com/memes/d2e4de813b0721404fef1d9e1c06b236.jpg

San Vegeta
24th December 2022, 22:53
https://www.meme-arsenal.com/memes/d2e4de813b0721404fef1d9e1c06b236.jpg

aò, siete tu e la scheda... se non è la scheda... :afraid:

Tunnel
25th December 2022, 01:57
Beh, mi pare giusto il risultato con la 4080. Non capisco dove sia il dubbio, sinceramente.

Axet
25th December 2022, 03:21
Beh, mi pare giusto il risultato con la 4080. Non capisco dove sia il dubbio, sinceramente.

Lo scostamento percentuale rispetto alla 7900XTX (stock) è più ampio di quanto osservato in bench professionali (e.g., gamer nexus) e, cosa più importante, la 3080ti che va più della 4080 non esiste in nessun scenario - a meno di essere CPU bound, che chiaramente non è il caso con Heaven

Tl;dr: che diamine vai dicendo? :D

Galandil
25th December 2022, 04:47
Lo scostamento percentuale rispetto alla 7900XTX (stock) è più ampio di quanto osservato in bench professionali (e.g., gamer nexus) e, cosa più importante, la 3080ti che va più della 4080 non esiste in nessun scenario - a meno di essere CPU bound, che chiaramente non è il caso con Heaven

Tl;dr: che diamine vai dicendo? :D

7% "più ampio di quanto osservato"? Su quale pianeta? Che carini che siete quando descrivete il mondo che vedete tutto colorato di verde! :sneer:

Axet
25th December 2022, 13:07
Gala è inutile che cerchi di far passare gli altri per fanboy quando è palese come l'unico fanboy qua sia tu.
A me fotte sega della lotta tra Nvidia e AMD, ho CPU AMD, se avessi reputato la 7900 XTX una scelta migliore della 4080 avrei preso quella.
Se il prossimo giro AMD supera Nvidia in toto passerò ad AMD e gg, ma sto tuo continuo rant più o meno velato in ogni topic è abbastanza ridicolo tbh.
Obv sei liberissimo di far quel che vuoi, giusto un feedback. You do you.

Riguardo allo scostamento più ampio di quanto osservato, partendo da una delle pochi fonti di cui mi fido appieno (GN), si:



Game
Resolution
4080 fps
7900xtx fps
% diff


Total Warhammer 3
4k
87.6
90.6
0.033


Total Warhammer 3
1440p
175.6
179.7
0.023


Total Warhammer 3
1080p
254.1
257.5
0.013


Tomb Raider
4k
147.8
142.8
-0.035


Tomb Raider
1440p
235.8
231.9
-0.017


FF XIV
4k
151.8
148.1
-0.025


F122
4k
151
163.9
0.079


F122
1440p
240
263.1
0.088


Rainbow Six Siege
4k
269
269.9
0.003


Rainbow Six Siege
1440p
503.4
533.9
0.057


Strange Brigade
4k
201.8
201.8
0.000


Horizon Zero Dawn
4k
125.3
121.2
-0.034




Interessante, nè? Magari parlando di fatti invece che tirare frecciatine da fanboy random la discussione acquista una dimensione diversa.
Scostamento medio in base a quanto sopra 1.5% a favore della 7900XTX. Quindi si, il valore in heaven è fuori dallo scostamento medio e manco di poco :rolleyes:

Obv non ho incluso i risultati in ray tracing, solo raster (se no ciao).

Sulimo
25th December 2022, 13:18
Tra 6 mesi te ne penti, rivendi la 4080 e ti prendi la 4090.
quotato a 1.1
Profetico anche se sono stato troppo largo coi mesi :sneer:

Galandil
25th December 2022, 18:00
Gala è inutile che cerchi di far passare gli altri per fanboy quando è palese come l'unico fanboy qua sia tu.
A me fotte sega della lotta tra Nvidia e AMD, ho CPU AMD, se avessi reputato la 7900 XTX una scelta migliore della 4080 avrei preso quella.
Se il prossimo giro AMD supera Nvidia in toto passerò ad AMD e gg, ma sto tuo continuo rant più o meno velato in ogni topic è abbastanza ridicolo tbh.
Obv sei liberissimo di far quel che vuoi, giusto un feedback. You do you.

Riguardo allo scostamento più ampio di quanto osservato, partendo da una delle pochi fonti di cui mi fido appieno (GN), si:



Game
Resolution
4080 fps
7900xtx fps
% diff


Total Warhammer 3
4k
87.6
90.6
0.033


Total Warhammer 3
1440p
175.6
179.7
0.023


Total Warhammer 3
1080p
254.1
257.5
0.013


Tomb Raider
4k
147.8
142.8
-0.035


Tomb Raider
1440p
235.8
231.9
-0.017


FF XIV
4k
151.8
148.1
-0.025


F122
4k
151
163.9
0.079


F122
1440p
240
263.1
0.088


Rainbow Six Siege
4k
269
269.9
0.003


Rainbow Six Siege
1440p
503.4
533.9
0.057


Strange Brigade
4k
201.8
201.8
0.000


Horizon Zero Dawn
4k
125.3
121.2
-0.034




Interessante, nè? Magari parlando di fatti invece che tirare frecciatine da fanboy random la discussione acquista una dimensione diversa.
Scostamento medio in base a quanto sopra 1.5% a favore della 7900XTX. Quindi si, il valore in heaven è fuori dallo scostamento medio e manco di poco :rolleyes:

Obv non ho incluso i risultati in ray tracing, solo raster (se no ciao).

Rapidamente:

1) Se in una colonna scrivi "% diff", allora scrivi la %, i.e. moltiplica i valori per 100 che 90.6 vs baseline di 87.6 è una differenza di 3.42%.
2) A seguire dal punto 1: non cambi la baseline prendendo una volta la XTX e una volta la 4080 come baseline, ad es. in F122 a 4k la XTX è + veloce dell'8.54% della 4080 e non del 7.9%, idem Tomb Raider 4k, la diff è del -3.38% (1-142.8/147.8). Non saper fare neanche confronti aritmetici, check.
3) Posto che anche io rispetto la qualità e serietà di GN, prendere UNA review con un sample di SETTE giochi (più un paio testati solo in RT) è da cazzari totali, ma di quelli grossi. Perché la varietà di risultati dipende tantissimo da ogni singolo titolo, e nessun reviewer ha il tempo (e anche se ce l'avesse, non avrebbe senso farlo a prescindere) di testare 50+ giochi. Quindi si fa affidamento a più fonti per avere un quadro più preciso. Esempi banali:

- Igor's Lab: https://www.igorslab.de/en/amd-radeon-rx-7900xtx-and-rx-7900xt-in-test-a-giant-step-ahead-and-a-smaller-step-sideways/6/ , XTX +9.3%
- TechPowerUp: https://www.techpowerup.com/review/amd-radeon-rx-7900-xtx/32.html , XTX +4.12%
- Hardware Unboxed: https://www.youtube.com/watch?v=4UFiG7CwpHk , XTX +3.67%

e così via. Tipo in parecchi non hanno usato COD:MW2 come titolo nei benchmark, e con i driver pre-release a 4k (qualsiasi altra risoluzione è una perdita di tempo per fare confronti, obv) la XTX è + veloce del 23.47% rispetto alla 4080.

Quindi, al solito, si finisce sempre che il cazzaro preda del confirmation bias sei tu, che ti sei andato a pescare una delle review più favorevoli per la 4080, tralasciando completamente tutte le altre. GGWP.
Also, buttiamo nel cesso una volta per tutte i syntethic benchmarks, eh? Sono la cosa più inutile di sta terra, quel che conta è come performa ogni pezzo di hardware su ogni singolo titolo/applicazione, perché esistono, come dimostrato, anche NOTEVOLI differenze in base a come vengono scritti gli engine. Vedi il succitato COD:MW2 con la XTX più veloce del 23.47% rispetto alla 4080, o Civilization 6, con la XTX più lenta dell'11.5%.

Nel frattempo, già con la seconda release dei drivers, on average gli 0.1% sulla XTX sono saliti fra il 10% e il 15%, not bad.
La 4080, a questi prezzi, è un prodotto per pirla. Nothing more, nothing less. E buon anno anche a te.


https://www.youtube.com/watch?v=OCJYDJXDRHw

Axet
25th December 2022, 23:41
Rapidamente:

1) Se in una colonna scrivi "% diff", allora scrivi la %, i.e. moltiplica i valori per 100 che 90.6 vs baseline di 87.6 è una differenza di 3.42%.

Lamentarsi di un refuso in una tabella fatta la mattina di natale che mi son dovuto importare a mano da excel perchè vbulletin fa cagare, giusto perchè gli altri argomenti sono ridicoli e servono solo a portare avanti la tua crociata personale? Check.
Se poi non arrivi al fatto che sono espressi in risultati della divisione e non percentuali proprie e devi andarti a guardare l'header mi sa che il problema è un altro, ma arriviamo anche a quello :sneer:


2) A seguire dal punto 1: non cambi la baseline prendendo una volta la XTX e una volta la 4080 come baseline, ad es. in F122 a 4k la XTX è + veloce dell'8.54% della 4080 e non del 7.9%, idem Tomb Raider 4k, la diff è del -3.38% (1-142.8/147.8). Non saper fare neanche confronti aritmetici, check.

Sei così assorbito dai tuoi rant infiniti che non ti sei manco accorto che la baseline è sempre la stessa: la formula è sempre la stessa, per ogni riga. Arrotondata a 3 cifre decimali.
Provare per credere: 1-(4080 / 7900xtx), arrotonda a 3 decimali. Poi ridiamo insieme.
Ma è bellissimo perchè fa vedere i tuoi "true color", la riga che ti ha dato fastidio e ha generato questo sub-rant è quella dove la differenza tra le due schede è più ampia a favore di AMD :rotfl:
Non sapere fare semplici confronti aritmetici nè leggere una semplice tabella ma tacciare gli altri dello stesso, check.


3) Posto che anche io rispetto la qualità e serietà di GN, prendere UNA review con un sample di SETTE giochi (più un paio testati solo in RT) è da cazzari totali, ma di quelli grossi. Perché la varietà di risultati dipende tantissimo da ogni singolo titolo, e nessun reviewer ha il tempo (e anche se ce l'avesse, non avrebbe senso farlo a prescindere) di testare 50+ giochi. Quindi si fa affidamento a più fonti per avere un quadro più preciso. Esempi banali:

- Igor's Lab: https://www.igorslab.de/en/amd-radeon-rx-7900xtx-and-rx-7900xt-in-test-a-giant-step-ahead-and-a-smaller-step-sideways/6/ , XTX +9.3%
- TechPowerUp: https://www.techpowerup.com/review/amd-radeon-rx-7900-xtx/32.html , XTX +4.12%
- Hardware Unboxed: https://www.youtube.com/watch?v=4UFiG7CwpHk , XTX +3.67%

e così via. Tipo in parecchi non hanno usato COD:MW2 come titolo nei benchmark, e con i driver pre-release a 4k (qualsiasi altra risoluzione è una perdita di tempo per fare confronti, obv) la XTX è + veloce del 23.47% rispetto alla 4080.

Quindi, al solito, si finisce sempre che il cazzaro preda del confirmation bias sei tu, che ti sei andato a pescare una delle review più favorevoli per la 4080, tralasciando completamente tutte le altre. GGWP.
Also, buttiamo nel cesso una volta per tutte i syntethic benchmarks, eh? Sono la cosa più inutile di sta terra, quel che conta è come performa ogni pezzo di hardware su ogni singolo titolo/applicazione, perché esistono, come dimostrato, anche NOTEVOLI differenze in base a come vengono scritti gli engine. Vedi il succitato COD:MW2 con la XTX più veloce del 23.47% rispetto alla 4080, o Civilization 6, con la XTX più lenta dell'11.5%.
Nel frattempo, già con la seconda release dei drivers, on average gli 0.1% sulla XTX sono saliti fra il 10% e il 15%, not bad.

No, Gala, io non guardo sei milioni di review di ottanta siti diversi. GN ha un set di benchmark definito e costante, eseguito alla perfezione e in maniera ripetibile ed affidabile.
Mi basta quello, ed è l'unica review che ho visto.

Sei tu che cerchi lo straw man per aver ragione e estendi a piacere i bench, dove però saltano fuori cose strane.
Tipo per techpowerup f122 a 4k fa registrare 184fps per la 4080 e 182 per la 7900xtx, mentre per GN sono rispettivamente 151 e 163.
Ergo mischiare bench a caso va contro l'idea stessa di un bench, quello di GN è affidabile, prendo quello.

Poi tu ci vedi cose strane probabilmente perchè, beh, è quello che fai tu e come ti poni sul forum nella tua guerra infinita che importa solo a te :sneer:

La 4080, a questi prezzi, è un prodotto per pirla. Nothing more, nothing less. E buon anno anche a te.

Il problema torna sempre qua, sia per te che per molti reviewer. Il prezzo.
A parte il fatto che a me 200 euro in più o in meno fa davvero poca differenza, ma anche sorvolando sulle situazioni individuali e guardando al prezzo in se non ha senso comunque.
Vi (tu e i reviewer) fermate alle discussioni sul MSRP, che in europa non ha senso.

Eh la 4080 non ha senso perchè c'è la 4090 che costa il 30% in più e va il 42% in più!!!!!!!
Peccato che in Svizzera la 4090 si trovi dai 2k in su, escludendo i siti super shady dove si trova a 1800 senza diritto di recesso con consegna nel duemilaemai (tipo quello che era successo a me con una delle TRE 3080 che comprai nel 2020, dove mi hanno rimborsato dopo 1 anno nonostante la SKU non esistesse più da mesi e solo dopo minaccia di azioni legali).
Di contro la 4080 si trova sui 1300, sempre escludendo i siti shady.
Questo vuol dire che la 4090 - in realtà e non basata su MSRP assurdi e inesistenti - costa più del 50% in più della 4080 e va il 42% in più.
Puff, l'argomento principe va a scomparire così, de botto.

Ma pure la 3080, per dio, l'MSRP doveva essere 700 dollari, l'ho pagata 1150 nel 2020 :rotfl:

Ma andiamo a vedere la 7900XTX, no? Si trova tra i 1240 e i 1350 (sempre escludendo i siti shady).
Tra i 60 franchi meno di una 4080 a più o meno lo stesso prezzo.
Ben lontani dai 200 dollari di cui si parla tanto online.

Allo stesso prezzo le cose cambiano, non credi? Vai un po' meglio in raster, vai un bel po' peggio in upscaling e ray tracing, questione di preferenze.
Ma se è prezzata male la 4080 allora è prezzata male anche la 7900XTX, no?

Ah, no, va contro la tua crociata personale, ergo cavalchiamo il bias di conferma, guardiamo solo l'MSRP insensato e ignoriamo completamente quella che invece è la realtà del mercato.
Ben fatto Gala, ben fatto.




https://www.youtube.com/watch?v=OCJYDJXDRHw

Solito video basato sul MSRP, che come visto sopra lascia il tempo che trova in Europa.
Negli states sono d'accordo, chi cazzo spende 1500 dollari per una 4080 quando con 100 dollari in più ti fai la 4090 (se la trovi).
Peccato che non abbia senso per il mercato europeo :rolleyes:

Gala son mesi / anni che vai avanti con sta cosa, te lo dicono tutti, poi fai quel che vuoi.
Oltretutto mi pare si sia pure inasprita dopo che hai preso la 7900, tipo che devi difendere il tuo acquisto ad ogni costo.
Ok, hai fatto un investimento importante, è una buona scheda, se sei contento gg. Ma sfrangiare il cazzo a sta maniera un po' a chiunque boh, non so che dire.

Ah prima che te ne salti fuori dicendo che io cerco di giustificare l'acquisto della 4080, ti fermo subito.
Come già detto per me la differenza di prezzo tra 7900XTX, 4080 e 4090 è, sostanzialmente, un rounding error.

Axet
27th December 2022, 18:02
Giusto per chiudere l'argomento, mo che son tornato a casa ho controllato e i risultati erano sballati perchè dopo un update che ho fatto per sistemare tutti gli RGB mi andava la CPU a 6 core e la RAM senza XMP.
Quindi si, c'era qualcosa che non andava.

Fatto anche un minimo di OC, i risultati ora sono in linea con le aspettative:

https://i.imgur.com/2CkLIbT.png

Obv sempre un po' più lento in raster di una 7900XTX tweakata, ma i valori sono finalmente sensati.

Hador
27th December 2022, 19:15
Eh ma il video di GN?

Pazzo
31st December 2022, 12:47
ma domanda da tizio che non segue il mercato e i bench da un po' e giusto ora sto dando un'occhiata perchè si avvicina il tempo di cambiare pc in toto, posto che la cosa che attualmente mette in difficoltà le gpu a livello di giochi se non si va sul 4k che a me pare scelta poco sensata su pc è il ray tracing, e che con ray tracing allo stato pare non esserci partita, il senso di una gpu amd visto che come ha fatto osservare Axet i prezzi reali sono molto simili quale è?

Hador
31st December 2022, 14:28
A meno che uno non abbia un budget con 0 margine di manovra dove 100 euro fanno la differenza, il senso è fanboysmo, o meglio, la volontà di "dare un messaggio". Dato che per me ste robe lasciano il tempo che trovano, ad oggi con la differenza di prezzo reale che c'è non vedo sta gran ragione di andare su AMD. Soprattutto perché a conti fatti, oggi, entrambe le schede fanno girare qualsiasi cosa ad un numero di fps tali che averne 10 in più non ti cambia la sega. Ma se poi ti capita anche solo un gioco che non riesci a giocare (bho portal) poi ti gira il cazzo tantissimo. Costasse 850-900 euro ok, ma a 1200 vs 1350 meh.

Hador
31st December 2022, 14:30
Diciamo che la cosa migliore sarebbe skippare questa generazione, o almeno aspettare un po'. Ma se uno proprio deve cambiarlo ora io comunque preferirei la 4080.

-=Rho=-
31st December 2022, 16:59
C'e' anche il rischio che l'equivalente della 4080 della prossima gen ce lo pizzano a 2/2.5k di msrp :D

Drako
31st December 2022, 17:52
Io sto seriamente pensando di andare esclusivamente sull'usato per le gpu da qui in poi.

Axet
31st December 2022, 21:17
Oltretutto mi è appena arrivata una notifica da reddit, pare ci siano problemi di temperature con le 7900 XTX che superano i 110 gradi: https://wccftech.com/amd-responds-to-radeon-rx-7900-xtx-thermal-issues-asks-users-to-contact-support/
Più paiono esserci problemi a livello di un lancio anticipato forzato che ha portato a situazioni bizzarre: https://www.digitaltrends.com/computing/amd-radeon-rx-7900-xtx-xt-are-unfinished/

Tra le 3090 2 anni fa che saltavano per il framerate troppo alto, le 4090 con il connettore insensato e le 7900 XTX siamo in una bottte di ferro pd

Axet
1st January 2023, 00:08
A cui mi viene da aggiungere anche le pagliacciate sia di Nvidia che AMD riguardo al gaming 8k :rotfl:

E anche una cosa che mi ha fatto notare un mio amico (AMD fanboy) un’oretta fa riguardo a come AMD nella presentazione di RDNA3 avesse promesso un 1.7x rispetto alla passata generazione che invece non c’è stato - ma manco vicino.

Mi viene quasi da sperare che Intel tiri fuori il miracolo con le prossime generazioni di Arc :rotfl:

Zaider
1st January 2023, 10:09
Mi viene quasi da sperare che Intel tiri fuori il miracolo con le prossime generazioni di Arc :rotfl:

penso che fra 3/4 anni avremo qualcosa di solido da parte loro

Galandil
1st January 2023, 18:25
Lamentarsi di un refuso in una tabella fatta la mattina di natale che mi son dovuto importare a mano da excel perchè vbulletin fa cagare, giusto perchè gli altri argomenti sono ridicoli e servono solo a portare avanti la tua crociata personale? Check.
Se poi non arrivi al fatto che sono espressi in risultati della divisione e non percentuali proprie e devi andarti a guardare l'header mi sa che il problema è un altro, ma arriviamo anche a quello :sneer:
Sei così assorbito dai tuoi rant infiniti che non ti sei manco accorto che la baseline è sempre la stessa: la formula è sempre la stessa, per ogni riga. Arrotondata a 3 cifre decimali.
Provare per credere: 1-(4080 / 7900xtx), arrotonda a 3 decimali. Poi ridiamo insieme.
Ma è bellissimo perchè fa vedere i tuoi "true color", la riga che ti ha dato fastidio e ha generato questo sub-rant è quella dove la differenza tra le due schede è più ampia a favore di AMD :rotfl:
Non sapere fare semplici confronti aritmetici nè leggere una semplice tabella ma tacciare gli altri dello stesso, check.

Rapidamente che non ho voglia di perdere altro tempo con chi non sa nemmeno le basi dell'aritmetica.
La tua "formula" 1-rapporto non ha un cazzo di senso. Se la tua intenzione era, come dici, di valutare i numeri della 4080 rispetto alla XTX, i segni che hai indicato in tabella sono TUTTI sbagliati, e vanno invertiti. Perché la formuletta è (valore da confrotare/valore di riferimento) - 1.
120 rispetto a 100 è un +20%, ma 100 rispetto a 120 NON è -20%, ma -16.67%.
Quindi i numeri % che hai messo in tabella sono i numeri di una 4080 in rapporto alla XTX presa come baseline, ma con i segni sbagliati e che vanno invertiti.
Sipario.

Ora ovviamente ti esibirai in una arrampicata di specchi sul fatto che "dovevi capirlo da solo" e il solito drivel di chi sbaglia e non ammette di averlo fatto.

Per il resto, i miei "true colors", come li chiami tu, sono quelli di uno che quando si tratta di dati li usa e scrive come VANNO scritti, e pretende lo stesso dagli altri quando li snocciolano, punto.
I tuoi, invece, sono quelli di uno che non sa neanche come calcolare raffronti in % fra valori, e non dimentichiamocelo, quelli di uno che non sa neanche come aggiornare il BIOS di una mobo, e quando il primo tentativo va male, viene qui sul forum ad insultarmi come se la tua incapacità fosse mia responsabilità.

Il resto lo skippo agevolmente che a) non merita attenzione visto l'interlocutore e b) son cose dette e stradette, ripetersi è inutile.

E per concludere con una nota umoristica, presa da un benchmark sintetico assolutamente inutile, ma che a te piace tanto evidentemente:
https://i.imgur.com/syQzo0v.png
:sneer:

Galandil
1st January 2023, 18:32
ma domanda da tizio che non segue il mercato e i bench da un po' e giusto ora sto dando un'occhiata perchè si avvicina il tempo di cambiare pc in toto, posto che la cosa che attualmente mette in difficoltà le gpu a livello di giochi se non si va sul 4k che a me pare scelta poco sensata su pc è il ray tracing, e che con ray tracing allo stato pare non esserci partita, il senso di una gpu amd visto che come ha fatto osservare Axet i prezzi reali sono molto simili quale è?

Che il REI TRESING, a parte qualche caso sporadico (come Control) non è tutta questa gran differenza a livello visivo, quantomeno non giustifica l'hit che subisce il frame rate (posto che le baseline sono ovviamente differenti, con nVidia in netto vantaggio).
La cosa migliore che offre l'RT sono le reflection, ma a parte fare flexing con screenshot accuratamente presi per mostrare le differenze, è un miglioramento di cui ti accorgerai si e no il 5% del tempo che passi a giocare. E cmq anche questo non è "completo" (i.e. il model del giocatore non viene mai riflesso, perché devasterebbe il frame rate in modo ridicolo, e per motivi tecnici).

Se devi fare un upgrade, valuta piuttosto un upgrade ad un monitor HDR10 (vero) minimo, invece di buttare soldi nell'RT. E occhio a non farvi fregare dai finti monitor HDR, che ci mettono la sigla ma poi hanno come peak brightness 600cd/m2: non è HDR, è solo una truffa.

Per fare un esempio pratico, Cyberpunk.

RT Off, no FSR:
https://i.imgur.com/MDp6G7c.jpg

RT Ultra con tutte le opzioni attive, no FSR:
https://i.imgur.com/7ay4NgL.jpg

Mi piacerebbe poter mettere uno screenshot comparativo in HDR, ma sarebbe inutile perché non vedresti le differenze senza poterlo visualizzare su un monitor HDR (per ovvii motivi).

Galandil
1st January 2023, 18:38
Oltretutto mi è appena arrivata una notifica da reddit, pare ci siano problemi di temperature con le 7900 XTX che superano i 110 gradi: https://wccftech.com/amd-responds-to-radeon-rx-7900-xtx-thermal-issues-asks-users-to-contact-support/
Più paiono esserci problemi a livello di un lancio anticipato forzato che ha portato a situazioni bizzarre: https://www.digitaltrends.com/computing/amd-radeon-rx-7900-xtx-xt-are-unfinished/

Tra le 3090 2 anni fa che saltavano per il framerate troppo alto, le 4090 con il connettore insensato e le 7900 XTX siamo in una bottte di ferro pd

L''unica cosa vera è la questione dei 110°C dell'hot spot, la storia dello shader prefetcher è una stronzata, già abbondantemente debunkata.
E non è una questione dei 110 di per se, ma della differenza fra hot spot e GPU temp (side temp), che raggiunge i 40°C+.
Di teorie del cazzo su questa problematica se ne sono lette tantissime, da una settimana e passa, e la maggiorparte sono esattamente quelle: minchiate. La cosa più probabile per questo comportamento è che ci sia qualcosa che non va nella vapor chamber dei dissipatori montati, non di certo la mount pressure o la pasta termica usata.

Detto ciò, è una roba per me inammissibile in un prodotto da $400, figuriamoci in un prodotto da $1k. E pare che AMD non stia sostituendo le schede con questo problema (rifiutano l'RMA in quanto "within specs", visto che la GPU effettivamente throttla la frequenza appena raggiunge i 110°C), il che è ancora più grave ed inammissibile. Quantomeno si può fare il refund, ma la situazione è da peracottari totali.

Pazzo
1st January 2023, 20:05
Che il REI TRESING, a parte qualche caso sporadico (come Control) non è tutta questa gran differenza a livello visivo, quantomeno non giustifica l'hit che subisce il frame rate (posto che le baseline sono ovviamente differenti, con nVidia in netto vantaggio).
La cosa migliore che offre l'RT sono le reflection, ma a parte fare flexing con screenshot accuratamente presi per mostrare le differenze, è un miglioramento di cui ti accorgerai si e no il 5% del tempo che passi a giocare. E cmq anche questo non è "completo" (i.e. il model del giocatore non viene mai riflesso, perché devasterebbe il frame rate in modo ridicolo, e per motivi tecnici).

Se devi fare un upgrade, valuta piuttosto un upgrade ad un monitor HDR10 (vero) minimo, invece di buttare soldi nell'RT. E occhio a non farvi fregare dai finti monitor HDR, che ci mettono la sigla ma poi hanno come peak brightness 600cd/m2: non è HDR, è solo una truffa.

Per fare un esempio pratico, Cyberpunk.

RT Off, no FSR:
https://i.imgur.com/MDp6G7c.jpg

RT Ultra con tutte le opzioni attive, no FSR:
https://i.imgur.com/7ay4NgL.jpg

Mi piacerebbe poter mettere uno screenshot comparativo in HDR, ma sarebbe inutile perché non vedresti le differenze senza poterlo visualizzare su un monitor HDR (per ovvii motivi).

fallo di notte col bagnato uno screen comparativo però, non nelle condizioni dove il rei tresing come dice tu è ai minimi quanto a effetti visivi su, e uno screen già rende meno che in movimento.

cioè, cyberpunk lo ho giocato,e ho perso un bel po' a stare sui settings, non mi servono screen, con rt attivo era oggettivamente uno spettacolo.

ma il punto era, visto che a 1440p tutte ste schede hanno performance allucinanti con framerate talmente alti da non fare differenza l'una dall'altra praticamente, e che l'unica cosa che fa scendere gli fps è appunto RT, il vantaggio di una amd dove sta?

Axet
1st January 2023, 21:46
Rapidamente che non ho voglia di perdere altro tempo con chi non sa nemmeno le basi dell'aritmetica.
La tua "formula" 1-rapporto non ha un cazzo di senso. Se la tua intenzione era, come dici, di valutare i numeri della 4080 rispetto alla XTX, i segni che hai indicato in tabella sono TUTTI sbagliati, e vanno invertiti. Perché la formuletta è (valore da confrotare/valore di riferimento) - 1.
120 rispetto a 100 è un +20%, ma 100 rispetto a 120 NON è -20%, ma -16.67%.
Quindi i numeri % che hai messo in tabella sono i numeri di una 4080 in rapporto alla XTX presa come baseline, ma con i segni sbagliati e che vanno invertiti.
Sipario.

Ora ovviamente ti esibirai in una arrampicata di specchi sul fatto che "dovevi capirlo da solo" e il solito drivel di chi sbaglia e non ammette di averlo fatto.


Evidentemente nella fretta posso aver fatto un errore, errore che non inficia il quadro complessivo visto che parliamo davvero di rounding errors su ste cifre.
Ma la cosa divertente, sempre molto rapidamente, è questo:


Rapidamente:
2) A seguire dal punto 1: non cambi la baseline prendendo una volta la XTX e una volta la 4080 come baseline, ad es. in F122 a 4k la XTX è + veloce dell'8.54% della 4080 e non del 7.9%, idem Tomb Raider 4k, la diff è del -3.38% (1-142.8/147.8). Non saper fare neanche confronti aritmetici, check.


Muoio :rotfl:
Pehhh io i numeri li presento giustih, non sai contareh -> usa la stessa formula che ho usato io, prima che menzionassi quale formula io abbia usato :rotfl: :rotfl: :rotfl:

Sto male :rotfl:


Per il resto, i miei "true colors", come li chiami tu, sono quelli di uno che quando si tratta di dati li usa e scrive come VANNO scritti, e pretende lo stesso dagli altri quando li snocciolano, punto.
I tuoi, invece, sono quelli di uno che non sa neanche come calcolare raffronti in % fra valori, e non dimentichiamocelo, quelli di uno che non sa neanche come aggiornare il BIOS di una mobo, e quando il primo tentativo va male, viene qui sul forum ad insultarmi come se la tua incapacità fosse mia responsabilità.

Il resto lo skippo agevolmente che a) non merita attenzione visto l'interlocutore e b) son cose dette e stradette, ripetersi è inutile.

E per concludere con una nota umoristica, presa da un benchmark sintetico assolutamente inutile, ma che a te piace tanto evidentemente:
https://i.imgur.com/syQzo0v.png
:sneer:

I tuoi true colors si vedono anche dallo screenshot cherry picked di cyberpunk dove palesemente non è uno scenario in cui il RT brilla :rolleyes:
Il resto non lo commenti perchè sai che ho ragione, tutta la manfrina che continui a tirare è basata su un MSRP che in europa semplicemente non esiste, stai parlando del nulla.

La cosa del bios poi boh, totalmente estemporaneo e scorrelato dalla discussione. Io lo leggo come un buttarla in caciara per sviare l'attenzione dai tuoi ragionamenti fallaci e di parte, però sarò io eh.
Che per altro mica ero incazzato con te, ero incazzato in generale che proprio a me il bios sbarella. Infatti non era nato nessun caso nè flame all'epoca, mi pareva ovvio.
Link per ripercorrere gli eventi: https://www.wayne2k1.com/showthread.php?t=113630&page=37&p=2170351&viewfull=1#post2170351

Axet
1st January 2023, 23:14
fallo di notte col bagnato uno screen comparativo però, non nelle condizioni dove il rei tresing come dice tu è ai minimi quanto a effetti visivi su, e uno screen già rende meno che in movimento.
cioè, cyberpunk lo ho giocato,e ho perso un bel po' a stare sui settings, non mi servono screen, con rt attivo era oggettivamente uno spettacolo.
ma il punto era, visto che a 1440p tutte ste schede hanno performance allucinanti con framerate talmente alti da non fare differenza l'una dall'altra praticamente, e che l'unica cosa che fa scendere gli fps è appunto RT, il vantaggio di una amd dove sta?

Non c’è nessun vantaggio tolto il prezzo, però come dimostrato il gap di €€€ nel mondo reale è molto più risicato (se non inesistente).

Più che altro direi che in generale ne la 4080 ne la 7900xtx hanno senso se giochi a 1440p.

Come già detto mille volte se non fosse che uso 3 schermi 1440p (7680x1440) per fare le gare online non avrei mai cambiato la gpu in sta gen. E il mio monitor per uso non racing è 3840x1600, ergo più vicino a 4k che 1440p.

Se proprio devi cambiare io farei un pensiero serio alla 4070/4070ti o corrispettivo AMD. O anche una 3080/3080ti.

A meno che hai in mente di passare a ultra wide o a 4k diretto, allora ha senso

Galandil
2nd January 2023, 04:54
Muoio :rotfl:
Pehhh io i numeri li presento giustih, non sai contareh -> usa la stessa formula che ho usato io, prima che menzionassi quale formula io abbia usato :rotfl: :rotfl: :rotfl:

Sto male :rotfl:

Sei talmente furbo che invece di notare che ho sbagliato a scrivere la formula fra parentesi invertendo il segno, hai perso più tempo a fare l'Ace Attorney di Burzate Inferiore e recuperare il quote appositamente per sentirti figo. Che uno avrebbe notato che 1 - 142.8/147.8 fa +3.38%, non -3.38%.
Il tutto introdotto dall'anticipata arrampicata di specchi del "sono rounding errors". :rotfl:

Ah, a proposito dell'RT, ora iniziamo ad usare anche lì i vari caveat "madiggiorno non brilla l'RT, devi essere di notte e mentre piove.". Poi se ho voglia e tempo di disabilitare l'HDR quando gioco, che SK essendo un injector lo devo fare appositamente prima di lanciarlo, prendo un doppio screen di notte. O in qualche interno. "Interno con pioggia in Night City", magari. S'è capito che vi piace l'effetto millevetrine, buttateci pure gli euri sopra e killate il frametime, contenti voi, contenti tutti. Stai a vedè che devo stare a disquisire di RT con gente che non sa manco cosa sia un BVH. :confused:

Torna a fare brum brum con le macchinine, su, che giusto quello sei bono a fare. :sneer:

Galandil
2nd January 2023, 17:10
La cosa più probabile per questo comportamento è che ci sia qualcosa che non va nella vapor chamber dei dissipatori montati, non di certo la mount pressure o la pasta termica usata.

Appunto:


https://www.youtube.com/watch?v=26Lxydc-3K8

Un ingegnere AMD ha anche postato su Reddit a riguardo, "suggerendo" che ci siano un 2-3 batches di schede con questo problema (quindi boh, qualche migliaio di schede affette? Non benissimo).

Applausi per l'elevatissima competenza nello scegliere i produttori dei dissipatori e nel Quality Control, siamo davvero scaduti nel ridicolo, spero vivamente che decidano di effettuare delle sostituzioni totalmente gratuite per chi ne è affetto, o in alternativa che negli US, visto che ne hanno la possibilità, facciano partire una mega class action contro AMD.

Il più pulito c'ha la rogna. (cit.)

Axet
2nd January 2023, 18:11
Sei talmente furbo che invece di notare che ho sbagliato a scrivere la formula fra parentesi invertendo il segno, hai perso più tempo a fare l'Ace Attorney di Burzate Inferiore e recuperare il quote appositamente per sentirti figo. Che uno avrebbe notato che 1 - 142.8/147.8 fa +3.38%, non -3.38%.
Il tutto introdotto dall'anticipata arrampicata di specchi del "sono rounding errors". :rotfl:

Ah, a proposito dell'RT, ora iniziamo ad usare anche lì i vari caveat "madiggiorno non brilla l'RT, devi essere di notte e mentre piove.". Poi se ho voglia e tempo di disabilitare l'HDR quando gioco, che SK essendo un injector lo devo fare appositamente prima di lanciarlo, prendo un doppio screen di notte. O in qualche interno. "Interno con pioggia in Night City", magari. S'è capito che vi piace l'effetto millevetrine, buttateci pure gli euri sopra e killate il frametime, contenti voi, contenti tutti. Stai a vedè che devo stare a disquisire di RT con gente che non sa manco cosa sia un BVH. :confused:

Torna a fare brum brum con le macchinine, su, che giusto quello sei bono a fare. :sneer:

La cosa sta assumendo contorni alquanto comici:



Ora ovviamente ti esibirai in una arrampicata di specchi sul fatto che "dovevi capirlo da solo" e il solito drivel di chi sbaglia e non ammette di averlo fatto.

Per il resto, i miei "true colors", come li chiami tu, sono quelli di uno che quando si tratta di dati li usa e scrive come VANNO scritti, e pretende lo stesso dagli altri quando li snocciolano, punto.
I tuoi, invece, sono quelli di uno che non sa neanche come calcolare raffronti in % fra valori


:rotfl: :rotfl: :rotfl: :rotfl:

Per il resto guarda come glissi sulla panzana del MSRP, è adorabile.
Senza però ovviamente farsi mancare anche un po' di shaming della gente a cui piace la resa grafica che il RT è in grado di offrire, il cui driver è palesemente il fatto che AMD è una gen indietro in RT.
Sicuro come l'oro se la prossima gen AMD sarà on par o addirittura avanti ad Nvidia in ambito RT diventerai il crociato numero 1 del ray tracing :rotfl:

Poi sta cosa che devi postare screenshot, lol, la gente ha giocato a giochi con e senza RT e sa già cosa aspettarsi. Senza i tuoi screenshot cherry picked :kiss:

Riguardo poi all'ennesimo attacco personale random, visto che quello del bios ha fallito, beh si sono bono a fare brum brum con le macchinine. E tante altre cose, tra cui alcune che mi permettono di essere in una posizione dove non mi interessa quanto una GPU costi, il che mi eleva a super partes.
A differenza di qualcun'altro :rolleyes:

Rapidamente (:rotfl:), un ultimo punto: mi fa ridere che hai iniziato a parlare dei problemi riguardanti la 7900XTX solo dopo che ho sollevato la questione.
Per la 4090 eri in prima linea a postare news l'istante in cui uscivano.
True colors e tentativo postumo di mascherare l'ovvio. A-D-O-R-O :rotfl:

Galandil
2nd January 2023, 18:20
Tieni, fresco di giornata, così sei contento:


https://www.youtube.com/watch?v=dnxXT2sx8nA

E da oggi, /ignore perché perdere tempo col Ranzani di turno voglia zero. E mi raccomando, cambia ad un 13900K perché sennò sei CPU limited (cit.). :rotfl: