Pensavo molto peggio, non pare difficile a parte togliere i copri viti
Printable View
Pensavo molto peggio, non pare difficile a parte togliere i copri viti
Con la pcb di quella forma chissa se tireranno fuori qualche wb dalle forme goliardiche , anche se le custom saranno comunque rettangolari canoniche :D
Ek ha messo un teaser con i raccordi sul retro, vedremo
Quindi mi state dicendo che devo accantonare l'idea di rinnovare il notebook aspettando un'offerta sulle 2070/2080 ed aspettare invece i primi con le 30xx perché il salto prestazionale è MOLTO importante?
Sulle desktop lo è, sulle mobile non è ancora dato saperlo? Non saprei dire se tra i due ambiti le differenze di generazione si assottigliano
ma quante schede hanno prodotto?
10 per nazione?
sono introvabili
Tranqui tra un par di giorni popperanno le prime a 1k :sneer:
dai c'è un bid da 60k per una 3080 su ebay.
Su digitec Acer hanno già alzato i prezzi
Meno di 850€ non si trovano :sneer:
:confused:
in ogni caso io devo aspettare le dimensioni esatte dei waterblock.
ho lo spazio preciso preciso :sneer:
Io sono riuscito ad ottenere da un fornitore la PNY RTX 3080 con 10 GB ad € 671,50 + iva (825,33)
edit: mi arriva entro fine settembre
Bhe sono piccoli, dovrebbe essere più semplice per te rispetto alla serie 20x0.
Io ho ordinato il wb ek intanto
Per la scheda aspetto di vedere i prezzi delle 3090
usciti prezzi e bench della 3090, direi che non ne vale la pena se uno non fa rendering o cose strane
C'è qualcosa che mi sfugge. :scratch:
Attachment 11388
ma sono fps quelli???? O.o
Si, ma considera che è su Q2 full RTX - tutto in path tracing, quindi pesante come la morte.
Il punto è che sta 3090, a fronte di un costo di circa il doppio della 3080, performa si e no fra il 10 e il 20% meglio - una presa in giro mostruosa. E no, non è adatta neanche al mercato professionale, visto che le mancano features tipiche di una Titan (che probabilmente uscirà più in là).
ok a che serve fare un gioco che non regge 60+ fps neanche su schede da 2k euro?
programmato col culo?
perchè una titan, senza driver titan per sviluppatori, che fa quanto una scheda che costa la metà non è una figata?
anche perchè i video a "8k60" sono a 1440p con dlss 2.0... che per carità è interessante come funziona ma tanto una tv a 8k in quanti la hanno ? (costano 30k $...)
già il 4k è veramente poco diffuso e inutile per quanto riguardo una classica postazione pc, può essere interessante con le tv tipo lg con high refresh e g-sync.
Se guardi il video di Gamers Nexus, fanno anche il test a "8K", anzi, So-called-8-so-called-K :rotfl:, average fra i 30 e i 40fps su ogni titolo tranne uno che non ricordo mo qual è.
Il problema è che sti numeri sono all'incirca identici (come differenza) anche con RTX off e a 1440p. Sostianzalmente è una 3080 con più RAM, stessa GPU (GA102) ma binning migliore di quelle sulle 3080. Al doppio del prezzo. AFFARONE PROPRIO.
E ho una mezza ipotesi sul perché...
No, a me puzza di "momento panico" dell'ultimo minuto. Imo la 3080 avrebbe dovuto montare il GA104 best bin (i peggio alla 3070), mentre 3080Ti (da far uscire dopo 3070, 3080 e Titan) e Titan il 102, e hanno avuto qualche leak sulle prestazioni di RDNA2 con il top di gamma che outperformava il 104, e allora per non bruciarsi subito il tutto, hanno spostato il 102 sulla 3080, per rimanere con la scheda "top di tutte" a prezzo < 1k.
Ricordati che giacchetta Jensen ha martellato i coglioni con la 3080 "best card ever" durante la presentazione, nonostante ci fosse appunto la 3090 annunciata lo stesso giorno (sul cui prezzo la RAM incide abbestia obv). Vedremo in futuro se mai uscirà una Ti e cosa offrirà, al momento ci sono serissimi dubbi che possano offrire la stessa GPU con 16GB e chiamarla Ti.
Anche perché pensaci un attimo, lineup di partenza con la "media" che monta 10GB e la top che ne monta 24? Non ha senso imo, se non in quello scenario che ho descritto poco sopra.
I rumors tra l'altro parlano del top di gamma AMD che monterà 16GB di default, sarà un bel ridere se riesce ad avvicinarsi ad un 5-10% delle prestazioni della 3080, magari con dei prezzi AIB nel range €600-700.
Lol, letto poco fa nella review di TH:
Quote:
Compared to the Titan RTX, the RTX 3090 is up to 32% faster (in maya-05, medical-02, and showcase-02). It does a bit better at 4K than 1080p in some other tests … but then there's catia-06 and snx-03. The Titan RTX is nearly twice as fast as the 3090 in catia-06, and about 20 times faster in snx-03. Obviously, if either of those software packages are things you use, the 3090 isn't going to be a great fit. Overall, for SPECviewperf, the 3090 ends up 35% slower than the Titan RTX, but it's heavily skewed by the massive gulf in snx-03 performance.
Più che altro la 3090 ha un posizionamento un po' ambiguo, a metà tra gaming e professional.
Nerfata però su certi ambiti professional e difficile da giustificare in termini di prezzo/prestazioni sul fronte gaming.
E questo uplift non troppo importante (se rapportato alla differenza di prezzo quantomeno) nei giochi renderà difficile anche il posizionamento della TI, che solitamente copre la fascia prestazionale che ad oggi viene coperta dalla 3090.
Quindi o non ci sarà la 3080ti, o non avrà senso (uplift inferiore a quello offerto dalla 3090), o andrà a cannibalizzare la 3090 facendo fare una figura di merda epica a NVidia e scatenando le ire dei consumatori.
E visto il nerf lato professional, è lecito pensare che ci sarà anche una nuova titan ad un certo punto.
Boh io ci sto facendo cmq un pensierio alla 3090, ma più ci rimugino e meno mi pare una buona idea.
L'unica cosa è che sto tornando a smanettare con ML, in quell'ambito i cuda core e tensor code aggiuntivi dovrebbero aiutare, ma dovrei guardare i bench onde evitare sorprese come quelle dei software cad.
Bisogna anche vederle ste gpu amd , che a colpi di leak a rumors anche la vega7 doveva essere la " next big thing " .
Tocca aspettare un altro mesetto .
Io aspetterei il lancio delle schede amd , se nvidia lo deve fare e' probabile che se "esistono" announcieranno la 3080ti poco dopo . Potrebbero fare una mossa tipo 20xx e 20xx-S semplicemente in tempi piu' brevi , tanto vista la quantita di sche disponibili sul mercato queste 30xx non le hanno ancora comprate in molti :D
GN ormai è inseguibile, fa più polemica di sgarbi :nod:
La 3090 è posizionata male ma costa metà di una titan e in molti applicativi performa molto meglio (Blender maya etc). Può avere molto senso, ma non per il gaming.
Vedremo big navi ma ritengo veramente improbabile tirino fuori qualcosa di assurdo.
Tra l'altro queste schede han mostrato bene che nonostante tutto la serie 10 di intel in gaming resta significativamente meglio dei ryzen, con buona pace di tutti i Fanboy
Vero, però io ho monitor GSync quindi sono lockato con Nvidia.
Oddio, in realtà visti i prezzi della 3090 e i plausibili prezzi del top di gamma AMD, con i soldi della 3090 mi farei easy scheda AMD + monitor 4k free sync (+ magari rivendendo il mio acer predatore 27" a un 200/300 euro) :sneer:
Da vedere con Zen3 però, al momento il paragone è tra due generazioni differenti.
Non credo ad un pareggio e men che meno ad un'inversione di tendenza, ma c'è la possibilità concreta che il gap venga ridotto.
la serie 10 non è una gen nuova, è semplicemente una serie 9 sotto steroidi (è un 'tock')
io cmq ho preordinato la 3080 su digitec ma chissà quando ariva
secondo me amd si posizionerà appena sotto la 3080 e non avrà nulla contro la 3090 o una 3080ti, ma vedremo
Ma non è così da un po'? Prestazioni gaming Intel, medio gamma all rounder amd. Io ho fatto una build mid range per giocare a 1440p e c'ho buttato dentro un 3600.
Per ora non ho di che lamentarmi.
Inviato dal mio MI 9 utilizzando Tapatalk
ho capito che lo hai scritto, ma io da "acquirente" mi aspetto che il top gamma che esce OGGI sia overkill su TUTTO in QUALSIASI condizione (per overkill intendo accendo TUTTO e reggo 60fps sulla max risoluzione prevista).
Visto che non è così, significa che ad oggi la tecnologia non regge il passo dello sviluppo software... oppure, più semplice, che i giochi sono programmati a cazzo / pesanti per farti comprare GPU estreme e far girare i big money :sneer:
A parte le stronzate da marketing (che però apparentemente ancora oggi funzionano sulle menti deboli :sneer: ), l'RTX di nVidia (e l'analogo comecazzosichiamerà di AMD) NON è lì per poter far girare un motore grafico in full path tracing, serve solo per "abbellire" il frame con parti calcolate in path tracing (reflections e altre minchiatelle varie), la base è ancora rasterized.
Motivo per cui il motore scritto da zero di Q2RT fa quei numeri anche sulle attuali flagship. Il path tracing è *pesante* a livello di calcoli (sebbene sia più semplice a livello di implementazione), e nessuno si aspettava di vedere 60+fps di bottom 0.1% con le 3000, anzi, il solo fatto che riescano a mantere un'average superiore ai 30fps a 4k non è un risultato così malvagio.