La mia idea era che scendesse questa in realtà, non penso di voler andare oltre 1440p per ora. Mi andrebbe benone una 7900xtx a buon prezzo ad esempio.
Printable View
io anche volevo cambiare gpu questa gen , ma visti i prezzi folli e il fatto che la mia 2080s ancora tiene botta a 1440p aspetto .
ma sono conscio che la prossima gpu sara' attorno al millino o giu di li :D
Io non avessi avuto una vetusta RX580 con 4GB col cazzo che cambiavo a sto giro. Detto ciò, l'andamento attuale del mercato fa ben sperare, a parte il gruppetto di facinorosi :D che cambiano GPU ad ogni gen, il resto del pubblico s'è abbastanza rotto la minchia, e i prezzi stanno, seppur lentamente, scendendo. Come ho detto prima, il fatto di trovare le GPU di punta a prezzi sotto l'MSRP anche qui da noi povery in italia (per sotto l'MSRP intendo che sono inferiori all'MSRP cambiato in euro + l'IVA locale) è un ottimo segno.
Deve passare più che altro la fase di cambio GPU da parte della grande massa, che di suo di certo non compra il top di gamma, ma punta al middle/lower segment - una volta che una buona fetta di questi aggiornano la GPU, vedi poi come i prezzi saranno costretti a calare, se la domanda non è abbastanza, hanno poco da fare i fighi co sti prezzi.
Non mi pare ci sia un cambiamento epocale, la gente ha sempre cambiato gpu ogni 3-4 gen. Soprattutto ripeto oggi che dovendo i titoli girare anche su console, sono spesso abbastanza facili da fare girare.
Il problema è il 4k, ma se uno non gioca a 4k allora ha un sacco di margine.
Io comunque ho preso la 3080 venendo da una 1070. E i prezzi della serie 20x0 erano comunque già dei rip off rispetto sia a quelli delle 10x0 sia a quelli delle 30x0.
Domanda:
1) Voi propendereste più per un setup così
https://it.pcpartpicker.com/list/zGNr3y
con 4080 e un monitor 4k-32" di media gamma
2) o per un setup così
https://it.pcpartpicker.com/list/9KRDDq
con 4070 ti e un monitor 2k-27" di medio-alta gamma, oled?
La 2 imo.
Andare su di risoluzione per me é overated, alla giusta distanza le differenze sono minime mentre la profondità dei neri fa la differenza.
Insomma preferirei un monitor top che mi tengo 10 anni, l'unico dubbio che ho è sulla bontà del prodotto. Sono i primo monitor Oled consumer che escono, non so quanto siano acerbi.
È proprio quello il punto, un monitor OLED non so quanto possa durare negli anni. Andrebbero visti dal vivo entrambi con la risoluzione nativa su. Tenete presente che il monitor ce l'ho a 1 m dalla faccia, più o meno. La stanza è mediamente illuminata, tengo giù le tende oscuranti di solito, quindi l'oled 27 ci potrebbe stare.
Al netto di OLED vs non OLED, per giocare 2k è ancora oggi meglio se si vogliono alti frame rate senza tanti compromessi.
Però riconosco che il 32" (o più) è tanta robba
Un OLED (QD o W) ha senso solo se lo si usa il 90%+ del tempo per media consumption (video/film/serie) e gaming. E' ancora da evitare se si usa il monitor per "lavoro" (i.e. finestre fisse con un tempo di uptime elevato).
ma intendi questo?
https://www.gigabyte.com/it/Monitor/AORUS-FI32Q-X/sp#sp
ci sarebbe un 240-280hz Dell-Alienware, ma da 27", che mi attira - prezzo 635,62 €:
https://www.dell.com/it-it/shop/moni...hspecs_section
HDR600
QHD 2560 x 1440 (DisplayPort(OC): 280 Hz
altrimenti 240 Hz normale DP
Pecche note: assenza del HDMI 2.1 (è 2.0 ma tanto al PC lo colleghi via DP) + neri slavati e light bleeding per via del pannello ips.
La tentazione invece sarebbe questo:
https://www.dell.com/it-it/shop/moni...or-e-accessori
MONITOR CURVO QD-OLED PER GAMING ALIENWARE 34 - AW3423DWF
1.127,28 €
34.18"
3440 x 1440 (DisplayPort: 165 Hz)
QD-OLED
Credo che assieme al Samsung G8 Oled sia tra i migliori monitor QD-Oled sul mercato atm.
Deve uscire però il MSI 342c che è migliore sul HDR.
Credo esca a breve.
Ovviamente se spendessi il doppio dei soldi per farmi un Oled da gaming, terrei i due monitor Dell da 27" che attualmente uso come monitors per il pc da ufficio - text editing.
Sul nuovo monitor giocherei e vedrei solo film/you tube, mettendoci pure uno screen saver da 2 minuti lol
Ah i monitor DELL Oled hanno 3 anni di garanzia sul pannello, direttamente da Dell. Imho vince sul Samsung per questo motivo, anche se il Samsung è più bello esteticamente.
Confronto: https://www.rtings.com/monitor/tools...threshold=0.10
Il Samsung costa anche un 100-150 euro in più, pur non dando la stessa garanzia. Meh
Ocio perchè soffre di burn in a quanto pare, se ci lavori anche un po' sopra rischi.Quote:
MONITOR CURVO QD-OLED PER GAMING ALIENWARE 34 - AW3423DWF
Samsung è la merda, se puoi evita come la peste.
Ok, vi ascolto sugli oled. Ragionandoci sopra, anche solo pensare di giocare a Diablo IV con l'UI che è sempre lì presente, a lungo temo possa stampare l'immagine dell'interfaccia sull'oled.
Quindi avrei pensato ad una configurazione complessiva un pelo più ottimizzata, stando sul 2k ma a 240 hz - hdr 600 e su un IPS:
https://it.pcpartpicker.com/list/qvtWVw
Processore direi il 7700X perchè il 7800X3D non si può praticamente toccare in overclock e costa altri 160 euro in più che imho non mi danno un reale beneficio.
Scheda grafica dovrebbe bastare la 4070 ti, ho scelto una con pcb più contenuto come lunghezza (in confronto alle altre...)
Spesa totale siamo sui 3k euro che ci può stare, monitor 32" compreso.
L'acquisto avverrà verso il prossimo prime day, attorno al 12-13 luglio. Aspetto giusto per vedere se ci saranno sconti.
edit: ovviamente, non dovessi trovare il monitor LG della configurazione, potrei ripiegare su uno di questi: Gigabyte M32U o DELL G3223Q
Sono 4k e non vanno oltre 144hz ma appunto dipenderà dalle forniture al momento dell'ordine.
Tanto non devo giocare ad fps competitivi, che sia a 144hz o a 240+ non credo mi cambi la vita.
Cioé, ti vuoi prendere una 4070Ti con BEN 12GB di VRAM a €913 invece di una 7900XTX per circa €100 di più? Per avere il DOPPIO della VRAM e poter giocare senza remore anche a 4k?
Also, il 7700X invece del 7800X3D se l'utilizzo primario del PC è gaming? Cosa c'entra l'overclock? Nessuno sano di mente si mette ad overclockare in modo "classico" un 7700X, non ha senso, si va di Curve Optimizer in undervolt, e il CO è attivo anche sul 7800X3D.
Io boh.
1) non conosco un cazzo delle schede AMD di recente generazione. So che nvidia ha le sue tecnologie proprietarie e come dici te sta a 100 euro di meno.
2) il 7800X3D costa 165 euro in più del 7700X. Again, costo/beneficio ne vale la pena per il mio uso? Bho
Ho un mese di tempo per approfondire :nod:
Del resto se chiedo qui un motivo ci sarà...
Non c'è nulla da aggiungere: per l'11% circa in più di prezzo, la XTX fa giri intorno alla 4070Ti. Ed ha 24GB di VRAM, che implica lo stare tranquillissimi per gli anni a venire. Nel 2023, 12GB dovrebbero essere il minimo sindacale per schede di fascia bassa da usare a 1080p, su una GPU che costa €900+ sono una truffa, punto.
Idem per quanto riguarda il 7800X3D: è *la* CPU per gaming, se non si hanno troppi problemi di budget (altrimenti il 5800X3D resta la scelta economica, anche se su AM4 quindi dead end relativamente ad upgrades futuri). E visto che stai spendendo 3k, arrivare a 3.25k non è tutto sto sforzo, non è una budget build.
L'unica tecnologia proprietaria di nVidia che manca ad AMD con un'utilità davvero pratica è Reflex, se proprio vogliamo essere onesti. A te, per giocare di CUDA/Optix, e compagnia cantante fotte esattamente zero. E considerando che il futuro prossimo sarà di quasi esclusiva di titoli fatti con UE5, che grazie a Lumen non ha quella differenza considerevole causata dal set RTX di istruzioni per l'RT di nVidia...
Rispetto ad una XTX a €1000-1050, una 4070Ti dovrebbe costare al MAX €750 per avere senso (e obv lo stesso vale per la 7900XT).
Mi fate capire cosa cambia tra i chipset delle mobo AMD AM5 esattamente?
Se le schede grafiche sono Pci 4.0, cambia effettivamente qualcosa tra un X670 ed un X670E come chipset? Posso capire tra un B650 ed un X670 ma non so se i modelli "Extreme (E)" siano effettivamente utili usando periferiche non Pci ex 5.0 appunto.
https://www.amd.com/en/chipsets/am5
Spero solo che non si fonda tutto come dicono qua...
https://youtu.be/kiTngvvD5dI
Posto che AMD qui ha pisciato fuori dal vasino e di chilometri con questa abominevole segmentazione dei chipset, le differenze non sono complesse.
1) X670 offre 12 lanes aggiuntive PCIe 4.0, B650 invece "solo" 8. Qui per aggiuntivo si intende "oltre quelle direttamente integrate nella CPU".
2) I modelli E vs non E hanno uno slot PCIe x16 5.0 invece che 4.0 (per schede video) e garantiscono che il primo slot NVMe sia 5.0 e non 4.0 (ma ci sono mobo non-E che cmq offrono l'NVMe 5.0, bisogna vedere le specs della mobo in questione).
That's it, e di conseguenza: per un PC da gaming l'X670 è assolutamente inutile, così come lo era il'X570 rispetto ai B650/550. Che sarebbe tutto molto interessante, se non ci fossero dei prezzi assolutamente randomici, e (almeno negli US) si finiscono per trovare mobo X670E a tipo $20 solamente in più rispetto alle B650E.
Also, anche avere una E non conta + di tanto, imo, visto che con la gen attuale di GPU un x16 4.0 *non* viene saturato neanche da una 4090. Probabilmente, e se tutto va bene, forse fra due gen di GPU vedremo un utilizzo del 5.0 con vantaggi rispetto al 4.0.
A riguardo dei Ryzen esplosi: Asus merda, aggiorna BIOS prima di installare la CPU, ggwpkktnxbai.
Sui prezzi concordo, infatti chiedevo perché a parte le B650 normali, le B650E e le X670 costano simili ad alcune mobo X670E. E infatti finora ho sempre messo la MSI Tomahawk X670E come scheda madre nei preventivi che sto facendo, ma mi sembra overkill.
A luglio dovrebbe uscire la Asrock B650E Taichi Lite, che è come la Taichi B650E, ma senza tutta lammerda RGB/profilini gheimers del cazzo, e dovrebbe costare circa un $100 in meno solo per quello. Però per le mobo AM5 conviene sempre guardarsi/leggersi review dei singoli modelli, in funzione di quel di cui si ha bisogno (nel tuo caso: la base più base, che regga senza problemi DDR6000 con profilo EXPO, un VRM decente e fine, tanto non andrai mai a montare più di due SSD in tutta la tua vita).
Cmq, tanto per ricordare che pacco di merda sia la 4070Ti (again: valutazione valida solo al prezzo attuale) rispetto alla 7900XTX:
https://www.youtube.com/watch?v=N-FMPbm5CNM
https://www.youtube.com/watch?v=1mE5aveN4Bo
Coi prezzi attuali, pagando il 12% circa in più per la GPU, la 7900XTX offre:
- +19% su average e low 1% FPS a 1440p
- +30% su average e low 1% FPS a 4k
- Prestazioni in RT estremamente simili, con l'unico outlier il solito Cyberpunk paid by nVidia™, che non se l'incula nessuno a parte i binbiminkia visto che il Red Engine è EOL (CDPR per i prossimi titoli userà UE5)
- 24GB vs 12GB di VRAM: non solo la XTX è *mostruosamente* future proof con tutta quella VRAM, ma già si vedono le differenze coi titoli più recenti usciti recentemente (l'ultimo in ordine temporale è Diablo 4 con le textures ad Ultra), 12GB è una quantità di VRAM che dovrebbe essere montata solo su GPU <€300
- Una suite software che caga in testa a quel ciarpame che è lo stack di nVidia: tutto in uno con Adrenalin (settings, tweakings, tuning, streaming/recording) e senza richiedere un account, settanta app diverse e ferme mentalmente a metà degli anni 2000 (drivers + experience + profile inspector/afterburner) e account richiesto per nVidia
Vantaggi della 4070Ti:
- Reflex (e sticazzi visto che a 4k fai +30% di average/1% lows :rotfl: )
- FREIMGIEN (che: funziona meglio già ad fps alti e peggio ad fps bassi, concettualmente all'opposto dello use case ideale; aumenta, da poco a parecchio, l'input latency, again all'opposto dello use case principale che è *giocare* e non guardare un video, va bene giusto per MS Flight Simulator e i walking sims :sneer: )
A rivedere quei numeri in quei due video (ma obv ce ne sono inf altri di video con benchmarks anche su altri giochi), ricordavo che la 4080 12G... ehm, la 4070Ti fosse una cagata, ma *non* a sti livelli. :sneer:
Detto in termini semplici: se uno si prende una 4070Ti intorno ai €900 rispetto ad una 7900XTX intorno ai €1000, è un top ritardato. :confused:
Oramai la scelta si sta spostando tra 7900 XTX a 1150-1250 euro (riferimento al modello Sapphire Pulse / Nitro) oppure rtx 4080 a 1250-1300 euro (riferimento al modello PNY Verto base / XLR8 OC). I due canali da cui dovrei comprare i componenti hanno questi prezzi finali qua.
Con la 4080 è già più in pari la questione. Vedrò il 10-12 luglio quali sono i prezzi finali tra Prime Day ed assestamenti di mercato.
E approposito di REITRESING ed nVidia vs AMD: avevo detto qualche post fa che con la GI (Global Illumination) di Lumen (UE5) le differenze non sono così marcate, anzi. E per ora, grazie ai primi due titoli UE5 (Fortnite escluso) usciti in questi giorni, i fatti mi cosano.
Satisfactory aggiornato ad UE5: https://gamegpu.com/rpg/%D1%80%D0%BE...y-test-gpu-cpu
1440p: 4080 58/49 - XTX 53/46
4k: 4080 28/25 - XTX 28/23
Also, notare la differenza fra 4090 e XTX, che mostra la 4090 più veloce del 57% sia in average sia in min a 4k (utile per estrapolare info a riguardo del gioco successivo).
Layers of Fear: https://www.dsogaming.com/pc-perform...ance-analysis/
Qui purtroppo nei test non hanno incorporato la 4080, ma solo 4090 e XTX, ma si può vedere che con tutto maxato (ergo Lumen attivo), la differenza fra 4090 e XTX è la stessa per average e min, 57%, quindi si può ragionevolmente supporre che la differenza fra XTX e 4080 sia estremamente marginale come nel caso di Satisfactory, se non del tutto inesistente.
+€200 per una 4080 -> nonsense. Poi, come sempre, fate come vi pare.
Mai comprare hw per del software che non esiste ancora, regola numero uno proprio.
Ray tracing stesso esiste da quanti anni? E quanti sono i giochi per i quali fa la differenza? 5?
Poi oh se uno gioca solo a satisfactory sicuro :sneer:
Farsi le seghe su quanti titoli useranno l'implementazione ue5 nei prossimi anni sono, appunto, seghe
L'unreal engine sarà sicuramente usato in maniera estensiva, come tutti gli unreal engine...
E quindi?
Farsi le seghe su quali titoli in futuro useranno questa o quella implementazione di ray tracing sono seghe. Le estensioni per rtx (per gli stessi ue engine) esistono da anni e i giochi che le usano in maniera rilevante sono comunque pochi.
A parte il solito fanboysmo di Gala il discorso rimane semplice: la XTX (da confrontarsi ad una 4080), resta un prodotto migliore, a patto di accettare di non riuscire a giocare ad alcuni titoli RT (performance ugualih. Fa tipo 20 fps in portal rtx). Personalmente, 1k di scheda per non riuscire a giocare a TUTTO mi farebbe incazzare, ma li uno deve vedere cosa preferisce
Ma perchè te la scheda la compri oggi per tenerla due giorni? Ovvio che un minimo di ragionamento sui titoli e sulle performance futuri li devi fare.
Personalmente non mi frega un ciufono dell'RT, quindi avrei vita facile. Io sta gen la sto saltando a piè pari in ogni caso, mi sembra la guerra degli scemi.
Io vengo da un i7 4790k e una gtx970, pc assemblato nell'agosto 2015. Se non fossi in seria difficoltà a far girare tipo tutto aspetterei un altro anno, ma non è proponibile nel mio caso.
La Sapphire 7900 XTX l'ho trovata a meno di 1k da uno shop da cui in passato ho acquistato, in teoria sono seri (BPM Power, sempre ricevuto la merce e nessun problema).
Hanno pure le RTX 4090 a partire da 1590 euro... e non nascondo che sono tentato. Ma appunto bisogna ragionarci su bene; come dice Gala, AMD ha messo sul piatto una combo eccellente per il gaming, tra cpu Ryzen 7 7800X3D e la gpu 7900XTX.
Razionalmente fare un pc full AMD dovrebbe essere la scelta logica se si guardasse al rapporto prezzo/prestazioni, con buona pace del RTX sopra i 2k (fino a 2k ancora ancora il raytracing reggicchia anche sulle gpu AMD, ma io vorrei puntare ad un monitor 4k - 32", piuttosto che ad un 2k - 27" di cui è pieno il mercato).
La 4080 a 2-300 euro in più della 7900 XTX non ha senso; tanto varrebbe puntare direttamente alla 4090 da 1600.
Nvidia deve scendere con il prezzo della 4080, altrimenti AMD è la scelta più sensata prezzo/prestazioni per pc medio-alti; rimane giusto la 4090 per gli enthusiast, dove il prezzo non è più di tanto un problema (per quanto ripeto, +600 euro puliti dalla 7900XTX alla 4090, sticazzi; per quel prezzo mi deve garantire almeno +50% di prestazioni dalla massima scheda di AMD, nel 90% dei titoli; non credo lo faccia).
https://www.youtube.com/watch?v=lDwSUlBQglw
La 4090 è solo per chi ha da bruciare soldi e/o vuole la velocità smodata.
Il tier MILLE! al momento è della 7900 XTX
Se poi vuoi giocare a 1440p va più che bene.
Dillo a chi si comprò 30k di Mac Pro sperando in un supporto software che non è mai arrivato :sneer:
Puoi ragionare quel che vuoi ma il punto è che sono seghe mentali, non hai modo di prevedere il futuro, meglio attenersi al presente. Sa il cazzo che le soluzioni RT software saranno predominanti rispetto a quelle hardware, e se in generale RT sarà usato. Perché ad oggi le implementazioni più interessanti di RT, quelle dove fa la differenza, sono cyberpunk e le versioni RT dei vecchi giochi (e Minecraft ma qua abbiamo ottocento anni chi cazzo gioca a Minecraft) (e Control che, diciamocelo, se non lo giochi non ti perdi nulla). Oggettivamente poca roba. Ma se ad uno interessa, attualmente prerogativa Nvidia.
Tutto qua, il resto sono cagate. Poi per 150 euro di differenza su 3000, non ha gran senso farsi venire il sangue alla testa.
Ma il punto da tenere conto è che soprattutto a 2k tutte le schede da 1k euro hanno prestazioni simili. Se non sei un pro che vuole 400fps, tra fare 140 e 144 fps non ti cambia una sega.
Nei titoli RT invece parliamo di 60fsp vs ingiocabile. Questa è l'unica cosa da considerare.
Io non so cosa comprerei oggi, ma all'atto pratico non mi pare così no brain come scelta.
Non mi pare cambi granché come prezzi btw
https://youtu.be/gb49lnHpKiE
"Le implementazioni più interessanti". Deciso da Hodor. :rotfl:
Lumen è RTGI, a differenza della pezzotta dell'RTX. Se non capisci la differenza sostanziale fra le due, è un problema tuo. Non che tu non ne abbia eh, però magari qualcuno levatelo che ti fa solo del bene.
Poi vabbé, il "60fps vs ingiocabile" fa molto "con la 2070 super non giochi a cyberpunk high che ti fa solo 3,14 fps". I deliri proprio. L'unico titolo con RT attivo che ha una differenza mostruosa fra nVidia e AMD è, indovina un po'? Cyberpunk. Red Engine. Defunto. Chisselincula a parte i piccoli goblin. :rotfl:
RTX di nVidia farà la fine di Physix. Very smart pagare il 20% in più per fare in media il 15-20% in più sull'RT e stare dietro in raster sul 100% dei titoli. PERO' CYBERPUNK!
Aspé, mi ero perso sta perla. Tu ora vuoi sostenere, qui e pubblicamente, che siccome RTX in 5+ anni è stato implementato in una manciata di titoli, con successi alterni, allora anche l'utilizzo di *fucking Unreal Engine 5* non è assicurato nella sfera AAA (e in parte AA o anche indie)? Ma tu lo sai che peso ha UE5 come motore, si? Vatti a vedere i titoli usciti negli ultimi anni, e dimmi *quanti* usano UE4. Obv secondo Hador ora tutti impazziscono e decidono di scriversi l'engine in house e fanculo UE5. Come no. Sisi. Certo certo.
"Useranno l'implementazione di UE5" - non è *se* useranno, Lumen è attivabile o meno con un flick, e mo secondo te qualsiasi studio AAA che sta atm sviluppando un titolo in UE5 non ne prevede l'utilizzo? Tenendo i dettagli grafici disponibili massimo a Medium? Ma che ti stai fumando?
Se proprio, UE5 avrà un impatto ancora + grande di UE4, perché ormai i costi di sviluppo sono talmente alti che solo pochissimi possono permettersi di tirare su l'engine da zero, soprattutto considerando che cosa si sono inventati ad Epic fra Lumen e Nanite (che tra l'altro, a ben vedere, Nanite è ancora più importante come feature di Lumen).