Log in

View Full Version : Il lungo viaggio verso un nuovo PC



Pages : 1 2 3 [4] 5

Galandil
25th October 2022, 16:59
1% avg in un video sul gaming, mentre non menzioni performance produttive ampiamente superiori. Oh per? CHIACCHERE ZERO OH CE SCRITTO.

Faboy

1080p: Average +7% - 1% Lows +8%
1440p: Average +7% - 1% Lows +8% (e questi pure arrotondati per difetto)

Hador: UN PERCENTO!

Ma le sai fare le divisioni?

Also, and again: who cares delle prestazioni di productivity se ci deve primariamente giocare col PC? Se avesse bisogno di una CPU per uso misto o pi? spostato verso la productivity (50/50), nessuno sano di mente considererebbe una piattaforma DDR4 per ovvii motivi. E tra l'altro non ho trovato in giro benchmarks di productivity del 13600K su DDR4 (ma chiss? perch? poi, ? come se sia decisamente inutile testare la CPU per productivity su DDR4 visto che chi ci deve lavorare non ha constraints di budget nel prendersi DDR5... :confused: ).

Ma visto che, come ? stato detto e stradetto mentre tu tenti di battere il guinness dei primati in arrampicata di specchi, lo usa evidentemente per giocare, e visto che il 5800X3D ? MEGLIO di un 13600K per fare quello, e consuma meno, e la combo mobo + CPU costa uguale... consigliamo il 13600K perch? ? + nuovo, puoi renderizzare/comprimere/decomprimere pi? rapidamente, e c'? solo un 1% di differenza di prestazioni perch? 221/206 e 171/158 fanno entrambi 1.01. :hidenod:

Galandil
25th October 2022, 17:08
Ma una delle cose pi? divertenti di tutte ? che ho preso quei dati da un video ALTAMENTE CRITICO, e a ragione, nei confronti di AMD (serie 7000). Per? FANNNNBOOOYYOOOO! :rotfl:

Hador
25th October 2022, 17:37
Ok non ce la faccio a flammare mentre lavoro guardavo i numeri ddr5 :sneer:
Torno sta sera!
Comunque provare a fare anche una config ddr5 che i costi non sono cos? alti

San Vegeta
25th October 2022, 18:13
boh io ho messo un paio di cose in pi? e un monitor adatto e mi ? uscito il doppio del prezzo originale :(
https://it.pcpartpicker.com/list/6k8MrD

Galandil
25th October 2022, 18:15
Ok non ce la faccio a flammare mentre lavoro guardavo i numeri ddr5 :sneer:
Torno sta sera!
Comunque provare a fare anche una config ddr5 che i costi non sono cos? alti

La B660 Tomahawk DDR5 costa circa €20 di pi? della DDR4, la differenza sta nella RAM, un kit DDR4 32GB 3600 CL16 lo si trova facile intorno ai €130, un kit DDR5 32GB 6400 CL32 lo si trova a partire dai €340. E no, non ha senso prendersi un Raptor Lake DDR5 se poi ci metti una 5800 o inferiore, sarebbe come mettere una 3200 o peggio su una piattaforma DDR4.

E nonostante questa differenza di prezzo notevole, nei giochi riesce a restare indietro del famoso unpercento. Qui ? proprio no-brainer il discorso, per giocare senza farsi prendere dalla fregola del nuovo a tutti i costi e/o dal FOMO per upgrade futuri fra un anno il 5800X3D ? la scelta migliore, ed ? assurdo che si debbano spendere pagine intere di thread su una cosa cos? facilmente verificabile.

Dryden
25th October 2022, 18:18
120€ di Win11 ma che sei matto, piglia la key a 3€ da un reseller random, anche Amazon.
Ma poi che minchia ci fai di 50€ di ventole bequiet?

Galandil
25th October 2022, 18:21
boh io ho messo un paio di cose in pi? e un monitor adatto e mi ? uscito il doppio del prezzo originale :(
https://it.pcpartpicker.com/list/6k8MrD

Sta config ora come ora non ha proprio senso. Il 5600X invece del 5600 (paghi €65 di pi? per la X serigrafata :sneer: ), una 6600XT prima dell'uscita di RDNA3 a €474 anche no, mobo gigabyte invece della B550 Tomahawk (che a me MSI sta sul cazzo che so dei truffatori, ma sta mobo per AM4 ? davvero un gioiello), se vai ad aria anche se costa di pi? molto meglio il Noctua D15 (cos? hai margine serenissimo per abbassare le curve V/F e poter avere fissi 200MHz di boost sulla B550 in single e multithread), settantordicimila ventole per il case senza prendere il Noctua per la CPU, ecc.

Poi, di nuovo, dipende da cosa ci devi fare col PC, quello ? il primo requisito da stabilire, il secondo ? il budget. Il resto viene dopo.

Hador
25th October 2022, 18:28
Scrivo nei ritagli, ma non mi paiono prezzi assurdi, le g skill gi? buone 6000-32 si trovano a 250 qua. Le neo ddr4 stanno a 190.
Quando le presi io avevo speso pi? di 350 per le RAM decenti.

Comunque si trovano altri articoli con altri test che dicono ovviamente il contrario, e che il 13600k con RAM ddr4 con timing bassi performino meglio in gaming rispetto alle ddr5.

In ultima istanza tutto sto discorso non ha senso, tanto ha una 3060ti ste differenze le vedi con una 4090.

A me spendere 400 euro di cpu vecchia mi girerebbe il cazzo comunque solo per partito preso. Anzi mi gira il cazzo, volevo cambiare il 3900x col 5800x3d ma fino a che non scende se lo tengono

Galandil
25th October 2022, 18:42
Ma mica ho detto che sono prezzi assurdi in assoluto per le DDR5.

Quello che conta ? la *differenza* fra DDR4 e DDR5 di €200+ (su una base di circa €600 per mobo+CPU) per avere cmq prestazioni identiche/marginalmente inferiori.

E no, ti fermo in anticipo, non ha senso spendere il 30% (€730 vs €950) in pi? per il tutto se poi quelle prestazioni maggiori nella productivity le usi si e no il 10% del tempo totale di uso del PC. L'unico vantaggio sarebbe avere le DDR5 che ti puoi portare appresso sulla prossima build, ma non ha senso atm perch? sicuro i prezzi DDR5 scenderanno nei prossimi anni, ora siamo nel periodo di transizione da DDR4 a DDR5 quindi i prezzi delle seconde sono ancora molto elevati, quindi spenderli ora ? abbastanza pointless.

Sul resto del discorso vecchio/nuovo: ? un discorso che lascia il tempo che trova, non necessariamente il nuovo ? meglio in funzione di quel che si deve fare, quello che conta in primis ? il prezzo totale rispetto alle esigenze.

Jerus
25th October 2022, 18:46
Ecco un altra considerazione sto vedendo da amazon crucco le schede video radeon 6800 xt sui 650/700? vale la pena virare su quel modello o come sempre serve a un cazzo per quello che ci devo fare (anche se un minitor 4k lo prender? prima o poi) considerando che ho un budget medio sui 1500? Come uso lavorativo 0 lo userei per gaming e un po' di photoshop.

Galandil
25th October 2022, 18:56
Ecco un altra considerazione sto vedendo da amazon crucco le schede video radeon 6800 xt sui 650/700? vale la pena virare su quel modello o come sempre serve a un cazzo per quello che ci devo fare (anche se un minitor 4k lo prender? prima o poi) considerando che ho un budget medio sui 1500? Come uso lavorativo 0 lo userei per gaming e un po' di photoshop.

A parte che ? overkill atm per il 1080p, ti suggerisco vivamente di aspettare l'uscita di RDNA3 e poi dei vari modelli 8xx ed inferiori di questa gen di GPU per far assestare i prezzi e probabilmente poter prendere di meglio a pari prezzo (o uguale a prezzo inferiore), soprattutto considerando che non hai urgenza di cambiare la GPU.

Jerus
25th October 2022, 21:33
Oddio al momento ho la 1060ti montata :afraid::afraid: Al momento avrei questo per la configurazione amd questa la Intel https://it.pcpartpicker.com/list/yVCzjZ (anche se credo le ddr4 con il 13600k siano meh ma passare alle ddr5 sono 300€ in+ dal configuratore tra mobo e ram) in questo caso passano 60€ da configuratore sulla parte intel potrei optare per il 12600k (e si tirano giu? un 100€) per quello che ne faccio io alla fine credo che il dissipatore non tirando tanto e non avendo particolari stress sia sufficiente.

Hador
25th October 2022, 23:02
13600kf si trova a 330-350 cmq

Tunnel
26th October 2022, 00:46
Rapporto €/valore oggi il kit ddr4/b550/5800x3D ? imbattibile, c'? poco da fare.
Spendere di pi? per andare uguale ha poco senso, anche se capisco io rosik per il fatto di comprare "tecnologia vecchia".
Di contro pensa a come rosika AMD che ha buttato fuori un serie di voi nuove e non ce ne sta una che in gaming abbia senso rispetto al fratello minore ultradotato :sneer:

Comunque con l'anno prossimo quando faranno uscire le CPU 3D su zen4 spacceranno il mercato e non ce ne sar? per nessuno. Rester? da capire per? se si riveleranno utili per "alimentare" le CPU e arrivare a prestazioni tangibilmente superiori in gaming o sar? solo un esercizio di numerini che hanno valore solo se accoppiati con un la 4090.

Ad oggi per il gaming "normale" non c'? un buon motivo per andare su qualcosa di diverso dal 5800X3D, imho

Galandil
26th October 2022, 01:34
Oddio al momento ho la 1060ti montata :afraid::afraid: Al momento avrei questo per la configurazione amd questa la Intel https://it.pcpartpicker.com/list/yVCzjZ (anche se credo le ddr4 con il 13600k siano meh ma passare alle ddr5 sono 300€ in+ dal configuratore tra mobo e ram) in questo caso passano 60€ da configuratore sulla parte intel potrei optare per il 12600k (e si tirano giu? un 100€) per quello che ne faccio io alla fine credo che il dissipatore non tirando tanto e non avendo particolari stress sia sufficiente.

Cio?, tu metti una 3060Ti 8GB invece di una 6700XT 12GB (Sapphire Pulse) andando a spendere €130 in pi? solo di GPU? Per esattamente le stesse prestazioni fra le due? Vi piace cos? tanto contribuire al ventesimo yacht di giacchetta Jensen? :sneer:

Ti?: https://it.pcpartpicker.com/list/MQd9v3

5800X3D, B550 Tomahawk, stessa ram che messo tu nel link, Noctua NH-D15 (va solo controllata la clearance in altezza del Noctua nel tuo case) e una 6700XT che performa uguale alla 3060Ti e costa di meno, totale €1333 invece di €1528.

Galandil
26th October 2022, 01:37
13600kf si trova a 330-350 cmq

Su trovaprezzi il pi? basso sta a €342, risparmio di €30 sul 13600K, che sono quei €30-60 che vai a spendere per una B660. E si ritorna al fatto che siamo l? come prezzo, ma come prestazioni su DDR4, 5800X3D > 13600, con o senza IGP.

Hador
26th October 2022, 06:54
Rapporto €/valore oggi il kit ddr4/b550/5800x3D ? imbattibile, c'? poco da fare.
Spendere di pi? per andare uguale ha poco senso, anche se capisco io rosik per il fatto di comprare "tecnologia vecchia".
Di contro pensa a come rosika AMD che ha buttato fuori un serie di voi nuove e non ce ne sta una che in gaming abbia senso rispetto al fratello minore ultradotato :sneer:

Comunque con l'anno prossimo quando faranno uscire le CPU 3D su zen4 spacceranno il mercato e non ce ne sar? per nessuno. Rester? da capire per? se si riveleranno utili per "alimentare" le CPU e arrivare a prestazioni tangibilmente superiori in gaming o sar? solo un esercizio di numerini che hanno valore solo se accoppiati con un la 4090.

Ad oggi per il gaming "normale" non c'? un buon motivo per andare su qualcosa di diverso dal 5800X3D, imho
Mha ripeto, in gaming per la maggior parte dei sistemi vanno di fatto uguale (a meno che lui non giochi a 1080p con una 4090), e le performance multithreading del 13600k sono quasi il doppio.
Tutto sto value nel 5800x3d non lo vedo. Costasse la met? sarei d'accordo, ma a parit? di costo o anche con 100 euro che ballano a me non convince.
Il 5800x3d dovrebbe essere la cpu per tutti quelli gi? su am4 che vogliono fare un upgrade. Non costasse 400 euro.

Sulle GPU fascia bassa non saprei

Sulla serie 7 3d vedremo se e quando la faranno,.ma soprattutto quanto coster?.
Il vero evento disruptive per me sar? quando Intel raggiunger? tsmc sui processi produttivi. Sti qua hanno cpu che vanno meglio degli AMD facendoli a 10nm vs i 5 degli altri.
Prima o poi saranno pari e vedremo.
Prima.che poi se la.cina rade al suolo Taiwan :sneer:

Jerus
26th October 2022, 11:42
Cio?, tu metti una 3060Ti 8GB invece di una 6700XT 12GB (Sapphire Pulse) andando a spendere €130 in pi? solo di GPU? Per esattamente le stesse prestazioni fra le due? Vi piace cos? tanto contribuire al ventesimo yacht di giacchetta Jensen? :sneer:

Ti?: https://it.pcpartpicker.com/list/MQd9v3

5800X3D, B550 Tomahawk, stessa ram che messo tu nel link, Noctua NH-D15 (va solo controllata la clearance in altezza del Noctua nel tuo case) e una 6700XT che performa uguale alla 3060Ti e costa di meno, totale €1333 invece di €1528.

Sto cercando infatti opinioni e dopo aver praticamente saltato tre generazioni di schede video in pratica sto cercando di informarmi, solo ? uscita troppa roba faccio fatica a raccapezzarmi e non ho tempo x farlo adeguatamente, quindi sono andato a sentimento ed esperienza pregressa anche se ? sbagliato. Faccio un esempio perch? una 3060 con 12gb mi costa la met? di una 3060ti con 8 gb non credo sia solo un questione di frequenze e core dovrei leggermi gli artucoli ecc ma come detto non ho tempo e quindi cerco consiglio di certo considerer? la 6700xt visti anche i prezzi. Intanto grazie per i consigli (dite vale la pena aspettare eventuali black Friday visto il periodo??)

Aggiornamento alla fine preso il 5800x3d che l'ho trovato new a 250€ spedito amazon spero non mi arrivi un mattone ram prese adesso sto camperando le offerte per la mobo

Axet
12th March 2023, 21:00
Boh, capitano tutte a me.

Son stato via qualche giorno, una volta tornato il pc non si accende: schermo nero e numeri a caso sul led della mobo.
Dopo un reset forzato e un po' di attesa finalmente ce la fa, ma la tastiera non va.

Cambio la porta usb con quella delle cuffie e pare tutto a posto.

Oggi le cuffie non andavano, ho dovuto liberare spazio random rimuovendo la webcam: le due porte a cui era originariamente attaccata la tastiera paiono esser morte.

Mobo nuova di qualche mese. Non so che dire :rotfl:

Zaider
13th March 2023, 13:00
ok, penso sia il caso che investi qualche soldo in controllare che le prese elettriche siano a posto e non hai sbalzi di voltaggi
che ciabatte usi in casa? son di qualità?

Tunnel
14th March 2023, 01:19
Ho comprato una aorus 6750 usata a 450€ su awz warehouse. Sapevatelo e barbonatemi

Galandil
14th March 2023, 03:09
Ho comprato una aorus 6750 usata a 450€ su awz warehouse. Sapevatelo e barbonatemi

Cristodio, una mid range della gen precedente ancora a quel prezzo.

Cmq "usata" come? Che su warehouse spesso i prodotti sono in realtà nuovi con "imperfezione sulla scatola". Non ricordo con precisione, ma è solo Amazon che vende via warehouse, non venditori terzi, right?

-=Rho=-
14th March 2023, 06:55
Io ho comprato spesso dalla warehouse e i prodotti sono sempre stati fatturati verso amazon , dubito ma non ne sono sicuro al 100% che venditori terzi possano listare i loro prodotti li' , a differenza di amazon renewed ( o come diamine si chiama dove vendono prodotti ricondizionati dove terzi possono listare i loro prodotti liberamente )

Su warehouse deal c'e' da risparmiare abbastanza se si vuole perdere qualche ora a controllare la varia roba , e comunque offrono il diritto di recesso come per ogni altro articolo venduto da amazon , cosi' come anche garanzia . Io di recentissimo ho comprato una cassa degli attrezzi dove da descrizione mancava 1 oggeto sui 150+ contenuti , a meno 100€ del prezzo del nuovo , confezione ovviamente aperta , la cassetta era ancora bella luccicante con un numero veramente minimo di ditate sopra :D

Dryden
14th March 2023, 10:07
Anche io comprato robe da Werehouse e sempre trovato bene, ma preferisco prendere solo certi tipi di prodotti, monitors o prodotti dotati di batteria li evito.

Tunnel
15th March 2023, 01:07
Cristodio, una mid range della gen precedente ancora a quel prezzo.

Cmq "usata" come? Che su warehouse spesso i prodotti sono in realtà nuovi con "imperfezione sulla scatola". Non ricordo con precisione, ma è solo Amazon che vende via warehouse, non venditori terzi, right?

Sì, direi solo aperta per testarla. Era in condizioni perfette.
Però come performance non mi convince a pieno, non vedo quel salto che pensavo rispetto alla 6650 (che ho reso ad amz dopo averla tenuta 1 mese).
Ho quasi il dubbio che possa essere un problema di sottoalimentazione (ho un 650w) , perché non mi spiego la scarsa differenza. Però non vedo altri motivi /ponder

Galandil
15th March 2023, 03:26
Sì, direi solo aperta per testarla. Era in condizioni perfette.
Però come performance non mi convince a pieno, non vedo quel salto che pensavo rispetto alla 6650 (che ho reso ad amz dopo averla tenuta 1 mese).
Ho quasi il dubbio che possa essere un problema di sottoalimentazione (ho un 650w) , perché non mi spiego la scarsa differenza. Però non vedo altri motivi /ponder

Beh, ora non ricordo su due piedi, ma non penso ci possa essere tutto sto saltone fra la 6650 e la 6750. Di certo non è l'alimentazione, io sto con un 750W e la XTX la uso full, puoi cmq checkare se proprio ti vuoi levare lo sfizio con HWInfo e/o CapFrameX il TBP (Total Board Power) mentre sei in game e vedere se stai usando effettivamente la potenza di default.
Also, inizia a spippolare con undervolt/VRAM OC/Power limit, di solito c'è un buon margine da guadagnare a gratis o con incremento/decremento della potenza assorbita (dipende da cosa ti interessa di più).

Immagino tu la stia usando con gli ultimi drivers 23.3.1, che con la major version 23 hanno dato un po' di performance boost in alcuni titoli. Se non hai quelli, fila a scaricarteli ed installarli (dopo aver ripulito a modino con DDU qualsiasi traccia dei precedenti).

Tunnel
16th March 2023, 00:48
Sí certo, ultimi driver.
Ho fatto qualche benchmark è il problema è sul dx12, dove sto sui 35 FPS secondo Passmark. Dx11 e inferiori siamo su valori superiori alla media delle 6750, con un po' di oc. Però appunto in dx 12 siamo a metà del previsto. La cosa è davvero strana

Galandil
16th March 2023, 01:37
Sí certo, ultimi driver.
Ho fatto qualche benchmark è il problema è sul dx12, dove sto sui 35 FPS secondo Passmark. Dx11 e inferiori siamo su valori superiori alla media delle 6750, con un po' di oc. Però appunto in dx 12 siamo a metà del previsto. La cosa è davvero strana

Vabbé, anche colpa tua che perdi tempo su l'ennesimo, inutile synth benchmark. :confused:
Installati Cyberpunk e usa il bench interno, se vuoi proprio restare su un singolo titolo per testare la scheda, altrimenti fallo su diversi titoli e confronta i risultati con quelli che trovi sui vari canali di benchmarking.

SAM è attivo?

Hador
16th March 2023, 09:06
Questo perché hai barbonato sulla scheda :nod:

Tunnel
16th March 2023, 20:38
Vabbé, anche colpa tua che perdi tempo su l'ennesimo, inutile synth benchmark. :confused:
Installati Cyberpunk e usa il bench interno, se vuoi proprio restare su un singolo titolo per testare la scheda, altrimenti fallo su diversi titoli e confronta i risultati con quelli che trovi sui vari canali di benchmarking.

SAM è attivo?

Proverò con CybPk, anche se non contavo di prenderlo, sinceramente :D



Questo perché hai barbonato sulla scheda :nod:

Assolutamente sì! :D

Galandil
16th March 2023, 23:26
Proverò con CybPk, anche se non contavo di prenderlo, sinceramente :D

Per qualche motivo avevo allucinato che avessi Cyberpunk, il discorso vale uguale anche con un altro titolo a caso, basta che abbia un benchmark interno e usi nativamente le DX12.

Però non mi hai risposto su SAM, ricordati di attivarlo da BIOS se ancora non l'hai fatto.

Tunnel
17th March 2023, 01:18
Non so che sia SAM. :sneer:
Domani ci guardo. Comunque questa sera ho comprato CybPunk per fare il benchmark. :nod:
Mi pare in linea come prestazioni con quelle che vedo su internet, anche se fanno riferimento a ottobre 2022 e qui di qualche punto in più ci sta tra driver nuovi e gioco più ottimizzato.
I problemi su COD invece sembrano sparitiagicamente. Mbkh, meglio così!

Galandil
17th March 2023, 03:17
Non so che sia SAM. :sneer:
Domani ci guardo. Comunque questa sera ho comprato CybPunk per fare il benchmark. :nod:
Mi pare in linea come prestazioni con quelle che vedo su internet, anche se fanno riferimento a ottobre 2022 e qui di qualche punto in più ci sta tra driver nuovi e gioco più ottimizzato.
I problemi su COD invece sembrano sparitiagicamente. Mbkh, meglio così!

SAM (Smart Access Memory) è la versione AMD del ReBAR (Resizable Base Access Register), uno standard PCIe che permette alla CPU di poter accedere direttamente a più di 256MB di VRAM in una sola "botta". E' stato introdotto come spec della versione 3.0 di PCIe (che risale al 2008 :sneer: ), ma solo recentemente si sono svegliati nell'implementarla, prima AMD su Ryzen 5000 e Radeon 6000, e poi Intel/nVidia.

Puoi vedere se è attivo direttamente dal pannello di Adrenalin, vai a Performance -> Tuning e lì c'è la voce che ti dice se è abilitato o meno. Se non lo è, entra nel BIOS della mobo e lo attivi da lì.

Tunnel
28th March 2023, 20:25
Non mi capacito delle prestazioni che sto avendo.
Con un 5800x (non 3D) e una 6750 pensavo qualcosa di meglio, sinceramente :-/

Cyb a ultra senza RT in 1080p

https://i.ibb.co/mCH6Xdy/Immagine-2023-03-28-192356.png (https://ibb.co/8Dj6dGx)

Galandil
28th March 2023, 21:06
Non mi capacito delle prestazioni che sto avendo.
Con un 5800x (non 3D) e una 6750 pensavo qualcosa di meglio, sinceramente :-/

Cyb a ultra senza RT in 1080p

C'è qualquadra che non cosa, a 1080p, Ultra settings, no RT e FSR settato su Quality dovresti avere ben più FPS di questi (con FSR alla max qualità, la 6750XT fa intorno ai 75fps di average a 1440p, per capirci).

Il che mi porta a pensare che questa scheda abbia problemi di temperature troppo elevate, che porta la GPU a throttlare verso il basso. Rifai un paio di bench e logga i sensori con HWInfo, secondo me, visto che l'hai presa usata, ha la pasta termica mezza secca e non riesce a dissipare correttamente, mi successe eoni fa quando presi la RX580 usata, throttlava da morire con temp elevatissime, la smontai e vidi che la pasta termica era sostanzialmente secca, ripastata e tornata come nuova.

Tunnel
29th March 2023, 00:00
Eh, infatti. Qualcosa non quadra. Nei prossimi giorni faccio altri test e vediamo. Mal che vada la rendo e gg
Grazie per il suggerimento!

Tunnel
30th March 2023, 17:52
Eh, infatti. Qualcosa non quadra. Nei prossimi giorni faccio altri test e vediamo. Mal che vada la rendo e gg
Grazie per il suggerimento!

Ecco HWInfo post benchmark
Temperature della GPU nella norma.

Vi posto tutto, magari vi salta all'occhio qualcosa

https://i.ibb.co/L0tB8Rm/CPU-Immagine-2023-03-30-154541.png (https://ibb.co/hgWry9b)
manca l'intestazione, ma è
sensor, current, min, max, avg
https://i.ibb.co/dWP40tt/GPU-Immagine-2023-03-30-154349.png (https://ibb.co/K02xjDD)

Tunnel
30th March 2023, 18:28
Ok, è un lock legato al display, ma non capisco dove cavolo è il settaggio che li tiene in synch ...

https://i.ibb.co/PGmmKtJ/Immagine-2023-03-30-162340.png (https://ibb.co/JjBBVC8)
https://i.ibb.co/Dft8wDT/Immagine-2023-03-30-162538.png (https://ibb.co/jkTW3vs)

Console AMD
https://i.ibb.co/NVpvPkP/Immagine-2023-03-30-162651.png (https://ibb.co/j6GN2x2)
https://i.ibb.co/g9dSpBc/Immagine-2023-03-30-162833.png (https://ibb.co/wg7SXx2)

Galandil
30th March 2023, 18:37
Ok, è un lock legato al display, ma non capisco dove cavolo è il settaggio che li tiene in synch ...

Il tuo monitor ha FreeSync, quindi lo devi attivare in Adrenalin, è la prima voce sotto il tab Display, AMD Freesync.

Per il resto, si, le temp sono perfettamente normali con l'HotSpot intorno ai 50-55°C di average.

Also, ti suggerisco vivamente di usare sempre un frame limiter ed impostarlo a 73 o 74, visto che la freq. max di refresh del tuo monitor è 75Hz.

Tunnel
30th March 2023, 23:53
Più che altro volevo cambiare monitor e prenderne uno a 165Hz, però non ci arrivo manco per sbaglio a sfruttarlo, mi sa

Galandil
30th March 2023, 23:56
Più che altro volevo cambiare monitor e prenderne uno a 165Hz, però non ci arrivo manco per sbaglio a sfruttarlo, mi sa

Il monitor è cmq un investimento, lo compri ora e te lo tieni per 10+ anni. Però a quel punto non ha molto senso prendersi un 1080p di sti tempi, se è per gaming un ultrawide 1440p è il minimo (budget permettendo, chiaramente), se non te lo puoi prendere ora, allora tanto vale attendere e mettere da parte i vaini per un acquisto futuro.

Quindi anche se poi con la 6750XT non lo sfrutti, sticazzi, non è che non ti funziona a framerate inferiori, poi un domani sei già a posto quando farai upgrade della GPU.

Tunnel
31st March 2023, 00:13
Sì pensavo di prenderlo 2k, infatti :)

Tunnel
31st March 2023, 00:17
Piuttosto, già che ci siamo, ma è normale che veda la RAM a 1,333 anziché 2,666? :sneer:

Sono queste: Patriot Memory Serie Signature Premium Memoria Singola RAM DDR4 2666 MHz PC4-21300 16GB (1x16GB) C19 https://amzn.eu/d/5HXLz9j

Galandil
31st March 2023, 00:37
Piuttosto, già che ci siamo, ma è normale che veda la RAM a 1,333 anziché 2,666? :sneer:

Sono queste: Patriot Memory Serie Signature Premium Memoria Singola RAM DDR4 2666 MHz PC4-21300 16GB (1x16GB) C19 https://amzn.eu/d/5HXLz9j

Si, HWInfo mostra il *clock*, poi essendo DDR passano i dati in Double Data Rate (i.e. due trasferimenti per ciclo di clock).

Galandil
31st March 2023, 00:40
Sì pensavo di prenderlo 2k, infatti :)

Se lo usi primariamente per giocare/vedere video/film/serie, punta ad un QD-OLED/OLED. Se lo usi anche per productivity, allora i VA Samsung fra gli LCD sono la scelta migliore ATM. Se invece è solo/primariamente productivity specifica in certi ambiti (fotoritocco, video editing, 3D modeling, etc., insomma le robe in cui la riproduzione accurata dei colori è fondamentale), allora ti tocca un IPS (il QD-OLED sarebbe meglio sotto questo aspetto, ma il rischio burn-in è dietro l'angolo, quindi skip facile).

Tunnel
31st March 2023, 10:46
Se lo usi primariamente per giocare/vedere video/film/serie, punta ad un QD-OLED/OLED. Se lo usi anche per productivity, allora i VA Samsung fra gli LCD sono la scelta migliore ATM. Se invece è solo/primariamente productivity specifica in certi ambiti (fotoritocco, video editing, 3D modeling, etc., insomma le robe in cui la riproduzione accurata dei colori è fondamentale), allora ti tocca un IPS (il QD-OLED sarebbe meglio sotto questo aspetto, ma il rischio burn-in è dietro l'angolo, quindi skip facile).

Lo usa per il 98% del tempo mia moglie che fa la consulente in Deloitte e per forse il 2% io per giocare. Però siccome lo pago io prendo quello che va meglio per il mio uso :hidenod:
Btw sicuramente non un oled, anche perchè ti ricordo che sono un rabbino di merda, quindi voglio qualcosa che costa poco :sneer:

Hador
31st March 2023, 11:30
Io ho un 27" gaming dell da 2k 165hz che pagai all'epoca sui 400 euro e fa il suo lavoro.
Sui 32" meglio 4k, ma poi per giocare suchi

Zaider
31st March 2023, 13:09
a me e' stato regalato (2 anni fa ormai) il dell alienware 34 ultrawide AW3423DW

Non lo cambierei, mi ci trovo davvero benissimo

Dryden
31st March 2023, 13:51
Un esempio di monitor da 27 uso casalingo = gaming/cazzeggio che andrebbe preso oggi? Perché io sono molto confuso dall'arrivo degli Oled, che però costano un fusto. HDR 400, HDR 10 e salcazzeria. Non riesco a capire quale tra queste cose sia davvero "game changing" tale da dire prendo questo.

Galandil
31st March 2023, 15:31
a me e' stato regalato (2 anni fa ormai) il dell alienware 34 ultrawide AW3423DW

Non lo cambierei, mi ci trovo davvero benissimo

Tu hai ricevuto in regalo 2 anni fa un monitor uscito un anno fa? Mica male. :sneer:

Galandil
31st March 2023, 15:49
Un esempio di monitor da 27 uso casalingo = gaming/cazzeggio che andrebbe preso oggi? Perché io sono molto confuso dall'arrivo degli Oled, che però costano un fusto. HDR 400, HDR 10 e salcazzeria. Non riesco a capire quale tra queste cose sia davvero "game changing" tale da dire prendo questo.

Allora, l'HDR è una cosa, LCD o OLED un'altra.

Punto primo: se leggi HDR400 o HDR600 puoi agevolmente lasciare sullo scaffale il monitor - l'HDR è tale solo se ha una peak brightness di ALMENO 1000 cd/m2 (o "nits").
Punto secondo: l'HDR, come detto in passato, è davvero "game changing", visto che aumenta tantissimo il range dinamico fra highlights e shadows - ed è una cosa che puoi capire solo vedendo dal vivo un monitor con HDR attivato per ovvii motivi.
Punto terzo: il vantaggio degli OLED con l'HDR è il fatto che hanno il contrasto ideale (infinito) e per pixel, gli LCD, avendo delle backlight, non potranno mai raggiungere lo stesso contrasto, e per questo motivo si utilizza la tecnica FALD (Full Array Local Dimming): in sostanza lo schermo è suddiviso in una griglia che permette di bloccare di più o di meno la luce per singola zona, consentendo un range dinamico più ampio fra zone differenti. Di contro, però, gli OLED hanno + problemi degli LCD a raggiungere peak brightness elevate, su grandi porzioni di schermo, e mantenerle a lungo - in alcuni modelli recenti ad esempio implementano un heatsink che permette alle zone che sono state ad alta luminosità di far sparire l'alone più rapidamente.

Also, gli OLED, e soprattutto i QD, possono soffrire di burn-in in caso di immagini statiche tenute a lungo, motivo per cui prima dicevo che se si deve primariamente lavorare, sono un no-go ad oggi. In più, i QD-OLED sono ancora peggio degli OLED nella renderizzazione di testo/elementi statici a causa della struttura triangolare dei subpixel.

Per finire, a riguardo della tua domanda specifica, dipende as usual da budget, ecc. - io ti consiglio di dare un'occhiata al canale Hardware Unboxed e il più recente Monitor Unboxed, visto che hanno spostato lì tutte le recensioni di monitor vari. Una cosa è certa: se non avete problemi di spazio e budget, e primariamente col PC ci giocate, imo minimo un 32", HDR1000 e ultrawide (21:9 o più) - la differenza è abissale.

Hador
31st March 2023, 16:02
Io comunque con HDR ho un rapporto contrastante, in molti giochi lo tengo spento che non mi piace / lo trovo troppo artificiale. Sia sulla ps5 che sul pc. Però il PC ha HDR 400.
Comunque per produttività per me 2k sui 27 è il limite massimo, sopra per me 4k o più. Però poi ti serve una gpu alta etc e tutti i costi aumentano

Galandil
31st March 2023, 16:31
Per i contenuti video (film ecc.), la masterizzazione HDR utilizza 400 nits come peak brightness *minima*, mentre l'SDR utilizza 100 nits.

Inoltre, l'HDR deve utilizzare 10 bit per canale, laddove SDR utilizza i classici 8 bit.

Tra l'altro, questo mi ricorda che non ho parlato del supporto nativo vero o semi fasullo dei bit per colore dei monitor: per avere un HDR "vero", il monitor deve supportare i 10 bit, mentre ancora oggi un botto di monitor usano una tecnica chiamata FRC (Frame Rate Control) che simula i 10 bit usando solo 8 bit per canale - non è quindi un vero 10 bit.

Per i giochi, di conseguenza, si devono avere attivi i 10 bit per canale e un monitor con almeno 1000 nits per poter usare davvero l'HDR - nota a margine, non tutte le GPU supportano l'output a 10 bit, quindi se si è limitati ad 8 bit, non ci sarà HDR nativo o tonemapped che tenga.

Dryden
31st March 2023, 16:39
Allora, l'HDR è una cosa, LCD o OLED un'altra.

Punto primo: se leggi HDR400 o HDR600 puoi agevolmente lasciare sullo scaffale il monitor - l'HDR è tale solo se ha una peak brightness di ALMENO 1000 cd/m2 (o "nits").
Punto secondo: l'HDR, come detto in passato, è davvero "game changing", visto che aumenta tantissimo il range dinamico fra highlights e shadows - ed è una cosa che puoi capire solo vedendo dal vivo un monitor con HDR attivato per ovvii motivi.
Punto terzo: il vantaggio degli OLED con l'HDR è il fatto che hanno il contrasto ideale (infinito) e per pixel, gli LCD, avendo delle backlight, non potranno mai raggiungere lo stesso contrasto, e per questo motivo si utilizza la tecnica FALD (Full Array Local Dimming): in sostanza lo schermo è suddiviso in una griglia che permette di bloccare di più o di meno la luce per singola zona, consentendo un range dinamico più ampio fra zone differenti. Di contro, però, gli OLED hanno + problemi degli LCD a raggiungere peak brightness elevate, su grandi porzioni di schermo, e mantenerle a lungo - in alcuni modelli recenti ad esempio implementano un heatsink che permette alle zone che sono state ad alta luminosità di far sparire l'alone più rapidamente.

Also, gli OLED, e soprattutto i QD, possono soffrire di burn-in in caso di immagini statiche tenute a lungo, motivo per cui prima dicevo che se si deve primariamente lavorare, sono un no-go ad oggi. In più, i QD-OLED sono ancora peggio degli OLED nella renderizzazione di testo/elementi statici a causa della struttura triangolare dei subpixel.

Per finire, a riguardo della tua domanda specifica, dipende as usual da budget, ecc. - io ti consiglio di dare un'occhiata al canale Hardware Unboxed e il più recente Monitor Unboxed, visto che hanno spostato lì tutte le recensioni di monitor vari. Una cosa è certa: se non avete problemi di spazio e budget, e primariamente col PC ci giocate, imo minimo un 32", HDR1000 e ultrawide (21:9 o più) - la differenza è abissale.

Conosco il funzionamento di base non c'era bisogno della spiegazione, quello che non capisco è quali tra queste "features" che un monitor potrebbe avere è veramente rilevante nella scelta, vuoi per impatto visivo o per solidità nel tempo (del tipo, anni fa lo è stato il G-Sync\FreeSync). Tu dici HDR1000 ora, Oled in base alle possibilità. Grazie per la segnalazione darò sicuramente uno sguardo a Monitor Unboxed.

Galandil
31st March 2023, 16:48
Conosco il funzionamento di base non c'era bisogno della spiegazione, quello che non capisco è quali tra queste "features" che un monitor potrebbe avere è veramente rilevante nella scelta, vuoi per impatto visivo o per solidità nel tempo (del tipo, anni fa lo è stato il G-Sync\FreeSync). Tu dici HDR1000 ora, Oled in base alle possibilità. Grazie per la segnalazione darò sicuramente uno sguardo a Monitor Unboxed.

Si, considera che ci sono monitor che raggiungono i 2000 nits di peak brightness, ma nessuno di questi è un OLED (almeno, che io sappia, poi magari recentissimamente è uscito un OLED monitor da 2000 nits peak e non lo sapevo :D).

Ah, dimenticavo (pd): i QD-OLED, necessitano di stare in una stanza con poca luce, soprattutto non puntata direttamente verso lo schermo, visto che sono altamente riflettenti e quindi si finisce per avere il nero che diventa grigio scuro, abbattendo l'elevato contrasto "naturale" dello schermo.

Sulimo
31st March 2023, 18:30
Sarò io, ma ogni volta che mi approccio al mondo monitor mi viene l'ansia a dover considerare un milione di fattori, quindi vi chiedo:
secondo voi questo xiaomi è troppo da gestire per una 6700xt?
https://amzn.eu/d/dhJ1MYe
Inoltre come mai se voglo un 21:9 trovo tutti monitor da 34 pollici, sotto i 30 pollici non ha senso come tecnologia?

Galandil
31st March 2023, 18:50
Sarò io, ma ogni volta che mi approccio al mondo monitor mi viene l'ansia a dover considerare un milione di fattori, quindi vi chiedo:
secondo voi questo xiaomi è troppo da gestire per una 6700xt?
https://amzn.eu/d/dhJ1MYe
Inoltre come mai se voglo un 21:9 trovo tutti monitor da 34 pollici, sotto i 30 pollici non ha senso come tecnologia?

No, semplicemente per i 21:9 utilizzano una diagonale che renda il lato verticale quasi identico a quello di un 27" 16:9.
Un 27" 16:9 ha il lato verticale lungo circa 13,327", mentre un 34" 21:9 ha il lato verticale lungo circa 13,393".

E non avrebbe molto senso commercialmente produrre un ultrawide 21:9 che sia analogo di un 24", chiunque voglia un ultrawide non va di certo a scegliersi un 24" "esteso" in orizzontale, ma considera 27" il minimo sindacale.

Tunnel
1st April 2023, 01:01
Io il 21:9 non posso proprio prenderlo in considerazione perché mia moglie deve fare "demo" e condivide molto il monitor QQ
Abbiamo provato ma è una rottura di cazzo per lei da gestire

Galandil
1st April 2023, 02:25
Io il 21:9 non posso proprio prenderlo in considerazione perché mia moglie deve fare "demo" e condivide molto il monitor QQ
Abbiamo provato ma è una rottura di cazzo per lei da gestire

Non ho capito, intendi screen sharing e mostra robe a clienti in remoto? Non penso che ad oggi esista un singolo programma non in grado di catturare e streamare solo una porzione del desktop invece che intero.

E anche se non fosse, nessuno ti vieta di usare entrambi i monitor, quello nuovo e quello che hai ora, tanto chi vuoi che se lo prenda usato quel Philips a 75Hz. :D

Tunnel
1st April 2023, 12:26
Non ho capito, intendi screen sharing e mostra robe a clienti in remoto? Non penso che ad oggi esista un singolo programma non in grado di catturare e streamare solo una porzione del desktop invece che intero.

E anche se non fosse, nessuno ti vieta di usare entrambi i monitor, quello nuovo e quello che hai ora, tanto chi vuoi che se lo prenda usato quel Philips a 75Hz. :D
Sì chiaro, ma è una sbatta condividere la finestra perchè spesso deve twistare da un documento all'altro, quindi condivide tutto il monitor e avere il 21:9 è un casino per questo tipo di utilizzo.
Sul tema di tenerli entrambi, non mi stanno sulla scrivania :D

Galandil
1st April 2023, 17:53
Sì chiaro, ma è una sbatta condividere la finestra perchè spesso deve twistare da un documento all'altro, quindi condivide tutto il monitor e avere il 21:9 è un casino per questo tipo di utilizzo.
Sul tema di tenerli entrambi, non mi stanno sulla scrivania :D

Ao, non ho detto "condivisione di una finestra", ho detto "condivisione di una porzione del desktop". :dumbnod:

Una cosa così, esempio fatto su OBS ma vale per altre app (se non risalgono al paleolitico obv):
11739

Tunnel
2nd April 2023, 00:29
Non mi sembra si possa fare su teams :-/

Galandil
2nd April 2023, 02:00
Non mi sembra si possa fare su teams :-/

No, direttamente su Teams no, vedo però che ci sono workarounds tipo questo: https://github.com/tom-englert/RegionToShare

Oppure le prendi un portatile e gg. :confused:

Tunnel
2nd April 2023, 12:23
No, direttamente su Teams no, vedo però che ci sono workarounds tipo questo: https://github.com/tom-englert/RegionToShare

Oppure le prendi un portatile e gg. :confused:
ahahaha , ma poverina. Comunque usa il portatile del lavoro attaccato ad una docking che le ho preso a parte <3

Pazzo
12th April 2023, 10:05
madonna, sfido chiunque a provare cyberpunk col raytracing overdrive che han buttato fuori ieri e dire che non si nota la differenza col raster

è spettacolare

Hador
12th April 2023, 19:15
Chiunque con una 40x0 :D

Pazzo
12th April 2023, 22:29
anche le 30x0 mi pare? Boh i don't speak povero :sneer:

Tunnel
12th April 2023, 23:24
Nel frattempo è uscita la 4070. Ottima scheda, non fosse che costa come sempre troppo e che ha il bus segato, per non farla performare in 4k come potrebbe.
700€ di medio gamma, tappata
Bah...

Drako
13th April 2023, 09:00
Nel frattempo è uscita la 4070. Ottima scheda, non fosse che costa come sempre troppo e che ha il bus segato, per non farla performare in 4k come potrebbe.
700€ di medio gamma, tappata
Bah...

la 2070 SUPER ne costava 400 all'uscita, tanto per capire quanto ci hanno inculati con la scusa della pandemia prima e della guerra poi.

Sulimo
13th April 2023, 09:55
Stavo vedendo giusto ieri jna recensione della 4070, in pratica le hanno segato a posta il bus per farla performare bene fino al 1440p, in 4k va più forte una 6800xt.
Sono proprio delle merde lol

Hador
13th April 2023, 11:01
anche le 30x0 mi pare? Boh i don't speak povero :sneer:eh no solo 40x0, senza senso proprio

Hador
13th April 2023, 11:02
la 2070 SUPER ne costava 400 all'uscita, tanto per capire quanto ci hanno inculati con la scusa della pandemia prima e della guerra poi.
E un caffè costava mille lire!!!

Hador
13th April 2023, 11:11
eh no solo 40x0, senza senso proprio cazzata dovrebbe andare anche con le 3080 anche se a fatica. In settimana lo provo

Drako
13th April 2023, 12:29
E un caffè costava mille lire!!!

Il caffè è passato da 1000 lire (penso fosse meno) ad 1€ in quanto? 20 anni?

Qui si parla di un aumento di quasi l'80% in quanto? 3 anni? Stessa cosa proprio.

Povery produttori di GPU, non è colpa loro :confused: sono costretti :confused: li disegnano così! :confused: LE CAVALLETTE!!!!! :nod:

Pazzo
13th April 2023, 18:27
la 2070 SUPER ne costava 400 all'uscita, tanto per capire quanto ci hanno inculati con la scusa della pandemia prima e della guerra poi.

e aspetta ora che la cina si prende taiwan

Drako
14th April 2023, 08:38
e aspetta ora che la cina si prende taiwan

Mi sa che a quel punto il prezzo delle gpu sarà un problema secondario :sneer:

Zaider
14th April 2023, 09:42
Le GPU hanno raggiunto prezzi fuori di cervello, pero' penso anche che rispetto a prima abbiano una durata di vita maggiore, prima secondo me si cambiava molto più spesso, ora una mid gamma regge benissimo per molti più anni.
Poi magari sbaglio io

Drako
14th April 2023, 11:27
Io gioco ancora decentemente con la 2070s a 1440p eh.

Tunnel
15th April 2023, 00:38
Le GPU hanno raggiunto prezzi fuori di cervello, pero' penso anche che rispetto a prima abbiano una durata di vita maggiore, prima secondo me si cambiava molto più spesso, ora una mid gamma regge benissimo per molti più anni.
Poi magari sbaglio io

Io sto cambiando la 1060, che è a tutt'oggi la scheda più diffusa, quindi non direi :-/

Milker
15th April 2023, 14:17
Scusate qualcuno mi può aiutare per il tipo di sv per giocare decentemente su questa smart tv?
LG OLED evo 42'', Smart TV 4K, OLED42C34LA

Grazie in anticipo

edito: senza prosciugare il portafoglio naturalmente, esempio: la 3060 ti andrebbe bene?

Dryden
15th April 2023, 15:37
Per far andare il 4K spingendo sui dettagli o sugli fps ti servirebbe una scherda video che costa come il televisore.
Valuta una console per poca spesa e poco pensiero, altrimenti se hai già il resto del PC di scheda video stai oltre le 1000€. Non andrei sotto una 4070Ti, lato AMD non ho seguito.

Hador
15th April 2023, 15:48
Scusate qualcuno mi può aiutare per il tipo di sv per giocare decentemente su questa smart tv?
LG OLED evo 42'', Smart TV 4K, OLED42C34LA

Grazie in anticipo

edito: senza prosciugare il portafoglio naturalmente, esempio: la 3060 ti andrebbe bene?
definisci decente.
Ci giochi dal divano tipo console? Se si, anche abbassando i dettagli non noterai tutta sta differenza in molti giochi, e con una 4070 magari te la cavi. Altrimenti devi salire.
Oggettivamente, per giocare una tv conviene comunque una console, costa meno della gpu più scarsa che puoi comprare e hai rese decenti.
Io sto cambiando la 1060, che è a tutt'oggi la scheda più diffusa, quindi non direi :-/bhe la 1060 ha 7 anni, direi che era anche l'ora.

Comunque il discorso in parte è vero, i giochi (a parte quelle 2 o 3 eccezioni che comunque ci sono sempre state) dovendo essere multipiatta sono raramente così pesanti da girare male su gpu di qualche anno fa e mid range. Certo se uno vuole fare 140 fps a 4k è un altro discorso, ma soprattutto sul single player sono gran seghe.
Io ho giocato elden ring sulla ps5, dopo aver giocato tutti i souls sul pc, e sinceramente non ho notato differenza alcuna nell'esperienza anche se gira upscalato a salcazzo quanti fps invece che ai 160 fps che mi avrebbe fatto sul pc.

Milker
15th April 2023, 18:22
definisci decente.
Ci giochi dal divano tipo console? Se si, anche abbassando i dettagli non noterai tutta sta differenza in molti giochi, e con una 4070 magari te la cavi. Altrimenti devi salire.
Oggettivamente, per giocare una tv conviene comunque una console, costa meno della gpu più scarsa che puoi comprare e hai rese decenti.bhe la 1060 ha 7 anni, direi che era anche l'ora.

Comunque il discorso in parte è vero, i giochi (a parte quelle 2 o 3 eccezioni che comunque ci sono sempre state) dovendo essere multipiatta sono raramente così pesanti da girare male su gpu di qualche anno fa e mid range. Certo se uno vuole fare 140 fps a 4k è un altro discorso, ma soprattutto sul single player sono gran seghe.
Io ho giocato elden ring sulla ps5, dopo aver giocato tutti i souls sul pc, e sinceramente non ho notato differenza alcuna nell'esperienza anche se gira upscalato a salcazzo quanti fps invece che ai 160 fps che mi avrebbe fatto sul pc.

Grazie Mattia,
in effetti quella tv è stata acquistata proprio per uso piccolo divano-ps5
Mi chiedevo se potessi collegarci random anche il pc (tastiera+mouse wifi) per cazzeggiare con blood bowl 3
Se devo partire con una 4070 cosa sono più o meno...700 pippoli?

-=Rho=-
15th April 2023, 22:34
Difficile fare 140 fps su elden ring quando e' cappato a 60 :sneer: su pc , lo devi moddare ma ti diventa super instabile .

Hador
15th April 2023, 23:16
Grazie Mattia,
in effetti quella tv è stata acquistata proprio per uso piccolo divano-ps5
Mi chiedevo se potessi collegarci random anche il pc (tastiera+mouse wifi) per cazzeggiare con blood bowl 3
Se devo partire con una 4070 cosa sono più o meno...700 pippoli?
O equivalente AMD gen prima. Guarda anche l'usato. Dipende molto da quanto vuoi puoi spendere e da che pretese hai.
Se devo cazzeggiare con Blood Bowl non ti serve una gpu da 700 euro comunque.

Ah non sapevo fosse cappato su PC, davvero? I souls non lo erano. Comunque il concetto è quello

Dryden
15th April 2023, 23:35
Ah non sapevo fosse cappato su PC, davvero? I souls non lo erano. Comunque il concetto è quello

Nope tutti i souls sono sempre stati cappati di fps anche su pc, ER compreso, con delle mod si potevano sbloccare ma alcune meccaniche del gioco si rompevano.
Indi per cui è del tutto naturale che "non hai notato differenza alcuna nell'esperienza".

Galandil
15th April 2023, 23:47
A meno che non vogliate andare su una GPU budget (€400-, di sti tempi), prendetene una con almeno 16GB. Non volete davvero ritrovarvi fra 2 anni nella stessa situazione di una 3070 oggi.

Nell'intorno dei €650, le scelte atm sono 4070 e 6950XT. La prima ha il vantaggio di un consumo decisamente inferiore (intorno ai 200W), la seconda ha performance superiori in raster E 16GB di VRAM (nonostante il consumo sia di 350-400W in base al modello, abbattibili un po' con undervolt/PL settato più basso, ma a conti fatti la differenza non la si sente più di tanto in bolletta se non si gioca una media di 4 ore al giorno ogni giorno dell'anno).

PS: Tutti i titoli FromSoftware sono sempre stati cappati a 60fps e 16:9 come AR, compreso ER - l'engine loro è una delle + grandi merde sul mercato. Ci sono mod per sbloccare gli fps oltre i 60 (e l'AR oltre i 16:9) senza fuckuppare la fisica (che è legata al frametime di default :sneer: ), ma in quel modo lo si può giocare solo full offline.

Hador
16th April 2023, 07:29
Ok allora sto dicendo cagate :sneer:
Vabbè stesso discorso con Horizon

finalyoko hellslayer
16th April 2023, 18:11
Ma dipende sempre a cosa si gioca. Oggi se giochi in full hd la gpu non è un grosso problema, di norma pesa maggiormente la cpu e ad oggi c’è comunque molta scelta.
Ed il full hd non è assolutamente morto, anzi soprattutto a 144hz. Tutti i giochi competitivi o simili e sicuramente vantaggioso stare sul 1080p.
Insomma dipende sempre dal target di player.
Io ho 2 monitor uguali a 144hz 1080p e gioco comunque o ad mmo pvp o a ‘competitive’ .


Inviato dal mio iPhone utilizzando Tapatalk

Dryden
16th April 2023, 22:48
Ma se vogliamo dirla tutta l'intero panorama del gaming è un'enorme bolla commerciale dove tutti spingono per far credere che se non giochi ad altissime risoluzioni con altissimi dettagli allora ti rovini l'esperienza, tutte cazzate. La 1060 è ancora la scheda video più diffusa, Nintendo con la sua console in 720p ne vende milioni e continua a dimostrare a tutti che per fare giochi incredibili non serve il graficone, io mi son talmente sfavato che mi son preso un arcade stick e sto andando di MAME.
I videogiochi sono un medium così sfaccettato che per fortuna possono soddisfare le esigenze più disparate, dal nazitech all'hippiplayer.

Ciò detto se Milker ha un TV 4k 120hz credo che ambisca a sfruttarlo, almeno a 60fps, quindi un 600\700€ di scheda video ho paura siano il minimo.

Tunnel
17th April 2023, 01:34
Ok allora sto dicendo cagate :sneer:
Vabbè stesso discorso con Horizon

Anche Horizon fa onco su PC. Il porting è agghiacciante, tant'è che io l'ho droppato. Non so se ora l'abbiano un po' sistemato

Teo per la scheda se ci devi giocare a BB3 non ha davvero senso spenderci dietro tanti soldi, imho. Anzi, non ha senso proprio spendercene, usa la scheda che hai e gg.
Se devi uogradare, non farlo ora. Sono appena uscite le medio gamma di Nvidia e devono arrivare (probabilmente questione di pochi mesi, ormai) quelle di amd. Sicuramente qualcosa scenderanno di prezzo (anche se non aspettiamoci una 4070ti a 600€ per un bel po')

Axet
17th April 2023, 02:12
Ma dipende sempre a cosa si gioca. Oggi se giochi in full hd la gpu non è un grosso problema, di norma pesa maggiormente la cpu e ad oggi c’è comunque molta scelta.
Ed il full hd non è assolutamente morto, anzi soprattutto a 144hz. Tutti i giochi competitivi o simili e sicuramente vantaggioso stare sul 1080p.
Insomma dipende sempre dal target di player.
Io ho 2 monitor uguali a 144hz 1080p e gioco comunque o ad mmo pvp o a ‘competitive’ .


Inviato dal mio iPhone utilizzando Tapatalk

Con una scheda di fascia alta i 144 fps li fai anche a 1440p eh.
Dipendentemente dal gioco anche più su, tipo ultrawide 3840x1600 e in certi casi anche a 4k.

finalyoko hellslayer
17th April 2023, 07:00
Sicuramente si ma devi spendere sicuramente di più sulla gpu che sulla cpu, e ad oggi è sconveniente. Ovviamente io sto parlando di un discorso budget, se quello non è un problema si va diretto sul 2k ad alto refresh rate e gg. Adesso non so come sia oggi, ma in passato negli fps competitivi alzare la risoluzione peggiorava il targeting. Inoltre in giochi ‘competitive’ dlss è più uno svantaggio che un vantaggio, è il ray tracing non è praticamente mai presente.


Inviato dal mio iPhone utilizzando Tapatalk

Shub
17th April 2023, 08:48
Maremma cacona vogli rifarmi un pc decente ma un tower a sto giro non spendo 2k per un portatile che mi dura 5-6 anni... con sti prezzi a 1500k ci prendo un fermacarte...

finalyoko hellslayer
17th April 2023, 10:10
bhè anche un fisso generalmente 5-6 anni devi già cambiare.
diciamo che
Case: dura una vita generalmente se di buona qualità.
PSU: hanno garanzie anche di 10 anni quelle buone.
monitor: una vita salvo tecnologie nuove particolari.
Gpu: generalmente dopo 3-4 anni si cambia. Dipende sempre dal target di giochi e tipologia di player cmq.
Blocco CPU-MB-RAM: dopo 3-4 anni cambi CPU, e dopo altri 2-3 anni cambi il blocco. Dipende dalla durata del socket e dalla risoluzione di gioco generalmente.

Se hai già monitor con 1,5k/2k ci viene un bel lavoro. Se poi vuoi giocare in 4k granitici ai tripla AAA allora il discorso è diverso.

Hador
17th April 2023, 10:16
Anche Horizon fa onco su PC. Il porting è agghiacciante, tant'è che io l'ho droppato. Non so se ora l'abbiano un po' sistemato

Teo per la scheda se ci devi giocare a BB3 non ha davvero senso spenderci dietro tanti soldi, imho. Anzi, non ha senso proprio spendercene, usa la scheda che hai e gg.
Se devi uogradare, non farlo ora. Sono appena uscite le medio gamma di Nvidia e devono arrivare (probabilmente questione di pochi mesi, ormai) quelle di amd. Sicuramente qualcosa scenderanno di prezzo (anche se non aspettiamoci una 4070ti a 600€ per un bel po')

Horizon su PC io con dettagli al max ero sopra ai 100 fps con una 3080, a 2k, mi sembrava ottimo come port sinceramente

Shub
17th April 2023, 10:21
bhè anche un fisso generalmente 5-6 anni devi già cambiare.
diciamo che
Case: dura una vita generalmente se di buona qualità.
PSU: hanno garanzie anche di 10 anni quelle buone.
monitor: una vita salvo tecnologie nuove particolari.
Gpu: generalmente dopo 3-4 anni si cambia. Dipende sempre dal target di giochi e tipologia di player cmq.
Blocco CPU-MB-RAM: dopo 3-4 anni cambi CPU, e dopo altri 2-3 anni cambi il blocco. Dipende dalla durata del socket e dalla risoluzione di gioco generalmente.

Se hai già monitor con 1,5k/2k ci viene un bel lavoro. Se poi vuoi giocare in 4k granitici ai tripla AAA allora il discorso è diverso.

Bhè no, se prendi un bel tower fatto a modo, devi cambiare la VGA sicuramente ogni 5-6 anni... se vuoi giocare a giochi spinti... Il mio vecchio tower ha resistito 11 anni ampliando la ram 1 volta e cambiando vga 1 volta... poi è cambiata proprio la tecnologia delle mobo quindi... E sono passato a un portatile di fascia alta, durato 6 anni poi sistemato e durato altri 7 mesi valore speso 2.1k eurini... per un MSI. Per quella cifra ci prendevo un buon tower e ci facevo un buon upgrade 1 volta.

Il monitor non volendo giocare a chissà cosa lo ho e mi basta... altrimenti si la spesa si alzava di un altro 400€ (penso)

Il tutto cmq come hai detto te, dipende dalla tipologia di player... io non sono un fanatico degli fps bassi per fare gli headshoot a call of duty o simili quindi... mi accontento. Per dirtela il portatilino di merda che ho ora preso per la figlia e sequestrato :sneer: non mi fa giocare a Diablo Resurrection :cry: però ci gira CIV V e lo sto finendo con tutti gli achievement possibili

Drako
17th April 2023, 11:04
Sicuramente si ma devi spendere sicuramente di più sulla gpu che sulla cpu, e ad oggi è sconveniente. Ovviamente io sto parlando di un discorso budget, se quello non è un problema si va diretto sul 2k ad alto refresh rate e gg. Adesso non so come sia oggi, ma in passato negli fps competitivi alzare la risoluzione peggiorava il targeting. Inoltre in giochi ‘competitive’ dlss è più uno svantaggio che un vantaggio, è il ray tracing non è praticamente mai presente.


Inviato dal mio iPhone utilizzando Tapatalk

DLSS/FSR non li puoi utilizzare competitivamente (sopratutto nei picchiaduro) perchè ti alterano il frame count necessario a far uscire determinate combo.

finalyoko hellslayer
17th April 2023, 11:06
DLSS/FSR non li puoi utilizzare competitivamente (sopratutto nei picchiaduro) perchè ti alterano il frame count necessario a far uscire determinate combo.

Esatto, quindi chi gioca competitive non ha quasi senso comprare nvidia, sempre che si valuti rapporto qualità/prezzo diciamo.


Inviato dal mio iPhone utilizzando Tapatalk

Pazzo
17th April 2023, 14:06
su ma abbiamo 30 40 anni qua, chi cazzo gioca competitive :sneer:

Drako
17th April 2023, 14:14
su ma abbiamo 30 40 anni qua, chi cazzo gioca competitive :sneer:

Ovviamente nessuno (credo? Gramas?), ma in generale io preferisco abbassare i dettagli piuttosto che usare il dlss/fsr di turno (se possibile).

Hador
17th April 2023, 15:13
Io dlss ad oggi lo ho usato solo su cyberpunk e control, e in entrambi i casi mille volte meglio dlss che abbassare i dettagli.
Lo avevo provato su death stranding ma senza dlss facevo già più di 120 fps e lì non serviva/la resa era migliore tenendolo spento.

Incoma
17th April 2023, 16:24
Mi piace quando avete dei rigurgiti di nerdismo

Axet
17th April 2023, 16:56
Io sono stupito dal DLSS3, pensavo fosse una cagata pazzesca visto che sostanzialmente si inventa frame dal nulla.
Invece sto giochicchiando Cyberpunk con path tracing, tutto a ultra, 3840x1600, DLSS2 su quality e DLSS3 (frame generation) attivato.
Sto easy sopra i 70, spesso sugli 80/90, e non noto artefatti nè roba strana.

Boh.

Zaider
17th April 2023, 17:36
Io sono stupito dal DLSS3, pensavo fosse una cagata pazzesca visto che sostanzialmente si inventa frame dal nulla.
Invece sto giochicchiando Cyberpunk con path tracing, tutto a ultra, 3840x1600, DLSS2 su quality e DLSS3 (frame generation) attivato.
Sto easy sopra i 70, spesso sugli 80/90, e non noto artefatti nè roba strana.

Boh.

Incredibile!
Io pero' già con DLSS 2 ho notato diversi miglioramenti qua e la', non mi sento di dire che crei fps a caso

Axet
17th April 2023, 19:14
Incredibile!
Io pero' già con DLSS 2 ho notato diversi miglioramenti qua e la', non mi sento di dire che crei fps a caso

DLSS 2 e 3 sono tecnologie completamente differenti.
Il 2 fa AI upscaling, il 3 fa frame generation -> crea frame a caso, sostanzialmente

Shub
17th April 2023, 19:27
Dilss diarrea DHL ma che minchia dite....

A 40 anni con figlioli e mogli aggro si gioca di notte o quando loro so fuori o quando fai smart working e non hai un cazzo da fare e invece di andare alle macchinette ruzzi 10 min...

Cmq che so ste cose?

Zaider
17th April 2023, 19:28
DLSS 2 e 3 sono tecnologie completamente differenti.
Il 2 fa AI upscaling, il 3 fa frame generation -> crea frame a caso, sostanzialmente

Non ne avevo idea, non ho mai studiato il tema.
Grazie per averlo spiegato

Drako
17th April 2023, 20:55
Il 3 infila frame artificiali tra quelli reali, bene per roba tipo cyberpunk o walking simulator. Male se ti serve precisione nei controlli, come detto prima.

Hador
17th April 2023, 21:08
qualsiasi roba competitiva ha un motore grafico leggero, nessuno ha bisogno sta roba per giocare a CS dove fai 300 fps con un tostapane.
Ma nessuno qua dentro gioca a CS :sneer:

Galandil
17th April 2023, 22:12
Il 3 infila frame artificiali tra quelli reali, bene per roba tipo cyberpunk o walking simulator. Male se ti serve precisione nei controlli, come detto prima.

Leva Cyberpunk e lascia giusto i walking simulators (che andrebbero brasati imo, ma questa è un'altra storia).

Le tecniche di upscaling almeno hanno senso: usare un algoritmo più leggero per upscalare un frame renderizzato a risoluzione più bassa rispetto al renderizzarlo nativamente a risoluzione più alta, con conseguente diminuzione del frametime E della latenza.

Frame Generator: framerate goes brrrrr, e pure la latenza. :sneer:

Tunnel
18th April 2023, 01:25
Horizon su PC io con dettagli al max ero sopra ai 100 fps con una 3080, a 2k, mi sembrava ottimo come port sinceramente

Aveva il piccolissimo problema che quando miravi si scentrava la visuale (una roba TOTALMENTE ingiocabile), oltre a dare problemi di stuttering a caso, anche sulle 2080

Uno dei mille articoli al riguardo: https://www.eurogamer.net/digitalfoundry-2020-horizon-zero-dawn-pc-tech-review

Forse lo hai giocato dopo n patch, oppure sei un benedetto dal signore :nod:

Tunnel
18th April 2023, 01:28
Io sono stupito dal DLSS3, pensavo fosse una cagata pazzesca visto che sostanzialmente si inventa frame dal nulla.
Invece sto giochicchiando Cyberpunk con path tracing, tutto a ultra, 3840x1600, DLSS2 su quality e DLSS3 (frame generation) attivato.
Sto easy sopra i 70, spesso sugli 80/90, e non noto artefatti nè roba strana.

Boh.

È ancora presto, però è certamente una tecnologia affascinante

Hador
18th April 2023, 09:07
Aveva il piccolissimo problema che quando miravi si scentrava la visuale (una roba TOTALMENTE ingiocabile), oltre a dare problemi di stuttering a caso, anche sulle 2080

Uno dei mille articoli al riguardo: https://www.eurogamer.net/digitalfoundry-2020-horizon-zero-dawn-pc-tech-review

Forse lo hai giocato dopo n patch, oppure sei un benedetto dal signore :nod:
Lo ho giocato mesi dopo che è uscito e non ho avuto alcun problema.

finalyoko hellslayer
18th April 2023, 09:46
il ragionamento è molto semplice.
oggi 4k con ray Tracing attivo o addirittura Path tracing attivo senza dlss fai fatica con un 4090.
Quindi con tecnologie come il dlss riesci ad arrivare a 60 fps in 4k/2k con ray tracing/path tracing attivo.
Ovviamente è stato e viene fatto molto marketing sopratutto da Nvidia che è la "creatice" e quindi nettamente più avanti su tali tecnologie.
Il problema è che PS5/xBOX sono con GPU AMD, di conseguenza i titoli che sfruttano realmente tali tecnologie sono pochi.
Se si gioca a tali titoli (CYBERPUNK è tanta roba con tali tecnologie ad esempio) allora ha senso investire su tali tecnologie e quindi su Nvidia, differentemente AMD è la scelta migliore rapporto qualità/prezzo ad esclusione della fascia molto alta.
secondo me ci vuole anche 1 generazione di schede video per avere un pool di giochi che sfruttino bene tale tecnologia. Probabilmente nella prossima generazione di Console sarà ovunque, ma ci vuole ancora molto tempo.

Secondo me discorsi "prendo oggi la 4070" per il futuro lasciano il tempo che trovano se oggi non si sfruttano tali tecnologie.
Conosco molti che hanno comprato la 4070 anche ti per giocare a Diablo 4 in full hd e/o 2k. Forse la 4070 se si assesta un attimo di prezzo potrebbe essere competitiva la ti no.

Hador
18th April 2023, 11:00
Una 4070 va come una 3080, che non dico sia il minimo sindacale ma è comunque la scheda che ti serve per giocare sopra i 60 fps a 2k, manco 4k.
Andando sotto ad una 4070/3080 o equivalente AMD inizi a dover fare sacrifici a 2k e a succhiare a 4k

Drako
18th April 2023, 11:38
Ma per 2k che risoluzione intendete?

Dryden
18th April 2023, 11:56
2560x1440

Drako
18th April 2023, 14:05
insomma 1440p o QHD. Chiedevo perchè il termine 2k sui monitor è il QHD, ma volevo essere sicuro si parlasse della stessa res.

Io ci gioco perfettamente con una 2070s eh. Poi ovvio dipende dai giochi. Ma tra tweak, dlss, cazzi e ramazzi non c'è bisogno di scomodare una 4070. Su everspace 2 faccio 80/85 di media a dettagli alti senza dlss per esempio.

Hador
18th April 2023, 14:14
senza ray tracing dlss tendenzialmente non serve sul 99% dei titoli attuali.
Prova Control o Cyberpunk o anche un portal RT e vedi.
Il mio discorso sulla 4070/3080 era unito a tenere un alto framerate su *tutti* i titoli a 2k, con l'idea di usarla su un monitor 2k/144 o 160 hz.
Se uno ha come target i 60 fps o risoluzioni inferiori o gli va bene abbassare i dettagli ovviamente si può scendere senza problemi.

Drako
18th April 2023, 14:17
Ah io intendevo senza RT, di cui mi frega poco o nulla. Per RT ovviamente ci vuole dlss, ma su cyberpunk lo usavo senza per aver fps più alti sempre. La mia preferenza va sempre agli fps prima ed ai dettagli poi.

Hador
18th April 2023, 14:34
Ah io intendevo senza RT, di cui mi frega poco o nulla. Per RT ovviamente ci vuole dlss, ma su cyberpunk lo usavo senza per aver fps più alti sempre. La mia preferenza va sempre agli fps prima ed ai dettagli poi.si l'idea è NON dover scegliere :D
Cyberpunk con RT è un'altra cosa, e con dlss hai sia RT che FPS. Poi il gioco te lo giochi lo stesso sia chiaro, però fa la differenza.

Se si parla di single player, per me qualsiasi cosa tra i 60 e i 120 va bene come fps, sicuro non mi metto ad abbassare le spec per salire.

Pazzo
18th April 2023, 23:04
Ah io intendevo senza RT, di cui mi frega poco o nulla. Per RT ovviamente ci vuole dlss, ma su cyberpunk lo usavo senza per aver fps più alti sempre. La mia preferenza va sempre agli fps prima ed ai dettagli poi.

no ma de che drako su, io avevo 2080 prima dell'upgrade, col cazzo che giochi a fps decenti a 1440p con una 2070 senza abbassare i dettagli a livello merda

Drako
19th April 2023, 09:29
C'ho la 2070s magica. Se metti il dlss giochi anche a cyberpunk senza problemi. Con dettagli medio/alti, ovviamente senza RT (me ne frega il giusto).

Ripeto, everspace 2 senza dlss dettagli alti media 85fps. Non sarà il gioco più esoso del mondo, ma è l'ultimo test concreto.

Ora tiro fuori cyberpunk e faccio qualche prova, ma con dlss viaggiavo più che dignitosamente senza rinunciare a troppi dettagli. Diciamo in generale un mix di medi e alti funziona. Se voglio tutto ultra ovviamente suko, ma dipende sempre da quello che ci si aspetta.

Dire che non si può giocare se non a dettagli merda è falso, a meno che mid/high lo si ritenga dettaglio merda. Ma a quel punto è un problema di percezione personale.

Io voglio saltare questa gen o eventualmente prenderla usata l'anno prossimo, perchè non prevedo di giocare a breve oltre i 1440p.

Galandil
19th April 2023, 19:58
Nell'intorno dei €650, le scelte atm sono 4070 e 6950XT.

Sono passati esattamente TRE giorni, e i prezzi sono cambiati in modo ridicolo, la 4070 non se la fila nessuno e la + economica è già scesa sotto i €610, la 6950XT invece dev'essere andata a ruba perché il prezzo più basso ora è di €730. E' tutto meraviglioso. :rotfl:

L'unica cosa positiva che ho notato nella fascia alta è che tutte e 3 le GPU sono scese di parecchio: 7900XTX a €1020, 4080 a €1200 e 4090 a €1600.
Dai, un altro paio di anni e forse i prezzi tornano umani. :sneer:

Tunnel
20th April 2023, 00:36
Bisogna continuare a non comprare

Hador
20th April 2023, 09:31
Bho analisi dei prezzi fatte così lasciano il tempo che trovano.
Ci sono modelli e marche che si sono svalutato, altri no. Se guardo in ch tipo la 4080 TUF si è abbassata tipo di 20 euro, mentre la XTX sempre TUF di più del 20%.
Però quelle che si sono abbassate erano molto sopra msrp, mentre quelle più vicine al prezzo di riferimento sono rimaste più o meno li.
Non penso cambierà molto fino alla prossima gen

finalyoko hellslayer
20th April 2023, 12:18
per abbassare i prezzi serve che Intel spinga maggiormente nel mercato.
Cmq la gamma mid level e/o full hd con alto refresh rate ha varie scelte in merito alle schede e senza spendere una fucilata.
il problema è la gamma "alta". In quel segmento Intel si deve ancora esprimere.
la A750 è una buona scheda, sicuramente pagano ancora Driver acerbi etc, ma stanno migliorando molto.

Drako
20th April 2023, 17:06
no ma de che drako su, io avevo 2080 prima dell'upgrade, col cazzo che giochi a fps decenti a 1440p con una 2070 senza abbassare i dettagli a livello merda


Benchmark con i vari depth of field, bloom, lens flare, etc DLSS quality e tutto high in preset

https://i.ibb.co/4W4fQxx/test-with-merda.png (https://ibb.co/jh35pFF)


Benchmark identico, ma dopo aver rimosso tutti gli effetti di cui sopra. Quindi sempre tutto high, DLSS quality.

https://i.ibb.co/GvnqJ0d/test-no-merda.png (https://ibb.co/QFp4cfJ)


Ingiocabile! :sneer:


Da notare quanto quegli effetti di merda impattino gli fps e, secondo me, siano solo fastidiosi/peggiorino il risultato.

Io direi che siamo ben lontani da dover mettere tutto a dettagli merda a 1440p. Sicuramente il prossimo anno cambio, ma non ho motivo (per quello che serve a me) di buttarmi su una generazione con costi folli. Già ho dovuto comprare alla donna una 6600xt ad un prezzo che nemmeno voglio ricordare :rotfl:

-=Rho=-
20th April 2023, 17:49
iL problema e' che non c'e' nessuna ragione per ciu la prossima gen debba scendere di prezzo e non salire invece :D

Drako
20th April 2023, 18:20
iL problema e' che non c'e' nessuna ragione per ciu la prossima gen debba scendere di prezzo e non salire invece :D

La mia idea era che scendesse questa in realtà, non penso di voler andare oltre 1440p per ora. Mi andrebbe benone una 7900xtx a buon prezzo ad esempio.

-=Rho=-
20th April 2023, 19:25
io anche volevo cambiare gpu questa gen , ma visti i prezzi folli e il fatto che la mia 2080s ancora tiene botta a 1440p aspetto .

ma sono conscio che la prossima gpu sara' attorno al millino o giu di li :D

Galandil
20th April 2023, 20:34
io anche volevo cambiare gpu questa gen , ma visti i prezzi folli e il fatto che la mia 2080s ancora tiene botta a 1440p aspetto .

ma sono conscio che la prossima gpu sara' attorno al millino o giu di li :D

Io non avessi avuto una vetusta RX580 con 4GB col cazzo che cambiavo a sto giro. Detto ciò, l'andamento attuale del mercato fa ben sperare, a parte il gruppetto di facinorosi :D che cambiano GPU ad ogni gen, il resto del pubblico s'è abbastanza rotto la minchia, e i prezzi stanno, seppur lentamente, scendendo. Come ho detto prima, il fatto di trovare le GPU di punta a prezzi sotto l'MSRP anche qui da noi povery in italia (per sotto l'MSRP intendo che sono inferiori all'MSRP cambiato in euro + l'IVA locale) è un ottimo segno.

Deve passare più che altro la fase di cambio GPU da parte della grande massa, che di suo di certo non compra il top di gamma, ma punta al middle/lower segment - una volta che una buona fetta di questi aggiornano la GPU, vedi poi come i prezzi saranno costretti a calare, se la domanda non è abbastanza, hanno poco da fare i fighi co sti prezzi.

Hador
21st April 2023, 08:52
Non mi pare ci sia un cambiamento epocale, la gente ha sempre cambiato gpu ogni 3-4 gen. Soprattutto ripeto oggi che dovendo i titoli girare anche su console, sono spesso abbastanza facili da fare girare.
Il problema è il 4k, ma se uno non gioca a 4k allora ha un sacco di margine.

Io comunque ho preso la 3080 venendo da una 1070. E i prezzi della serie 20x0 erano comunque già dei rip off rispetto sia a quelli delle 10x0 sia a quelli delle 30x0.

Galandil
24th April 2023, 23:20
Ingiocabile! :sneer:


*Oggettivamente ingiocabile (semicit.). :dumbnod:

Glorifindel
3rd June 2023, 10:54
Domanda:

1) Voi propendereste più per un setup così
https://it.pcpartpicker.com/list/zGNr3y

con 4080 e un monitor 4k-32" di media gamma


2) o per un setup così
https://it.pcpartpicker.com/list/9KRDDq

con 4070 ti e un monitor 2k-27" di medio-alta gamma, oled?

Dryden
3rd June 2023, 12:48
La 2 imo.
Andare su di risoluzione per me é overated, alla giusta distanza le differenze sono minime mentre la profondità dei neri fa la differenza.
Insomma preferirei un monitor top che mi tengo 10 anni, l'unico dubbio che ho è sulla bontà del prodotto. Sono i primo monitor Oled consumer che escono, non so quanto siano acerbi.

Glorifindel
3rd June 2023, 17:12
È proprio quello il punto, un monitor OLED non so quanto possa durare negli anni. Andrebbero visti dal vivo entrambi con la risoluzione nativa su. Tenete presente che il monitor ce l'ho a 1 m dalla faccia, più o meno. La stanza è mediamente illuminata, tengo giù le tende oscuranti di solito, quindi l'oled 27 ci potrebbe stare.

Hador
3rd June 2023, 18:15
Al netto di OLED vs non OLED, per giocare 2k è ancora oggi meglio se si vogliono alti frame rate senza tanti compromessi.
Però riconosco che il 32" (o più) è tanta robba

Galandil
3rd June 2023, 18:21
Un OLED (QD o W) ha senso solo se lo si usa il 90%+ del tempo per media consumption (video/film/serie) e gaming. E' ancora da evitare se si usa il monitor per "lavoro" (i.e. finestre fisse con un tempo di uptime elevato).

San Vegeta
5th June 2023, 10:15
Domanda:

1) Voi propendereste più per un setup così
https://it.pcpartpicker.com/list/zGNr3y

con 4080 e un monitor 4k-32" di media gamma


2) o per un setup così
https://it.pcpartpicker.com/list/9KRDDq

con 4070 ti e un monitor 2k-27" di medio-alta gamma, oled?

Se vedi il mio post, io ho preso un monitor gaming da 32 e 240Hz a 500€

Glorifindel
7th June 2023, 10:01
Se vedi il mio post, io ho preso un monitor gaming da 32 e 240Hz a 500€

ma intendi questo?
https://www.gigabyte.com/it/Monitor/AORUS-FI32Q-X/sp#sp

ci sarebbe un 240-280hz Dell-Alienware, ma da 27", che mi attira - prezzo 635,62 €:
https://www.dell.com/it-it/shop/monitor-per-gaming-alienware-27-aw2723df/apd/210-bfii/monitor-e-accessori#techspecs_section

HDR600
QHD 2560 x 1440 (DisplayPort(OC): 280 Hz
altrimenti 240 Hz normale DP

Pecche note: assenza del HDMI 2.1 (è 2.0 ma tanto al PC lo colleghi via DP) + neri slavati e light bleeding per via del pannello ips.

La tentazione invece sarebbe questo:
https://www.dell.com/it-it/shop/monitor-curvo-qd-oled-per-gaming-alienware-34-aw3423dwf/apd/210-bfrq/monitor-e-accessori

MONITOR CURVO QD-OLED PER GAMING ALIENWARE 34 - AW3423DWF

1.127,28 €

34.18"
3440 x 1440 (DisplayPort: 165 Hz)
QD-OLED

Credo che assieme al Samsung G8 Oled sia tra i migliori monitor QD-Oled sul mercato atm.

Deve uscire però il MSI 342c che è migliore sul HDR.
Credo esca a breve.

Ovviamente se spendessi il doppio dei soldi per farmi un Oled da gaming, terrei i due monitor Dell da 27" che attualmente uso come monitors per il pc da ufficio - text editing.
Sul nuovo monitor giocherei e vedrei solo film/you tube, mettendoci pure uno screen saver da 2 minuti lol
Ah i monitor DELL Oled hanno 3 anni di garanzia sul pannello, direttamente da Dell. Imho vince sul Samsung per questo motivo, anche se il Samsung è più bello esteticamente.

Confronto: https://www.rtings.com/monitor/tools/compare/dell-alienware-aw3423dwf-vs-samsung-odyssey-oled-g8-g85sb-s34bg85/35256/34904?usage=3623&threshold=0.10

Il Samsung costa anche un 100-150 euro in più, pur non dando la stessa garanzia. Meh

Drako
7th June 2023, 20:59
MONITOR CURVO QD-OLED PER GAMING ALIENWARE 34 - AW3423DWF

Ocio perchè soffre di burn in a quanto pare, se ci lavori anche un po' sopra rischi.

Samsung è la merda, se puoi evita come la peste.

Glorifindel
8th June 2023, 09:32
Ok, vi ascolto sugli oled. Ragionandoci sopra, anche solo pensare di giocare a Diablo IV con l'UI che è sempre lì presente, a lungo temo possa stampare l'immagine dell'interfaccia sull'oled.

Quindi avrei pensato ad una configurazione complessiva un pelo più ottimizzata, stando sul 2k ma a 240 hz - hdr 600 e su un IPS:

https://it.pcpartpicker.com/list/qvtWVw

Processore direi il 7700X perchè il 7800X3D non si può praticamente toccare in overclock e costa altri 160 euro in più che imho non mi danno un reale beneficio.

Scheda grafica dovrebbe bastare la 4070 ti, ho scelto una con pcb più contenuto come lunghezza (in confronto alle altre...)

Spesa totale siamo sui 3k euro che ci può stare, monitor 32" compreso.

L'acquisto avverrà verso il prossimo prime day, attorno al 12-13 luglio. Aspetto giusto per vedere se ci saranno sconti.

edit: ovviamente, non dovessi trovare il monitor LG della configurazione, potrei ripiegare su uno di questi: Gigabyte M32U o DELL G3223Q
Sono 4k e non vanno oltre 144hz ma appunto dipenderà dalle forniture al momento dell'ordine.

Tanto non devo giocare ad fps competitivi, che sia a 144hz o a 240+ non credo mi cambi la vita.

Galandil
8th June 2023, 18:29
Cioé, ti vuoi prendere una 4070Ti con BEN 12GB di VRAM a €913 invece di una 7900XTX per circa €100 di più? Per avere il DOPPIO della VRAM e poter giocare senza remore anche a 4k?

Also, il 7700X invece del 7800X3D se l'utilizzo primario del PC è gaming? Cosa c'entra l'overclock? Nessuno sano di mente si mette ad overclockare in modo "classico" un 7700X, non ha senso, si va di Curve Optimizer in undervolt, e il CO è attivo anche sul 7800X3D.

Io boh.

Glorifindel
8th June 2023, 18:55
1) non conosco un cazzo delle schede AMD di recente generazione. So che nvidia ha le sue tecnologie proprietarie e come dici te sta a 100 euro di meno.

2) il 7800X3D costa 165 euro in più del 7700X. Again, costo/beneficio ne vale la pena per il mio uso? Bho

Ho un mese di tempo per approfondire :nod:

Del resto se chiedo qui un motivo ci sarà...

Galandil
8th June 2023, 19:25
Non c'è nulla da aggiungere: per l'11% circa in più di prezzo, la XTX fa giri intorno alla 4070Ti. Ed ha 24GB di VRAM, che implica lo stare tranquillissimi per gli anni a venire. Nel 2023, 12GB dovrebbero essere il minimo sindacale per schede di fascia bassa da usare a 1080p, su una GPU che costa €900+ sono una truffa, punto.

Idem per quanto riguarda il 7800X3D: è *la* CPU per gaming, se non si hanno troppi problemi di budget (altrimenti il 5800X3D resta la scelta economica, anche se su AM4 quindi dead end relativamente ad upgrades futuri). E visto che stai spendendo 3k, arrivare a 3.25k non è tutto sto sforzo, non è una budget build.

L'unica tecnologia proprietaria di nVidia che manca ad AMD con un'utilità davvero pratica è Reflex, se proprio vogliamo essere onesti. A te, per giocare di CUDA/Optix, e compagnia cantante fotte esattamente zero. E considerando che il futuro prossimo sarà di quasi esclusiva di titoli fatti con UE5, che grazie a Lumen non ha quella differenza considerevole causata dal set RTX di istruzioni per l'RT di nVidia...

Rispetto ad una XTX a €1000-1050, una 4070Ti dovrebbe costare al MAX €750 per avere senso (e obv lo stesso vale per la 7900XT).

Glorifindel
16th June 2023, 16:59
Mi fate capire cosa cambia tra i chipset delle mobo AMD AM5 esattamente?
Se le schede grafiche sono Pci 4.0, cambia effettivamente qualcosa tra un X670 ed un X670E come chipset? Posso capire tra un B650 ed un X670 ma non so se i modelli "Extreme (E)" siano effettivamente utili usando periferiche non Pci ex 5.0 appunto.

https://www.amd.com/en/chipsets/am5

Sylent
16th June 2023, 17:42
Non c'è nulla da aggiungere: per l'11% circa in più di prezzo, la XTX fa giri intorno alla 4070Ti. Ed ha 24GB di VRAM, che implica lo stare tranquillissimi per gli anni a venire. Nel 2023, 12GB dovrebbero essere il minimo sindacale per schede di fascia bassa da usare a 1080p, su una GPU che costa €900+ sono una truffa, punto.

Idem per quanto riguarda il 7800X3D: è *la* CPU per gaming, se non si hanno troppi problemi di budget (altrimenti il 5800X3D resta la scelta economica, anche se su AM4 quindi dead end relativamente ad upgrades futuri). E visto che stai spendendo 3k, arrivare a 3.25k non è tutto sto sforzo, non è una budget build.

L'unica tecnologia proprietaria di nVidia che manca ad AMD con un'utilità davvero pratica è Reflex, se proprio vogliamo essere onesti. A te, per giocare di CUDA/Optix, e compagnia cantante fotte esattamente zero. E considerando che il futuro prossimo sarà di quasi esclusiva di titoli fatti con UE5, che grazie a Lumen non ha quella differenza considerevole causata dal set RTX di istruzioni per l'RT di nVidia...

Rispetto ad una XTX a €1000-1050, una 4070Ti dovrebbe costare al MAX €750 per avere senso (e obv lo stesso vale per la 7900XT).

Il problema è sempre che Nvidia ha il DLSS3 e compagnia bella e AMD no (ha le sue robe ma non sono all'altezza).
Se non interessano, AMD tutta la vita. Se si usano, allora Nvidia.

Galandil
16th June 2023, 19:41
Il problema è sempre che Nvidia ha il DLSS3 e compagnia bella e AMD no (ha le sue robe ma non sono all'altezza).
Se non interessano, AMD tutta la vita. Se si usano, allora Nvidia.

FREIMGEEEEEENNN!!! COUNTER GOES BRRRRRR!!!! :rotfl::rotfl::rotfl::rotfl::rotfl::rotfl::rotfl:: rotfl::rotfl::rotfl:

And latency, too. :sneer:

Glorifindel
16th June 2023, 20:24
Spero solo che non si fonda tutto come dicono qua...


https://youtu.be/kiTngvvD5dI

Galandil
16th June 2023, 21:18
Mi fate capire cosa cambia tra i chipset delle mobo AMD AM5 esattamente?
Se le schede grafiche sono Pci 4.0, cambia effettivamente qualcosa tra un X670 ed un X670E come chipset? Posso capire tra un B650 ed un X670 ma non so se i modelli "Extreme (E)" siano effettivamente utili usando periferiche non Pci ex 5.0 appunto.

https://www.amd.com/en/chipsets/am5

Posto che AMD qui ha pisciato fuori dal vasino e di chilometri con questa abominevole segmentazione dei chipset, le differenze non sono complesse.

1) X670 offre 12 lanes aggiuntive PCIe 4.0, B650 invece "solo" 8. Qui per aggiuntivo si intende "oltre quelle direttamente integrate nella CPU".
2) I modelli E vs non E hanno uno slot PCIe x16 5.0 invece che 4.0 (per schede video) e garantiscono che il primo slot NVMe sia 5.0 e non 4.0 (ma ci sono mobo non-E che cmq offrono l'NVMe 5.0, bisogna vedere le specs della mobo in questione).

That's it, e di conseguenza: per un PC da gaming l'X670 è assolutamente inutile, così come lo era il'X570 rispetto ai B650/550. Che sarebbe tutto molto interessante, se non ci fossero dei prezzi assolutamente randomici, e (almeno negli US) si finiscono per trovare mobo X670E a tipo $20 solamente in più rispetto alle B650E.
Also, anche avere una E non conta + di tanto, imo, visto che con la gen attuale di GPU un x16 4.0 *non* viene saturato neanche da una 4090. Probabilmente, e se tutto va bene, forse fra due gen di GPU vedremo un utilizzo del 5.0 con vantaggi rispetto al 4.0.

A riguardo dei Ryzen esplosi: Asus merda, aggiorna BIOS prima di installare la CPU, ggwpkktnxbai.

Glorifindel
16th June 2023, 22:03
Sui prezzi concordo, infatti chiedevo perché a parte le B650 normali, le B650E e le X670 costano simili ad alcune mobo X670E. E infatti finora ho sempre messo la MSI Tomahawk X670E come scheda madre nei preventivi che sto facendo, ma mi sembra overkill.

Galandil
16th June 2023, 22:26
Sui prezzi concordo, infatti chiedevo perché a parte le B650 normali, le B650E e le X670 costano simili ad alcune mobo X670E. E infatti finora ho sempre messo la MSI Tomahawk X670E come scheda madre nei preventivi che sto facendo, ma mi sembra overkill.

A luglio dovrebbe uscire la Asrock B650E Taichi Lite, che è come la Taichi B650E, ma senza tutta lammerda RGB/profilini gheimers del cazzo, e dovrebbe costare circa un $100 in meno solo per quello. Però per le mobo AM5 conviene sempre guardarsi/leggersi review dei singoli modelli, in funzione di quel di cui si ha bisogno (nel tuo caso: la base più base, che regga senza problemi DDR6000 con profilo EXPO, un VRM decente e fine, tanto non andrai mai a montare più di due SSD in tutta la tua vita).

Galandil
17th June 2023, 21:52
Cmq, tanto per ricordare che pacco di merda sia la 4070Ti (again: valutazione valida solo al prezzo attuale) rispetto alla 7900XTX:


https://www.youtube.com/watch?v=N-FMPbm5CNM


https://www.youtube.com/watch?v=1mE5aveN4Bo

Coi prezzi attuali, pagando il 12% circa in più per la GPU, la 7900XTX offre:

- +19% su average e low 1% FPS a 1440p
- +30% su average e low 1% FPS a 4k
- Prestazioni in RT estremamente simili, con l'unico outlier il solito Cyberpunk paid by nVidia™, che non se l'incula nessuno a parte i binbiminkia visto che il Red Engine è EOL (CDPR per i prossimi titoli userà UE5)
- 24GB vs 12GB di VRAM: non solo la XTX è *mostruosamente* future proof con tutta quella VRAM, ma già si vedono le differenze coi titoli più recenti usciti recentemente (l'ultimo in ordine temporale è Diablo 4 con le textures ad Ultra), 12GB è una quantità di VRAM che dovrebbe essere montata solo su GPU <€300
- Una suite software che caga in testa a quel ciarpame che è lo stack di nVidia: tutto in uno con Adrenalin (settings, tweakings, tuning, streaming/recording) e senza richiedere un account, settanta app diverse e ferme mentalmente a metà degli anni 2000 (drivers + experience + profile inspector/afterburner) e account richiesto per nVidia

Vantaggi della 4070Ti:
- Reflex (e sticazzi visto che a 4k fai +30% di average/1% lows :rotfl: )
- FREIMGIEN (che: funziona meglio già ad fps alti e peggio ad fps bassi, concettualmente all'opposto dello use case ideale; aumenta, da poco a parecchio, l'input latency, again all'opposto dello use case principale che è *giocare* e non guardare un video, va bene giusto per MS Flight Simulator e i walking sims :sneer: )

A rivedere quei numeri in quei due video (ma obv ce ne sono inf altri di video con benchmarks anche su altri giochi), ricordavo che la 4080 12G... ehm, la 4070Ti fosse una cagata, ma *non* a sti livelli. :sneer:

Detto in termini semplici: se uno si prende una 4070Ti intorno ai €900 rispetto ad una 7900XTX intorno ai €1000, è un top ritardato. :confused:

Glorifindel
18th June 2023, 09:21
Oramai la scelta si sta spostando tra 7900 XTX a 1150-1250 euro (riferimento al modello Sapphire Pulse / Nitro) oppure rtx 4080 a 1250-1300 euro (riferimento al modello PNY Verto base / XLR8 OC). I due canali da cui dovrei comprare i componenti hanno questi prezzi finali qua.

Con la 4080 è già più in pari la questione. Vedrò il 10-12 luglio quali sono i prezzi finali tra Prime Day ed assestamenti di mercato.

Galandil
18th June 2023, 18:04
Oramai la scelta si sta spostando tra 7900 XTX a 1150-1250 euro (riferimento al modello Sapphire Pulse / Nitro) oppure rtx 4080 a 1250-1300 euro (riferimento al modello PNY Verto base / XLR8 OC). I due canali da cui dovrei comprare i componenti hanno questi prezzi finali qua.

Con la 4080 è già più in pari la questione. Vedrò il 10-12 luglio quali sono i prezzi finali tra Prime Day ed assestamenti di mercato.

Scusa eh, ma che senso ha? Proprio oggi se dai n'occhiata a trovaprezzi, la Pulse è addirittura scesa sotto i 1000 (la trovi a €980/990), la Nitro Vapor-X a €1100 - per quale motivo vorresti andare a pagare lo *stesso* prodotto €150 di più?

Galandil
18th June 2023, 18:54
E approposito di REITRESING ed nVidia vs AMD: avevo detto qualche post fa che con la GI (Global Illumination) di Lumen (UE5) le differenze non sono così marcate, anzi. E per ora, grazie ai primi due titoli UE5 (Fortnite escluso) usciti in questi giorni, i fatti mi cosano.

Satisfactory aggiornato ad UE5: https://gamegpu.com/rpg/%D1%80%D0%BE%D0%BB%D0%B5%D0%B2%D1%8B%D0%B5/satisfactory-test-gpu-cpu
1440p: 4080 58/49 - XTX 53/46
4k: 4080 28/25 - XTX 28/23
Also, notare la differenza fra 4090 e XTX, che mostra la 4090 più veloce del 57% sia in average sia in min a 4k (utile per estrapolare info a riguardo del gioco successivo).

Layers of Fear: https://www.dsogaming.com/pc-performance-analyses/layers-of-fear-pc-performance-analysis/
Qui purtroppo nei test non hanno incorporato la 4080, ma solo 4090 e XTX, ma si può vedere che con tutto maxato (ergo Lumen attivo), la differenza fra 4090 e XTX è la stessa per average e min, 57%, quindi si può ragionevolmente supporre che la differenza fra XTX e 4080 sia estremamente marginale come nel caso di Satisfactory, se non del tutto inesistente.

+€200 per una 4080 -> nonsense. Poi, come sempre, fate come vi pare.

Hador
19th June 2023, 15:09
Mai comprare hw per del software che non esiste ancora, regola numero uno proprio.

Galandil
19th June 2023, 17:59
Mai comprare hw per del software che non esiste ancora, regola numero uno proprio.

Regola prima della numero uno: non parlare se non si sa di cosa si stia parlando (UE5/Lumen, manda una mail ad Epic ricordandogli che non esistono). :rotfl:

Hador
20th June 2023, 07:56
Ray tracing stesso esiste da quanti anni? E quanti sono i giochi per i quali fa la differenza? 5?
Poi oh se uno gioca solo a satisfactory sicuro :sneer:

Farsi le seghe su quanti titoli useranno l'implementazione ue5 nei prossimi anni sono, appunto, seghe

Drako
20th June 2023, 09:17
L'unreal engine sarà sicuramente usato in maniera estensiva, come tutti gli unreal engine...

Hador
20th June 2023, 10:51
L'unreal engine sarà sicuramente usato in maniera estensiva, come tutti gli unreal engine...
E quindi?
Farsi le seghe su quali titoli in futuro useranno questa o quella implementazione di ray tracing sono seghe. Le estensioni per rtx (per gli stessi ue engine) esistono da anni e i giochi che le usano in maniera rilevante sono comunque pochi.

A parte il solito fanboysmo di Gala il discorso rimane semplice: la XTX (da confrontarsi ad una 4080), resta un prodotto migliore, a patto di accettare di non riuscire a giocare ad alcuni titoli RT (performance ugualih. Fa tipo 20 fps in portal rtx). Personalmente, 1k di scheda per non riuscire a giocare a TUTTO mi farebbe incazzare, ma li uno deve vedere cosa preferisce

Drako
20th June 2023, 11:52
Ma perchè te la scheda la compri oggi per tenerla due giorni? Ovvio che un minimo di ragionamento sui titoli e sulle performance futuri li devi fare.

Personalmente non mi frega un ciufono dell'RT, quindi avrei vita facile. Io sta gen la sto saltando a piè pari in ogni caso, mi sembra la guerra degli scemi.

Glorifindel
20th June 2023, 12:14
Io vengo da un i7 4790k e una gtx970, pc assemblato nell'agosto 2015. Se non fossi in seria difficoltà a far girare tipo tutto aspetterei un altro anno, ma non è proponibile nel mio caso.

La Sapphire 7900 XTX l'ho trovata a meno di 1k da uno shop da cui in passato ho acquistato, in teoria sono seri (BPM Power, sempre ricevuto la merce e nessun problema).
Hanno pure le RTX 4090 a partire da 1590 euro... e non nascondo che sono tentato. Ma appunto bisogna ragionarci su bene; come dice Gala, AMD ha messo sul piatto una combo eccellente per il gaming, tra cpu Ryzen 7 7800X3D e la gpu 7900XTX.
Razionalmente fare un pc full AMD dovrebbe essere la scelta logica se si guardasse al rapporto prezzo/prestazioni, con buona pace del RTX sopra i 2k (fino a 2k ancora ancora il raytracing reggicchia anche sulle gpu AMD, ma io vorrei puntare ad un monitor 4k - 32", piuttosto che ad un 2k - 27" di cui è pieno il mercato).

La 4080 a 2-300 euro in più della 7900 XTX non ha senso; tanto varrebbe puntare direttamente alla 4090 da 1600.

Nvidia deve scendere con il prezzo della 4080, altrimenti AMD è la scelta più sensata prezzo/prestazioni per pc medio-alti; rimane giusto la 4090 per gli enthusiast, dove il prezzo non è più di tanto un problema (per quanto ripeto, +600 euro puliti dalla 7900XTX alla 4090, sticazzi; per quel prezzo mi deve garantire almeno +50% di prestazioni dalla massima scheda di AMD, nel 90% dei titoli; non credo lo faccia).


https://www.youtube.com/watch?v=lDwSUlBQglw

Drako
20th June 2023, 14:44
La 4090 è solo per chi ha da bruciare soldi e/o vuole la velocità smodata.

Il tier MILLE! al momento è della 7900 XTX

Se poi vuoi giocare a 1440p va più che bene.

Hador
20th June 2023, 17:38
Ma perchè te la scheda la compri oggi per tenerla due giorni? Ovvio che un minimo di ragionamento sui titoli e sulle performance futuri li devi fare.

Personalmente non mi frega un ciufono dell'RT, quindi avrei vita facile. Io sta gen la sto saltando a piè pari in ogni caso, mi sembra la guerra degli scemi.
Dillo a chi si comprò 30k di Mac Pro sperando in un supporto software che non è mai arrivato :sneer:

Puoi ragionare quel che vuoi ma il punto è che sono seghe mentali, non hai modo di prevedere il futuro, meglio attenersi al presente. Sa il cazzo che le soluzioni RT software saranno predominanti rispetto a quelle hardware, e se in generale RT sarà usato. Perché ad oggi le implementazioni più interessanti di RT, quelle dove fa la differenza, sono cyberpunk e le versioni RT dei vecchi giochi (e Minecraft ma qua abbiamo ottocento anni chi cazzo gioca a Minecraft) (e Control che, diciamocelo, se non lo giochi non ti perdi nulla). Oggettivamente poca roba. Ma se ad uno interessa, attualmente prerogativa Nvidia.
Tutto qua, il resto sono cagate. Poi per 150 euro di differenza su 3000, non ha gran senso farsi venire il sangue alla testa.

Ma il punto da tenere conto è che soprattutto a 2k tutte le schede da 1k euro hanno prestazioni simili. Se non sei un pro che vuole 400fps, tra fare 140 e 144 fps non ti cambia una sega.
Nei titoli RT invece parliamo di 60fsp vs ingiocabile. Questa è l'unica cosa da considerare.
Io non so cosa comprerei oggi, ma all'atto pratico non mi pare così no brain come scelta.

Glorifindel
20th June 2023, 22:20
Non mi pare cambi granché come prezzi btw


https://youtu.be/gb49lnHpKiE

Galandil
20th June 2023, 23:30
Dillo a chi si comprò 30k di Mac Pro sperando in un supporto software che non è mai arrivato :sneer:

Puoi ragionare quel che vuoi ma il punto è che sono seghe mentali, non hai modo di prevedere il futuro, meglio attenersi al presente. Sa il cazzo che le soluzioni RT software saranno predominanti rispetto a quelle hardware, e se in generale RT sarà usato. Perché ad oggi le implementazioni più interessanti di RT, quelle dove fa la differenza, sono cyberpunk e le versioni RT dei vecchi giochi (e Minecraft ma qua abbiamo ottocento anni chi cazzo gioca a Minecraft) (e Control che, diciamocelo, se non lo giochi non ti perdi nulla). Oggettivamente poca roba. Ma se ad uno interessa, attualmente prerogativa Nvidia.
Tutto qua, il resto sono cagate. Poi per 150 euro di differenza su 3000, non ha gran senso farsi venire il sangue alla testa.

Ma il punto da tenere conto è che soprattutto a 2k tutte le schede da 1k euro hanno prestazioni simili. Se non sei un pro che vuole 400fps, tra fare 140 e 144 fps non ti cambia una sega.
Nei titoli RT invece parliamo di 60fsp vs ingiocabile. Questa è l'unica cosa da considerare.
Io non so cosa comprerei oggi, ma all'atto pratico non mi pare così no brain come scelta.

"Le implementazioni più interessanti". Deciso da Hodor. :rotfl:

Lumen è RTGI, a differenza della pezzotta dell'RTX. Se non capisci la differenza sostanziale fra le due, è un problema tuo. Non che tu non ne abbia eh, però magari qualcuno levatelo che ti fa solo del bene.

Poi vabbé, il "60fps vs ingiocabile" fa molto "con la 2070 super non giochi a cyberpunk high che ti fa solo 3,14 fps". I deliri proprio. L'unico titolo con RT attivo che ha una differenza mostruosa fra nVidia e AMD è, indovina un po'? Cyberpunk. Red Engine. Defunto. Chisselincula a parte i piccoli goblin. :rotfl:

RTX di nVidia farà la fine di Physix. Very smart pagare il 20% in più per fare in media il 15-20% in più sull'RT e stare dietro in raster sul 100% dei titoli. PERO' CYBERPUNK!

Galandil
21st June 2023, 00:01
Ray tracing stesso esiste da quanti anni? E quanti sono i giochi per i quali fa la differenza? 5?
Poi oh se uno gioca solo a satisfactory sicuro :sneer:

Farsi le seghe su quanti titoli useranno l'implementazione ue5 nei prossimi anni sono, appunto, seghe

Aspé, mi ero perso sta perla. Tu ora vuoi sostenere, qui e pubblicamente, che siccome RTX in 5+ anni è stato implementato in una manciata di titoli, con successi alterni, allora anche l'utilizzo di *fucking Unreal Engine 5* non è assicurato nella sfera AAA (e in parte AA o anche indie)? Ma tu lo sai che peso ha UE5 come motore, si? Vatti a vedere i titoli usciti negli ultimi anni, e dimmi *quanti* usano UE4. Obv secondo Hador ora tutti impazziscono e decidono di scriversi l'engine in house e fanculo UE5. Come no. Sisi. Certo certo.

"Useranno l'implementazione di UE5" - non è *se* useranno, Lumen è attivabile o meno con un flick, e mo secondo te qualsiasi studio AAA che sta atm sviluppando un titolo in UE5 non ne prevede l'utilizzo? Tenendo i dettagli grafici disponibili massimo a Medium? Ma che ti stai fumando?

Se proprio, UE5 avrà un impatto ancora + grande di UE4, perché ormai i costi di sviluppo sono talmente alti che solo pochissimi possono permettersi di tirare su l'engine da zero, soprattutto considerando che cosa si sono inventati ad Epic fra Lumen e Nanite (che tra l'altro, a ben vedere, Nanite è ancora più importante come feature di Lumen).

Hador
21st June 2023, 08:45
Io sostengo che fare previsioni è farsi le seghe, dato che le previsioni in questo contesto sono spesso cannate, sostengo che 990 euro vs 1150 su 3k di spesa siano una differenza trascurabile quantomeno per l'utenza media qua dentro (e glor soprattutto), e che la differenza in termini di performance su raster siano nella forbice del chissenefrega dato che parliamo di pochi fps in più su frame rate alti.
Poi, te sei fanboy e devi giustificare la spesa, abbiamo capito.

In ultima istanza si sta parlando di che gpu prendere per giocare al PC, non si capisce perché bisogna scaldarsi tanto.

Se vuoi portare avanti la tua crociata contro Nvidia che ti sta in culo auguri ma non sei un po' grande per ste cose? Mi sembri quelli che litigano su che tipo di auto uno guida.

Poi a vedere il valore delle azioni Nvidia sta proprio piangendo :sneer:

Drako
21st June 2023, 09:02
Io sostengo che fare previsioni è farsi le seghe, dato che le previsioni in questo contesto sono spesso cannate, sostengo che 990 euro vs 1150 su 3k di spesa siano una differenza trascurabile quantomeno per l'utenza media qua dentro (e glor soprattutto), e che la differenza in termini di performance su raster siano nella forbice del chissenefrega dato che parliamo di pochi fps in più su frame rate alti.
Poi, te sei fanboy e devi giustificare la spesa, abbiamo capito.

In ultima istanza si sta parlando di che gpu prendere per giocare al PC, non si capisce perché bisogna scaldarsi tanto.

Se vuoi portare avanti la tua crociata contro Nvidia che ti sta in culo auguri ma non sei un po' grande per ste cose? Mi sembri quelli che litigano su che tipo di auto uno guida.

Poi a vedere il valore delle azioni Nvidia sta proprio piangendo :sneer:

Giusto per capire visto che non ho voglia di andare a cercarmelo. Tu sostieni sia meglio prendere una 4080 rispetto ad una 7900xtx per via del fatto che la differenza a favore dell'AMD è trascurabile rispetto al possibile vantaggio con RT?

Hador
21st June 2023, 09:44
Giusto per capire visto che non ho voglia di andare a cercarmelo. Tu sostieni sia meglio prendere una 4080 rispetto ad una 7900xtx per via del fatto che la differenza a favore dell'AMD è trascurabile rispetto al possibile vantaggio con RT?
Non saprei cosa comprerei, la XTX è sicuramente un prodotto migliore sulla carta, ma all'atto pratico la differenza di performance e di prezzo è trascurabile, ed è ancora indietro su RT e supersamoling. Comprando una 4080 fai tutte le cose che fai con una XTX, non hai uno svantaggio tangibile. Mentre con una XTX se vuoi provare portal RTX fai 20 fps avendo pagato 1k di scheda.
Ne faccio un discorso di utilizzo pratico, non di benchmark.

Il mio consiglio è quindi aperto: se uno non ha interesse a RT, vuole limare 100 euro e in generale comprare un prodotto meno scam, vada di XTX. Se uno vuole essere sicuro di poter fare *tutto*, di 4080.

Gala si prodiga per dire che se compri Nvidia sei demente, a me il tutto pare molto più sfumato. Da utilizzatore, ripeto, non nei test sintetici

Altro esempio di differenza tangibile, io sono passato da un 3900x ad un 5800x3d.
Sulla carta grande improvement di performance. All'atto pratico cambia una sega, faccio 80fps invece che 75. Non è un upgrade che consiglierei (lo ho rubato in ufficio per questo lo ho cambiato :sneer: )

Zaider
21st June 2023, 10:14
io penso che l'XTX sia il classico acquisto intelligente se uno sa cosa sta facendo ed e' pronto ad alcuni compromessi ed a "smanettarci" un po' di più (o almeno a studiare).

personalmente faccio parte degli "idioti" che si e' comprato una 3090 a gennaio 2021, ci gioco ancora da Dio ovunque, non ho MAI avuto un problema, ormai nemmeno mi guardo i setting dei giochi, Nvidia experience lo fa per me. Mi uso DLSS come e quando voglio (tolta quella nuova per le gpu 4xxx), tornando al tema centrale. 100 euro per peace of mind secondo me son spesi benissimo.

Nonostante abbia pagato la scheda ad un premium perche' era un momentaccio, non ho mai ripensato alla scelta. la mia esperienza e' stata ottima e quando sarà' il momento comprerò una 4080ti o una 4090 e continuerò il ciclo.

Glorifindel
24th June 2023, 18:38
Come monitor secondo voi meglio:

Cooler Master Tempest GP27Q con pannello 27" ips miniled 2560 x 1440 - 165HZ e true HDR1000, con full array e 576 dimming zones distinte, per neri migliorati.
https://www.coolermaster.com/catalog/setup/monitors/tempest-gp27q/

Recensione:
https://tftcentral.co.uk/reviews/cooler-master-tempest-gp27q

trovato da un fornitore a cui mi sono rivolto in passato per i monitor ad euro 616,35.

oppure

DELL G3223Q con pannello 32" ips led 3840 x 2160 - 144 HZ ed HDR600 (ma niente backlight strobing / dimming zones distinte, credo usi il solito backlit panel), quindi con scene al buio imperfette e neri soggetti a light bleed.
https://www.dell.com/it-it/shop/monitor-per-il-gaming-4k-uhd-dell-32-g3223q/apd/210-bdxs/monitor-e-accessori

Recensione:
https://www.rtings.com/monitor/reviews/dell/g3223q

comprato direttamente da DELL a 778,36 euro.


Come budget non vorrei superare gli 800 euro, visto che siamo probabilmente all'alba di un cambiamento tecnologico per i monitor da pc ips con l'arrivo dei miniled, degli oled ecc.
Ci sarebbe anche la versione da quasi 1000 euro del Cooler Master Tempest, il GP27U, che ha un pannello 4k ma è sempre 27":
https://www.rtings.com/monitor/reviews/cooler-master/tempest-gp27u

Imho è più sensata la versione 2k per circa 380 euro in meno, trattandosi di un 27". O dite che si notano i 4k vs 2k su un 27"?

Galandil
24th June 2023, 21:55
Come monitor secondo voi meglio:

Cooler Master Tempest GP27Q con pannello 27" ips miniled 2560 x 1440 - 165HZ e true HDR1000, con full array e 576 dimming zones distinte, per neri migliorati.
https://www.coolermaster.com/catalog/setup/monitors/tempest-gp27q/

Recensione:
https://tftcentral.co.uk/reviews/cooler-master-tempest-gp27q

trovato da un fornitore a cui mi sono rivolto in passato per i monitor ad euro 616,35.

oppure

DELL G3223Q con pannello 32" ips led 3840 x 2160 - 144 HZ ed HDR600 (ma niente backlight strobing / dimming zones distinte, credo usi il solito backlit panel), quindi con scene al buio imperfette e neri soggetti a light bleed.
https://www.dell.com/it-it/shop/monitor-per-il-gaming-4k-uhd-dell-32-g3223q/apd/210-bdxs/monitor-e-accessori

Recensione:
https://www.rtings.com/monitor/reviews/dell/g3223q

comprato direttamente da DELL a 778,36 euro.


Come budget non vorrei superare gli 800 euro, visto che siamo probabilmente all'alba di un cambiamento tecnologico per i monitor da pc ips con l'arrivo dei miniled, degli oled ecc.
Ci sarebbe anche la versione da quasi 1000 euro del Cooler Master Tempest, il GP27U, che ha un pannello 4k ma è sempre 27":
https://www.rtings.com/monitor/reviews/cooler-master/tempest-gp27u

Imho è più sensata la versione 2k per circa 380 euro in meno, trattandosi di un 27". O dite che si notano i 4k vs 2k su un 27"?

In realtà non siamo all'alba, siamo già nel bel mezzo del pomeriggio eh.

E non è un bel pomeriggio per l'uso "misto". Eviterei come la peste un W/QD OLED come monitor da PC, perché il burn-in è dietro l'angolo, e mi sentirei "tranquillo" se usassi il monitor per gaming/media più del 90% del suo tempo di utilizzo totale - cosa francamente e potentemente rara.
La vera tech "del futuro" è il MicroLED, ma siamo lontanissimi da una commercializzazione a prezzi umani (i.e. ora mi pare che l'unico modello retail sia un televisore Samsung da parete da 110" al prezzo di $150k :sneer: ).

Quindi non ci restano che gli LCD. Per un uso misto e che non richieda una precisione dei colori pazzesca (per cui la scelta migliore cadrebbe sui migliori IPS), il VA di Samsung è atm la scelta migliore: contrasto che tutti gli altri LCD si sognano, estremamente rapido nella risposta (sempre limitatamente agli LCD). Il problema è che ci sono ben pochi modelli che lo usano, sostanzialmente solo i Samsung Odyssey.

A peggiorare il problema, c'è il fatto che o prendi il Neo G9 (32:9 di AR), o ti restano i Neo G8/G7, entrambi classici 16:9, non mi pare esista un Odyssey con AR di 21:9. E tutti e 3 hanno i loro quirk condivisi (in particolare, un possibile problema in alcune situazioni con scanlines visibili a 240Hz, lo so perché a volte mi sono capitate anche sul G9 non Neo che ho io, posto che mi sarà capitato di vederle per un totale di 20-30 secondi da quando ho il monitor, quindi parliamo di un annetto e mezzo).

Quindi alla fine, imo, fra i 3 il più sensato resta il Neo G9, posto di avere a) spazio a disposizione e b) il budget per prenderlo. Ma è un budget ben speso, visto che non ti vai a cambiare il monitor fra 2-3 anni perché la VRAM non ti basta. :confused:

Per altri monitor, ti suggerisco ovviamente di cercare in giro recensioni (RTings, HW Unboxed, ecc.) che ne elenchino i pro e i contro. Evita in partenza però di perdere tempo su monitor che si dichiarino HDR con una peak brightness inferiore a 1000: non è HDR, è na truffa in quel caso. Per fare un confronto con il primo modello che hai postato, il Neo G9 ha 2048 dimming zones su un'area doppia rispetto al Cooler Master - il 77% in più a parità di superficie. Il Neo G9 è un VA MiniLED btw.

Per me resta il second best in termini di HDR/qualità/refresh rate/input lag dopo un monitor W/QD OLED, ma personalmente come già detto gli OLED li skipperei perché il rischio burn-in quando usato come monitor è dietro l'angolo.
Gli unici due fastidi sono in sostanza lo spazio che occupa (è fucking huge) e il prezzo (minimo per ora lo si trova intorno ai €1550), però questa è davvero quel tipo di spesa che fai oggi e non fai più per almeno 7-8 anni, quando *forse* i MicroLED saranno una realtà.
Ah si, anche il fatto che è Samsung, e Samsung è notoriamente una ditta di merda quando si tratta di customer care.

Posso sostenere soggettivamente che, dopo questo anno e mezzo di utilizzo del G9, avere un "doppio monitor 27" in uno" senza soluzione di continuità fra i bevel al centro mi fa sembrare di avere i paraocchi ai lati ogni volta che mi tocca guardare lo schermo di uno degli altri 2 PC di casa (entrambi con un classico 16:9 come AR). La curvatura R1000 su questo AR è secondo me perfetta, anche se alcuni la trovano troppo spinta. Peccato che sia Samsung. :sneer:

Glorifindel
25th June 2023, 08:05
https://youtu.be/rsCn8GvgKxE

La guida definitiva. Mi sta incuriosendo molto il Neo G7 anche se non mi piace particolarmente la curvatura 1000R, ma tenendolo vicino per essere un 32” potrebbe anche starci. Inoltre come dicevi tu Samsung con la serie neo atm ha il hdr migliore, grazie ai suoi pannelli VA. I Cooler Master vengono ahimè distruttti da problemi rilevanti al firmware, pare.

Samsung Odyssey Neo G7 (cappa il budget) - 1060 euro c.a.
https://www.sferaufficio.com/articolo/samsung-odyssey-neo-g7-monitor-gaming-da-32-uhd-curvo/W34632648

Quindi o questo 32 o un buon 27 senza pretendere hdr ma magari 240hz, se voglio stare più basso di prezzo e spec, tipo il Gigabyte M27Q X che sta a circa metà prezzo del 32 Samsung.

Galandil
25th June 2023, 18:45
https://youtu.be/rsCn8GvgKxE

La guida definitiva. Mi sta incuriosendo molto il Neo G7 anche se non mi piace particolarmente la curvatura 1000R, ma tenendolo vicino per essere un 32” potrebbe anche starci. Inoltre come dicevi tu Samsung con la serie neo atm ha il hdr migliore, grazie ai suoi pannelli VA. I Cooler Master vengono ahimè distruttti da problemi rilevanti al firmware, pare.

Samsung Odyssey Neo G7 (cappa il budget) - 1060 euro c.a.
https://www.sferaufficio.com/articolo/samsung-odyssey-neo-g7-monitor-gaming-da-32-uhd-curvo/W34632648

Quindi o questo 32 o un buon 27 senza pretendere hdr ma magari 240hz, se voglio stare più basso di prezzo e spec, tipo il Gigabyte M27Q X che sta a circa metà prezzo del 32 Samsung.

Boh, secondo me non ha molto senso prendersi oggi un monitor nuovo, spendere cmq almeno 500-600 e skippare l'HDR. Ho sempre visto il monitor come l'acquisto/investimento + a lungo termine di un intero PC, deve durare *almeno* 7-8 anni sennò non vale la pena cambiarselo invece di risparmiare ancora un po' per prendersi un modello migliore aspettando qualche mese.

Francamente il G7 a €1000 e rotti non ha senso rispetto al G9 intorno ai €1500, non solo per una questione di dimensione doppia del G9 ma anche per una questione che il monitor curvo per me ha senso (in quanto proprio necessario) su minimo un ultrawide 21:9 (o super ultrawide come il 32:9). Se hai 1k da poter spendere sul monitor, ma non 1.5k, a sto punto fai inf meglio ad aspettare, tenerti quel millino e mettere da parte i €500 circa rimanenti un po' alla volta per puntare al G9, poi preso quello stai a posto anni e anni a venire, senza compromessi di sorta, e senza stare a sclerare su setup con monitor multipli. Ho avuto per anni il setup a doppio e poi triplo monitor, ora con il G9 ho necessità davvero pari a zero di avere un altro monitor affiancato.

Fun fact: quest'anno dovrebbe uscire il nuovo Neo G9, uguale al precedente, ma con risoluzione verticale 2160p (in pratica è un doppio monitor 4k) - utile quanto una badilata sulle gengive visto che pure una 4090 imploderebbe per far girare qualsiasi gioco a 7680x2160. :sneer:
Però potrebbe essere un'occasione da attendere, visto che o lo prezzano a cifre imbarazzanti (tipo 3k) o lo tengono un po' più basso per riuscire a muoverne un tot e a quel punto il Neo G9 attuale scende di qualcosa.

In sostanza ti sto dicendo: non avere fretta nel cambiare il monitor, se lo prendi nuovo oggi per me i requisiti minimi devono essere
- 1440p minimo di risoluzione verticale
- Almeno 21:9 di AR
- HDR1000
- 240Hz
- Contrasto come si deve

limitando atm la scelta fra un Samsung VA o un OLED. E ti assicuro che mi girano tantissimo i coglioni a dire una cosa del genere, visto il mio odio intensissimo verso Samsung come azienda (vedi i casini dei primi G9 che cadevano letteralmente a pezzi, customer care demmerda, ecc.).

Glorifindel
25th June 2023, 21:40
L'unico monitor true hdr1000 da 600 euro che potrei comprare ora per sfruttare un minimo il nuovo hardware sarebbe il Cooler Master Tempest GP27Q. 27", 2k, 165 hz miniled quantum dot ips con la metà delle zone dimmerabili dei VA samsung ma per quel pannello pare basti. Contrasto davvero notevole una volta calibrato.
Nella sua fascia di prezzo non si trova niente di simile (considerando poi che è flat ed ips).

Avendo già due ips 27" 1080p della Dell uso ufficio, potrei tenerne uno come 2nd screen per mail/browsing e prendere il GP27Q come main monitor, aggiornargli il fantomatico firmware che nel frattempo pare sia stato fixato da CM, e tirare fino all'acquisto di qualcosa di più grosso semmai dovesse servirmi più avanti.

Peraltro con un 2k non dovrei avere grossi problemi con RT attivo (quelle tre/quattro volte che lo volessi attivare) neppure con la 7900XTX :sneer: e quindi potrei pure skippare nvidia a sto giro, che sarebbero altri 200 euro risparmiati.

edit:

ho visto due dati di confronto per quanto riguarda le dimensioni dei pannelli da qui http://www.displaywars.com/27-inch-16x9-vs-49-inch-d%7B32x9%7D

in pratica 49" 32:9 (il Neo G9) equivale ai 2 monitor da 27" che già uso affiancati, ma frameless, su un unico pannello (ovviamente con un pannello molto migliore, certamente).
Quindi come soluzione di ripiego, quella del GP27Q + altro 27" muletto a destra non sarebbe poi tanto male... certo ci sarebbero compromessi ma alla fine a) l'area di gioco utile mi va benissimo sia su uno solo dei due 27", b) posso ruotare il secondo monitor muletto 27" in verticale per quando devo lavorare e mi serve scorrere contenuto in verticale.

Con un 32" dovrei sicuramente stravolgere tutta l'impostazione della scrivania e metterci altri 200 euro almeno per un monitor senza neppure un hdr1000 (in realtà anche 400+ euro per raggiungere il Neo G7 o l'Alienware Oled a 1100 euro, in caso volessi osare il 34" 21:9 + 27" in verticale...).

Vista la mia situazione il Cooler Master 27" potrebbe essere una valida soluzione di "passaggio".

Glorifindel
25th June 2023, 23:25
Certo che il Samsung Neo G7 fa la sua porca figura in hdr. Peccato la curvatura 1000R, imho 1500R andava già meglio. È davvero aggressiva e probabilmente è la cosa che mi trattiene di più dall’acquisto. Vediamo se al prime day va in offerta btw… sai mai…


https://youtu.be/4qMIba40v7A

Glorifindel
26th June 2023, 16:25
Oh Gala, tu che sai tutto di sto mondo, non è che sai pure perchè se cerco il Samsung Odyssey Neo G7 ne trovo spesso due versioni?
Una LS32BG750NPXEN
e l'altra LS32BG750NUXEN

Da quanto ho capito, incrociando i dati con Amazon, pare che il primo sia il modello 2023 ed il secondo il modello 2022.
Ma che cambia? Solo il firmware o hanno risolto qualcosaltro?

Perchè se è solo il firmware uno può aggiornarlo credo, se hanno cambiato dell'hardware per problemi, meglio spendere i 100 euro in più del 2023 immagino.

Drako
26th June 2023, 17:06
Sappi che con Samsung spari nel buio. Se hai problemi sono cazzi amari, augurati che vada tutto liscio :sneer:

Galandil
26th June 2023, 18:56
Da un controllo semi superificiale, sembra che il più costoso abbia in più la certificazione HDR10+, mentre l'altro no. Il che è abbastanza ridicolo, visto che ad esempio sul Neo G9 mi pare che l'abbiano risolta con un banale firmware update, mentre per sto G7 dai vari siti Samsung non vedo files di firmware vari.
Io ste robe le odio infinito, almeno sul G9/Neo G9 cambiano gli SKU vari, ma l'hardware è esattamente identico per tutti gli SKU, qui sul Neo G7 pare di no. Morissero gonfi.

Anyway: €1100 per un 27"? Seriamente? Con il 49" 32:9 ad una distanza di €400 circa? Allora vi divertite a farmi tirare bestemmie. :sneer:

Glorifindel
26th June 2023, 19:45
No che 27", sono 1055 euro per il più costoso Neo G7 32" VA.
Il modello del 2022 costa 957 euro tipo. Ma consuma anche di più in sdr dai dati tecnici. Il che mi fa pensare abbiano semplificato qualcosa, magari tolto dell'hardware per la certificazione G-sync? Lo penso perché il vecchio modello indica chiaramente la compatibilità sia con G-sync che con Free Sync pro di AMD, mentre il nuovo modello solo Freesync.

L'unico 27" che prendei è il 2k Cooler Master Tempest che costa 616 euro.

Galandil
26th June 2023, 20:03
Ah si, sorry, un 32" 16:9. Resta il mio punto di partenza: 16:9 nel 2023 anche basta direi (a quei prezzi poi).

Per il discorso Freesync: il Premium Pro è "compatibile" (lol) nmw con GSync, è il tier più alto del Freesync, con LFC, cazzi e mazzi. Lo si vede pure dalle due pagine in ungherese dei due modelli sul sito Samsung:

https://www.samsung.com/hu/monitors/gaming/odyssey-neo-g7-g75nb-32-inch-165hz-1ms-curved-uhd-4k-ls32bg750npxen/
https://www.samsung.com/hu/monitors/gaming/odyssey-neo-g7-g75nb-32-inch-ls32bg750nuxen/

Glorifindel
28th June 2023, 13:31
Ma su un 34" 21:9 Ultrawide gli rts ed in generale tutto quello che ha una visuale isometrica (dai moba ai roguelike passando dai gdr) come si vedono? Ti prende solo la porzione di monitor al centro oscurando i lati più estremi, simulando in sostanza un 27" o estende la visuale schiacciandola in verticale?

No perchè vicino al prezzo del Neo G7 VA si potrebbe quasi pensare anche all'Alienware AW3423DWF che è sì un oled QD ma ha 3 anni di garanzia Dell e sta a 1127 euro.

Il 16:9 mi convince ancora troppo per l'uso che faccio io del pc (e comunque il Samsung consente eventualmente la visuale Ultrawide oscurando le due bande inferiore e superiore se proprio uno preferisce così negli FPS e nelle simulazioni di guida).

Pics

https://i.rtings.com/assets/products/G2YF8R39/samsung-odyssey-neo-g7-s32bg75/display-large.jpg
vs
https://i.rtings.com/assets/products/JLMTV8av/dell-alienware-aw3423dwf/display-large.jpg

Drako
28th June 2023, 13:56
Quell'alienware all'uscita mi attirava parecchio, ma pare abbia i soliti problemi di burn in. Non è che se te lo fa a 3 anni ed 1 mese smadonni meno dopo 1100+ euri.

Glorifindel
28th June 2023, 16:41
Eh ma a 21:9 ci sono solo gli oled che meritano e cmq a sto punto in quel formato ci gioco e basta al pc, per lavorare uso l'attuale coi 27", su un'altra scrivania.

Volevo intanto capire se mi garbava di più il 21:9 o il 16:9 classico, tanto ormai siamo a 1100 euro di monitor su per giù in entrambi i casi.
Offerte del prime day a parte (ma non so quanto possano scendere visti i tempi e la fascia a cui appartengono).

Il Neo G9 per me è oggettivamente troppo, con i suoi 49" in 32:9 è sostanzialmente un 34" 21:9 ma allungato mentre a me piace avere anche spazio sopra/sotto all'immagine. Il 32" 16:9 sembra un po' il mio target ideale tutto considerato.

Galandil
28th June 2023, 18:27
Ma che vuol dire "spazio sopra/sotto l'immagine"?

Glorifindel
28th June 2023, 20:32
Vuol dire che non vedo tutto come un 27" in verticale e come un 42" in orizzontale. Mi sembra una proporzione ottima per simulazioni e fps l'ultrawide ma un po' complicata sugli rts ed rpg, oltre a costringerti a scrollare di più il testo e le pagine web in verticale. Devo andare a vederli dal vivo comunque, troppo soggettiva la cosa

Galandil
28th June 2023, 21:12
Ma stai mischiando il FOV con l'AR dello schermo, sono due cose ortogonali.

Esempio di roba isometrica.

16:9
https://i.imgur.com/Y5XSGim.jpg

32:9
https://i.imgur.com/HSoxf4g.jpg

Il vertical FOV è invariato, ergo in 32:9 estendi l'immagine a sx e dx.

Glorifindel
28th June 2023, 21:44
Si ma i 16:9 sul 32” hanno risoluzione 3840x2160

Mentre i 21:9 sul 34” ultrawide (il secondo caso che mi interessa) hanno risoluzione 3440x1440

Nel primo caso non dovrei comunque vedere qualcosa in piú in verticale come immagine, vedendo tutto più distante? Sulla carta ho più ppi.

Galandil
28th June 2023, 22:25
Si ma i 16:9 sul 32” hanno risoluzione 3840x2160

Mentre i 21:9 sul 34” ultrawide (il secondo caso che mi interessa) hanno risoluzione 3440x1440

Nel primo caso non dovrei comunque vedere qualcosa in piú in verticale come immagine, vedendo tutto più distante? Sulla carta ho più ppi.

Lol no, il FOV della camera non c'entra nulla con la risoluzione e i ppi. Secondo te uno con un 4k ha un FOV doppio rispetto ad uno col 1080p?

Glorifindel
29th June 2023, 08:50
Lol no, il FOV della camera non c'entra nulla con la risoluzione e i ppi. Secondo te uno con un 4k ha un FOV doppio rispetto ad uno col 1080p?

Intendo l'effetto che si vede in questi video su youtube


https://youtu.be/XAmr3qyvbvY

e il fatto che sugli ultrawide l'immagine potrebbe risultare a volte leggermente distorta ai lati


https://youtu.be/RZ0vnJ4B3cM


qui un paio di pic che mostrano il pezzetto di campo visivo verticale in meno, sebbene si guadagni in orizzontale

11752

11753

Si nota sul viso della donna la parte verticale in meno; non so se sia dovuto al formato immagine, alla risoluzione o ad entrambi i fattori. Fatto sta che lo fa nel confronto con 4 monitor 16:9 diversi di varie diagonali.

Galandil
29th June 2023, 22:16
Non sto capendo se mi stai trollando o meno. :sneer:

E' ovvio che se stai tentando di visualizzare un qualcosa di già renderizzato/ripreso (immagine o video) che ha un certo AR, per mostrarlo in un altro AR senza avere barre nere ai lati o sopra dovrai zoomare in. Again: risoluzione e ppi non c'entrano *nulla*.

I giochi invece se ne fottono, visto che creano l'immagine a partire da una camera, messa in un certo punto e con un certo FOV, e poi riempie la viewport in base all'AR che si sta usando. Again: risoluzione e ppi non c'entra *nulla*.
Inoltre: se la camera è prospettica, aumentando il FOV su uno schermo con AR elevato (32:9 ad es.), ai bordi si avrà una certa distorzione normalissima causata dalla prospettiva con quel certo FOV. E sottolineo camera in prospettiva: il 2D o l'isometrico non hanno questo effetto.

Ma non è che un 16:9 4k "mostra più roba sopra e sotto" di un 32:9 1440p di suo. Again (e tre): risoluzione e ppi non c'entrano *niente*.

Tunnel
30th June 2023, 00:24
meravigliosa la 4060 liscia!
Mia al Day One!

Ah no, che sfiga, era oggi! Eh beh, niente. Allora se la possono infilare su per il culo dalla parte larga.
Prezzo totalmente insensato

Galandil
30th June 2023, 01:46
meravigliosa la 4060 liscia!
Mia al Day One!
Ah no, che sfiga, era oggi! Eh beh, niente. Allora se la possono infilare su per il culo dalla parte larga.
Prezzo totalmente insensato

Tanta roba le schede con 8GB di VRAM.

https://www.techspot.com/articles-info/2701/bench/TLOU_1440p-p.webp

:sneer:

Glorifindel
30th June 2023, 05:45
Non sto capendo se mi stai trollando o meno. :sneer:

E' ovvio che se stai tentando di visualizzare un qualcosa di già renderizzato/ripreso (immagine o video) che ha un certo AR, per mostrarlo in un altro AR senza avere barre nere ai lati o sopra dovrai zoomare in. Again: risoluzione e ppi non c'entrano *nulla*.

I giochi invece se ne fottono, visto che creano l'immagine a partire da una camera, messa in un certo punto e con un certo FOV, e poi riempie la viewport in base all'AR che si sta usando. Again: risoluzione e ppi non c'entra *nulla*.
Inoltre: se la camera è prospettica, aumentando il FOV su uno schermo con AR elevato (32:9 ad es.), ai bordi si avrà una certa distorzione normalissima causata dalla prospettiva con quel certo FOV. E sottolineo camera in prospettiva: il 2D o l'isometrico non hanno questo effetto.

Ma non è che un 16:9 4k "mostra più roba sopra e sotto" di un 32:9 1440p di suo. Again (e tre): risoluzione e ppi non c'entrano *niente*.

Ok, chiaro, ho la mia risposta, thanks. Se non ci devo giocare e basta sono cose di cui devo tenere conto.

Tunnel
30th June 2023, 14:10
Tanta roba le schede con 8GB di VRAM.
https://www.techspot.com/articles-info/2701/bench/TLOU_1440p-p.webp
:sneer:
Manca la 6750, che è praticamente diretta competitor come pricing :|

Galandil
30th June 2023, 16:29
Manca la 6750, che è praticamente diretta competitor come pricing :|

Vabbé, prendi la barra della 6700XT e aggiungi qualche punto. :sneer:

Cmq la pic serviva a far notare quei magnifici 1% con 8GB. :sneer:

Glorifindel
4th July 2023, 10:22
I prezzi dei monitor si sono un attimo assestati.

Sia il Samsung Neo G7 VA 165hz che il Dell Alienware Oled AW3423DWF stanno sui 939 euro ivati.

Si comincia a sentire l'effetto prime day.

San Vegeta
4th July 2023, 14:12
Ma quindi il monitor che ho preso io che è a 240Hz non ti piace? Costa la metà... https://www.gigabyte.com/it/Monitor/AORUS-FI32Q-X/sp#sp

Glorifindel
4th July 2023, 14:45
E' un buon monitor ma cercavo qualcosa con un hdr vero e possibilmente 4k per la densità di pixel.

Tunnel
4th July 2023, 15:04
Ma non hanno problemi di impressione i monitor oled?
Ok se lo usi solo per giocare, ma nell'utilizzo ibrido non lo maltratti se stai 3 ore su word?

Glorifindel
4th July 2023, 15:24
In teoria sì, hanno il problema del burn-in. Però Dell copre il burn-in del pannello con 3 anni di garanzia.
Diciamo che se dovessi seguire tutte le recensioni dei vari Rtings e TFT central che mettono l'Alienware come miglior monitor gaming nella sua fascia di prezzo (attualmente siamo sui mille euro), l'AW3423DWF sarebbe l'unico ultrawide 34" oled a cui guarderei, proprio per la garanzia.

Però il più papabile per adesso è ancora il Samsung Neo G7, il prezzo più basso lo stanno facendo proprio quelli di Samsung sul loro shop online. 939 spedito e con 14gg di reso gratuito. L'11-12 si procede con gli acquisti.

edit: In caso alla fine propendessi per l'oled, per lavorare comunque terrei 2 ips da 27" sul vecchio pc. Ciò che mi preoccupa semmai sono le UI tipo quella di Diablo o di alcuni FPS come Overwatch. Le hai sempre fisse a schermo...
sti monitor hanno tutti almeno un difetto abbastanza importante che non mi fa strisciare sereno pd.

Il Samsung ha sta curvatura 1000R, l'Alienware il rischio burn-in come tutti gli oled. In giro ovviamente non li trovi, quindi non puoi nemmeno vederli prima... sto cercando di capire quanto più possibile dei pro/contro dai video su youtube. La disponibilità al reso è importante anche per questo motivo.

Dryden
4th July 2023, 15:31
Ma non hanno problemi di impressione i monitor oled?
Ok se lo usi solo per giocare, ma nell'utilizzo ibrido non lo maltratti se stai 3 ore su word?

Anche se lo usi solo per giocare non sei in salvo da burn-in perchè quasi tutti i giochi hanno una interfaccia fissa durante il gameplay. Alcuni è roba minima ma se, ad esempio, ti spari centinaia di ore su Diablo4 auguri.
Spendere migliaia di € per sedermi di fronte al pc con l'ansia ----> no way, aspetterò qualche tempo che la tecnologia oled maturi sotto questo aspetto.

Tunnel
4th July 2023, 16:24
Anche se lo usi solo per giocare non sei in salvo da burn-in perchè quasi tutti i giochi hanno una interfaccia fissa durante il gameplay. Alcuni è roba minima ma se, ad esempio, ti spari centinaia di ore su Diablo4 auguri.
Spendere migliaia di € per sedermi di fronte al pc con l'ansia ----> no way, aspetterò qualche tempo che la tecnologia oled maturi sotto questo aspetto.

Io già ora con il TV OLED di Samsung ho le paranoie quando guardo SkyTG 24, pensa giocare a una roba con la GUI fissa... :sneer:

Axet
5th July 2023, 11:46
Ma tutti sti monitor OLED non hanno quella feature come le TV LG (e immagino altre) che shifta i pixel in giro a caso per evitare il burn-in?

Glorifindel
5th July 2023, 13:30
Sembrerebbe di sì. Però non sono proprio per hardcore gamer, se ci stai su più di 4 ore tutti i giorni dopo un annetto pare stampino eccome.
Io lo considero solo perchè già va bene se ci starò su 2-3 ore filate nei weekend :sneer:

Oggettivamente ha una resa cromatica e di contrasto spettacolare l'oled, specie quelli sotto Dell che sono già calibrati bene di fabbrica. E poi il movimento è fluido, latenza davvero bassa.
Invece i pannelli VA/IPS dalla loro hanno una maggior brightness e una struttura del pixel più standard; lo si nota facendo molta molta attenzione al testo, su un 4k VA è decisamente più definito che su un oled 1440p. Ma questo conferma l'uso per cui uno dovrebbe scegliere il pannello oled, ovvero videog. e movies.

Tunnel
5th July 2023, 17:43
Sembrerebbe di sì. Però non sono proprio per hardcore gamer, se ci stai su più di 4 ore tutti i giorni dopo un annetto pare stampino eccome.
Io lo considero solo perchè già va bene se ci starò su 2-3 ore filate nei weekend :sneer:

Oggettivamente ha una resa cromatica e di contrasto spettacolare l'oled, specie quelli sotto Dell che sono già calibrati bene di fabbrica. E poi il movimento è fluido, latenza davvero bassa.
Invece i pannelli VA/IPS dalla loro hanno una maggior brightness e una struttura del pixel più standard; lo si nota facendo molta molta attenzione al testo, su un 4k VA è decisamente più definito che su un oled 1440p. Ma questo conferma l'uso per cui uno dovrebbe scegliere il pannello oled, ovvero videog. e movies.

Domanda forse stupida, ma a quel punto non conviene prendere il C2 o il C3 42'' di LG e buonanotte?

O addirittura OLED48A26LA lo trovi a 800€ malcontanti, con il prime day in arrivo forse ancora a meno.
Boh, ci farei un pensiero per la via che ci spendi dei soldi e che non lo usi come monitor unico ma solo 3h a settimana

Galandil
5th July 2023, 18:07
Domanda forse stupida, ma a quel punto non conviene prendere il C2 o il C3 42'' di LG e buonanotte?

O addirittura OLED48A26LA lo trovi a 800€ malcontanti, con il prime day in arrivo forse ancora a meno.
Boh, ci farei un pensiero per la via che ci spendi dei soldi e che non lo usi come monitor unico ma solo 3h a settimana

Meh, un 42" o più 16:9 tenuto ad 1m o meno di distanza dagli occhi, e su una scrivania, imo è un incubo da guardare, soprattutto perché più di metà dello schermo finisce per essere *sopra* l'asse della vista.

E poi non hanno Display Port, caccapupù. :sneer:

Glorifindel
7th July 2023, 08:11
Alla fine ho acquistato direttamente da Samsung shop il Neo G7 32".

C'era una combo promo che me lo metteva in sconto a 845 euro e spicci spedizione compresa. Ti danno pure il reso gratuito nei 14gg successivi alla consegna, così lo provo e decido se mi garba sto 1000R di curvatura o meno.

Glorifindel
7th July 2023, 16:43
Aggiornamento:
oggi ho acquistato su BPM cpu + mobo + ram.

I prezzi erano già buoni senza aspettare il prime day e valutando a quanto stavano i singoli componenti su Amazon ho dedotto non si potesse poi fare granchè meglio:
- CPU: AMD 7800X3D 429 euro
- Mobo MSI X670E Tomahawk 298 euro
- Ram: 2x16 (32GB) DDR5 G.skill Flare X5 AMD expo 6000Mhz cl30 118 euro

Potevo risparmiare 50-60 euro sulla mobo con la versione B650... ma che diamine costruire un pc di fascia alta e tagliare 50 euro sul chipset; considerando anche che il X670 già ha su il bios che supporta il 7800X3D mentre il B650 viene segnalato da pcpartpicker come da aggiornare, prima di installare al cpu... 50 euro spesi in più per meno sbatti (almeno spero, per sicurezza poi verificherò comunque i dati del bios PRIMA di installarci su la cpu, sapendo i rischi che corre il 7800X3D coi voltaggi sbagliati).


Aspetto invece il prime day per:
- Memoria SSD M2 Samsung 990pro o WD Black 850X, quello che costerà meno in offerta, la versione 2 TB (già ora lo trovo sui 143 euro il WD)
- GPU qui sono indeciso... 7900XTX se non mi frega niente del RT e salta fuori l'offertona. Altrimenti, visto che ormai ho preso un monitor 4k... spesona di 1650 euro su una 4090 e fanculo tutto e tutti. Anche la 4080 può andare ma sempre solo se c'è l'offertona sul prezzo.
- Alimentatore Corsair 850w o 1000w a seconda della GPU, efficienza gold dovrebbe andare, la roba platinum mi sale troppo e praticamente trovo solo Seasonic che costa mezzo rene (dopo quello intero per la GPU :sneer:).
- Dissipatore, uno ad aria buono, tipo il decantato Thermalright Peerless Assassin 120 SE (https://www.amazon.it/Thermalright-Peerless-Coperchio-Dissipatore-Alluminio/dp/B09NSTR7JZ/ref=d_pb_allspark_dp_sims_pao_desktop_session_base d_sccl_3_2/262-7591605-0715823?pd_rd_w=kdNne&content-id=amzn1.sym.50a451ad-962e-4058-a69f-46adea38d940&pf_rd_p=50a451ad-962e-4058-a69f-46adea38d940&pf_rd_r=0PRV7D2KH1B2256GG7E0&pd_rd_wg=0oFNK&pd_rd_r=9c10c989-19e1-455d-a517-4db49d91b55a&pd_rd_i=B09NSTR7JZ&th=1) o il più estetico DeepCool AK620 ZERO DARK (https://www.amazon.it/DeepCool-AK620-Dissipatore-HeatPipes-Compatibile/dp/B0B6FGMSNM?th=1).
In alternativa un AIO da 280 senza RGB che non me ne frega nulla, tipo l'ARCTIC Liquid Freezer II 280 (https://www.amazon.it/ARCTIC-Liquid-Freezer-all-One/dp/B07XLM5FV8/ref=sr_1_2?crid=2NWZBHK3OSIIL&keywords=arctic+liquid+freezer+ii+280&qid=1688740466&refinements=p_85%3A20930965031&rnid=20930964031&rps=1&s=pc&sprefix=Arctic%2Ccomputers%2C114&sr=1-2).
Anche qui vedremo se ci saranno sconti o cosa, altrimenti parliamo di un range tra i 52 e i 110 euro.

Il case verrà preso fisicamente da negozio, che costa uguale o meno che online ho visto. Ho pensato al classico Corsair 4000D airflow (https://www.nexths.it/Products/details/sku/CC-9011200-WW) senza rgb che con 100 euro te lo porti a casa. Da verificare se ci vanno dentro tutte le GPU btw.

Galandil
7th July 2023, 16:57
Lol, Samsung per gli SSD è da evitare come la peste. Kingston KC3000 tutta la vita, che ha un TBW di 1600TB (quello da 2TB).

Il discorso sul "tagliare 50 euro sul chipset" è delirio puro, il X670 non ti serve ad un cazzo di nulla. Aggiornare il BIOS è ormai trivialissimo, lo si fa anche senza montare la CPU e non si corre + il rischio di brickare le mobo, se l'update va male si può rifare quante volte si vuole.

Dissipatore: Noctua NH-D15, tutto il resto è noia.
PSU: BeQuiet! Pure Power 12M 1kW - ottimissimo al prezzo a cui si trova. (intorno ai €180)
Case: Fractal Torrent, punto.

Dryden
7th July 2023, 17:10
Vai di 4090 e tanti saluti a tutti, occhio solo che ti entri nel 4000D, potresti stare a filo.

L'arctic liquid freezer ii 280 è un ottimo AIO, il radiatore pù spesso fa la differenza, ma rompe le scatole in alcuni case.
Un altro che apprezzavo per la sobrietà è quello di EK ma purtroppo non è facile trovarlo disponibile.

Glorifindel
7th July 2023, 17:54
Lol, Samsung per gli SSD è da evitare come la peste. Kingston KC3000 tutta la vita, che ha un TBW di 1600TB (quello da 2TB).

Il discorso sul "tagliare 50 euro sul chipset" è delirio puro, il X670 non ti serve ad un cazzo di nulla. Aggiornare il BIOS è ormai trivialissimo, lo si fa anche senza montare la CPU e non si corre + il rischio di brickare le mobo, se l'update va male si può rifare quante volte si vuole.

Dissipatore: Noctua NH-D15, tutto il resto è noia.
PSU: BeQuiet! Pure Power 12M 1kW - ottimissimo al prezzo a cui si trova. (intorno ai €180)
Case: Fractal Torrent, punto.

Sono d'accordo sui Samsung, infatti guardavo più al WD Black 850x; poi mi sono trovato sempre bene anche con Crucial, ma a prestazioni (anche se non cambierà concretamente un cazzo ormai a ste velocità) il WD Black stava sopra al Crucial P5 plus.
Il Kingston KC3000 l'ho visto in qualche recensione e ne parlavano bene, approfondisco anche quello. Del resto chiedo qui apposta.

Per la X670 alla fine mi incideva sul 2% del costo della build e sono andato all-in. Esteticamente ha qualche cazzatina in più del raffreddamento passivo che mi piace rispetto alla B650 oltre ad avere probabilmente migliori vrm; ma comprendo il discorso sulla più che adeguatezza del B650. Non diventerò povero da lì.

Il Dissipatore che dici già ce l'ho sull'attuale pc (in realtà è il Noctua NH-D15S, visto ora su drako.it negli ordini del 2015). Potrei comprare solo il supporto per il socket e cambiare eventualmente la ventola dopo 7-8 anni di rotazioni lol. Gli piazzo la ventola nera anzichè scacazza noctua e bona lì. Ci penso thx.

PSU ok.

Case parliamo di un tower se non ho visto male (escludo stessi parlando del Compact, in cui probabilmente una 4090 non ci starebbe superando o essendo lì coi 330mm max di scheda ammessa nel compact). Costa sulle 250 euro, a sto punto mi tengo il mio Phanteks Enthoo Pro pure lui del 2015 e amen. Ci stanno dentro gpu fino a 472 mm lol.
Se me li faccio andar bene davvero, tra case e dissipatore sono da 180 euro in meno minimo a 300+. E non cambia un cazzo con quelli di oggi praticamente, gli sistemi le ventole ed hai fatto.

Thx per i consigli.

Galandil
7th July 2023, 18:06
SSD: le differenze di prestazioni non le noterai mai in tutta la tua vita fra i vari SSD, quel che conta è la garanzia in termini di TBW. E il KC3000 ce l'ha molto + alta. Also: tenersi lontani dagli SSD Samsung come fossero la peste. Perché lo sono.

X vs B vrm: that's not how it works. Il vrm non ce l'hai sul chipset, ma sulla mobo. E il ragionamento "costa di più, quindi ha vrm migliori" è notoriamente falso. Anche perché a) Zen4 è + che altro thermal limited che non power limited e b) su AM4, uno dei migliori VRM lo trovi sulla B550 Tomawak, migliore e più stabile del 99% di tutte le altre mobo AM4 - stesso discorso vale per AM5. Un qualsiasi 14+2 stages è già un overshoot.

Montare una ventola X invece della Noctua non ha senso: la qualità Noctua sta proprio nelle sue ventole, ho un NH-D14 vecchio di 10 anni e ancora viaggia come se fosse il day one. Considerare l'estetica più importante della qualità intrinseca della funzionalità del pezzo è da cazzari. :sneer:

Glorifindel
7th July 2023, 20:04
Non hai capito, cambio la ventola del Noctua color parcosempioneverdeemarrone con un'altra ventola Noctua uguale ma black e soprattutto nuova. Questo se proprio voglio "azzerare" il ciclo di vita della/delle ventole nel case e sul dissi, visto che ormai hanno pure i loro 8 anni.

Per il resto, sulla mobo ci sono caratteristiche che la fanno costare di più, è innegabile. Com'è innegabile che non servono ad un cazzo 9 volte su 10. Ma tant'è, visto la scontistica in quel momento, non mi faccio il sangue amaro per 50-60 euro su una build da 3k.
Che francamente suonava pure un po' da purciari pensare di mettere una 4090 e poi andarsi a prendere il B650 a tutti i costi con un gap di prezzo ridotto. Finchè la differenza era 100 euro e passa ok. Per la metà circa ma chissenefrega sinceramente, sicuro peggio del B650 non andrà lel.

Glorifindel
9th July 2023, 00:04
PSU: BeQuiet! Pure Power 12M 1kW - ottimissimo al prezzo a cui si trova. (intorno ai €180)


Comprato lo Straight Power 12M 1kW a 20 euro in più, ma efficienza platinum e cavi braided

https://www.sferaufficio.com/articolo/be-quiet-straight-power-12-alimentatore-per-computer-1000-w-20-4-pin-atx-atx-nero/YP2603156134

peraltro i 12 sono la nuova serie, uscita a giugno


https://www.youtube.com/watch?v=kgzlExXUcIo&t=629s

Glorifindel
9th July 2023, 12:08
AMD regalerà in bundle una copia di Starfleld con le sue cpu e gpu.

La 7900 XTX diventa ancora più interessante nel rapporto qualità/prezzo.

https://multiplayer.it/notizie/starfield-amd-regalera-in-bundle-con-ryzen-7000-rx-6000.html

Si parte con le vendite dell'11 luglio, orario di Taiwan (quindi in teoria dovrebbe arrivare anche da noi in tempo per il prime day).

Aspettiamo di vedere eventuali mosse di nvidia, magari un piccolo price cut? :look:

-=Rho=-
10th July 2023, 08:33
Aspettiamo di vedere eventuali mosse di nvidia, magari un piccolo price cut? :look:


:rain::rain::rain:

Glorifindel
10th July 2023, 08:47
:rain::rain::rain:

Amazon proprio oggi ha alzato il prezzo delle PNY 4090 vendute e spedite da lei... da 1699 a 2000+ euro :sneer:
Giusto in tempo per rimetterle a 1700 domani facendo sembrare che abbia applicato uno sconticione lol

Drako
10th July 2023, 09:00
SSD: le differenze di prestazioni non le noterai mai in tutta la tua vita fra i vari SSD, quel che conta è la garanzia in termini di TBW. E il KC3000 ce l'ha molto + alta. Also: tenersi lontani dagli SSD Samsung come fossero la peste. Perché lo sono.

X vs B vrm: that's not how it works. Il vrm non ce l'hai sul chipset, ma sulla mobo. E il ragionamento "costa di più, quindi ha vrm migliori" è notoriamente falso. Anche perché a) Zen4 è + che altro thermal limited che non power limited e b) su AM4, uno dei migliori VRM lo trovi sulla B550 Tomawak, migliore e più stabile del 99% di tutte le altre mobo AM4 - stesso discorso vale per AM5. Un qualsiasi 14+2 stages è già un overshoot.

Montare una ventola X invece della Noctua non ha senso: la qualità Noctua sta proprio nelle sue ventole, ho un NH-D14 vecchio di 10 anni e ancora viaggia come se fosse il day one. Considerare l'estetica più importante della qualità intrinseca della funzionalità del pezzo è da cazzari. :sneer:

E comunque c'è il chroma black del D15 (che ho io) e quindi nemmeno conta più il problema estetico Noctua :sneer:

Glorifindel
10th July 2023, 11:03
E' proprio la ventola che vorrei prendere infatti, Chromax black fan con il D15S color nichelato.

Ho pure scritto a Noctua tramite form per farmi mandare free il kit di fissaggio alla mobo AM5; ti chiedono solo la ricevuta di acquisto del dissi ante 2019 + prova di acquisto o foto dell'ordine web della cpu/mobo AM5 :nod: quando un'azienda è seria.

Sì, a spendere 10 euro io mi rompevo il cazzo. :elfhat:

Tunnel
11th July 2023, 00:47
No tua è super seria su queste cose.
Ho scritto anche io qualche riga sul servizio di supporto, in qualche posto.
Davvero tanta roba!


Btw, con il rpime day sto facendo il PC per mio nipote e non sta venendo malissimo.
Mancano solo psu e scheda video.

Per il resto: i5 13600kf, MSI z790-p, aio msi (solo per combo estetica con la mobo) e il 980 pro da 1tb (puppa Gala), ram dominator 6000mhz 64 giga e case be quiet 500dx che mi avanzava

Galandil
11th July 2023, 02:36
Per il resto: i5 13600kf, MSI z790-p, aio msi (solo per combo estetica con la mobo) e il 980 pro da 1tb (puppa Gala), ram dominator 6000mhz 64 giga e case be quiet 500dx che mi avanzava

Il 980 Pro a €82 su Amazon quando ci sono il Kingston KC3000 a €87,15 e come offerta prime day il Kingston Fury 1TB a €78,99.

Le matte risate se gli va in read-only mode fra qualche mese. :sneer:

Glorifindel
11th July 2023, 03:47
Io sto puntando il Kingston fury renegade da 2 tb ma come offerte non mi pare di vedere nulla di straordinario a sto prime day. Sono prezzi già disponibili su un paio di shop seri, almeno così pare consultando idealo e trovaprezzi

Tunnel
11th July 2023, 07:58
Il 980 Pro a €82 su Amazon quando ci sono il Kingston KC3000 a €87,15 e come offerta prime day il Kingston Fury 1TB a €78,99.

Le matte risate se gli va in read-only mode fra qualche mese. :sneer:

Lo si rende e gg :nod:

Drako
11th July 2023, 09:25
980 pro da 1tb (puppa Gala)

Non è una questione di puppa gala, è che samsung è la merda e deve morire. E te lo dico avendo un 970 (che però rimane, fortunatamente, fuori dai recenti problemi sugli ssd samsung).

Tunnel
11th July 2023, 10:43
Ma sì, scherzavo con il puppa Gala, mica compro una cosa per fare dispetto a lui, ti pare?!
Che cosa vuoi che gliene possa mai fottere se uno decide di lanciarsi da un burrone? Al massimo il vecchio si spacchetta di pop corn, giustamente

Glorifindel
11th July 2023, 12:04
Ma questo SSD a sto prezzone?

https://www.amazon.it/SK-Platinum-interno-7-000MB-compatto/dp/B09QVD9V7R/ref=sr_1_5?__mk_it_IT=%C3%85M%C3%85%C5%BD%C3%95%C3 %91&crid=2JW285V8YGGS&keywords=ssd+2tb&psr=PDAY&qid=1689068963&s=prime-day&sprefix=ssd+2tb%2Cprime-day%2C87&sr=1-5

SK hynix Platinum P41 2TB - 99 euro con 42% di sconto

https://www.tomshardware.com/reviews/sk-hynix-platinum-p41-ssd-review

certo 1200 TBW e scaldicchia... :look:

però oh 7000/6500 e 2 TB eh

Drako
11th July 2023, 15:28
Lo si rende e gg :nod:

Minchia e tu hai la voglia di cambiare ssd e rifare tutto se succede casino?

Glorifindel
11th July 2023, 15:33
Ufficiale, Starfield bundle :nod:

https://shop-eu-en.amd.com/amd-starfield-game-bundle/

E a questo punto la 7900 XTX si fa interessante. Anche perchè con la 4080ti in arrivo verso fine anno (immagino?) spendere 200 euro in più e avere un titolo tripla A in meno per prendere oggi una sovrapprezzata 4080 liscia non è smart. Se non mi dovessi trovare bene nei prox sei mesi con AMD e i suoi driver faccio sempre in tempo a cambiare dal black friday in poi.

edit:

Già applicata anche da noi:
https://www.nexths.it/landingpage/show/ad/amd-bundle-starfield?utm_source=sito&utm_medium=bannerone&utm_campaign=2306-amd-bundle-starfield

Galandil
11th July 2023, 17:42
Ma questo SSD a sto prezzone?

https://www.amazon.it/SK-Platinum-interno-7-000MB-compatto/dp/B09QVD9V7R/ref=sr_1_5?__mk_it_IT=%C3%85M%C3%85%C5%BD%C3%95%C3 %91&crid=2JW285V8YGGS&keywords=ssd+2tb&psr=PDAY&qid=1689068963&s=prime-day&sprefix=ssd+2tb%2Cprime-day%2C87&sr=1-5

SK hynix Platinum P41 2TB - 99 euro con 42% di sconto

https://www.tomshardware.com/reviews/sk-hynix-platinum-p41-ssd-review

certo 1200 TBW e scaldicchia... :look:

però oh 7000/6500 e 2 TB eh

Il P41 come prestazioni è davvero ottimo, è il predecessore del Solidigm P44 Pro che è un mostriciattolo. Però di nuovo, io preferisco puntare in primis ai TBW in un SSD, tanto a parte usi particolari che stressano l'SSD, la differenza di performance per un uso standard non la noterai mai.

Galandil
11th July 2023, 17:45
Ma sì, scherzavo con il puppa Gala, mica compro una cosa per fare dispetto a lui, ti pare?!
Che cosa vuoi che gliene possa mai fottere se uno decide di lanciarsi da un burrone? Al massimo il vecchio si spacchetta di pop corn, giustamente

In realtà io sto lì ad insistere che ti lanci da un burrone eh.

Non capisco per quale motivo continuate a dare soldi ad un'azienda che giusto recentemente ha dimostrato che manica di peracottari siano, fra i 980 Pro che si brickano definitivamente e i 990 Pro con problemi orrendi allo stesso modo.

Tanto stai a fare un PC al risparmio dai pezzi che hai mostrato (anche se poi, 64GB di RAM a che cazzo servono a tuo nipote? A nulla), e se punti al risparmio il Fury è meglio del 980 Pro perché come prestazioni sono virtualmente identici, ma il TBW del Fury è >>>>> del 980 Pro.
Poi però ti lamenti che i prezzi di certe ditte restano alti, continuate pure a premiarli anche quando dovrebbero smettere di vendere roba per 5 anni di seguito. :confused:

Galandil
12th July 2023, 03:18
Ufficiale, Starfield bundle :nod:

https://shop-eu-en.amd.com/amd-starfield-game-bundle/

E a questo punto la 7900 XTX si fa interessante. Anche perchè con la 4080ti in arrivo verso fine anno (immagino?) spendere 200 euro in più e avere un titolo tripla A in meno per prendere oggi una sovrapprezzata 4080 liscia non è smart. Se non mi dovessi trovare bene nei prox sei mesi con AMD e i suoi driver faccio sempre in tempo a cambiare dal black friday in poi.

edit:

Già applicata anche da noi:
https://www.nexths.it/landingpage/show/ad/amd-bundle-starfield?utm_source=sito&utm_medium=bannerone&utm_campaign=2306-amd-bundle-starfield

Lol, sto sito/negozio di brianzoli furbacchioni è na truffa. :sneer:

7950X3D in vendita a tipo €710 su SferaUfficio, €735 su un rivenditore terzo su Amazon, €761 da AMD direttamente, sti fenomeni: €815
7800X3D a €440 guardando Trovaprezzi, €452 su Amazon, €489 da AMD direttamente, sti fenomeni: €525
Sapphire Pulse 7900XTX su trovaprezzi a €1010 circa, sti fenomeni: €1140
Sapphire Nitro+ 7900XTX su trovaprezzi a €1070 circa, sti fenomeni: €1215

Costa di meno prendere il pezzo altrove senza bundle e comprarsi il gioco separatamente.
La solita italietta + gente idiota che gestisce il marketing: un solo negozio che partecipa, ed è un truffatore. :rotfl:

Per capirci, sui vari Alternate europei (che partecipano), il 7950X3D lo vendono a €719 e il 7800X3D a €459.

Glorifindel
12th July 2023, 10:50
Infatti non penso di prenderla da loro la scheda, probabilmente da BPM dove ho preso gli altri componenti.
Ora li sento per sapere se aderiscono alla promo con Starfield, nel caso dicano di sì prendo la 7900 XTX meno cara, ovvero la Sapphire Pulse da 1k, che tanto cambiano 3-5 fps a dir tanto con la Nitro+ ma consuma 100W di meno.

La differenza di prezzo non elevata invoglierebbe a prendere le versioni OC (ci sono sia la Nitro+ che la XFX Merc 310 a circa 100 euro in più; ma sempre +100W ti sparano andando di dual bios e salendo nelle frequenze per darti pochi fps in più).

La Pulse alla fine dovrebbe andare come la reference card ma con un dissipatore custom/migliore o sbaglio? Il VaporX della Nitro+ mi sembra esagerato tbh.


edit:

Secondo AMD, per l'Italia al momento la promo la portano avanti solo Amazon.it e NEXT :sneer:

https://www.amd.com/en/promotions/starfield-bundle

in effetti è una cazzata, a sti prezzi mi prendo la scheda che voglio e Starfield me lo compro a parte dopo aver letto le recensioni. GG


edit2:

https://www.amazon.it/Sapphire-NITRO-Radeon-Vapor-X-GDDR6/dp/B0BT524DL4/ref=cm_cr_arp_d_product_top?ie=UTF8

in pratica a 1159 si è "costretti" a prendere la Vapor-X che è la versione spinta, su Amazon.it.
Solo gli articoli venduti a spediti da Amazon beneficiano della promo.
Visto che ha la possibilità di funzionare col dual bios, ovvero sia con le frequenze della reference che in OC, può andar bene pure lei.
Tanto se ordino la Pulse da BPM e poi prendo la special ed. del gioco a parte sempre sui 1130 euro vado a spendere (e non ho la garanzia di Amazon dietro).

Tunnel
12th July 2023, 14:36
In realtà io sto lì ad insistere che ti lanci da un burrone eh.

Non capisco per quale motivo continuate a dare soldi ad un'azienda che giusto recentemente ha dimostrato che manica di peracottari siano, fra i 980 Pro che si brickano definitivamente e i 990 Pro con problemi orrendi allo stesso modo.

Tanto stai a fare un PC al risparmio dai pezzi che hai mostrato (anche se poi, 64GB di RAM a che cazzo servono a tuo nipote? A nulla), e se punti al risparmio il Fury è meglio del 980 Pro perché come prestazioni sono virtualmente identici, ma il TBW del Fury è >>>>> del 980 Pro.
Poi però ti lamenti che i prezzi di certe ditte restano alti, continuate pure a premiarli anche quando dovrebbero smettere di vendere roba per 5 anni di seguito. :confused:
Semplicemente mi avanzavano 2 moduli da 32 :)

btw "pc al risparmio" una macchina da 900€ esclusa vga e con un 13600kf... vaaaaaaabbè :sneer:

Ti è venuta la protonite :sneer:

Galandil
12th July 2023, 15:33
Semplicemente mi avanzavano 2 moduli da 32 :)

btw "pc al risparmio" una macchina da 900€ esclusa vga e con un 13600kf... vaaaaaaabbè :sneer:

Ti è venuta la protonite :sneer:

E' venuta la hadorite a te invece? :sneer:

Il punto principale del mio post skippato a pié pari. :confused:

Also: mica è colpa mia se i prezzi di un po' tutto son quelli che sono - un PC quasi completo a €1k esclusa GPU *è* al risparmio, almeno non solo in ottica di "lo uso per browsare e scrivere due cazzate su word e giocare a prato minato". Non è colpa mia, è colpa loro. :hidenod:

Tunnel
12th July 2023, 15:53
E' venuta la hadorite a te invece? :sneer:

Il punto principale del mio post skippato a pié pari. :confused:

Also: mica è colpa mia se i prezzi di un po' tutto son quelli che sono - un PC quasi completo a €1k esclusa GPU *è* al risparmio, almeno non solo in ottica di "lo uso per browsare e scrivere due cazzate su word e giocare a prato minato". Non è colpa mia, è colpa loro. :hidenod:
Il discorso del disco mi trova impreparato e non ho elementi per replicare, quindi prendo per buona la tua asserzione e non reputavo necessario andare oltre, tutto qua

btw un pc gaming base si può fare anche con un i3 e un case con psu "bundled" da 60 euro, quello sì che è al risparmio.
Oppure usando cpu di una o due gen precedenti. Con un 13600 non puoi direi che sia una macchina al risparmio, dai.
Guarda anche il PSU, sicuramente si poteva prendere qualcosa di meglio, ma dato che non monterà una 7900, che senso aveva prendere un 850W+?
Ci andrà sopra la 6750xt probabilmente , prendere qualcosa di più sarebbe stato sovradimensionare, non credi?

Galandil
12th July 2023, 16:17
Infatti non penso di prenderla da loro la scheda, probabilmente da BPM dove ho preso gli altri componenti.
Ora li sento per sapere se aderiscono alla promo con Starfield, nel caso dicano di sì prendo la 7900 XTX meno cara, ovvero la Sapphire Pulse da 1k, che tanto cambiano 3-5 fps a dir tanto con la Nitro+ ma consuma 100W di meno.

La differenza di prezzo non elevata invoglierebbe a prendere le versioni OC (ci sono sia la Nitro+ che la XFX Merc 310 a circa 100 euro in più; ma sempre +100W ti sparano andando di dual bios e salendo nelle frequenze per darti pochi fps in più).

La Pulse alla fine dovrebbe andare come la reference card ma con un dissipatore custom/migliore o sbaglio? Il VaporX della Nitro+ mi sembra esagerato tbh.


edit:

Secondo AMD, per l'Italia al momento la promo la portano avanti solo Amazon.it e NEXT :sneer:

https://www.amd.com/en/promotions/starfield-bundle

in effetti è una cazzata, a sti prezzi mi prendo la scheda che voglio e Starfield me lo compro a parte dopo aver letto le recensioni. GG


edit2:

https://www.amazon.it/Sapphire-NITRO-Radeon-Vapor-X-GDDR6/dp/B0BT524DL4/ref=cm_cr_arp_d_product_top?ie=UTF8

in pratica a 1159 si è "costretti" a prendere la Vapor-X che è la versione spinta, su Amazon.it.
Solo gli articoli venduti a spediti da Amazon beneficiano della promo.
Visto che ha la possibilità di funzionare col dual bios, ovvero sia con le frequenze della reference che in OC, può andar bene pure lei.
Tanto se ordino la Pulse da BPM e poi prendo la special ed. del gioco a parte sempre sui 1130 euro vado a spendere (e non ho la garanzia di Amazon dietro).

Forte che hanno aggiunto Amazon.it fra gli store ufficiali dopo un giorno, ieri c'era solo il brianzolo. :sneer:

Alla fine quello che conta è quanto ti interessa Starfield come gioco, e quanto ti interessa la Premium edition. Se contavi di prenderla, allora la Nitro+ ha senso perché la stai pagando €1059.

Il vantaggio della Nitro+ rispetto alla Pulse è appunto il fatto di avere la possibilità di settare la tabella della potenza fra reference o "OC" (400W+), poi oltre a quello puoi sempre variare da Adrenalin il Power Limit fra -10% e +15%. Oltre a questo, il fatto che abbia quel mostro di dissipatore fa si che GPU e VRAM siano più fredde rispetto ad altri modelli, quindi in grado di raggiungere frequenze + elevate a parità di condizioni (stessa potenza/voltaggio). Ed è ovviamente + silenziosa che le ventole devono fare meno lavoro. Di certo ATM, fra le XTX, la Nitro+ è la migliore (se escludiamo quelle con water block a wattaggi ridicoli tipo la AsRock Aqua che se le possono tenere).

Galandil
12th July 2023, 16:23
Il discorso del disco mi trova impreparato e non ho elementi per replicare, quindi prendo per buona la tua asserzione e non reputavo necessario andare oltre, tutto qua

btw un pc gaming base si può fare anche con un i3 e un case con psu "bundled" da 60 euro, quello sì che è al risparmio.
Oppure usando cpu di una o due gen precedenti. Con un 13600 non puoi direi che sia una macchina al risparmio, dai.
Guarda anche il PSU, sicuramente si poteva prendere qualcosa di meglio, ma dato che non monterà una 7900, che senso aveva prendere un 850W+?
Ci andrà sopra la 6750xt probabilmente , prendere qualcosa di più sarebbe stato sovradimensionare, non credi?

Io ho la XTX e sto con un 750W e ho zero problemi, vedi te. :sneer:

Quello che intendevo dire per "risparmio" è che oggi, con €1-1.5k, ti fai un PC di fascia media, ormai i prezzi son quelli che sono, non è + l'epoca in cui con €2k prendevi il meglio che l'hw potesse offrire in ogni categoria di componente.

Sul discorso SSD Samsung: poco tempo fa i 980 Pro 2TB hanno iniziato a morire inspiegabilmente, entrando in read-only mode, e NON modificabile neanche da Samsung stessa. Nel momento di panico totale, Samsung ha rilasciato un nuovo firmware, suggerendo a tutti di aggiornare per evitare il problema. Risultato? Gente che ha aggiornato il firmware, e DOPO l'aggiornamento si è vista l'SSD entrare in read-only mode. In tutto ciò, apparentemente Samsung, notoriamente una ditta di merda soprattutto per quanto riguarda il customer care, ha rifiutato diverse RMA per questo problema.
E tanto per gradire, i 990 presi nuovi di pacca hanno iniziato a mostrare una health degradation rapidissima, del tipo che dopo un mese il disco indicava la health scesa anche del 30%+.

Non so tu, ma io un'azienda del genere la evito come la peste, fottesega se il 990 è uno dei drive più veloci esistenti (considerando anche che miseria di TBW offrono, al di là di questi problemi). Non è un caso che i prezzi dei 980 Pro dopo il fattaccio siano crollati.

Ergo: evitate gli SSD Samsung, e puntate ai modelli/marche che offrono i TBW più alti (rispetto al vostro budget, ofc). Quella è la cosa + importante di tutte, le performance per un uso misto/standard contano inf meno. E ATM i Kingston son quelli che offrono il TBW più alto.

Glorifindel
12th July 2023, 16:44
Ho appena comprato 2 ssd m2 Kingston Fury: 2 TB + 1 TB (c'era un 11% in meno del Prime day sul taglio più piccolo e ho voluto aggiungerne un altro per un po' di spazio in più, magari per dati, così i primi 2 TB sono tutti per Windows + giochi viste le dimensioni delle installazioni a cui siamo arrivati).

Adesso vedo di ordinare anche la 7900 XTX Nitro+ ed il pc è fatto, deve solo arrivare il tutto.
Tanto per quella c'è tempo, non ha su promozioni particolari del prime day; sono in dubbio se ordinarla già adesso o aspettare lunedì prossimo.
Qualcuno mi ha riferito di come lanciano letteralmente la roba in sti due giorni quelli di Amazon pur di rispettare le consegne nei tempi; finchè sono cose leggere o di minor valore k. Una vga da oltre 1k vorrei non ci giocassero a fresbee :sneer: magari attendo tra domani e venerdì che si sgonfino gli ordini in entrata.


Di seguito la build che è venuta fuori, dove il prezzo è 0 € ho già il componente:

https://it.pcpartpicker.com/list/7vHrJM

+ ventolame vario Noctua che devo verificare se mi serve. Ho scoperto che il ciclo di vita dichiarato per le attuali ventole Noctua supera i 17 anni in uso 24/7... quindi in teoria posso ancora usare quelle per altri 10 annetti buoni.

Galandil
12th July 2023, 16:56
Le ventole Noctua le compri oggi e te lo porti nella tomba, a differenza di tutte le altre marche. :sneer:

Per la GPU stai tranquillo, vengono tutte spedite con l'imbottitura antiurto intorno, per romperla ci devono mettere sopra un altro pacco da 50kg+ e saltarci ripetutamente.

Glorifindel
12th July 2023, 17:46
Segnalo questa promo non Prime day ma comunque interessante:

Lexar NM790 SSD Interno 2TB, M.2 2280 PCIe Gen4x4 NVMe SSD, Fino a 7400MB/s in Lettura, 6500MB/s in Scrittura

https://www.amazon.it/Lexar-Interno-Scrittura-giocatori-LNM790X002T-RNNNG/dp/B0C4H4YH8V/ref=sr_1_1?crid=12THUHIC62O1A&keywords=lexar%2Bnm790&psr=PDAY&qid=1689175625&s=prime-day&sprefix=lexar%2Bnm790%2Cprime-day%2C107&sr=1-1-catcorr&th=1

109 euro per un 2 TB con buon TBW a 1500.

Non lo preferisco al Kingston per pregiudizio sul software della casa cinese e sull'effettivo TBW (comunque inferiore al Kingston).

BTW mi pare migliore di molti ssd per il prezzo a cui lo propongono. E a differenza dell'hynix è venduto e spedito da Amazon.

Galandil
12th July 2023, 18:35
Segnalo questa promo non Prime day ma comunque interessante:

Lexar NM790 SSD Interno 2TB, M.2 2280 PCIe Gen4x4 NVMe SSD, Fino a 7400MB/s in Lettura, 6500MB/s in Scrittura

https://www.amazon.it/Lexar-Interno-Scrittura-giocatori-LNM790X002T-RNNNG/dp/B0C4H4YH8V/ref=sr_1_1?crid=12THUHIC62O1A&keywords=lexar%2Bnm790&psr=PDAY&qid=1689175625&s=prime-day&sprefix=lexar%2Bnm790%2Cprime-day%2C107&sr=1-1-catcorr&th=1

109 euro per un 2 TB con buon TBW a 1500.

Non lo preferisco al Kingston per pregiudizio sul software della casa cinese e sull'effettivo TBW (comunque inferiore al Kingston).

BTW mi pare migliore di molti ssd per il prezzo a cui lo propongono. E a differenza dell'hynix è venduto e spedito da Amazon.

Non lo conoscevo, sembra molto interessante. Hanno levato la DRAM per abbassare il costo ed è in grado di usare il Dynamic SLC caching, e consuma al max 3,5W. Questo è perfetto per un portatile, oltre che un PC desktop.

Glorifindel
13th July 2023, 08:24
Bon, ho comprato anche la 7900 XTX Vapor-X. Per un periodo ieri sera Amazon l'ha alzata a 1227 per sfruttare l'eccesso di richieste dopo la news del bundle con Starfield; come stamane ho visto che era tornata a 1159 ho strisciato e chiuso lì.
BPM la dà a 1103 mi pare, ma mi hanno confermato per email che non aderiscono alla promo di AMD, quindi con loro niente bundle.

Finalmente abbiamo chiuso, adesso aspettiamo arrivi tutto e procediamo all'assemblaggio :nod:

San Vegeta
13th July 2023, 09:01
qualcuno mi spiega perchè vedo le 4060va 30 euro in più delle 3060?

Sulimo
13th July 2023, 09:13
qualcuno mi spiega perchè vedo le 4060va 30 euro in più delle 3060?

Perchè a detta di diversi recensori è na scheda demmerda

Glorifindel
13th July 2023, 09:33
E' il vizietto di Nvidia... se la tira per i cuda cores e lesina sulla ram. Risultato: mette solo 8 gb di ram sulla 4060 e la roba non gira :sneer: