60 un ryzen li fai se metti il PC in balcone :sneer:
Sia chiaro, sono temperature alte ma bisogna conviverci, dipende dall'architettura della CPU.
Ti consiglierei di fare un po' di undertvolt ma non so se hai cazzi
Printable View
Controllati i bench per il tuo dissi (+cpu ) e vedi se sei in range coi risultati , se proprio vuoi toglierti il gusto .
Anche a me 70°+ suonano un pelo alti per una cpu sotto liquido , pero' e' anche vero che ho zero esperienza con questa ultima gen di ryzen , sei comunque bello distante dal tjmax , che ti giri a 50/60/70 non ti cambia mica nulla .
Mi sono appena guardato il bench di GN per il 5900x, sta sui 61 gradi in cinebench. Con un AIO da 280mm (la metodologia si può trovare qua: https://www.gamersnexus.net/guides/3...le-gaming-more).
Però ventole e pompa al massimo. Non so che pensare :sneer:
prova a girare il rad :D
Ecco perché ho preso un nh-D15 e non un AIO :hidenod:
Per alimentatore, ho preso un nzxt c850 (overkill) il 10 dicembre. Amazon mi da ancora " data di consegna da definire".
Ieri sera ho ordinato un CX650M semi modulare del cazzo tanto per provare il PC nuovo e che poi renderò e gg. Però è davvero la prima volta che ordino qualcosa che poi "sparisce". Incredibile!
GG, dai che ci sei :D
Cambiando discorso, ma comunque in relazione alle temperature, pare esserci un problema con CPU AMD e Epic Launcher: https://videocardz.com/newz/epic-gam...y-game-running
Testato con mano, ero stranito dai 50° in idle che teneva il mio pc. Chiuso Epic Launcher son sceso a 36°.
Io boh :rotfl:
Dissipatore eccezionale, 3 macchine in studio da me ci hanno renderizzato per anni senza mai passare i 65 gradi, ma nonostante io rimanga un sostenitore dei dissipatori ad aria devo ormai ammettere che un D15 nei moderni mid-case è veramente come un elefante nella stanza. Riesco a vederlo solo nei tower case, in tutti gli altri mid finestrati devo ammettere che purtroppo un AIO da 240 si integra molto meglio sia esteticamente che funzionalmente (nel mettere le mani dentro o anche semplicemente nello spostare il case ti senti più agile).
Problema di gioventù? Si verifica solo sulla serie 5xxx o anche sulle precedenti 3xxx\2xxx? Nei commenti leggo di gente che ha avuto lo stesso problema con Intel 8700k. Boh darei la colpa al launcher di merda.
io possesore di 8700k , egs non mi da nessun problema di temp , in oltre sono anche possessore di nh-d15 , su suddetta cpu , raramente vedo tempo oltre i 65 , solo bench in pratica , e tengo le ventole cappate al 60% tipo .
i Ryzen non sono come gli intel, hanno degli hotspot incredibili, anche se il TDP è sulla carta più basso (anche perché se lo sono definito da solo con una formula di topo gigio) tenerli freddi è molto difficile. Io in fullstress (cpu + gpu) raggingo i 70 gradi con un custom loop, in game sto sui 55-58
OMMIODDIO RAGGIUNGONO I 70° A PIENO CARICO, CHIAMATE I POMPIERI!!!1ONE
:rotfl::rotfl::rotfl::rotfl::rotfl::rotfl::rotfl:: rotfl:
E ora mi aspetto il solito ad hominem "AMD fanboy" dai vari Dunning-Kruger della sezione. :confused:
La 3080 sta a 41 gradi, tanto per dare un termine di paragone. E sono nello stesso loop.
Ah, la gpu ha un tdp di 350w, contro 105 (lol) del processore?
Ora il sensore Nvidia è molto conservativo e quello ryzen molto "esagerato", ma dagli hotspot dipende il PB2. Di fatto, almeno gli zen2, non boostano MAI alla frequenza ufficiale a causa delle limitazioni delle temperature praticamente a prescindere da quel che usi.
Poi vabbè smanettando si ottengono boost importanti, ma già il fatto che con un tool di merda che fa undertvolt uno prende fino al 10% di performance dimostra che il PB2 sia molto acerbo.
Non so come sia con zen3, ma essendo la gran parte del processore uguale a zen2 a sentimento mi aspetto abbia lo stesso comportamento
1) Stai confrontando valori riportati dai sensori, che per quanto possano essere precisi, sono misurati in modo differente (posizione e quantità degli stessi nel die, valore riportato rispetto a quello effettivo, singola misurazione della Tj vs ad esempio il sistema di reporting di un'array di sensori quali quelli usati da AMD sulle GPU dalla serie 5000, ecc.). In sostanza: mele con pere. L'unico modo per poter fare un confronto davvero valido è quello di utilizzare una termocoppia (o più di una, preferibilmente) per misurare la temperatura fra superficie della CPU/GPU e dissipatore.
2) A questo si aggiunge un discorso di fisica tecnica (anche se sarebbe termodinamica di base, ma vabbé): le CPU Intel hanno una superficie del die molto + grande di un Ryzen (idem le nVidia vs Navi), visto che Intel ancora viaggia 14nmviolone++++, Ryzen invece è a 7nm, e per le GPU RDNA2 è sempre a 7nm, mentre la serie 3000 usa il nodo lievemente superiore, 8nm. Per fare un esempio pratico: 3080 628 mm², 6800XT 520 mm², il 20% in più. Questo, banalmente, implica che la *stessa* potenza dissipata, per forza di cose, genera una temp superiore su un die di superficie più piccola. Ed è per quello che AMD indica (anche se con la formuletta del cazzo inventata da loro) una TDP inferiore: dovesse utilizzare lo stesso TDP di un Intel si friggerebbe seduta stante, visto che sotto carico un 5900X assorbe all'incirca quanto un 10900K (e prima di leggere altre bestialità: potenza assorbita != potenza dissipata per effetto joule).
A fronte di tutto questo: non esiste una temperatura OGGETTIVAMENTE alta per un qualsiasi integrato - ciascuno sulla base delle sue caratteristiche fisiche ha un range operativo standard e una temp massima da non dover superare. Il fatto che un Intel possa reportare sotto carico 60-65°, mentre un AMD 70°-75° (sempre mancando la possibilità di checkare con la termocoppia di cui sopra) è ASSOLUTAMENTE IRRILEVANTE. L'unica cosa importante è non superiore la max temp operativa, sempre stabilita dal produttore (e che cmq ha dei sistemi di fail safe per evitare di friggerla, ricevendo in caso solo errori momentanei di crescita della banda di conduzione, senza danni permanenti, che noi sperimentiamo come BSOD ad esempio). Per fare un confronto, il 10900K ha una max temp di 94°, il 5900X di 98°.
Quindi fatti il favore di studiarti un po' di roba di base prima di venire a fare i tuoi soliti pippotti da cazzaro alla J2C, che a me fotte un cazzo visto che di elettronica ne so sicuramente ed evidentemente più di te, ma per evitare di dare informazioni sballate ad altri che non ne sanno nulla, ma che almeno non s'atteggiano ad esperti di cose alla Fru.
Ma studiare che, che ripeti i post di Reddit fatti da gente che non ha la cpu :D
1- la densità del die è una delle cause ma come detto anche da te stesso altre architetture non soffrono di hotspot quanto zen. Il problema di fatto non c’è sulle gpu o su cpu con architettura diversa (dillo al M1 a 5nm che è GELIDO). La presenza di hotspot è causata dell’architettura più che dal processo produttivo.
2- il fatto che sia irrilevante è una stronzata gigante proprio per come funziona zen e il PB2. La frequenza della cpu è di fatto dinamica e dipende unicamente dalla temperatura. Ed è ESTREMAMENTE sensibile. 3-5 gradi ti fan ballare 200mhz. Un Intel o una gpu cercano sempre di boostare al massimo e poi vanno in throttling, mentre il pb2 è molto più fine. Sopra i 60 già inizia a tagliare.
Quindi la frequenza dipende dalla temperatura, ma a causa degli hotspot si fa molto fatica a gestirla a prescindere dal dissipatore, e questo ha un impatto diretto sulle performance. Come detto, è quasi impossibile farli boostare alla frequenza dichiarata.
poi sia chiaro non è che sia una merda, ma non è così deterministico come altre architetture. Per esempio, un 3900X con un cooler decente gira realisticamente nel range 4100-4500, invece che i 3.8-4.6 da spec. Un 3900X di oggi, agli inizi il processo produttivo era molto più acerbo e alcuni non superavano i 4 giga.
Pian piano che stabilizzano il processo produttivo mi aspetto riusciranno ad essere più aggressivi col PB2.
Ventole ritardano fino a fine gennaio, in compenso ho l'ssd gen4 sostitutivo qua da qualche giorno ma ho paura a montarlo che poi non vada :sneer:
Installato l'SSD oggi dopo aver smadonnato per ore perchè non trovavo la cazzo di vite per fissarlo allo slot M2 :facepalm:
Funziona, grazie a dio.
Testato un po' con CrystalDiskMark e le performance sono sensibilmente migliori rispetto al secondario (Adata SX8200 Pro), sebbene siano entrambi NVMe.
Tbh non so quanto poi le differenze siano effettivamente apprezzabili in uso reale, a memoria mi pare di ricordare test dove oltre una certa velocità - a meno di casi d'uso specifici - non si notava la differenza.
Quello che mi perplime sono le temperature: il Corsair Force MP600 mi gira a 47° in idle, salendo fino a 60° durante il bench. Di contro, l'Adata sta a 35° in idle e 48° sotto stress.
Entrrambe le temp rilevate col case aperto (non so se faccia molta differenza col case chiuso visto che entrambi hanno dissipazione passiva, domani provo).
Non sono un po' alte? Leggevo che a molti sta a 55° sotto stress, e la differenza rispetto all'altro SSD è enorme (circa il 30%)
Pensandoci effettivamente di base ha un heatsink gigante, che io non uso perché uso quello della mobo che però non sembra essere così efficace. Ad occhio quantomeno, uno è enorme e con mille lamelle l'altro è un tocco di ferro piatto e bon :sneer:
Bench e temperature visibili qui: https://imgur.com/a/GROVSRW
Le temp degli m.2 sono un po' come sono :D , anche io ne ho due per assurdo quello montato sotto la gpu sta sui 30-45 e l'altro invece completamente libero fa 35-50+ , ancora un volta finche stai sotto le temp massime , di solito dai 70 agli 85° dipende dai modelli , non te ne preoccupare .
Per le prestazioni in uso domestico non ci sono differenze percettibili , anche fra un ssd sata e un m.2 , si fa molta fatica a notare differenze , e' piu' una questione di onanismo elettronico ^_^
i pci-e 4.0 hanno temp molto più alte dei pci-3 3.0.
Quando ho preso il pc io i modelli 4.0 offivano poco a performance in più (ora i modelli più recenti invece hanno differenze tangibili, ma come dicevi nella realtà sono poche le applicazioni dove fan differenza) ma scaldavano tanto, e non lo ho preso per questo.
Comunque non crea problemi
Buona domenica a tutti
allora, la mia morosa -come regalo di natale- mi ha droppato un incredibile schermo gaming (alienware AW3420DW)
Un giocattolo da 34 pollici, 120hz, 2ms e 1440p risoluzione
E' un modo tenero per dirmi che ho diritto a giocare di nuovo, e sapete che c'e'? la prendo in parola
Ditemi un po' cosa ne pensate di questa config, visto che voglio essere sicuro di darci il massimo
CPU: i9 - 10900k
MOBO: Asus ROG Maximus WII Formula
Ram: G.SKILL TridentZ RGB Series 16GB DDR4 2x8GB 3200MHz X 2
SSD: Samsung 970 EVO Plus NVME M.2 PCIe SSD 1TB X 2
VGA : Nvidia RTX 3090 FE
PSU: Corsair Hx1000i 1000 Watt Fully Modular 80+ Platinum Certified
Case: Lian Li O11 Dynamic XL ROG TG E-ATX Full Tower
CPU cooling: NZXT Kraken X53 240MM AIO RGB Liquid Cooler
Che ne dite?
I miei dubbi sono su questa benedetta 3090, non capisco se uno schermo curvo a 1440p e 120hz e' piu' o meno esoso di un 24/26 a 120hz/160hz ma in 4k gaming
La 3090 non ti serve, prendi la 3080.
Intel non ha senso, prendi un 5600-5900x a seconda di cosa vuoi farci oltre giocare, ma se prendi 16 giga di RAM direi che produttività non ti interessa.
Mb da 600 euro ad un profano serve a un cazzo, prendi una mid range (le strix se resti su Asus)
O11 Dynamic XL con quella config ti resta vuoto, ti basta la versione non XL
In sostanza, prendi il PC uguale a quello di axet
Mi spiegheresti perche' la 3090 non ha senso? C'e' una bella differenza di prezzo, sarei ben interessato a capire i dettagli
Oltretutto, perche' AMD e non Intel? in cosa non ha senso? Sicuro quel modello e non un 3900XT?
Riguardo alla mb, in mio prossimo DIY priject sarebbe fare full tube cooling :) Pensavo per quello
I GB di Ram son 32, ci faro' anche photo e video editing, ma non sono un pro
Perfetto per il case, ero preoccupato dalla dimensione della scheda video e temevo non passasse aria o diventasse un casino di cavi
E ti resta pure sovradimensionato con quel monitor quasi :nod:
Comunque concordo, prendi il mio e fai copia incolla.
Se vuoi cambiare l'SSD principale per qualcosa di diverso ok, ma tanto non fa differenza.
Non prenderei però il secondario uguale al primario e nella stessa taglia, prendi qualcosa di più lento e più capiente che tanto è per storage (e cmq velocissimo).
Prendi la mia config, non mettere 300 euro di ventole a caso come ho fatto io che tanto sono più per estetica che altro (ma qualche ventola devi cmq prenderla che il PC-O11D viene senza ventole).
Rad per la CPU per me un 240mm è piccolo per sto case, andrei di 360mm che calza a pennello. Puioi risparmiare e non prenderei l Z73 che costa 100 euro in più solo per lo schermo da nerd. Vai di X73 o qualche altro AIO valido da 360mm.
Se poi ci dai un budget è più facile anche ottimizzare.
Ultimo punto: la GPU, la 3090 è sprecata, pure io ci avevo fatto un pensiero ma è veramente no-sense. Per giocare a 1440p la 3080 basta e avanza, se vuoi qualcosa di più futuribile e non hai fretta a Febbraio dovrebbero annunciare la 3080TI, che praticamente è una 3090 ma con 20GB di VRAM invece che 24GB, però a 500$ in meno.
Il problema è che, con la scarsità di disponibilità attuale, chissà quando riuscirai a prenderla (se ti va di gran culo a Febbraio, altrimenti potresti andare fino a Aprile/Maggio).
Recap sulla mia config
- CPU: Ryzen 5900X
- GPU: Gigabyte Aorus 3080 Waterforce (obv non prenderla a liquido che non serve a un cazzo)
- Dissipatore: Kraken Z73 (360mm)
- RAM: 4x8GB G-skill Trident Z RGB 3600mhz (16-16-16-36)
- Mobo: Asus Rog Strix X570-e Gaming
- PSU: Corsair HX850i (platinum)
- Ventole: 9x Lian-Li Unifan SL120
- Case: Lian-Li PC011-D Razer edition
Come detto puoi risparmiare un sacco togliendo RGB e menate, ma se prendi un case come il O11 immagino tu lo voglia da bimbominkia come me :sneer:
Perchè se guardi i bench è un 10-15% più veloce della 3080, al doppio del prezzo. Paghi un botto per i 24GB di VRAM che sono inutili in gaming, può avere senso se fai robe che usano tanta VRAM.
A sto punto aspetta la 3080TI.
Che poi, giochi a una risoluzione relativamente bassa con quel monitor, è potenza sprecata.
AMD e non Intel perchè basta guardarsi i bench, il 5900X batte il 10900k sostanzialmente in tutto e di tanto.
Se vuoi fare un full loop allora la mobo ha senso, altrimenti son solti buttati nel cesso.
Se prendi una 3090 però effettivamente un pensiero al case XL ce lo farei, è gigantesca. Però non ti consiglio di prendere la 3090 di base :sneer:
Edit per precisare:
La 3090 e un 10/15% più veloce della 3080 in alcuni giochi e a 4K, in altri la differenza è minima. Più la risoluzione scende, più la distanza si assottiglia.
oddio sto giocando a control e faccio ~100 fps in media con DLS attivo a 2k, sovradimensionato no, direi giusto. Salire sopra i 60fps a 4k su titoli next gen al momento è MOLTO difficile. Anche su death stranding, senza DLS, non cappavo i 160 fps del monitor. Ho una CPU diversa ma a 2k già non fa praticamente differenza a dettagli ultra.
La mobo sono soldi buttati nel cesso in ogni caso, prendi una mid range (Strix o MSI Tomahawk cose così)
Se vuoi farti un custom loop lo XL ha senso che hai più spazio per mettere i rad (soprattutto se non lo hai mai fatto è comodo avere spazio aggiuntivo), altrimenti non ha senso. Tra l'altro custom loop semi decente ti servono 500 euro minimo, quel che rispami in GPU lo metti in watercooling.
La 3090 in game ha un vantaggio prestazionale intorno al 5%. E costa il doppio. Non ha senso.
Le ram nel tuo post hai scritto 8x2 che fa 16 :D
Anche il 5900X è sprecato comunque, per gaming basta il 5600X. Volendo il 5800X che non sa ne di carne ne di pesce ma almeno è sotto i 500 euro. Io ho il 3900X per sfizio, e non ho mai usato realmente i 12 core.
Al momento la config è semplice: quella di Axet, con la variabile cpu 5600X-5800X-5900X in base all'utilizzo/budget. (Ovviamente non considero ventole e AIO come parte della config, li ci sono mille cose che vanno bene uguali che si possono prendere ma è prematuro parlarne, soprattutto se vuoi fare un custom loop).
ps. quanto cazzo scalda la 3080 comunque, control la spreme e ieri sera ad una certa avevo alzato la temperatura della stanza di 3 gradi :sneer:
Allora come budget stavo guardando come (max max) intorno ai 4500 euro, tutto incluso.
Poi ovvio, se mi fate spendere meno io son solo felice.
Nel caso specifico ho letto i benchmark della 3090, ma non so interpretarli su schermi curvi grandi, quindi ero confuso.
la ram e' questa G.SKILL TridentZ RGB Series 16GB DDR4 2x8GB 3200MHz Desktop Memory e ne prenderei 2 (2x2x8) quindi 32
comunque ho appena sentito lo spacciatore local di roba
la cpu 5900X costa piu' dell'intel 10900k e la mobo costa piu' della core maximus
Ma e' cosi' pure in italia/germany?
In game vanno tutti uguale eh, nessun gioco usa 24 thread
Prendi un 5800x e una Strix-e / Msi tomahawk. x570 o se vuoi risparmiare qualcosa b550 tanto alla fine cambia poco.
Non so mo dove ti collochi :nod:
Ram prendi i kit x4 che sono già fatti apposta
Io ho speso 4k (5.5k considerando il monitor, 6.2k aggiungendo il vr, 7.5k considerando anche la rig per simracing) ma con la 3080, se metti una 3090 sfori i 4.5k.
Però se tagli su rgb e cose da bimbominkia tagli un 500 euro, a spanne, e ti ci entra la 3090. Però è stupido imho, a sto punto aspetta e fatti la 3080Ti.
Io sono in Svizzera, la mia mobo costa molto meno della Maximus, mentre il 5900x costa un 30/40 in più del 10900k (ma è superiore in ogni aspetto ergo ci sta)
edit:
per la RAM, se vai di intel non so, ma per Ryzen ci sono bench che dimostrano come 4 stick offrano prestazioni decisamente migliori (anche nell'ordine del 15%, però dipende sempre dalla risoluzione e cazzi vari)
Recap rapido: i 5900X costano di più dei 10900K perché sono, letteralmente, andati a ruba, e i retailers alzano il prezzo di parecchio (stesso discorso per tutte le schede video di ultima gen).
3090: truffa per binBiminkia, salvo casi iperparticolari di chi ha davvero bisogno di 24GB di VRAM (task 3D di modeling/sculpting/rendering pesanti). Come la 6900XT.
Mobo: Gigabyte B550 Aorus Pro - best bang for bucks (VRM di alta qualità, 2 slot NVMe, ecc.).
RAM: la cosa importante è avere dei banchi con 2 ranks per canale, quindi o 4 banchi single rank (2 banchi x canale), o 2 banchi dual rank (1 banco x canale).
nel caso in cui interessino gli RGB, evitate gigabyte come la peste
è una roba semplicemente indecente, non sono più incazzato solo perché è solo per la GPU. Avessi tutta la MB da gestire con fushon avrei buttato tutto fuori dalla finestra. Online ci sono storie dell'orrore, smette di funzionare e non va fino a che non formatti, corrompe le ram, cose così. Che poi lo devi usare anche solo per tenerli spenti, ma non puoi dirgli cosa controllare e cosa no, appena lo lanci lui quel che trova se lo prende. Tipo le ram le "rubava" alla MB Asus. Ho duvuto cancellare dei file dll a caso per fare in modo che non vedesse più le ram. Senza parole.
Partendo dal fatto che vi sta bene così imparate a ficcare le giostre multicolore nei pc, non ho dati per confutare quello che dite, ma a pelle mi son sempre state sul cazzo le Gigabyte di passata generazione, mi han lasciato un senso di sfiducia strano peggio di Asus.
Il tecnico\manutentore\sistemista dell studio dove lavoro, persona che conosce e sa lavorare anche sulle circuiterie (ripararando proprio la componentistica bruciata) sposa fortemente MSI dicendo che lato costruttivo atm è superiore. Anche lì non saprei confutare la cosa, ma overall io mi associo al fanculo Gigabyte, buy MSI, RGB or not.
Nel consigliare la GB Aourus Pro B550 mi sono basato sull'ultimo recap delle mobo per Ryzen fatto da Buildzoid. Come detto in passato, alla fine ogni marca ha robe ben fatte e altre di merda, tipo ho letto che recentemente le ASRock perdono parecchi colpi, mentre anni fa le loro mobo erano davvero ottime.
Poi si, vi devono esplodere tutti gli RGB nel case, che è cosa buona e giusta. :hidenod: