OMMIODDIO RAGGIUNGONO I 70° A PIENO CARICO, CHIAMATE I POMPIERI!!!1ONE
E ora mi aspetto il solito ad hominem "AMD fanboy" dai vari Dunning-Kruger della sezione.![]()
OMMIODDIO RAGGIUNGONO I 70° A PIENO CARICO, CHIAMATE I POMPIERI!!!1ONE
E ora mi aspetto il solito ad hominem "AMD fanboy" dai vari Dunning-Kruger della sezione.![]()
Last edited by Galandil; 27th December 2020 at 20:23.
La 3080 sta a 41 gradi, tanto per dare un termine di paragone. E sono nello stesso loop.
Ah, la gpu ha un tdp di 350w, contro 105 (lol) del processore?
Ora il sensore Nvidia è molto conservativo e quello ryzen molto "esagerato", ma dagli hotspot dipende il PB2. Di fatto, almeno gli zen2, non boostano MAI alla frequenza ufficiale a causa delle limitazioni delle temperature praticamente a prescindere da quel che usi.
Poi vabbè smanettando si ottengono boost importanti, ma già il fatto che con un tool di merda che fa undertvolt uno prende fino al 10% di performance dimostra che il PB2 sia molto acerbo.
Non so come sia con zen3, ma essendo la gran parte del processore uguale a zen2 a sentimento mi aspetto abbia lo stesso comportamento
1) Stai confrontando valori riportati dai sensori, che per quanto possano essere precisi, sono misurati in modo differente (posizione e quantità degli stessi nel die, valore riportato rispetto a quello effettivo, singola misurazione della Tj vs ad esempio il sistema di reporting di un'array di sensori quali quelli usati da AMD sulle GPU dalla serie 5000, ecc.). In sostanza: mele con pere. L'unico modo per poter fare un confronto davvero valido è quello di utilizzare una termocoppia (o più di una, preferibilmente) per misurare la temperatura fra superficie della CPU/GPU e dissipatore.
2) A questo si aggiunge un discorso di fisica tecnica (anche se sarebbe termodinamica di base, ma vabbé): le CPU Intel hanno una superficie del die molto + grande di un Ryzen (idem le nVidia vs Navi), visto che Intel ancora viaggia 14nmviolone++++, Ryzen invece è a 7nm, e per le GPU RDNA2 è sempre a 7nm, mentre la serie 3000 usa il nodo lievemente superiore, 8nm. Per fare un esempio pratico: 3080 628 mm², 6800XT 520 mm², il 20% in più. Questo, banalmente, implica che la *stessa* potenza dissipata, per forza di cose, genera una temp superiore su un die di superficie più piccola. Ed è per quello che AMD indica (anche se con la formuletta del cazzo inventata da loro) una TDP inferiore: dovesse utilizzare lo stesso TDP di un Intel si friggerebbe seduta stante, visto che sotto carico un 5900X assorbe all'incirca quanto un 10900K (e prima di leggere altre bestialità: potenza assorbita != potenza dissipata per effetto joule).
A fronte di tutto questo: non esiste una temperatura OGGETTIVAMENTE alta per un qualsiasi integrato - ciascuno sulla base delle sue caratteristiche fisiche ha un range operativo standard e una temp massima da non dover superare. Il fatto che un Intel possa reportare sotto carico 60-65°, mentre un AMD 70°-75° (sempre mancando la possibilità di checkare con la termocoppia di cui sopra) è ASSOLUTAMENTE IRRILEVANTE. L'unica cosa importante è non superiore la max temp operativa, sempre stabilita dal produttore (e che cmq ha dei sistemi di fail safe per evitare di friggerla, ricevendo in caso solo errori momentanei di crescita della banda di conduzione, senza danni permanenti, che noi sperimentiamo come BSOD ad esempio). Per fare un confronto, il 10900K ha una max temp di 94°, il 5900X di 98°.
Quindi fatti il favore di studiarti un po' di roba di base prima di venire a fare i tuoi soliti pippotti da cazzaro alla J2C, che a me fotte un cazzo visto che di elettronica ne so sicuramente ed evidentemente più di te, ma per evitare di dare informazioni sballate ad altri che non ne sanno nulla, ma che almeno non s'atteggiano ad esperti di cose alla Fru.
Last edited by Galandil; 28th December 2020 at 03:16.
Ma studiare che, che ripeti i post di Reddit fatti da gente che non ha la cpu
1- la densità del die è una delle cause ma come detto anche da te stesso altre architetture non soffrono di hotspot quanto zen. Il problema di fatto non c’è sulle gpu o su cpu con architettura diversa (dillo al M1 a 5nm che è GELIDO). La presenza di hotspot è causata dell’architettura più che dal processo produttivo.
2- il fatto che sia irrilevante è una stronzata gigante proprio per come funziona zen e il PB2. La frequenza della cpu è di fatto dinamica e dipende unicamente dalla temperatura. Ed è ESTREMAMENTE sensibile. 3-5 gradi ti fan ballare 200mhz. Un Intel o una gpu cercano sempre di boostare al massimo e poi vanno in throttling, mentre il pb2 è molto più fine. Sopra i 60 già inizia a tagliare.
Quindi la frequenza dipende dalla temperatura, ma a causa degli hotspot si fa molto fatica a gestirla a prescindere dal dissipatore, e questo ha un impatto diretto sulle performance. Come detto, è quasi impossibile farli boostare alla frequenza dichiarata.
hdr.
bnet profile
poi sia chiaro non è che sia una merda, ma non è così deterministico come altre architetture. Per esempio, un 3900X con un cooler decente gira realisticamente nel range 4100-4500, invece che i 3.8-4.6 da spec. Un 3900X di oggi, agli inizi il processo produttivo era molto più acerbo e alcuni non superavano i 4 giga.
Pian piano che stabilizzano il processo produttivo mi aspetto riusciranno ad essere più aggressivi col PB2.
hdr.
bnet profile
Ventole ritardano fino a fine gennaio, in compenso ho l'ssd gen4 sostitutivo qua da qualche giorno ma ho paura a montarlo che poi non vada![]()
I'm no hero. Never was. Never will be.
-----
Soul of the mind, key to life's ether
Soul of the lost, withdrawn from its vessel
May strength be granted so the world might be mended...
So the world might be mended...
Installato l'SSD oggi dopo aver smadonnato per ore perchè non trovavo la cazzo di vite per fissarlo allo slot M2
Funziona, grazie a dio.
Testato un po' con CrystalDiskMark e le performance sono sensibilmente migliori rispetto al secondario (Adata SX8200 Pro), sebbene siano entrambi NVMe.
Tbh non so quanto poi le differenze siano effettivamente apprezzabili in uso reale, a memoria mi pare di ricordare test dove oltre una certa velocità - a meno di casi d'uso specifici - non si notava la differenza.
Quello che mi perplime sono le temperature: il Corsair Force MP600 mi gira a 47° in idle, salendo fino a 60° durante il bench. Di contro, l'Adata sta a 35° in idle e 48° sotto stress.
Entrrambe le temp rilevate col case aperto (non so se faccia molta differenza col case chiuso visto che entrambi hanno dissipazione passiva, domani provo).
Non sono un po' alte? Leggevo che a molti sta a 55° sotto stress, e la differenza rispetto all'altro SSD è enorme (circa il 30%)
Pensandoci effettivamente di base ha un heatsink gigante, che io non uso perché uso quello della mobo che però non sembra essere così efficace. Ad occhio quantomeno, uno è enorme e con mille lamelle l'altro è un tocco di ferro piatto e bon
Bench e temperature visibili qui: https://imgur.com/a/GROVSRW
I'm no hero. Never was. Never will be.
-----
Soul of the mind, key to life's ether
Soul of the lost, withdrawn from its vessel
May strength be granted so the world might be mended...
So the world might be mended...
Le temp degli m.2 sono un po' come sono, anche io ne ho due per assurdo quello montato sotto la gpu sta sui 30-45 e l'altro invece completamente libero fa 35-50+ , ancora un volta finche stai sotto le temp massime , di solito dai 70 agli 85° dipende dai modelli , non te ne preoccupare .
Per le prestazioni in uso domestico non ci sono differenze percettibili , anche fra un ssd sata e un m.2 , si fa molta fatica a notare differenze , e' piu' una questione di onanismo elettronico ^_^
i pci-e 4.0 hanno temp molto più alte dei pci-3 3.0.
Quando ho preso il pc io i modelli 4.0 offivano poco a performance in più (ora i modelli più recenti invece hanno differenze tangibili, ma come dicevi nella realtà sono poche le applicazioni dove fan differenza) ma scaldavano tanto, e non lo ho preso per questo.
Comunque non crea problemi
hdr.
bnet profile
Buona domenica a tutti
allora, la mia morosa -come regalo di natale- mi ha droppato un incredibile schermo gaming (alienware AW3420DW)
Un giocattolo da 34 pollici, 120hz, 2ms e 1440p risoluzione
E' un modo tenero per dirmi che ho diritto a giocare di nuovo, e sapete che c'e'? la prendo in parola
Ditemi un po' cosa ne pensate di questa config, visto che voglio essere sicuro di darci il massimo
CPU: i9 - 10900k
MOBO: Asus ROG Maximus WII Formula
Ram: G.SKILL TridentZ RGB Series 16GB DDR4 2x8GB 3200MHz X 2
SSD: Samsung 970 EVO Plus NVME M.2 PCIe SSD 1TB X 2
VGA : Nvidia RTX 3090 FE
PSU: Corsair Hx1000i 1000 Watt Fully Modular 80+ Platinum Certified
Case: Lian Li O11 Dynamic XL ROG TG E-ATX Full Tower
CPU cooling: NZXT Kraken X53 240MM AIO RGB Liquid Cooler
Che ne dite?
I miei dubbi sono su questa benedetta 3090, non capisco se uno schermo curvo a 1440p e 120hz e' piu' o meno esoso di un 24/26 a 120hz/160hz ma in 4k gaming
gratz.
La 3090 non ti serve, prendi la 3080.
Intel non ha senso, prendi un 5600-5900x a seconda di cosa vuoi farci oltre giocare, ma se prendi 16 giga di RAM direi che produttività non ti interessa.
Mb da 600 euro ad un profano serve a un cazzo, prendi una mid range (le strix se resti su Asus)
O11 Dynamic XL con quella config ti resta vuoto, ti basta la versione non XL
In sostanza, prendi il PC uguale a quello di axet
Mi spiegheresti perche' la 3090 non ha senso? C'e' una bella differenza di prezzo, sarei ben interessato a capire i dettagli
Oltretutto, perche' AMD e non Intel? in cosa non ha senso? Sicuro quel modello e non un 3900XT?
Riguardo alla mb, in mio prossimo DIY priject sarebbe fare full tube coolingPensavo per quello
I GB di Ram son 32, ci faro' anche photo e video editing, ma non sono un pro
Perfetto per il case, ero preoccupato dalla dimensione della scheda video e temevo non passasse aria o diventasse un casino di cavi
gratz.
E ti resta pure sovradimensionato con quel monitor quasi
Comunque concordo, prendi il mio e fai copia incolla.
Se vuoi cambiare l'SSD principale per qualcosa di diverso ok, ma tanto non fa differenza.
Non prenderei però il secondario uguale al primario e nella stessa taglia, prendi qualcosa di più lento e più capiente che tanto è per storage (e cmq velocissimo).
Prendi la mia config, non mettere 300 euro di ventole a caso come ho fatto io che tanto sono più per estetica che altro (ma qualche ventola devi cmq prenderla che il PC-O11D viene senza ventole).
Rad per la CPU per me un 240mm è piccolo per sto case, andrei di 360mm che calza a pennello. Puioi risparmiare e non prenderei l Z73 che costa 100 euro in più solo per lo schermo da nerd. Vai di X73 o qualche altro AIO valido da 360mm.
Se poi ci dai un budget è più facile anche ottimizzare.
Ultimo punto: la GPU, la 3090 è sprecata, pure io ci avevo fatto un pensiero ma è veramente no-sense. Per giocare a 1440p la 3080 basta e avanza, se vuoi qualcosa di più futuribile e non hai fretta a Febbraio dovrebbero annunciare la 3080TI, che praticamente è una 3090 ma con 20GB di VRAM invece che 24GB, però a 500$ in meno.
Il problema è che, con la scarsità di disponibilità attuale, chissà quando riuscirai a prenderla (se ti va di gran culo a Febbraio, altrimenti potresti andare fino a Aprile/Maggio).
Recap sulla mia config
- CPU: Ryzen 5900X
- GPU: Gigabyte Aorus 3080 Waterforce (obv non prenderla a liquido che non serve a un cazzo)
- Dissipatore: Kraken Z73 (360mm)
- RAM: 4x8GB G-skill Trident Z RGB 3600mhz (16-16-16-36)
- Mobo: Asus Rog Strix X570-e Gaming
- PSU: Corsair HX850i (platinum)
- Ventole: 9x Lian-Li Unifan SL120
- Case: Lian-Li PC011-D Razer edition
Come detto puoi risparmiare un sacco togliendo RGB e menate, ma se prendi un case come il O11 immagino tu lo voglia da bimbominkia come me![]()
I'm no hero. Never was. Never will be.
-----
Soul of the mind, key to life's ether
Soul of the lost, withdrawn from its vessel
May strength be granted so the world might be mended...
So the world might be mended...
Perchè se guardi i bench è un 10-15% più veloce della 3080, al doppio del prezzo. Paghi un botto per i 24GB di VRAM che sono inutili in gaming, può avere senso se fai robe che usano tanta VRAM.
A sto punto aspetta la 3080TI.
Che poi, giochi a una risoluzione relativamente bassa con quel monitor, è potenza sprecata.
AMD e non Intel perchè basta guardarsi i bench, il 5900X batte il 10900k sostanzialmente in tutto e di tanto.
Se vuoi fare un full loop allora la mobo ha senso, altrimenti son solti buttati nel cesso.
Se prendi una 3090 però effettivamente un pensiero al case XL ce lo farei, è gigantesca. Però non ti consiglio di prendere la 3090 di base
Edit per precisare:
La 3090 e un 10/15% più veloce della 3080 in alcuni giochi e a 4K, in altri la differenza è minima. Più la risoluzione scende, più la distanza si assottiglia.
Last edited by Axet; 3rd January 2021 at 15:29.
oddio sto giocando a control e faccio ~100 fps in media con DLS attivo a 2k, sovradimensionato no, direi giusto. Salire sopra i 60fps a 4k su titoli next gen al momento è MOLTO difficile. Anche su death stranding, senza DLS, non cappavo i 160 fps del monitor. Ho una CPU diversa ma a 2k già non fa praticamente differenza a dettagli ultra.
La mobo sono soldi buttati nel cesso in ogni caso, prendi una mid range (Strix o MSI Tomahawk cose così)
Se vuoi farti un custom loop lo XL ha senso che hai più spazio per mettere i rad (soprattutto se non lo hai mai fatto è comodo avere spazio aggiuntivo), altrimenti non ha senso. Tra l'altro custom loop semi decente ti servono 500 euro minimo, quel che rispami in GPU lo metti in watercooling.
La 3090 in game ha un vantaggio prestazionale intorno al 5%. E costa il doppio. Non ha senso.
Le ram nel tuo post hai scritto 8x2 che fa 16
Anche il 5900X è sprecato comunque, per gaming basta il 5600X. Volendo il 5800X che non sa ne di carne ne di pesce ma almeno è sotto i 500 euro. Io ho il 3900X per sfizio, e non ho mai usato realmente i 12 core.
Al momento la config è semplice: quella di Axet, con la variabile cpu 5600X-5800X-5900X in base all'utilizzo/budget. (Ovviamente non considero ventole e AIO come parte della config, li ci sono mille cose che vanno bene uguali che si possono prendere ma è prematuro parlarne, soprattutto se vuoi fare un custom loop).
ps. quanto cazzo scalda la 3080 comunque, control la spreme e ieri sera ad una certa avevo alzato la temperatura della stanza di 3 gradi![]()
Last edited by Hador; 3rd January 2021 at 15:41.
hdr.
bnet profile