Page 73 of 80 FirstFirst ... 2363697071727374757677 ... LastLast
Results 1.081 to 1.095 of 1200

Thread: Il lungo viaggio verso un nuovo PC

  1. #1081
    Tuttologo Estrema's Avatar
    Join Date
    Sep 2003
    Location
    Perugia
    Posts
    31.685

    Default

    Quote Originally Posted by Hador View Post
    Mha a 2k I problemi con la vram non li hai, magari con dei settings assurdi su giochi ottimizzati col culo (the last of us), ma io non mi fasceri la testa. E sui 4k ad ultra con ste schede non ci giochi.

    All'atto pratico abbiamo una scheda che costa 550 euro e va meno di una 3080. Meglio che la perculata delle 4060, ma siamo alla sufficienza risicata. Ok non sono delle merde plateali come Nvidia, ma si sono impegnati proprio poco.
    mm cosi per curiosita se volessi gioca a 1080 senza pretese che scxheda dovrei compra hador visto che a senti te sembran tutte de merda

    ps ho una 1080 ti che fo me la tengo e risparmio soldi?

  2. #1082
    Lieutenant Commander Galandil's Avatar
    Join Date
    Jan 2005
    Location
    Somewhere
    Posts
    13.423

    Default

    Quote Originally Posted by Tunnel View Post


    Il video di Prodigeek, con il quale mi trovo perfettamente allineato.
    A 500€ la 7800XT ha senso, sopra anche no, e si fagocita la 7700xt che ha un pricing senza senso.

    Peccato, era l'occasione buona per AMD di squassare un po' la situazione.

    Speriamo in battlemage a 'sto punto
    Ho provato a vedere il video un po' timoroso. Al "c'è il frame generator" ho chiuso ridendo. Le solite minchiate.

    Voi fate come vi pare, resta che nel 2023 prendersi una GPU nuova con meno di 16GB è da minchioni, senza se e senza ma.

    Also, dove sarebbe che la 7800XT va meno di una 3080, se non in RT su un 2-3 titoli come Cyberpunk, R&C e Plague Requiem? In raster la 7800XT va meglio, mi chiedo se guardiate i risultati dei vari benchmarks in giro.

    E, again, state completamente evitando il discorso UE5, che sarà IL motore di riferimento a venire, nei due giochi che sfruttano parzialmente (Remnant 2 con Nanite) o totalmente Immortals of Aveum (Nanite e Lumen) le due features + importanti la 7800XT è avanti alla 4070, di circa il 25% a 2k (che è obv la target resolution di queste due schede, non ci pigliamo in giro che uno si prende una 7800XT o una 4070 per giocare a 1080p).

    Anyway, i benchmarksi sono out, i prezzi pure, ognuno tragga le conclusioni che preferisce, campate per aria o meno che siano.

  3. #1083
    Hador's Avatar
    Join Date
    Mar 2004
    Location
    Milano
    Posts
    31.321

    Default

    Immortals of Aveum fa 80 fps a 2k con una 4090.
    Invece che fare 25% in più (quanto, 5fps in media?) non è meglio per l'utente avere l'upscaler migliore?

  4. #1084
    Lieutenant Commander Galandil's Avatar
    Join Date
    Jan 2005
    Location
    Somewhere
    Posts
    13.423

    Default

    Quote Originally Posted by Hador View Post
    Immortals of Aveum fa 80 fps a 2k con una 4090.
    Invece che fare 25% in più (quanto, 5fps in media?) non è meglio per l'utente avere l'upscaler migliore?
    *Migliore a 1080p (target res), parzialmente migliore a 2k, a 4k se ti metto a guardare 100+ situazioni (screenshot e in game) di vari giochi fra DLSS e FSR azzeccherai l'upscaler corretto circa il 50% delle volte, a meno che tu non conosca i relativi difetti dei due upscalers (che sono differenti, in generale E come implementati in ogni singolo titolo). E anche in quel caso non saliresti sopra al 60-65%.

    E nessuno sano di mente si prenderebbe una 4090 o una XTX accoppiandole ad un 2k.

    Poi vabbé, avere l'upscaler "migliore" (e non lo è tout-court a 4k) per solo €600 in più. Affarone.

    Come detto in precedenza, la cosa migliore del pacchetto nVidia è Reflex, e ora vediamo come si comporta Anti-Lag+, non appena viene implementato su un titolo a cui gioco lo provo per curiosità da solo per vedere di quanto riduce la latenza. Che di reinstallare Cyberbug ho voglia esattamente zero, c'ho da giocare BG3.

    Gli nVidia fanboys tanto posso stare tranquilli, a breve potranno spipparsi su Alan Wake 2 in PATTRESING.

  5. #1085
    Tunnel's Avatar
    Join Date
    Mar 2004
    Location
    Location.
    Posts
    14.756

    Default

    Quote Originally Posted by Tunnel View Post

    Speriamo in battlemage a 'sto punto

    Quote Originally Posted by Tunnel View Post
    Quest'anno lato GPU sembra di assistere ad una competizione a far meno indetta dalla sede INPS di Crotone.


    Nvidia fanboy?!
    /Ponder
    Last edited by Tunnel; 10th September 2023 at 00:49.
    on Camelot Unchained (alpha):
    Nichodemus <GildaDiVecchieGlorieInPensione> - LaClasseCheCura - ServerName [soon]
    PG dei giochi vari in spoiler
    Spoiler


  6. #1086
    Lieutenant Commander Galandil's Avatar
    Join Date
    Jan 2005
    Location
    Somewhere
    Posts
    13.423

    Default

    Quote Originally Posted by Tunnel View Post
    Nvidia fanboy?!
    /Ponder
    Non mi pare di averti chiamato in causa direttamente. Perché ti sei sentito messo in tale schiera?

    A riguardo di Battlemage lo spero anche io che Intel diventi competitiva, anche se ultimamente girano voci non positive in tal senso (Intel che forse ha intenzione di chiudere baracca e burattini per la sezione GPU, anche se ci sono sample GPUs di Battlemage che sono state già inviate agli sviluppatori).

  7. #1087
    Tunnel's Avatar
    Join Date
    Mar 2004
    Location
    Location.
    Posts
    14.756

    Default

    Davo per buono che fosse confermata la produzione dei battlemage usando TSMC. Se escono dal ring è davvero una merda, anche perchè come prima prova le arc non era davvero per nulla male, una volta che i driver si sono un po' stabilizzati
    on Camelot Unchained (alpha):
    Nichodemus <GildaDiVecchieGlorieInPensione> - LaClasseCheCura - ServerName [soon]
    PG dei giochi vari in spoiler
    Spoiler


  8. #1088
    Hador's Avatar
    Join Date
    Mar 2004
    Location
    Milano
    Posts
    31.321

    Default

    Quote Originally Posted by Galandil View Post
    *Migliore a 1080p (target res), parzialmente migliore a 2k, a 4k se ti metto a guardare 100+ situazioni (screenshot e in game) di vari giochi fra DLSS e FSR azzeccherai l'upscaler corretto circa il 50% delle volte, a meno che tu non conosca i relativi difetti dei due upscalers (che sono differenti, in generale E come implementati in ogni singolo titolo). E anche in quel caso non saliresti sopra al 60-65%.

    E nessuno sano di mente si prenderebbe una 4090 o una XTX accoppiandole ad un 2k.

    Poi vabbé, avere l'upscaler "migliore" (e non lo è tout-court a 4k) per solo €600 in più. Affarone.

    Come detto in precedenza, la cosa migliore del pacchetto nVidia è Reflex, e ora vediamo come si comporta Anti-Lag+, non appena viene implementato su un titolo a cui gioco lo provo per curiosità da solo per vedere di quanto riduce la latenza. Che di reinstallare Cyberbug ho voglia esattamente zero, c'ho da giocare BG3.

    Gli nVidia fanboys tanto posso stare tranquilli, a breve potranno spipparsi su Alan Wake 2 in PATTRESING.
    600 euro?
    Io sto paragonando la 7800xt alla 4070 dal punto di vista dell'utente.
    Similmente a quanto detto sulla 7900xtx vs 4080, I benchmark a 2k soprattutto si dividono in due categorie: giochi su cui di base fai 160 fps e farne 180 è bello ma non cambia un cazzo se non stai facendo il gramas, e giochi pesanti (di loro o a causa di RT) dove lo scarto è minimo ed entrano in gioco le features, scaling prima di tutto. Se porti ad esempio di gioco che rende inutile i cuda core un gioco dove la scheda più potente attualmente fa 80fps a 2k, allora forse anche in quel contesto conta di più il supersampling invece che il raster puro.

    Però vabbè se si parte dal presupposto che dlss non sia meglio di fsr, o che l'upscaler fa merda a priori perché ci piace, allora direi che manco ci mettiamo a discutere.

    Poi sinceramente io non saprei cosa consigliare, ma in generale su uno scarto di prezzo PER ME trascurabile, fai fino a 100 euro, la maggiore performance raster delle AMD per me impatta meno - all'atto pratico - delle features.
    Poi capisco che se uno ragiona alla GN esiste solo la percentuale nel grafico, fate vobis.

  9. #1089
    Lieutenant Commander Galandil's Avatar
    Join Date
    Jan 2005
    Location
    Somewhere
    Posts
    13.423

    Default

    Eri partito citando la 4090 in Aveum, pensavo che il periodo successivo parlasse ancora di quella.

    A riguardo di 7800/4070, non parliamo del 5%, nei titoli UE5 che usano Nanite parliamo di più del 20% di differenza (senza upscalers). In un range in cui, come dici giustamente, la differenza si sente (mid 60) invece che 140 vs 170. A quello poi ci puoi aggiungere i relativi upscalers, ma se la baseline è X, non è che DLSS ti fa X+50% e FSR X+20%, a livello di prestazioni sono sostanzialmente identici.
    E sul discorso qualità della resa, come detto, a 4k sono indistinguibili (a parte i loro relativi difetti) e a 2k abbastanza indistinguibili, con un lieve vantaggio per DLSS come qualità finale. Il punto è che, se inizi a scavare e a testare vari titoli e le loro implementazioni, finirai per trovare giochi e situazioni in cui o l'uno o l'altro presentano difetti più o meno marcati.
    Il framegen (posto che sta per arrivare anche su AMD con FSR3) per me resta una cagata, perché proprio a quei frame rate intermedi nel range 60-80, l'aumento di latenza, con tanto di Reflex (e prob. Anti-Lag+, l'unico test che ho visto finora è stato fatto da Daniel Owen, ma lui ha attivato l'intero HYPR-RX, quindi non attendibile per valutare quanto sia buono solo l'Anti-Lag+) lo sente anche chi non è nescional. Stiamo *giocando* a della roba, non guardando un film o una serie TV, l'input latency è fondamentale, molto + importante del framerate (non è che si è puntato per decenni ad aumentare i framerate solo per vedere il numerino andare su, lo si è fatto *proprio* per abbattere l'input latency).

    Poi se per te è meglio spendere €100 di più (in realtà €50 atm almeno in Italia) per avere le "features" rispetto ad avere una raster performance (utile nel 100% dei giochi) più elevata, fino ad un 20-25% sui titoli UE5, E 16GB di VRAM invece di soli 12, non so che dirti. Prova a sentire un po' quelli che si sono presi una 3070 e quanto si sentono presi per il culo oggi a causa degli 8GB. E' un dato di fatto che nVidia sta intenzionalmente gimpando le sue GPU per renderle obsolete più rapidamente del dovuto, la VRAM costa letteralmente spicci, non c'è nessun altro motivo in base al quale non abbiano potuto offrire la stessa quantità offerta da AMD (4080 20GB, 4070 liscia e Ti 16GB ecc.).
    Per la miseria, pure Intel ha la ARC770 con 16GB, ed è una GPU che costa $350 di MSRP.
    Se uno non ha intenzione di cambiare GPU come fossero Tic Tac, 16GB di VRAM nel 2023 sono il minimo sindacale. E nessuno che si cambi GPU come fossero Tic Tac normalmente punta al mid range. Comma 22, insomma.
    Also, non dimentichiamoci che tutta sta storia delle "features" di nVidia sono il copipasta di blunder stile Tessellation/Hairworks. Chi si ricorda la pagliacciata della tessellation sa di cosa parlo.

    Poi ci sono motivazioni tecniche per cui AMD viaggia molto meglio su UE5, visto che l'architettura di RDNA riesce ad elaborare molti + vertici di nVidia, ed ha un fillrate + alto, e guardacaso questa cosa accoppiata a Nanite boosta le performance di RDNA3 rispetto ad Ada di parecchio. Ve ne dovete fare una ragione, con un'elevatissima probabilità (lascio sempre spazio all'eccezione, obv) chi detta cosa verrà usato e cosa no nel medio/long term non è nVidia, non è AMD, ma Epic. Oddio, in parte anche AMD, visto che non penso perderanno il settore console. E Epic ha mostrato il dito medio ad nVidia a riguardo del loro RTX, in favore di una soluzione globale con stessa qualità visiva, ma che gira su tutto. E UE5 sarà il motore + usato dai triplAAA, a parte gli engine proprietari, che però fanno uscire un titolo ogni morte di papa (Frostbite, Northern Light, ecc. ecc.).

    Se uno invece si compra una GPU nuova solo per giocare a Cyberpunk o Alan Wake 2, e per il resto a prato minato, allora si, dico pure io di prendersi nVidia.

  10. #1090
    Lieutenant Commander Galandil's Avatar
    Join Date
    Jan 2005
    Location
    Somewhere
    Posts
    13.423

    Default

    Quote Originally Posted by Tunnel View Post
    Davo per buono che fosse confermata la produzione dei battlemage usando TSMC. Se escono dal ring è davvero una merda, anche perchè come prima prova le arc non era davvero per nulla male, una volta che i driver si sono un po' stabilizzati
    Secondo me dipenderà appunto tutto da Battlemage, se non hittano un certo incremento di performance per colmare il gap con AMD/nVidia, anche questo tentativo da parte di Intel farà la fine di Larrabee. Ma insomma, l'opzione evidentemente la stanno già valutando internamente (e fanno bene, sono già abbastanza nella merda lato CPU soprattutto nella fascia server/cloud computing, con gli Epyc che stanno sbriciolando qualsiasi offerta Intel sia in grado di produrre).

  11. #1091
    Hador's Avatar
    Join Date
    Mar 2004
    Location
    Milano
    Posts
    31.321

    Default

    Gala abbi pazienza tu mischi giudizi verso le pratiche commerciali e analisi oggettive sui prodotti.
    Io capisco il tuo punto di vista ma A PRESCINDERE da questa o quella pratica commerciale scorretta un prodotto può essere buono lo stesso. Il pippone sulla vram è 100% corretto e 100% uguale a quanto detto sulla 3080 da 10 giga. Nel mentre sono passati 3 anni e problemi ancora non ce ne sono stati. Oh poi arriveranno, ma mettiamo le cose un attimo in prospettiva.
    Sta sul cazzo che facciano così? Sicuro. Ad oggi è un problema oggettivo? Mica tanto.

    Mi sta sul cazzo la Apple? Sicuro. l'iPhone di mia moglie funziona ancora benissimo dopo 5 anni durante i quali il mio android - pagato uguale - è morto male dopo neanche 3 anni? Anche.

    Tu la metti giù bianco e nero ma non lo è, e il mercato lo dimostra. Sulle CPU quando AMD ha presentato una alternativa palesemente migliore di Intel il mercato si è mosso molto velocemente, sulle GPU un breakthrough rispetto allo status quo ancora non si è visto.
    Che poi basterebbe piazzarle a 100 euro in meno probabilmente per vederlo

  12. #1092
    Lieutenant Commander Galandil's Avatar
    Join Date
    Jan 2005
    Location
    Somewhere
    Posts
    13.423

    Default

    No, sei tu che non ti sei informato su quanta VRAM usano i titoli più recenti usciti nell'ultimo anno, non si sta discutendo fra nVidia che offre 16GB e AMD che ne offre 32GB, si sta discutendo del fatto che ormai 8-10GB sono già troppo pochi, e si sta già raggiungendo il limite "pericoloso" dei 12GB "non abbastanza" (soprattutto poi, che è la cosa che fa + ridere, nel caso di RTX di nVidia che richiede più VRAM rispetto al titolo senza). I numeri sono là fuori, vatteli a vedere. Tu continui a credere che non sia un problema oggettivo, ma seriamente vatti a vedere quanto framebuffer occupano i giochi più recenti, e ti renderai conto che prendere oggi una GPU con 12GB non è una mossa intelligente. E sottolineo: non sto parlando di nVidia o AMD, sto parlando in generale, per me il minimo sindacale oggi dovrebbe essere 16GB PUNTO. Il fatto che nVidia poi lo faccia come scelta commerciale è un'aggravante, ma tanto nVidia basta che scoreggi e tutti urlano al miracolo, sembrano la versione Gamer™ dei cultisti Apple.

    Ah, ricordati anche di un altro piccolo dettaglio: il successore di Ada non uscirà prima del 2025, e RDNA4c è stato scrappato al 99% per accelerare RDNA5. Questa gen, per quanto possa fare schifo come salto generazionale rispetto alla precedente, sarà lunga a morire.

    Capiamoci, il livello di mindshare di nVidia è talmente elevato che c'è gente che, ad oggi (letta su un paio di forum Discord) consiglia nVidia se devi usare la GPU per Stable Diffusion, che è la cosa più stupida ever *dati alla mano*, visto che SD Shark su una XTX viaggia uguale ad una 4090 con 1111, ad una frazione del costo. O lo stesso dicasi se devi fare editing video.

    Also, ma dov'è che il mercato si è mosso velocemente dall'uscita di Zen3? Ad *oggi*, guardando lo steam hardware survey, Intel ha ancora più del 65% del market share. Certo, una buona parte del totale sono notebooks, in cui Intel detiene il vantaggio anche lì non tecnologico, ma di offerta grazie a contratti semi-illegali (niente di nuovo), ma non è che *ogni* persona che ha upgradato una CPU è passata ad un Ryzen, c'è ancora una schiera di mindshared che continuano a prendere Intel perché "è meglio".
    Io ho letto anche deliri sul fatto che AMD avrebbe dovuto mettere due vcache die sul 7950X3D, che la colpa degli X3D scoppiati su mobo Asus è di AMD e non di Asus che è andata oltre lo spec VSOC comunicato da AMD, però poi magicamente se i connettori VHPWR si squagliano su una 4090 la colpa è dell'utente.
    O che quel cesso di Starfield gira male su nVidia perché AMD l'ha fatto apposta, e/o che è colpa di Bethesda, e non di nVidia che non ha minimamente lavorato sui drivers in previsione dell'uscita, visto che Jensen ha spostato un bel po' di gente dal reparto drivers/gaming al reparto AI (dove ci sono i big bucks).
    Last edited by Galandil; 11th September 2023 at 23:43.

  13. #1093
    Hador's Avatar
    Join Date
    Mar 2004
    Location
    Milano
    Posts
    31.321

    Default

    Gala starfield va meglio perché sono in partnership con AMD e hanno ottimizzato il gioco per il loro hw, non inventarti roba. Infatti c'è un gap anche tra intel e ryzen, non solo tra la GPU.

    E il connettore PCI Express è stato uno scandalo per 2 settimane fino a che non era uno scandalo, solito approccio alla GN che invece che fare giornalismo tech doveva andare a lavorare per novella 2000.

    Sulla vram a 2k ad oggi i numeri dicono che ci si avvicina agli 8-9 giga, che questo numero debba salire linearmente è tutto da dimostrare. Better safe than sorry ma la realtà è questa.

    Sta gen è poco eccitante e abbastanza bilanciata, Nvidia ad oggi che ti piaccia o meno offre features in più, AMD performance raster. Ce la si gioca sullo street price. Sta cosa non lo dico io ma tipo tutti. (Tranne le 4060, quelle sono lammerda). Siamo ben lontani da una situazione ryzen 3x00 vs Intel, o 1080 vs che cazzo di numeri usava amd al tempo.

    In ultima istanza un sacco di gente non compra solo a performance pura. Per molti vale anche affidabilità, features, anche solo brand. Io ho avuto un sacco di problemi con CPU e mb AMD mai avuti prima, alcuni oggettivamente inaccettabili (velocità nvme, controller USB che è lammerda, CPU e chipset che muoiono a cazzo di cane). A tirar fuori driver decenti per le loro GPU ci han messo 18 anni. Capisci che c'è anche questo discorso qua. Dici che a te non frega, a qualcuno importa.
    Io causa RMA persi quasi 2 mesi col PC inusabile, avrei volentieri sacrificato il 10% di performance per poterlo usare.

    Non si può bollare come deficiente la gente che compra una CPU o una gpu abbi pazienza, è un discorso da bimbiminchia.
    Se non per le 4060

  14. #1094
    Tunnel's Avatar
    Join Date
    Mar 2004
    Location
    Location.
    Posts
    14.756

    Default

    BTW la ZOTAC 4060 SOLO è andata anche a 284,99€ che per quel prezzo secondo me ha assolutamente senso contando che va come tutte le altre 4060 (un cazzo, ma in questo specifico caso è un ottimo cazzo prezzo/prestazioni)

    https://keepa.com/#!product/8-B0C86JLW2R
    Last edited by Tunnel; 12th September 2023 at 12:49.
    on Camelot Unchained (alpha):
    Nichodemus <GildaDiVecchieGlorieInPensione> - LaClasseCheCura - ServerName [soon]
    PG dei giochi vari in spoiler
    Spoiler


  15. #1095
    Lieutenant Commander Glorifindel's Avatar
    Join Date
    Nov 2003
    Location
    Milano
    Posts
    14.782

    Default

    Ma si sa qualcosa di una 4080 ti da 20 GB di ram?
    On Steam: Gildarts
    On B.net: Glorfurion#2394

Page 73 of 80 FirstFirst ... 2363697071727374757677 ... LastLast

Posting Permissions

  • You may not post new threads
  • You may not post replies
  • You may not post attachments
  • You may not edit your posts
  •  
[Output: 120.73 Kb. compressed to 105.59 Kb. by saving 15.14 Kb. (12.54%)]