JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).
Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.
Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:
Si ma i tensor core della serie 2000 sono meno ottimizzati di quelli della serie 3000 ad esempio, quindi non tutti sono uguali nè si capisce che impatto possano avere tra diversi programmi che svolgono lavori diversi. In pratica se non si lavora esattamente nel campo non mi infilirei con i numeri, finchè nvidia o chi crea il programma stesso non dice qualcosa di preciso (e anche in quei casi può essere non corretto al 100%) Chi fa benchmark seriamente come gamers nexus ha delle metodologie parecchio strette, basta guardare una sua qualsiasi recensione, perchè la variabile che rovina tutto è dietro l'angolo.
Poi per fare un discorso generale non stupiamoci dei chip shortage e non arrabbiamoci dei prezzi delle schede, se prima gli si chiude la gran parte della produzione, poi c'è un enorme acquisto di pc ed altri apparecchi che sia per tele lavoro o altro e infine c'è un cambio di componenti per motivi alquanto futili. L'ultima cosa per far capire il valore di queste schede, e il costo/beneficio, sarebbe nel dire che neanche i giocatori che giocano per lavoro (fino a chi va alle competizioni) spesso hanno le ultime schede uscite. Ovvero loro usano la loro gpu al 100% per ore e ore al giorno e non hanno le "necessità" che ha una persona normale nel voler applicare un pò di denoise alle sue immagini una volta la settimana. Abbastanza assurdo no?
Nei giochi c'è differenza, specialmente se sali di risoluzione e attivi tutte le opzioni. Per fotografia già una 3050 o 3060 vanno bene oggi per avere tempi accettabili. Ma se uno sistema 10 foto ogni tanto...
Fuori dal coro, io quanto ho deciso di prendere un pc con Windows (io sono utente Mac) per fare 3d ho scelto la configurazione con il rapporto di prestazione e consumo di energia piu basso e ho preso una 3070 che consuma circa la metà di una 3090 e più o meno 1/3 della serie 4000.
Il pc adesso consuma solo 3 volte il Mac ma è un fisso per cui è un buon risultato. In un anno dovrei risparmiare parecchio in energia.
Ti confermo che fai tutto, filtri neurali compresi.
“ In un anno dovrei risparmiare parecchio in energia. „
Ma - chiedo - le moderne GPU consumano tanto solo durante gli impieghi gravosi (tipo rendering 3D) o stabilmente? Lo domando perché ho notato che, appunto mentre esegue il render, la mia scheda grafica "accende" le ventole che normalmente restano spente o forse girano a velocità limitata.
Andrea festa Dipende che scheda hai. La mia fino a 60 gradi le ventole sono ferme dopo si accendono e aumentano la velocità in base alla temperatura. Se non viene usata la scheda abbassa le frequenze e consuma molto meno. Altre invece girano lentamente ed aumentano in base alla temperatura.
“ photoshop non è un video gioco e dunque non necessita di schede video ad alte prestazioni, e la cosa è dimostrata dal fatto che utilizzandone una molto performante come velocità e memoria, su Photoshop il guadagno in tempo è praticamente trascurabile rispetto ad una molto meno performante come velocità ma di caratteristiche, ovviamente, sempre "buone" „
Ecco queste sono le risposte che ti fanno cadere le braccia, perchè date senza informarsi e credere che il proprio orticello sia perfetto.
Ormai tutte le software house stanno andando nella direzione della fotografia computazionale e una GPU performante è indispensabile per accorciare i tempi. Poi è risaputo che per sfruttare al massimo una gpu si deve avere anche un ottima CPU ( oltre che abbondante ram ). Se puoi prendere una 4070, fallo senza farti troppi problemi.
Dal foglio google sembra avere più influenza la gpu della cpu. Hanni fa notai più incremento di velocità con topaz denoise cambiando gpu (560 -> 1070) che cambiando processore (i7 seirie 1 - i7 serie 7 con 6 core)
Ci vorrebbero schede dedicate per l'elaborazione di routine IA, detto "figurativamente" come le Quadro per il CAD/CAM, volendo anche senza uscite video, perchè in effetti comprare schede video di alto livello, nate principalmente per giocare e non giocarci minimamente, ma utilizzarle per elaborare foto, stona un pochino. Immagino che provvederanno in tal senso prima o poi.
considerando che una 3060 12GB, costa sulle 400 ed una 4070 sempre 12GB si trova sui 700 se dovessi costruire, oggi, una build a prova di obsolescenza, non avrei dubbio e farei uno sforzo per andare sulla 4070 anche se ad oggi effettivamente la differenza di prestazioni tra le due schede parrebbe non così evidente.
Ma la linea mi pare tracciata, questi algoritmi AI saranno sempre più pesanti e per essere gestibili in tempi accettabili le software house non avranno scelta se non quella di far eseguire questi calcoli dai core specifici presenti sulle GPU.
Questa discussione ha raggiunto il limite di 15 pagine: non è possibile inviare nuove risposte.
La discussione NON deve essere riaperta A MENO CHE non ci sia ancora modo di discutere STRETTAMENTE sul tema originale.
Lo scopo della chiusura automatica è rendere il forum più leggibile, soprattutto ai nuovi utenti, evitando i "topic serpentone": un topic oltre le 15 pagine risulta spesso caotico e le informazioni utili vengono "diluite" dal grande numero di messaggi.In ogni caso, i topic non devono diventare un "forum nel forum": se avete un messaggio che non è strettamente legato col tema della discussione, aprite una nuova discussione!