RCE Foto

(i) Per navigare su JuzaPhoto, è consigliato disabilitare gli adblocker (perchè?)






Login LogoutIscriviti a JuzaPhoto!
JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta CookiePersonalizzaRifiuta Cookie

La scheda grafica migliore per AI di Photoshop


  1. Forum
  2. »
  3. Computer, Schermi, Tecnologia
  4. » La scheda grafica migliore per AI di Photoshop





avatarsenior
inviato il 27 Aprile 2023 ore 23:15

EntrambeMrGreen

avatarsenior
inviato il 27 Aprile 2023 ore 23:44

Beh, il predecessore dell'attuale PC era circa A.D. 2006-2007, direi che il pensionamento ci stava tutto... Sorriso

avatarsenior
inviato il 28 Aprile 2023 ore 8:20

Ciao Dynola,
come scrivevo in un altro thread per me la scelta è abbastanza semplice per chi non vuole aspettare e vuole acquistare ora una GPU per post produzione fotografica:
- voglio fare una scelta "conservativa" comunque ampiamente dimensionata rispetto alle necessita' computazionali attuali? Nvidia 3060 con 12 GB di RAM (molto importante questo punto, non prendere 3060 con meno di 12 GB)
- voglio investire qualcosina in piu' sulla longevita' della scheda e acquistare un oggetto tecnologicamente piu' avanzato? Nvidia 4070

Se, come credo, non faresti un uso intensivo della GPU, mi orienterei su schede Palit o Gigabyte, in modo da non spendere piu' di 350 euro per la 3060 e 650 euro per la 4070. Io nel PC che ho appena fatto assemblare ho messo una 3060 12 GB, perche' ho fatto la scelta precisa di "spingere" di piu' sulle altre componenti (CPU, RAM, SSD) e stare tranquillo sulla GPU (poi al lavoro ho un cluster di Nvidia A100 per i run impegnativi).
Tra 4070 e 3060 c'e' una bella differenza, sotto tanti aspetti: il tipo di memoria, la bandwidth, il numero di tensor core, etc. Alla fine questo si riflette in prestazioni piu' che doppie sul numero di operazioni in virgola mobile al secondo (Teraflops) che e' il parametro che conta quando le usi per fare deep learning. Oggi queste differenze non sono fondamentali per la fotografia computazionale, domani chissa'.

Segnalo infine che Nvida starebbe meditando di rallentare la produzione di 4070, perche' le vendite sarebbero sotto le aspettative. Come influira' questo sui prezzi? Vedremo

avatarjunior
inviato il 28 Aprile 2023 ore 10:38

in effetti la 4070 è stata accolta male perchè a distanza di circa due anni offre le stesse performance della 3080 ad un prezzo street di poco inferiore almeno nel periodo successivo al lancio.
DLSS 3.0 e consumi decisamente migliori non sono bastati a convincere chi aveva fatto consistenti investimenti su schede di classe 30xx o addiritturaa 20xx, infatti il prezzo si sta abbassando, su amazon la 4070 MSI ventus 2x è a 669. PErsonalmente lo considero un ottimo acquisto future-proof, rispetto i 400 euro richiesti per una 3060 da 12GB nel caso si debba costruire una build da zero.

avatarsenior
inviato il 28 Aprile 2023 ore 10:57

PErsonalmente lo considero un ottimo acquisto future-proof


Guarda io avrei una mezza idea di vendere la 3070 per passare alla 4070, ma future proof non direi proprio… nvidia sta vendendo il DLSS, in pratica, non le schede. Se con le 50x0 tra un annetto dovessero implementare un DLSS4 non retrocompatibile con le attuali, e con prestazioni straordinariamente migliori, si attaccano tutti.
Se poi finalmente cominciano anche loro a fare schede con 16 GB di RAM, ciao proprio.

avatarjunior
inviato il 28 Aprile 2023 ore 11:00

future proof sempre inteso in un utilizzo non videoludico ma riferito alle varie funzionalità IA che i software fotografici stanno a mano a mano introducendo.
In tale ambito penso che quello che conterà nei prossimi anni sarà la bruta capacità di calcolo piuttosto che raffinatezze software.

avatarjunior
inviato il 28 Aprile 2023 ore 19:49

Questi thread sono fantastici, nonostante gli anni passati a studiare, comprare, assemblare e consigliare componenti hardware trovo sempre nuove assurdità e miti da leggere, la fantasia umana è effettivamente illimitata MrGreen

avatarjunior
inviato il 28 Aprile 2023 ore 21:30

La mia sensazione, dopo aver letto i vostri interventi, è che dopo una certa soglia (rtx 3060/3070) non ha senso andare.
La mia build è composta da
Ryzen 5800x (pbo +200 mhz)
32 giga ram 3600 mhz CL 18
Rtx 3090.
Ho provato il denoise sia su file della om-1 che su file della eos R. Per entrambi i file impiega 5 secondi.
Potrebbe essere che con un processore più recente i tempi scendano, ma non è una cosa certa e magari si recupera giusto un secondo.
Non credo ne valga la spesa.

avatarjunior
inviato il 29 Aprile 2023 ore 14:41

@Enkill72 beh se impieghi 5 secondi per un file da 30Mp con una 3090 mi pare che il guadagno prestazionale vs una 3060 ci sia eccome. Quello che rimane da discutere è se per le specifiche esigenze di ognuno vale la pena investire in maniera così importante.

avatarsenior
inviato il 29 Aprile 2023 ore 15:47

"La mia 3060 lavora il denoise AI di Adobe in 15 sec. con un raw da 30 mpx."

La mia RTX 2060 da 12 Gb di memoria, 240 euro, ovvero circa la metà del prezzo della 3060, lavora il RAW della D 810, da circa 50 Mpx, in 20 secondi.

Se la curva dei Tempi vs Mpx di RAW fosse lineare, la mia sarebbe più veloce della 3060: se avesse la stessa velocità, la mia, per 50 Mpx, ci metterebbe 25 sec, mentre ce ne mette 20.

Le due GPU hanno diversa architettura, Turing la 2060, Ampere la 3060.

Puget System lo ha confermato facendo delle misure, linkate sopra: ACR/PP non necessitano di GPU ad alte prestazioni.

Poi, ovviamente, i propri soldi uno se li spende come meglio crede.


avatarsenior
inviato il 29 Aprile 2023 ore 18:26

Le considerazioni fatte (GPU poco rilevante) valgono anche per Premiere Pro e After Effects ? È tutta la suite Adobe a non "valorizzare* le GPU ?

avatarjunior
inviato il 29 Aprile 2023 ore 20:40

@DomenicoMa, se hai da processare decine e decine di foto il guadagno diventa sicuramente importante... Ma il fatto che la mia build impieghi lo stesso tempo con file di due macchine differenti e scattati ad ISO differenti (la prova più estrema è stata una foto della R sottoesposta scattata a 40000 ISO) mi lascia supporre che l'algoritmo sia male ottimizzato.
A partire dalle RTX 3000 aspetterei i prossimi aggiornamenti per valutare l'eventuale upgrade.

avatarsenior
inviato il 29 Aprile 2023 ore 22:15

I miei tempi con il denoise di lightroom con i file della sony a7R II da 42.4 megapixels.
PC con intel i7 13700K, nvidia 3060 12 GB, 32 GB RAM DDR5 a 6400 MT, ssd 1TB samsung 980 pro:
- Nvidia 3060: 20 s stimati e verificati
- Intel UHD 770 (grafica integrata nella cpu): 12 minuti stimati, non verificati
L'intel i7 13700K e' una delle cpu intel di ultima generazione piu' performanti in assoluto sul mercato attuale ciononostante la sua grafica integrata e' assolutamente insufficiente a gestire l'AI Adobe per il denoising

avatarjunior
inviato il 30 Aprile 2023 ore 10:22

@Alessandro Pollastrin il file della 810 non è 50 ma 36 MP quindi i calcoli vanno un po rivisti, certamente su configurazioni diverse i risultati possono essere contrastanti anche perchè ancora non sappiamo nulla di come lavori questo algoritmo serviranno certamente dei test condotti in maniera più scientifica magari proprio da pudget.
Quello che ti posso dire è che sulla mia configurazione un file z6II impiega 35 sec un file della z9 impiega 1 minuto, quindi la mia impressione è che il denoise sia decisamente lineare allo scalare dei MP.
E da vari test che ho fatto il numero ISO è irrilevante, impiega sempre lo stesso tempo su qualsiasi file.

enkill72, non sono completamente convinto che il numero ISO abbia a che fare con l'ottimizzazione dell'algoritmo. Ad esempio DXO pure raw impiega lo stesso tempo su tutti i file indipendentemente dalla misura dell ISO e lo stesso vale per Topaz denoise.

avatarsenior
inviato il 30 Aprile 2023 ore 16:58

".. il file della 810 non è 50 ma 36 MP .."

Giusto, hai ragione tu ed ho errato io.

Io ho considerato, errando, i Mb del file RAW, compresso senza perdite, che è circa 50 Mb e non 50 Mpx, ma in Mpx il RAW della D 810 è di 36 Mpx.

Rivedendo i conti, la mia GPU, RTX 2060, è un capellino più lenta della RTX 3060, perché se avesse la stessa velocità, dovrebbe impiegarci 18 sec, mentre ce ne mette........ 20.

Però resta il fatto che la RTX 3060 costa il doppio della mia, con guadagno di velocità irrisorio.

PugetSystem ha ragione

RCE Foto

Metti la tua pubblicità su JuzaPhoto (info)



Questa discussione ha raggiunto il limite di 15 pagine: non è possibile inviare nuove risposte.

La discussione NON deve essere riaperta A MENO CHE non ci sia ancora modo di discutere STRETTAMENTE sul tema originale.

Lo scopo della chiusura automatica è rendere il forum più leggibile, soprattutto ai nuovi utenti, evitando i "topic serpentone": un topic oltre le 15 pagine risulta spesso caotico e le informazioni utili vengono "diluite" dal grande numero di messaggi.In ogni caso, i topic non devono diventare un "forum nel forum": se avete un messaggio che non è strettamente legato col tema della discussione, aprite una nuova discussione!





 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me