RCE Foto

(i) Per navigare su JuzaPhoto, è consigliato disabilitare gli adblocker (perchè?)






Login LogoutIscriviti a JuzaPhoto!
JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta CookiePersonalizzaRifiuta Cookie

Gamma dinamica e formato







avatarsupporter
inviato il 15 Settembre 2023 ore 14:51

>ma ho paura che lì anche solo lo stormir delle foglie comprometta molto le possibilità di usarlo.

Mah, io mi sono addirittura arrischiato a fare ritratti ambientati e ha il suo perchè. La velocità della nuova OM1 è tale che, dal momento che mi salva contemporaneamente anche il primo scatto in raw oltre al multiscatto in Raw ... scatto spesso in PS perchè comunque NON perderei lo scatto comunque.

Per me in molte situazioni è una bomba... ho qualche scatto in galleria

avatarsenior
inviato il 15 Settembre 2023 ore 15:23

Grazie Andrea

avatarsenior
inviato il 16 Settembre 2023 ore 11:08

Ho letto con attenzione il thread.
La prima cosa che mi è saltata all'occhio è la variazione di GD della GFX quando si scatta in crop.
Mmm…
Puzza come il pesce della settimana scorsa.

In teoria si, quindi, dovresti ottenere più gamma dinamica unendo più scatti, almeno come la definiscono questi.
Ma la qualità di informazione sarebbe sempre la stessa della camera di partenza e quindi, no, non otterresti una foto qualitativamente migliore.
Ah, lo stesso mi sa che vale anche per il Pixel Shift, anche se a dire il vero non l'ho studiato e quindi sospendo il giudizio: pare strano che migliori la qualità del segnale moltiplicando per 4 la dimensione della foto.

Certo, con un file più grande (48mpx), se guardi in modalità fit è ovvio che ti sembri che ci siano più sfumature rispetto ad un file piccolo (12mpx).
Ci sono perché hai registrato 4 volte più informazione, non perché il singolo fotosito registri più informazione.

Sulla lavorabilità e sulla quantità di sfumature di colore, nel corpo e nel sensore c'è più dei semplici bit di output, altrimenti sensori uguali dovrebbero dare raw uguali e, nella storia sappiamo che non è così.
Passare da 14 a 15 (non 16 come dice giustamente Valgrassi) dà un gran boost, ma posso immaginare che sia meno impattante rispetto alla differenza di dimensione del sensore e di mpx del raw.

Ricordo che il fotosito di una 16mpx APSC è grande come quello di una 33mpx FF. Se ho due 24mpx, una APSC e una FF, l'ultima avrà fotositi più grandi, quindi miglior rapporto segnale/rumore.

Torno un minuto sulla formula per una critica.
Mi sono riguardato il tutto per bene e, si, mi sa che ha ragione Lollus.
Sebbene facciano dei bei lavori, i signorini che pubblicano quei dati sono un po' birbanti, se posso esprimermi.

Quando fai una formula per tirare fuori un numero col quale poi fai dei confronti, la prima cosa da fare sarebbe NORMALIZZARE il risultato, altrimenti confronti sempre le pere con le mele.
Già dalle elementari sappiamo che non si fa, ma da adulti ce lo dimentichiamo (così come molte altre cose, sigh…).

Mettono insieme dati oggettivi (misure di quantità) con dati oggettivati (il concetto di circolo di confusione) dipendenti da distanze, supporti, etc.

Pare quindi che la formula faccia dipendere il risultato dalla dimensione del sensore.
Quindi non si possono confrontare con questi risultati macchine con dimensioni di sensore differenti quando le si valuta per comprarle, ma noi lo facciamo.

Forse i peracottari, a ben vedere, siamo noi.
Confrontare un numero è facile, ma andare a vedere cosa ci sta dietro, meno.

avatarsenior
inviato il 16 Settembre 2023 ore 13:02

@MaxVax
"ho fatto delle prove a suo tempo tra M1 mkIII SD quattro e Sony RII e le sfumature colore e la fedeltà cromatica, con mia grande sorpresa, della piccola OLY era superiore sia al foveon che alla R II"
Max in che modo hai valutato la fedeltà cromatica, mi pare tu scriva"soggettivamente", io credo che sia la cosa in assoluto più difficile da valutare questa fedeltà cromatica, ci sono tali e tante cose da tenere in conto, la valuti a allo schermo, in stampa? Come? Ricordando la scena? O con un color checker? Con che illuminante? Ecc ecc

avatarsupporter
inviato il 16 Settembre 2023 ore 13:38

Ho scattato ed ho visualizzato i risultati subito con scena ancora costruita su monitor calibrato sul tavolino di fianco. Ovviamente in modo soggettivo quindi non scientifico.

Ricordo le sfumature di una mela Fuji ( ironia della sorte ahahah) che la Oly riproduceva in modo molto molto fedele. La RII era la più "ruffiana" nel senso che aveva cromie più accattivanti ma non così fedeli. Il foveon era il più neutro. Forse il più adatto alla manipolazione ...

avatarsenior
inviato il 16 Settembre 2023 ore 13:56

Allora, non sono stato a leggere ogni post ma ho visto che si stava partendo per la tangente, quindi mettiamo alcuni punti fermi o non se ne esce più:

Primo: cos'è, dal punto di vista strumentale, la gamma dinamica?
Ci sono tante definizioni a parole, ma a livello fisico è semplicemente:

FWC / Read noise = Gamma dinamica

FWC è la "Full Well Capacity", ovvero quanti elettroni può raccogliere ciascun pixel del sensore, il read noise invece è quanto precisamente il sensore riesce a leggere quel valore, da qui deriva un numero di sfumature (la GD è una grandezza adimensionale, un numero puro) massimo che può registrare il sensore.
Stop. Per quanto riguarda il singolo pixel non entra in gioco nient'altro, non c'entra SNR, efficienza quantica, dimensione del sensore, etc etc.

Da questo punto di vista non c'è alcuna differenza tra la GFX 100 e una qualunque altra fotocamera (e ce ne sono svariate) che monti lo stesso sensore Sony con pixel da 3.65µm che vendono in svariati formati (ci sono le APS-C da 26mpx, le FF da 60 etc).

Si può però anche calcolare la gamma dinamica tenendo conto di un'area dell'immagine, in questo suppongo si faccia con un normale calcolo del rapporto segnale/rumore, ovvero si somma la FWC dei pixel e si divide per la somma dei read noise (che però essendo rumore è una somma quadratica, quindi sale meno rispetto al segnale).
In questo caso a parità di inquadratura sul sensore più grande si hanno più pixel a formare lo stesso dettaglio, quindi più GD.
Che poi ha senso dal punto di vista pratico dato che su un sensore grande posso permettermi di avere meno segnale per ciascun pixel ma avere comunque lo stesso rapporto segnale/rumore di un sensore più piccolo nella foto finale.

Ciò non toglie che le sfumature rilevabili del singolo pixel quelle siano e quelle rimangano indipendentemente dalla dimensione del sensore.

avatarsenior
inviato il 16 Settembre 2023 ore 14:08

Per la mia limitata esperienza quelle differenze sono più dovute al profilo colore che non al sensore, te lo dimostra anche Raamiel con i suoi profili repro. Difficilissimo valutare i colori, anche con monitor calibrato, guardando scena e monitor. Una volta feci la prova, fotografai un color checker ed a monitor provai ad 'andare a colore' con il color checker illuminato lì accanto. È letteralmente impossibile, impazzisci dopo poco. Con i tessuti si mettono sotto la giusta illuminante i colori del campione e della produzione uno di fianco all'altro a contatto per capire se sono diversi, se solo ci sono delle distanze che si interpongono la valutazione diviene impossibile, la valutazione ad occhio di un colore è troppo influenzata dal colore che è a diretto contatto, se metti un grigio 50 vicino ad un nero il grigio ti sembrerà molto più chiaro. E questo con la stessa illuminazione, immaginiamo valutare un campione in luce riflessa e lo stesso colore riprodotto da un monitor ...

avatarsenior
inviato il 16 Settembre 2023 ore 14:16

essendo rumore è una somma quadratica, quindi sale meno rispetto al segnale

Lo shot noise è la radice quadrata del segnale. Giusto?

avatarsupporter
inviato il 16 Settembre 2023 ore 14:18

Si si @Andrea è una "sensazione" percettiva del tutto soggettiva. Anche se per formazione professionale su sfumature e colori sono abbastanza allenato MrGreen

avatarsenior
inviato il 16 Settembre 2023 ore 14:26

FWC/read noise = gamma dinamica

E' il punto fermo. Quello che mi sembra non facile-banale e' come tradurre l'equazione sopra in EV, volgarmente detti stop fotografici.
Il primo punto fondamentale e' che la risposta alla luce del sensore (fotoelettroni) sia lineare.
Il secondo e' che il sensore e' digitale.
Ne consegue che la dinamica massima potenziale non puo' superare il numero dei bit.
Pare che Bill Claff, nel considerare la "photographic dynamic range" parta dal numero bit al quale sottrare dei termini...
Ora, come si legano le equazioni con quella sopra fondamentale e' un bel vespaio.
Ne escono dei numeri e pare quelli di Claff siano piu' "realistici" di quelli di DxO. Se non ho letto male si valuta proprio il snr come "low limit" per questa "photographic DR" , snr 20.
A tutto cio' si dovrebbe poi considerare che e' necessario un mezzo di visualizzazione. Supporti per la stampa gia' 7 stop e' buono, per i monitor (quelli buoni) il limite e' maggiore, ma non arriva a coprire quelli della fotocamera.

avatarsenior
inviato il 16 Settembre 2023 ore 14:41

Lo shot noise è la radice quadrata del segnale. Giusto?


Sì ma occhio a non fare confusione, non c'entra con la somma quadratica di cui parlo.

Segnale: quanti fotoni/elettroni raccogli
Shot noise: radice quadrata del segnale
Read noise: rumore del sensore

La somma quadratica a cui mi riferisco è quella che (credo) si usa in tutti i casi in cui devi sommare fonti di rumore senza correlazione, tipo shot noise e read noise.

S, esempio, il segnale è 100 e lo shot noise è SQRT100=10 e il read è 4, il SNR non è "Segnale/(Shot+Read) che in questo caso sarebbe 100/(10+4)=7.1 bensì Segnale/SQRT(Shot²+Read²) , che con i numeri dell' esempio diventa 100/SQRT(10²+4²)=100/SQRT(116)= 9.28

E' il punto fermo. Quello che mi sembra non facile-banale e' come tradurre l'equazione sopra in EV, volgarmente detti stop fotografici.


Quella è la cosa più facile in realtà, semplicemente prendi il valore che ti viene fuori facendo FWC/read noise e ne calcoli il logaritmo in base 2.
Su Excel la formula è =LOG(*valore che ti viene fuori facendo FWC/RN*:2).
Oppure c'è il metodo ancora più babbo, prendi la calcolatrice e cominci a dividere per 2 contando le volte che dividi finché non ottieni un numero minore di uno MrGreen


avatarsenior
inviato il 16 Settembre 2023 ore 15:06

Grazie, Bubu.
Se hai tempo, mi dici se qui ho scritto cose del tutto inutili...
www.juzaphoto.com/topic2.php?l=it&show=4&t=4616853#27481496

Grazie... Sorriso

avatarsenior
inviato il 16 Settembre 2023 ore 15:07

Ok, immaginavo. Che tu sappia Bubu e' quello che fa anche DxO ? (applica il log2 al rapporto ?)

avatarsenior
inviato il 16 Settembre 2023 ore 15:24

Beh è l'unico modo per farlo, semplicemente uno stop significa un raddoppio di luminosità, e facendo il log in base 2 conti quanti "raddoppi" corrispondono al numero di sfumature che calcoli facendo FWC/RN.

DxO comunque ha due misure, una "screen" che non ricordo se fosse basata sul singolo pixel ( o su un gruppo di tot pixel, sono secoli che non guardo DxO e non ricordo) e l'altra "print" basata su una percentuale di area dell'inquadratura con tutti i sensori normalizzati a 8mpx, quindi è per quello che possono venire fuori valori che all'apparenza sono impossibili (ovvero tutto ciò che vada oltre i 14 EV con sensori da 14 bit).

Se hai tempo, mi dici se qui ho scritto cose del tutto inutili...


Beh è normale che applicando un NR vedi una riduzione della deviazione, però non so quanto sia utile come statistica, cioè vedi quale metodo pialla di più l'immagine ma a parte quello non credo ci sia altra informazione utile.

avatarsenior
inviato il 16 Settembre 2023 ore 15:26

vedi quale metodo pialla di più l'immagine

E' già un dato da tener presente

Che cosa ne pensi di questo argomento?


Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!

Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 243000 iscritti, c'è spazio per tutti, dal principiante al professionista.






Metti la tua pubblicità su JuzaPhoto (info)


 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me