Spørgsmål:
Hvorfor er blæste højdepunkter særlig dårlige i digital fotografering?
Please Read My Profile
2011-06-24 18:04:33 UTC
view on stackexchange narkive permalink

Jeg har hørt, at digitale sensorer er mindre "tilgivende" for blæste højdepunkter end film. Hvorfor er dette?

Der er noget, der kaldes "karakteristiske kurver". Hvordan hænger dette sammen i film og digitalt?

Kan der gøres noget ved det? Er dette en væsentlig fordel for film i nogle situationer, eller betyder det bare, at ens optagelsesstil måske skal være lidt anderledes? (Eller betyder det endda det?)

Jeg kan huske et eller andet sted, at blæste højdepunkter i digital er langt lettere at 'genvinde' i post end undereksponering ... måske bare et FYI, så folk ikke læser dette og starter -2EV stopper alle deres fotos?
@Crashdown: du tænker på et koncept kaldet "udsæt til højre". Det gælder dog kun information _ op til de blæste højdepunkter, som bestemt ikke er lette at genvinde.
@nchpmn du har det baglæns.Blæste højdepunkter er uoprettelige.Dataene bliver klippet og mistet.Med undereksponering kan du skubbe eksponeringen og gendanne mindst nogle detaljer på bekostning af mere støj.
Otte svar:
Imre
2011-07-06 23:36:04 UTC
view on stackexchange narkive permalink

Digitalt blæst højdepunkt er værre end negativ film, fordi overgangen mellem blæste og lyse områder er ret hård. Slide film er kun lidt bedre end digital i gengivelse af detaljer i overdrevne højdepunkter. Du har ikke engang brug for høj forstørrelse for at se det digitale billede blæse straks almindeligt hvidt, mens den negative film giver mere gradvis falmning af detaljer, og glidefilmen er et sted imellem.

For eksempel er her tapet fra min gang optaget med samme eksponeringsindstillinger og samme linse med digital og negativ film. Film optages på kortere afstand for at matche synsfeltet. Belysning leveres af blitz uden for kameraet i manuel tilstand, der er indstillet på en lysstand lige ved højre side af rammen. Objektivdæksel bruges til at undgå, at lyset fra lyset forsvinder. Flasheffekten blev fordoblet ved optagelse af diasfilm for at kompensere for dens lavere følsomhed.

digital JPEG

Pentax K100d Super, ISO 200, JPEG, Sigma 28mm f / 1.8 ved f / 5.6 , 1 / 125s, flasheffekt 1/16

digital RAW

Pentax K100d Super, ISO 200, RAW, Sigma 28mm f / 1.8 ved f / 5.6, 1 / 125s, flasheffekt 1/16, behandlet ved -1/2 EV

negative film

Pentax MZ-6, Fujifilm Superia 200 (negativ), Sigma 28mm f / 1,8 ved f / 5.6, 1 / 125s, flasheffekt 1/16

slide film

Pentax MZ-6, Fujifilm Velvia 100 (slide), Sigma 28mm f / 1.8 ved f / 5.6, 1 / 125s, flasheffekt 1/8

Den hvide plet på det digitale billede fanger opmærksomhed og irriterer, mens filmbilledet ligner meget mere det, der kunne ses med lignende sidebelysning. Optagelse i RAW kan hjælpe lidt, men den hvide klipper stadig ret hårdt.

100% afgrøder:

  • digital JPEG

digital JPEG crop

  • digital RAW

enter image description here

  • negativ film

negative film crop

  • diasfilm

slide film crop

+1, det er et godt eksempel på forskellen, tak fordi du gik i besværet med at udføre eksperimentet!
Dejligt tapet.
Tak for denne sammenligning! Skød du i RAW eller JPEG?
Tak. Lad mig vide, når du er i Boston, så får jeg den øl til dig. :)
Ikke at jeg er krævende eller noget :), men hvad der ville gøre dette til det endelige svar er at se filmbilledet trækkes tilbage et stop med at udvikle sig, og det tilsvarende gøres i efterbehandling i digital.
@mattdm Jeg gendannede opsætningen ved at finjustere, indtil JPEG matchede, og tilføjede billeder, der kunne svinges ud af RAW. Da pull-behandling ville kræve overeksponering af en hel film, reducerer kontrasten og muligvis tager flere ruller for at få det rigtigt, er jeg ikke meget opsat på at eksperimentere med det snart. En film, der ikke er trukket, slår stadig digital, så træk ville være overdreven i denne sammenligning :)
@Simon Jeg tilføjede nu også eksempler til digital RAW.
Det gætter jeg nok på. :)
Hvis man skyder et ensartet farvet tapet eller skyder gennem et relativt lavt farvet farvet filter, ville farvekanalerne mætte på forskellige tidspunkter? Hvis det er tilfældet, ville det være muligt efter postproduktion at bruge en farvekanal, der ikke mættede for at udlede, hvad der foregik med dem, der gjorde?
@supercat sandsynligvis vil du i princippet flette en monokrom HDR (af monokrome billeder fra forskellige farvekanaler) og derefter tonere den. Med en CCD-sensor kan udtværing ødelægge den svagere kanal. Måske ville nogen vide mere, når du spurgte igen som et separat spørgsmål. Eller du kan bare prøve som et eksperiment.
Matt Grum
2011-06-24 20:27:21 UTC
view on stackexchange narkive permalink

Film har altid haft en mere ikke-lineær reaktion end digital på grund af de forskellige processer med spændende kemikalier for at ændre tilstand og indsamle elektrisk ladning på en solid state-enhed. En anden grund er, at film indeholder korn i forskellige størrelser, der reagerer forskelligt på lys, mens de fleste digitale sensorer er homogene.

Hvad du ideelt set vil have, er en skånsom udrulning til højdepunkter, hvor det tager mere og mere indgående lys at øges den registrerede lysstyrke, når du nærmer dig at sprænge territorium. Dette gør det væsentligt sværere at nå det punkt og giver dig en vis mulighed for at gendanne detaljer.

Film giver dig denne afrunding i langt større grad til digital, som har en omtrent lineær respons, der går lysere lysere lysere blæst .

Det eneste der kan gøres ved dette (bortset fra at fejle på siden af ​​undereksponering) er at have to forskellige følsomme områder pr. pixel, hvilket giver en ikke -linært svar.

image (c) fujifilm

Fuji udførte dette koncept med deres SuperCCD-rækkevidde. Hver pixel bestod af små og store fotodioder. Når den store fotodiode bliver mættet (således "sprængt"), kan den lille mindre følsomme fortsætte med at optage meningsfulde data, der bruges i stedet for hovedfotodioden. Dette giver dig den mere gradvise udrulning, du fik med film.

image (c) fujifilm

Jeg ved ikke, hvorfor dette ikke fangede, da DSLR-versionen tilsyneladende var meget populær hos bryllupsfotografer, der ikke ønskede at sprænge hvide kjoler ud ...

Kan du udvide lidt på den lineære / ikke-lineære del?
@Matt Grum, meget interessant, det havde jeg aldrig hørt om. Som svar på den lineære / ikke-lineære del af dit svar er filmens ikke-lineære respons efter din mening mere fordelagtigt end at kunne se billedet og det omtrentlige histogram efter optagelsen?
[Dette indlæg] (http://www.velocityreviews.com/forums/showpost.php?p=4175653) har nogle interessante spekulationer om, hvorfor SuperCCD spejlreflekskameraer mislykkedes (resumé: dræbt af full-frame på bryllupsmarkedet, og siden det var de primære købere, der dræbte det hele). Resten af ​​tråden er desværre bare latterligt forum flamewar.
Jeg ville tro, at meget kunne gøres ved hjælp af en matrix med forskellige pixels; følsomhed ved svagt lys kan forbedres, for eksempel ved at bruge en matrix af røde, grønne, blå og utonede pixels; de utydede pixels ville være mere følsomme end de andre og kunne "blæse" let ud, men de kunne give bedre detaljer i de mørke dele af billedet; RGB-pixels kunne udfylde detaljer i de lysere dele.
Dette er det rigtige svar.
bwDraco
2011-06-25 06:59:32 UTC
view on stackexchange narkive permalink

Årsagen til dette er den samme som digital lydklipning: når inputkanalen har nået sit maksimum, kan den simpelthen ikke gå højere. I modsætning til analog filmfotografering, hvor eksponeringsgrænserne ikke er "hårde", bruger digital fotografering tal til at repræsentere lysstyrken og farverne for hver del af et billede, og disse tal kan kun gå op til en hård maksimumsværdi (typisk 255). Derfor kan alt ud over denne værdi ikke registreres korrekt, hvilket resulterer i tab af data i højdepunkter. Dette kan generelt ikke gendannes fra, fordi der ikke er yderligere tonedata, der kan ekstraheres fra sådanne dele af et billede.

Fra et teknisk synspunkt er klipning i fotografering og lyd det samme problem i to forskellige applikationer - en numerisk værdi, der har nået sin grænse.

ysap
2011-06-24 20:45:19 UTC
view on stackexchange narkive permalink

(Du bad om digitale sensorer, ikke specielt CMOS) For det første har CCD-sensorer blomstrende -effekten, hvilket ikke sker på film (eller CMOS).

På grund af designet af CCD-sensorer kan opladning lække fra en mættet sensel til sin nabo i en tilstødende linje. På denne måde lækker opladning fra linje til linje (lodret), og resultatet er en lodret stribe af lyse pixels. Jo længere opladning akkumuleres, jo længere er disse strimler. Et eksempel kan ses på den linkede side.

Kan du venligst beskrive effekten i indlægget. Jeg ønsker ikke at skulle følge et link til et eksternt sted.
@Nick Bedford - her går du.
Duncan C
2020-06-01 20:55:14 UTC
view on stackexchange narkive permalink

Som andre har sagt, fanger digitale sensorer eksponeringsværdier med en hård maksimumværdi. Når du når denne værdi, er der ingen nuance for en pixel ved den maksimale værdi. Det er så lyst som det kan blive. Det er hvad "blæst" betyder. Der er ingen gendannede blæste højdepunkter. Hele området, der er sprængt ud, læser den maksimale lysstyrkeværdi. Der er ingen data, der skal gendannes.

En ting, som mange fotografer ikke er opmærksomme på, er dog, at det er muligt at sprænge en enkelt farvekanal ud, hvilket resulterer i tab af information i netop den kanal. (Det er også muligt at sprænge 2 farvekanaler ud og stadig have nogle oplysninger i den tredje kanal.)

Udblæsning af en enkelt kanal forekommer ofte, når der optages en ramme med meget mættede røde eller blå farver i. Det er fordi eksponeringsmåleren lægger mere vægt på grønne farver end de andre farver. (vores øjne er mest følsomme over for grønt lys, og eksponeringsmålere er indstillet til at matche vores øjne.) Forestil dig at skyde en lyserød rose. Eksponeringsmåleren lægger større vægt på den grønne kanal, når den måler eksponering, og som et resultat overeksponerer den røde. De grønne og blå kanaler blæses ikke ud, men i en rød rose er alle detaljerne i de røde, og hvis den røde kanal blæses ud, ser rosen ud som en stor klat rød uden detaljer.

Det er således en god idé at indstille dit kamera til at vise et RGB-histogram, ikke kun et enkeltkanalshistogram, og sørg for, at ingen af ​​kanalerne klipper detaljer på højre (lyseste eksponering) side af histogrammet. Hvis dit kamera ikke giver dig mulighed for at se et RGB-histogram, skal du bare være vant til at ringe tilbage til eksponeringen med 1/2 til 1 stop, når du optager meget mættede røde eller blå.

Dave Nelson
2011-06-24 18:27:20 UTC
view on stackexchange narkive permalink

Som jeg forstår definitionen af ​​blæst højdepunkt, er det når der ikke er nogen data i den del af billedet. Så den del af billedet er helt hvidt uden tekstur og ingen detaljer.

Det er almindeligt, at en spekulær fremhævning blæses ud, når man følger denne definition, men vi forventer ikke, at en spekulær fremhævning inkluderer nogen data, så det er ok. Men en brudes hvide kjole, der blæses ud, er ikke acceptabelt, da vi ønsker at se tekstur og detaljer i så fald.

Jeg anbefaler, når du tager billeder, for at undgå at blæse noget ud, faktisk ikke have nogen hvid eller ren sort er ideel, fordi den giver dig den maksimale fleksibilitet i efterbehandling, hvor du kan kontrollere, hvad der blæses ud, og hvad der reduceres til rent sort.

Kan der gøres noget ved det? Sikker på, se eksponeringen og undgå eksponering over og under.

Er film en fordel? Nej, fordi det er meget sværere at "se eksponeringen".

Se på http://photo.stackexchange.com/questions/13411/when-is-it-okay-to-have-blown-highlights-and-shadows af nogle grunde til hvorfor 'undgå at blæse noget ud, faktisk ikke at have ren hvid eller ren sort er ideel 'er ikke altid sandt. Nogle gange er det bare umuligt at undgå, og nogle gange vil du bruge ren hvid eller ren sort til en kreativ ende.
@rfusca Det andet spørgsmål er ikke rigtig klart, om det henviser til blæste højdepunkter i den originale optagelse eller blæste højdepunkter som et resultat af efterbehandling, mens dette spørgsmål klart handler om fangsten
@MattGrum Sandt nok.
@rfusca - Jeg er helt enig med dig og med det indlæg, men som jeg sagde i mit svar, anbefaler jeg at fange uden at blæse noget ud og derefter bruge efterbehandlingsteknikker til at have mere kunstnerisk kontrol. Hvis det er nødvendigt at bruge billedet som fanget, og rene hvide blev ønsket, er det den rigtige vej at blæse dem ud under optagelsen.
Martin Krzywinski
2011-07-07 21:16:01 UTC
view on stackexchange narkive permalink

Generelt, når en fremhævning "blæses", kan eksponeringsoplysninger fra den del af filmen (eller billedområdet, hvis de er optaget digitalt) ikke gendannes.

Når du optager film, som er et analogt substrat, kan du argumentere for, at det praktisk talt er umuligt at utilsigtet blæse dine højdepunkter, uanset hvilken eksponering der altid vil være nogle filmkorn, der ikke har reageret på lys. Derfor kunne du i princippet udføre mørkerum-fu for at gendanne dette signal.

Med digital er dette ikke sandt, da et fotosites svar kan blive mættet. Intet efterbehandlingsbeløb kan gendanne disse oplysninger.

Iliah Borg
2020-06-03 00:43:41 UTC
view on stackexchange narkive permalink

Karakteristisk kurve er resultatet af udvikling. Latent billede er lineært, meget ligesom rå, men den øverste tærskel for den latente billeddannelse er meget høj, meget højere end for en forbrugersensor. For at matche denne filmparameter skal man muligvis bedømme kameraets ISO 3 til 5 stop lavere. Men selv 1 stop resulterer i en betydelig forbedring.



Denne spørgsmål og svar blev automatisk oversat fra det engelske sprog.Det originale indhold er tilgængeligt på stackexchange, som vi takker for den cc by-sa 3.0-licens, den distribueres under.
Loading...