Close

Strona 1 z 22 12311 ... OstatniOstatni
Pokaż wyniki od 1 do 10 z 212
  1. #1

    Domyślnie Rozpiętość tonalna w fotografii cyfrowej

    Jeśli mnie nie pogonicie za te przydługie teksty , to spróbuję przedstawić swoje przemyślenia na temat rozpiętości tonalnej. Temat ostatnio modny na forum, ale jednocześnie temat, który bardzo szybko przekształca się w dyskusje nie na temat. Może te moje przemyślenia coś komuś wyjaśnią?

    Rozpiętość tonalna w fotografii cyfrowej to rodzaj "wytrycha", który często ułatwia wytłumaczenie różnych problemów z rejestracją cyfrowego obrazu, albo "łom", który pozwala na "siłowe" przeforsowanie swoich mniej lub bardziej sensownych pomysłów i domysłów. Użycie pojęcia rozpiętości tonalnej praktycznie zamyka dyskusję, bo dokładnie nie wiadomo jak i czym to mierzyć, i co z czym porównywać. Nie bardzo wiemy co zarejestrowała matryca, a co oglądamy na monitorze i jaki wpływ na to wszystko ma rozpiętość tonalna. Ktoś pisze, że S3PRO ma cudowną rozpiętość tonalną, znacznie lepszą niż wszystko inne, co człowiek wymyślił, a za chwilę ten sam ktoś pisze, że zdjęcia robi w formacie JPEG. Ktoś inny porównuje zdjęcia robione różnymi aparatami cyfrowymi i na podstawie tego, co wyświetlił sobie na ekranie monitora, twierdzi autorytatywnie, że widzi bardzo duże różnice w rozpiętości tonalnej matryc tych aparatów. Czy to jest w ogóle możliwe? Ktoś inny zachwyca się programami dla technik HDR, nie zdając sobie sprawy jakie są konsekwencje używania tych technik dla kolorystyki zdjęć. Może warto to choć trochę uporządkować.

    Co to jest rozpiętość tonalna? Jak sądzę, wszyscy się zgadzają, że jest to zdolność filmu negatywowego, slajdu, papieru fotograficznego, czy cyfrowej matrycy do rejestrowania na jednym obrazie możliwie najciemniejszych i możliwie najjaśniejszych obiektów fotografowanej sceny. Największa możliwa rozpiętość tonalna to oczywiście zdolność do zarejestrowania na jednym obrazie idealnej czerni i idealnej bieli. To taki pozornie nieosiągalny ideał rozpiętości tonalnej. Do tego miejsca zapewne wszyscy, no prawie wszyscy, są zgodni, ale zaraz zapewne przestanie to być aż tak oczywiste. Jeśli wyróżnikiem idealnie dużej rozpiętości tonalnej jest to, że na zdjęciu ma być prawidłowo zarejestrowana idealna czerń i idealna biel, to można dojść do prostego wniosku, że największą rozpiętość tonalną ma obraz dwukolorowy, złożony tylko z dwóch kolorów: białego i czarnego. Wystarczy tylko wybrać papier, którego kolor uznamy za idealną biel i tusz, którego kolor uznamy za idealną czerń. Nie ma takiej sceny, która pod względem rozpiętości tonalnej, nie zostanie w sposób idealny zarejestrowana na takim zdjęciu. Niezależnie od tego jak biała będzie idealna biel, zostanie ona prawidłowo zarejestrowana. Podobnie z idealną czernią – ona też będzie zarejestrowana prawidłowo, niezależnie od tego jak ta czerń będzie czarna. Czyli w bardzo prosty sposób został osiągnięty ideał maksymalnej rozpiętości tonalnej obrazu. Tylko, czy rzeczywiście o taką rozpiętość tonalną nam chodzi?

    Niestety nie jest to ideał zdjęcia. Musimy więc brać pod uwagę nie tylko rozpiętość tonalną, ale również rozdzielczość tonalną obrazu. Niby słowa podobne, ale ich znaczenie zupełnie różne. Zgodziliśmy się, że rozpiętość tonalna to zdolność rejestrowania obiektów ciemnych (czerń) i obiektów jasnych (biel) na tym samym zdjęciu. Rozdzielczość tonalna to parametr, który określa maksymalną ilość tonów pośrednich pomiędzy czernią i bielą, tonów które mogą być na tym zdjęciu zarejestrowane. Dopiero odpowiednio dobrana rozpiętość tonalna w połączeniu z odpowiednio wysoką rozdzielczością tonalną umożliwiają wykonanie naprawdę dobrego zdjęcia. Przytoczony wyżej, dwukolorowy przykład daje praktycznie idealną rozpiętość tonalną, ale jego rozdzielczość tonalna jest równa dwa, bo tylko dwa różne tony mogą zostać zarejestrowane. Oczywiście rozwiązanie problemu nasuwa się natychmiast: można zwiększyć liczbę tonów pośrednich. Można jednak zapytać ile tych tonów pośrednich być powinno. Odpowiedź pozornie wydaje się bardzo prosta – im więcej, tym lepiej. Ale to niestety nie do końca prawda. Jeśli rozdzielczość tonalna będzie zbyt duża, na zdjęciu uwydatni się szum, jeśli będzie zbyt mała, to utracimy ciągłość obrazu, czyli przejścia pomiędzy sąsiednimi tonami będą wyraźnie widoczne – powstanie coś takiego, jak poziomice na mapie lub zobaczymy zbiór kropek o różnej jasności, które będą symulowały brakujące tony pośrednie. Już dawno istniały czarno-białe drukarki, które pozwalały na uzyskanie najpierw 16, a później 256 odcieni szarości. Te rozwiązania znacznie poprawiały "jakość" drukowanych czarno-białych obrazów, bo przy zachowaniu, przynajmniej teoretycznych, warunków do uzyskania prawie idealnej rozpiętości tonalnej znacznie zwiększały rozdzielczość tonalną. Każdy współczesny pasjonat fotografii cyfrowej powie, że w obszarze zastosowań komputerów, drukarki czarno-białe to praktycznie prehistoria. Dziś rzadko kto stosuje czarno-białe drukarki, a już na pewno nie do drukowania zdjęć. W ogóle jest to technika tak stara, że nawet niegodna jakichkolwiek rozważań.

    I tu mała konsternacja. Jeśli na ekranie współczesnego monitora bardzo dobrej jakości wyświetlamy zdjęcie czarno-białe, to widzimy dokładnie taki sam obraz, jaki kiedyś przygotowywały, przynajmniej teoretycznie, te "przestarzałe" drukarki czarno-białe. Praktycznie wszystkie stosowane obecnie karty graficzne i monitory pozwalają na wyświetlenie 16,7 milionów kolorów. Kolory te składają się z trzech składowych R, G, B, ale żeby obraz był czarno-biały, wszystkie te trzy składowe muszą mieć takie same wartości. Jeśli R=0, G=0 i B=0 to otrzymamy kolor czarny, jeśli R=255, G=255 i B=255 to otrzymamy kolor biały, jeśli R=127, G=127 i B=127 to otrzymamy kolor szary. W efekcie na tym kolorowym monitorze bardzo dobrej jakości, obok czerni i bieli, otrzymamy tylko 254 pośrednie odcienie szarości. Zupełnie tak, jak w starej czarno-białej drukarce. Wierzyć się nie chce, ale to niestety prawda. Trzeba tylko skalibrować monitor tak, żeby kolor o wartościach R=0, G=0 i B=0 był widoczny jako czarny, a kolor o wartościach R=255, G= 255 i B=255 możliwie idealnie oddawał biel. Wniosek? Niezależnie od rozpiętości tonalnej fotografowanej sceny, rozpiętość tonalna obrazu wyświetlonego na monitorze nie może być większa niż 256, a rozdzielczość tonalna zdjęcia czarno-białego wykonanego w technice cyfrowej też nie może być większa niż 256, bo nawet najdroższe i najlepsze standardowe urządzenia służące do komputerowego wyświetlania obrazów i ich drukowania nie mogą wyświetlić i wydrukować większej ilości odcieni szarości. Nasuwa się kolejne pytanie, dlaczego potrzebne są oba pojęcia, jeśli zarówno rozpiętość, jak też rozdzielczość mają taka samą wartość? Rozpiętości tonalnej przestrzeni 8 bitowej zmienić się nie da, bo została tak ustalona przez konstruktorów sprzętu i oprogramowania. Można jedynie próbować kalibrować monitor tak, żeby idealną biel uzyskać przy wartościach minimalnie niższych, ale nie ma to większego sensu, a drukarki już tak kalibrować nie możemy. Natomiast rozdzielczość tonalną można zmniejszać, ale zwiększyć jej nie można. Nic nie stoi na przeszkodzie, aby czarno-białe zdjęcie wyświetlić z rozdzielczością tonalną równą 128, 64, czy 16. Po prostu świadomie (lub nieświadomie) nie wykorzystamy pewnych tonów pośrednich. Bardzo dobrze widać to na histogramie zdjęcia. Jeśli histogram (który ma szerokość 256 pikseli) jest ciągły, to wykorzystujemy pełną rozdzielczość tonalną, ale jeśli na histogramie zaczną pojawiać się przerwy (histogram staje się nieciągły), to oznacza, że rozdzielczość tonalna została zmniejszona. W skrajnym przypadku histogram może składać się tylko z kilku lub kilkunastu pionowych kresek, jeśli rozdzielczość tonalna będzie odpowiednio mała. We wszystkich tych przypadkach rozpiętość tonalna nie ulega zmianie i zawsze wynosi 256. Z uwagi na jakość zdjęcia, najczęściej staramy się wykorzystywać maksymalną możliwą rozdzielczość tonalną, a co za tym idzie ciągły histogram, bez żadnych przerw.

    A co będzie z obrazami kolorowymi (dla uproszczenia będziemy się zajmowali tylko systemem RGB, bo ten system jest najczęściej stosowany). Musimy niestety stwierdzić, że lepiej nie będzie. Jeśli nasze rozważania przeniesiemy z koloru szarego na idealnie czysty kolor zielony, to z łatwością zauważymy, że ilość wszystkich tonów (stopni jasności) też będzie równa 255. Dla koloru zielonego mamy na przykład: R=0, G=1 i B=0 czyli bardzo ciemny kolor zielony, R=0, G=20 i B=0 też kolor zielony, ale nieco jaśniejszy i na koniec R=0, G=255 i B=0 czyli najjaśniejszą postać czystej zieleni. To samo dotyczy też innych kolorów, ale niestety jest ich tylko sześć (R=0,G=x,B=0), (R=x,G=0,B=0), (R=0,G=0,B=x), (R=x,G=x,B=0), (R=0,G=x,B=x) i (R=x,G=0,B=x), gdzie x jest liczbą z przedziału od 1 do 255. Czyli razem z szarością, mamy siedem podstawowych kolorów, które dają rozdzielczość tonalną równą 255 oraz jeden kolor czarny, który odpowiada brakowi informacji o kolorze. A co będzie z innymi kolorami - ma ich przecież być aż 16777216, a dotychczas uzyskaliśmy tylko 1785 różnych jasności siedmiu kolorów i jeden kolor idealnie czarny? Każdy kolor określany jest jako proporcje udziału składowych R, G i B. Możemy zatem zapytać, jaka będzie ilość możliwych do uzyskania jasności dla koloru o składowych R=165, G=31 i B=17? Jeśli założymy, że nie będziemy zmieniali koloru, a tylko jego jasność, to musimy bardzo dokładnie zachować proporcje składowych R, G i B. Przy tych założeniach widać, że ciemniejszego koloru nie wyświetlimy, bo wartość składowej B (równa 17) jest liczbą pierwszą i każda próba dzielenia tej wartości składowej musi zakończyć się zaokrąglaniem, czyli w efekcie zmianą koloru, a nie tylko jego jasności. Aby uzyskać kolor jaśniejszy musimy pomnożyć wszystkie składowe przez taka sama liczbę, ale już przy próbie pomnożenia ich przez 2 napotkamy problem z wartością składowej R. Jeśli wartość 165 pomnożymy przez 2 to otrzymamy 330, czyli więcej niż 255. Jeśli tak obliczoną składową R „obetniemy” do wartości 255, to w istotny sposób zmienimy wynikowy kolor. Wniosek jest prosty - ten konkretny kolor może być wyświetlony tylko w jednej jasności. Ale na przykład kolor o składowych R=10, G=9, B=1 może być bez problemu wyświetlony jako jaśniejszy (R=20, G=18, B=2), jeszcze jaśniejszy (R=30, G=27, B=3) i jeszcze jaśniejszy (R=40, G=36, B=4) i tak dalej, ale tylko do stanu, w którym największa składowa nie przekroczy wartości 255. Już widać, że ilość jasności pośrednich dla tego koloru będzie większa niż jeden, ale i tak znacznie mniejsza niż 255, jak to było dla kolorów podstawowych. Jest to tylko pewne uproszczenie, bo nie uwzględniamy tu mnożników będących liczbami rzeczywistymi, czy krzywych dla monitora (w całym tekście zakładamy, że krzywe mają postać linii prostej, czyli są szczególnym przypadkiem), ale dla zrozumienia zagadnienia powinno to wystarczyć.

    Podsumowując można stwierdzić, że rozdzielczość bardzo dobrej karty graficznej i bardzo dobrego monitora to maksymalnie 255 stopni jasności konkretnego koloru, i to tylko dla siedmiu kolorów podstawowych. Dla przeciętnego koloru, takich stopni jasności będzie statystycznie mniej niż 2, czyli zdecydowana większość z nich nie może być ani rozjaśniona, ani przyciemniona bez równoczesnej zmiany koloru. Można więc powiedzieć, że każda zmiana jasności zdjęcia, każda cyfrowa edycja tego zdjęcia, zmienia również jego kolorystykę. Dotyczy to oczywiście tylko zdjęć kolorowych, bo rozjaśniać i przyciemniać zdjęcia czarno-białe można bez większego problemu.

    Wyżej było o kartach graficznych i monitorach. Teraz będzie o formatach zapisu plików graficznych. Podczas tworzenia specyfikacji formatu JPEG wzięto pod uwagę wszystkie powyższe uwarunkowania, a szczególnie to, że rozdzielczość dla każdego koloru podstawowego nie musi być większa niż 255 (plus kolor idealnie czarny) bo i tak nie da się więcej wyświetlić na monitorze, ani wydrukować na drukarce. Wniosek stąd prosty, jeśli format JPEG nie podlegałby kompresji, to byłby (tak jak 8 bitowy TIFF) idealnie dopasowany do wymagań sprzętu, który wyświetla lub drukuje 16,7 miliona kolorów. W formacie JPEG zawsze dochodzi bardzo istotna kompresja stratna, która polega głównie na kompresji koloru, czyli zmniejszaniu ilości tonów pośrednich zapisanych w pliku zawierającym zdjęcie. Podczas kompresji nie są jednak "wycinane" jakieś konkretne kolory (tony pośrednie). Wybory, co w danym fragmencie zdjęcia utracić, a co zostawić są dokonywane lokalnie i nigdy nie wiadomo, jakie kolory po kompresji na zdjęciu wystąpią, a jakie nie. Nie będę tu opisywał algorytmu kompresji JPEG, ale chcę tylko zaznaczyć, że możliwości wyświetlania kolorów przez karty graficzne i monitory nie są większe niż paleta kolorystyczna plików w formacie JPEG. Trzeba stwierdzić, że jeśli monitor jest prawidłowo skalibrowany, to paleta kolorów zdjęcia zapisanego w JPEG jest identyczna jak paleta kolorów możliwa do wyświetlenia przez kartę graficzną i monitor bardzo dobrej jakości. A że nie wszystkie dostępne kolory są wyświetlane jednocześnie, to chyba jasne. Monitor pracujący w rozdzielczości 1600x1200 pikseli ma łącznie tych pikseli 1920000, czyli znacznie mniej niż 16,7 miliona dostępnych kolorów. Podobnie jest ze zdjęciem. Dopiero zdjęcie zrobione aparatem cyfrowym o matrycy wielkości 16,7 Mpix ma, przynajmniej teoretyczną, szansę użycia całej palety oferowanej przez kartę graficzną i monitor, ale to tylko teoria, bo typowe zdjęcia nie przedstawiają planszy testowej, tylko rzeczywiste zróżnicowane obrazy.

    Jaki z tego wniosek? Ano taki, że do pełnego wykorzystania rozdzielczości tonalnej kart graficznych, dobrych monitorów oraz możliwości przenoszenia kolorów przez format JPEG wystarczy cyfrowa matryca, która rejestruje każdą składową koloru na 8 bitach. Jeśli zdjęcie jest idealnie naświetlone (na zdjęciu występuje choćby jeden piksel, którego przynajmniej jedna składowa ma wartość 0 i choćby jeden piksel którego przynajmniej jedna składowa na wartość 255), to te 8 bitów dla każdej składowej koloru daje gwarancję, wykorzystania pełnej rozpiętości tonalnej sprzętu komputerowego stosowanego powszechnie do obróbki i wyświetlania zdjęć.

    Tyle o sprzęcie komputerowym, kartach graficznych, monitorach i formacie JPEG. Teraz trochę o matrycach i interpretacji tego co one rejestrują. Jeśli 8 bitów na pojedynczą składową koloru wystarczy, to w jakim celu matryce rejestrują dane na 12, czy 14 bitach? Odpowiedź jest stosunkowo prosta. Każda matryca i układ elektroniczny, który przetwarza dane z tej matrycy muszą być jakoś skalibrowane. Ta kalibracja polega na stopniu (i dopuszczalnym zakresie) wzmocnienia pojedynczego sygnału (wartości składowej koloru) tak, aby w typowych warunkach, dla typowych fotografowanych scen, zapewnić możliwie najlepsze "wpasowanie" się w te 8 bitów wymaganych przez nowoczesny sprzęt komputerowy i format JPEG. Jednakże robiąc zdjęcie aparatem bardziej skomplikowanym, niż tani kompakt cyfrowy, możemy parametry ekspozycji w różny sposób zmieniać, balans bieli też, fotografowana scena może mieć większą rozpiętość tonalną od tej typowej - wzorcowej (niezbyt często fotografujemy figurę z węgla ustawioną na śniegu w słoneczne południe, ale może się to zdarzyć). Matryca, jak każde urządzenie elektroniczne, generuje własne szumy, matryca się również nagrzewa, czyli zmieniają się parametry jej pracy, aparat pracuje w różnych temperaturach otoczenia (-20 stopni, 0 stopni lub 30 stopni). Żeby stworzyć warunki do automatycznego lub ręcznego korygowania takich błędów i odstępstw od idealnych warunków naświetlania, matryca powinna rejestrować nieco więcej niż wymagane 8 bitów na pojedynczą składową koloru, na przykład 12 bitów przyjęte dla formatu RAW. Te 8, 12 lub 14 bitów określają jednocześnie rozpiętość tonalną i maksymalną rozdzielczość tonalną matrycy. Nasuwa się pytanie dlaczego wykorzystywać tylko tak mało bitów do rejestracji składowej koloru. Jeśli byłoby ich więcej, zwiększyłaby się rozpiętość i rozdzielczość tonalna matryc, a zdjęcia byłyby znacznie lepsze. Nic nie stoi na przeszkodzie, żeby sygnały z matrycy wzmacniać do 24, czy 48 bitów na pojedynczą składową koloru. Trzeba sobie tylko zadać pytanie w jakim celu to robić? Zapas dodatkowych 4 bitów daje 16 razy większą rozpiętość i rozdzielczość tonalną dla każdego podstawowego koloru. Wydaje się on wystarczający do tego, żeby prawidłowo rejestrować obrazy, które są później wyświetlane i drukowane w przestrzeni 8 bitowej. Ten zapas 4 bitów dodatkowo umożliwia sensowną korektę naświetlenia tych obrazów za pomocą programów komputerowych. Co więcej, jeśli rozpiętość fotografowanej sceny powoduje, że poszczególne składowe koloru uzyskują wartości większe (zazwyczaj dużo większe) niż 255, to takiego obrazu i tak nie da się bez specjalnych przekształceń ani wyświetlić na monitorze, ani wydrukować na drukarce, ani zapisać w formacie JPEG. Konieczna jest świadoma lub nieświadoma strata pewnych informacji zarejestrowanych przez matrycę. Widać wyraźnie, że 12 bitowa przestrzeń dla rejestrowania składowych koloru znacznie przewyższa możliwości sprzętu, na którym obrazy te są wyświetlane, obrabiane i drukowane. Przestrzeń ta daje też bardzo duże możliwości korygowania błędów naświetlania, błędów doboru balansu bieli, ale również minimalizowania szumu, tak aby można było na ekranie monitora zobaczyć możliwie najlepsze zdjęcie o możliwie wiernie oddanych kolorach każdego elementu fotografowanej sceny.

    Powstaje pytanie, jak można przekształcać obraz zapisany w przestrzeni 12 bitowej na obraz zapisany w przestrzeni 8 bitowej? Oczywiście operacja te powinna być dokonywana już po ewentualnej korekcie balansu bieli, kontrastu, nasycenia, po minimalizacji szumu, wyostrzeniu, itp. Ta metoda przekształcania obrazu, to "zawężenie" zarejestrowanych danych tak, aby po tej operacji otrzymać zdjęcie, którego teoretyczny punkt czerni ma wartości R=0, G=0 i B=0, a teoretyczny punkt bieli ma wartości R=255, G=255 i B=255. Zazwyczaj wiąże się to z pomnożeniem wszystkich składowych koloru przez pewne wartości. Nie musi być to działanie liniowe, a wartość mnożników można ustalać na podstawie krzywych, ale dla uproszczenia przyjmiemy, że jest to mnożenie wszystkich składowych przez taką samą wartość liczbową (tak naprawdę odpowiada to dość dokładnie zmniejszeniu ilości światła padającego na matrycę). W efekcie teoretyczny punkt czerni 12 bitowego zdjęcia staje się punktem czerni obszaru 8 bitowego, a teoretyczny punkt bieli 12 bitowego zdjęcia (niezależnie od tego jaką faktycznie ma wartość w przestrzeni 12 bitowej) staje się punktem bieli obszaru 8 bitowego. Oczywistym jest, że jeśli jakieś wartości większe niż 255 są sprowadzane do obszaru 0-255 to najmniej znaczące bity muszą zostać utracone. Dla przykładu załóżmy, że już po prawidłowym ustawieniu balansu bieli, wyostrzeniu itp., największa składowa koloru ma wartość 2058, teoretyczny punkt czerni został wyznaczony na 0, a teoretyczny punkt bieli na 2122. Wszystkie te wartości mieszczą się w przestrzeni 12 bitowej, czyli zdjęcie w formacie RAW nie zostało "przepalone". Aby "dopasować" wszystkie składowe koloru naszego zdjęcia do przestrzeni 8 bitowego koloru monitora, musimy przeskalować nasz teoretyczny punkt bieli o wartości 2122 do wartości 255, czyli pomnożyć wszystkie wartości przez liczbę 255/2122=0,12017. Po tym mnożeniu, wartość każdej składowej koloru musimy zaokrąglić do liczby całkowitej. Jaki będzie efekt tej operacji? Otóż wszystkie wartości z zakresu od 1985 do 1993 zostaną zastąpione taką samą wartością 239, wszystkie wartości z zakresu od 1993 do 2001 zostaną zastąpione wartością 240 i tak dalej. Widać z tego wyraźnie, że do utworzenia zdjęcia w przestrzeni 8 bitowej wykorzystamy jedynie około 12% informacji zarejestrowanych przez matrycę, a 88% tych danych musimy bezpowrotnie utracić. Zdjęcie będzie po prostu zawierało o 88% mniej informacji o kolorze, czyli również znacznie mniej widocznych szczegółów. W konsekwencji, niejako przy okazji, usuniemy także szum, który zawsze rejestrowany jest na najmniej znaczących bitach. Żeby nie było aż tak przyjemnie należy pamiętać o tym, że wartości wszystkich składowych RGB muszą być liczbami całkowitymi zarówno przed operacją, jak też po niej, czyli nie zostaną zachowane oryginalne proporcje pomiędzy składowymi RGB. Wynika z tego wprost, że w pewnym stopniu muszą zostać zmienione kolory większości pikseli, przy czym zdecydowanie większe zmiany kolorów dotyczą obszarów ciemnych, niż obszarów jasnych (dla obszarów jasnych procent traconej informacji o składowych koloru jest dużo mniejszy niż dla obszarów ciemnych). Przyjmijmy, że liczbę 241.4898 musimy zaokrąglić do całkowitej liczby 241. Stracimy więc 0.4898/241.4898 zarejestrowanej wartości, czyli stracimy tylko 2 promile składowej koloru. Jeśli jednak ta liczba będzie miała wartość 2.4898, to na zaokrągleniu stracimy 0.4898/2.4898, czyli prawie 20 procent składowej koloru. W ciemnych obszarach zdjęcia może więc powstawać dodatkowy kolorowy szum, którego nie było w danych zarejestrowanych przez matrycę, a który jest wynikiem przekształceń, o których mówimy. W efekcie takich przekształceń otrzymamy w miarę poprawne zdjęcie w przestrzeni 8 bitowej, które można już zapisać w formacie JPEG, wyświetlić na monitorze lub wydrukować. Nasuwa się jeszcze dodatkowy wniosek. Jeśli na ekranie monitora wyświetlamy zdjęcie zapisane w 12 bitowym formacie RAW, to nie widzimy jego oryginalnej wersji (monitor nie może wyświetlić obrazu w 12 bitowej przestrzeni), ale wersję automatycznie przetworzoną przez program wyświetlający, do przestrzeni 8 bitowej.

    W tym miejscu wypada poruszyć jeszcze jedno zagadnienie. Zagadnienie związane z przepaleniem fragmentów zdjęcia. Aby stwierdzić, czy zdjęcie nie zawiera takich obszarów, musimy zainteresować się kolorami o maksymalnych składowych. Nasuwa się pytanie, kiedy na zdjęciu mamy do czynienia z przepaleniem. Pozornie można to sprawdzić bardzo łatwo. Funkcje takie oferują prawie wszystkie edytory zdjęć, ale sprawa wcale nie jest aż taka prosta. Programy te pokazują obszary zdjęcia, które mają wartości składowych koloru równe 255. Inaczej nie mogą, bo w przestrzeni 8 bitowej powyżej wartości 255 nie ma już nic. Ale sam fakt wystąpienia na zdjęciu punktów o wartościach składowych równych 255 nie świadczy jeszcze o przepaleniu. Aby w miarę jednoznacznie określić, czy zdjęcie zawiera przepalenia, trzeba na chwilę wrócić do fotografowanej sceny oraz jej rozpiętości tonalnej. Jeśli znamy wartość rozpiętości tonalnej fotografowanej sceny, a wartość rozdzielczości tonalnej obrazu w przestrzeni 8 bitowej jest równa 255, to możemy obliczyć jaka jest "szerokość" pojedynczego rejestrowanego tonu. Przy założeniu, że wykorzystywana krzywa na postać linii prostej (dla uproszczenia), "szerokość" ta ma wartość równą wynikowi dzielenia rozpiętości tonalnej fotografowanej sceny przez rozdzielczość tonalną. Jeśli fotografowana scena ma rozpiętość 10EV, to w wyniku dzielenia przez 256 otrzymamy około 0,039EV/ton. W uproszczeniu wartość ta określa, jaka część fotografowanej sceny będzie rejestrowana przez pojedynczy ton. Jeśli tak podejdziemy do zagadnienia, to możemy stwierdzić, że o przepaleniu zdjęcia może świadczyć tylko to, że rzeczywista "szerokość" tonu o największej wartości, który odpowiada wartości 255 - dla 8 bitowej przestrzeni, jest większa niż rzeczywista "szerokość" tonu o wartości mniejszej o jeden, czyli 254 - dla 8 bitowej przestrzeni. Jeśli tak nie jest, to zdjęcie nie jest przepalone, a jedynie idealnie naświetlone oraz idealnie przekształcone do przestrzeni 8 bitowej. Łatwo zauważyć, że przepalenia mogą powstawać zarówno podczas wykonywania zdjęcia (dotyczą wówczas przekroczenia wartości 4095 - maksymalna wartość, jaka można zapisać na 12 bitach), jak też podczas przekształcania tego zdjęcia do przestrzeni 8 bitowej (błędny dobór parametrów przekształcania lub błędne działanie algorytmu).

    Dotychczas była teoria, na koniec nieco praktyki. Bardzo często spotykamy się z opiniami o lepszej lub gorszej rozpiętości tonalnej matryc cyfrowych. Często powtarzane jest pytanie, czy matryca S3PRO jest lepsza od matrycy D200, D70, czy D50 i czy rzeczywiście ma to istotne znaczenie dla zdjęć? Postaram się wykazać, że rozpiętości matryc wszystkich tych aparatów znacznie przewyższają rozpiętość przestrzeni 8 bitowej karty graficznej, monitora, drukarki, czy formatu JPEG i w konsekwencji to, że dalsze zwiększanie rozpiętości tonalnej formatu RAW ma niewielki sens. Ze względu na to, że nie można wyświetlić 12 bitowego obrazu RAW na monitorze w przestrzeni 8 bitowej bez przekształceń, trzeba zastosować jakieś rozwiązanie, które umożliwi nam "podejrzenie" tego co matryca rzeczywiście rejestruje. Najłatwiej jest "podejrzeć" to, co jest zarejestrowane w zakresie wartości od 0 do 255, czyli w zakresie 8 bitów 12 bitowej matrycy. Wykonałem więc dwa zdjęcia tej samej sceny w trybie RAW, za pomocą Nikona D200 z ustawioną czułością ISO100. Zdjęcia te nie były w żaden sposób obrabiane, nie były nawet wyostrzane, a jedynie przeskalowane na kilka różnych sposobów do przestrzeni 8 bitowej i zmniejszone. Pierwsze zdjęcie zostało wykonane w trybie Aperture Priority i naświetlone na podstawie wskazań światłomierza, bez żadnych korekt i modyfikacji. Jest to zdjęcie "wzorcowe", które posłuży nam do dalszych porównań.


    Drugie zdjęcie tej sceny również zostało wykonane w trybie Aperture Priority, ale celowo została wprowadzona korekta ekspozycji minus 4EV. Inne parametry zdjęcia nie zostały zmienione. Wynik tej operacji jest jednoznaczny - drugie zdjęcie jest nie doświetlone, ciemne i pozornie do niczego się nie nadaje.


    Czy aby jest tak na pewno? To drugie zdjęcie zostało wykonane z korektą minus 4EV w tym celu, żeby pokazać jak duża jest rozpiętość tonalna matrycy D200. Z uwagi na 8 bitową przestrzeń koloru dla monitora, zobrazowanie rozpiętości tonalnej 12 bitowej matrycy D200 możliwe jest tylko wtedy, gdy będziemy korzystali ze znacznie mniejszego zakresu rejestrowanych wartości. Najlepiej, jeśli ograniczymy wykorzystywany zakres pracy matrycy do naszych 8 bitów, czyli do zakresu od 0 do 255. Ta korekta o minus 4EV, mniej więcej odpowiada zmniejszeniu rozpiętości z 12 bitów, do około 8 bitów. Piszę około, żeby nie wdawać się w rozważania na temat charakterystyki krzywych, tego co naprawdę widzi ludzkie oko, itp. Jeśli zdjęcie zostało wykonane z korekcją minus 4EV, to w idealnych warunkach wartość składowej koloru, która bez korekcji miałaby wartość 4095 zmniejszy się około 16 razy, czyli powinna dać wartość około 255, a to już można jakoś wyświetlić na monitorze.

    Wygląd drugiego zdjęcia wskazuje jednoznacznie, że matryca, układ wzmacniaczy i oprogramowanie D200 i oprogramowanie Nikon Capture nie są przystosowane do poprawnej konwersji tak wykonywanych zdjęć do przestrzeni 8 bitowej. One zajmują się głównie przetwarzaniem pełnego zakresu rejestrowanego przez matrycę, choć mają kilka przydatnych funkcji do niezbyt standardowych operacji. Spróbujmy więc zrobić to inaczej. Wyciągnijmy z drugiego zdjęcia szczegóły tak, aby upodobnić je do zdjęcia pierwszego. Po odpowiednim przeskalowaniu do obszaru 8 bitowego uzyskamy następujący efekt.


    Ogólny wygląd zdjęcia jest zbliżony do zdjęcia wzorcowego. Oczywiście inaczej zostały zapisane kolory, czyli zdjęcia nie mogą być identyczne, ale można powiedzieć, że mają zbliżony wygląd, zbliżona kolorystykę i zbliżoną jasność i zbliżoną ilość detali. Obraz ma też większe szumy, ale o tym później. Co z tego wynika? Otóż to, że do poprawnego zarejestrowania naszej sceny wystarczy ten zakres matrycy, który rejestruje 8 bitów na pojedynczą składową koloru. Ale to jeszcze nie koniec. Można jeszcze inaczej przekształcić to zdjęcie do przestrzeni 8 bitowej, pozornie wyciągając jeszcze więcej z fotografowanej sceny.


    Przypominam, że oryginał tego zdjęcia był korygowany na minus 4EV, czyli została wykorzystana tylko 1/16 zakresu pracy matrycy D200 (około 6-7% możliwości rejestracji obrazów). Rzeczywista rozpiętość tonalna i jakość zdjęć musi więc być dużo lepsza, ale w inny sposób nie można niestety zademonstrować zdjęcia zarejestrowanego przez 12 bitową matrycę, na 8 bitowych urządzeniach wyświetlających obrazy, bez tracenia większości zarejestrowanych informacji. Warto również zauważyć to, że na normalnie robionym zdjęciu, większość tych "wyciąganych" informacji nie wystąpi - zostaną usunięte wraz z szumem, bo rzeczywisty obraz zostanie zarejestrowany w dużo wyższym przedziale wartości składowych koloru, dużo dalej od szumu rejestrowanego przez matrycę.

    Ten eksperyment w pełni potwierdził założenie, że 8 bitowa matryca jest wystarczająca dla potrzeb współczesnego sprzętu komputerowego, a każde rozszerzenie zakresu rejestracji koloru, na przykład do 12 bitów, daje dodatkowo bardzo, bardzo duże pole do popisu dla cyfrowej obróbki zdjęć i jest przydatne nie ze względu na mityczną rozpiętość tonalną, której i tak wykorzystać nie można, ale ze względu na minimalizację szumów, korekcje naświetlania, czy korekcje balansu bieli. W jakim celu stosuje się te 12 bitów na składową koloru bardzo łatwo wyjaśnić na przykładzie. Poniżej znajduje się crop 100% z ostatniego zdjęcia, zdjęcia przeskalowanego w sposób, który możliwie wiernie obrazuje to, co rzeczywiście rejestruje matryca.


    Właśnie taki szum rejestruje matryca D200 przy ISO100. Ale nie ma co się stresować porównywalne szumy dają wszystkie inne matryce, wszystkich innych aparatów cyfrowych, wszystkich innych producentów. Te dodatkowe 4 bity na każdą składową koloru pozwalają w naturalny sposób takie szumy usuwać lub minimalizować (podczas operacji przeskalowania większość szumów jest gubiona w naturalny sposób), korygować naświetlanie, balans bieli, kontrast, wyostrzenie, ale o tym już było. Dla zainteresowanych załączam również histogramy wszystkich czterech zdjęć.


    Na koniec jeszcze jedna uwaga. Powszechnie uważa się (nie wiem na jakiej podstawie), że rozpiętość tonalna matryc lustrzanek cyfrowych to 4-6EV. Jeśli wykonując drugie zdjęcie ustawiłem korektę minus 4EV, to w zasadzie rozpiętość tonalna tego zdjęcia powinna mieścić się w zakresie 0-2EV. Po obejrzeniu załączonych zdjęć można zapytać, czy jest tak rzeczywiście?

    Podsumowując trzeba stwierdzić, że to co widzimy na monitorze podczas wyświetlania zdjęcia w formacie RAW, to nie jest oryginał zarejestrowany przez matrycę, ale jest to zawsze obraz przekształcony do przestrzeni 8 bitowej przez oprogramowanie, które go wyświetla. Tego co zarejestrowała matryca na 12, czy 14 bitach, po prostu na monitorze zobaczyć nie możemy. To co widzimy na ekranie i na papierze zależy nie tyle od rozpiętości i rozdzielczości tonalnej matrycy aparatu, ale od sposobu przekształcania tych danych do przestrzeni 8 bitowej. Nie można uzyskać na ekranie monitora rozpiętości i rozdzielczości tonalnej większej niż 256, a rozpiętość i rozdzielczość tonalną większą niż 256 daje każda matryca, która rejestruje więcej niż 8 bitów na pojedynczą składową koloru. Nasuwa się też wniosek, że rewelacyjna "rozpiętość tonalna S3PRO" jest głównie wymysłem marketingowym i polega w dużej mierze na zastosowaniu innego algorytmu przekształcania obrazu do przestrzeni 8 bitowej - algorytmu wzorowanego na metodach HDR. Nikon takich sztuczek w typowych zdjęciach nie robi i dlatego daje pozornie mniejszą rozpiętość tonalną zdjęć.

    Dużo tego, ale może będzie to podstawa do rzeczowej dyskusji o rozpiętości i rozdzielczości tonalnej cyfrowych matryc, kart graficznych, monitorów, drukarek, formatów zapisu zdjęć oraz o algorytmach umożliwiających optymalne wykorzystanie tego co zarejestruje matryca, a musi wyświetlić karta graficzna i monitor oraz wydrukować drukarka. Zapraszam do dyskusji.
    Jacek

  2. #2

    Domyślnie

    kawal solidnego tekstu podziwiam mam pytanie jakich technik uzywales do wyciagania z "niedoswietlonego" zdjecia??

    zastanawiam sie czy by nie dalo rady na podstawie jednago zdjecia zrobic np 2 (przeswietlonego i niedoswietlonego) i potem zlozyc je w HDR po to by wyciagnac szczegoly z obrazu ktorych normalnie nie widac

  3. #3

    Domyślnie

    dobry tekst troche sie nowych rzeczy dowiedzialem . s3 ma jeszcze jedna rzecz ktora nie jest tylko metoda konwersji ma 6 mln pikseli o 2 EV mniej czulych ktore daja wiecej informacji ze swiatel i dopieru tu konwersja do 8 bitow daje PRAKTYCZNIE wiecej szczegolow w swiatlach i cieniach.
    BTW jak ktos pstryka w jpg a nie w RAW i wykorzystuje zalety wyzszej rozpietosci to znaczy ze wie jak naswietlac zdjecie i wie co to pomiar punktowy itp bo pisales o mnie

    [ Dodano: Pon Lip 03, 2006 12:08 pm ]
    aa i jeszcze jedno a przepal o +4 i wyciagnij cos z tego ? s3 umie
    d700 d3 14-24 28 35 50 85 135

  4. #4
    pebees
    Gość

    Domyślnie Re: Rozpiętość tonalna w fotografii cyfrowej

    Cytat Zamieszczone przez JK
    (..)
    Powszechnie uważa się (nie wiem na jakiej podstawie), że rozpiętość tonalna matryc lustrzanek cyfrowych to 4-6EV.
    Nie wiem gdzie tak się uważa. Ja doczytałem się w kilku miejscach większej rozpiętości tonalnej matryc niz slajdu, a ze slajdu można ponoć wyciągnąć ponad 9 EV. To takie moje 3 grosze.

    Poza tym dobry tekst, może po kolejnym Twoim wywodzie ludzie pójdą robić zdjęcia zamiast szukać na rozpiętościach tonalnych szumów i innych hot/dead pikselków. Wiem, jestem jak stara płyta

    [ Dodano: 03-07-2006, 11:18 ]
    Cytat Zamieszczone przez life
    zastanawiam sie czy by nie dalo rady na podstawie jednago zdjecia zrobic np 2 (przeswietlonego i niedoswietlonego) i potem zlozyc je w HDR po to by wyciagnac szczegoly z obrazu ktorych normalnie nie widac
    i których nie będzie później widać na odbitce

  5. #5

    Domyślnie

    Cytat Zamieszczone przez Niedzwiedz
    aa i jeszcze jedno a przepal o +4 i wyciagnij cos z tego ? s3 umie
    Wielka mi lustrzanka. Phi. Kompakt też potrafi. Wiesz, który co nie?

  6. #6

    Domyślnie

    miklo, noo i kompakty tez umieja sam widzialem na wlasne oczy !!!!!

    a wogole to zdradziles ta zacna marke
    d700 d3 14-24 28 35 50 85 135

  7. #7

    Domyślnie

    life, pytasz o to jak były obrabiane te zdjęcia. Odpowiedź jest bardzo prosta. Dwa pierwsze odczytane przez NC4.4, zmniejszone i zapisane jako JPEGi. Następnie drugie zdjęcie potraktowane przez NC4.4 korekcją plus 1.5EV i funkcją D-Lighting, z suwaczkami ustawionymi, tak aby wyglądało możliwie podobnie jak zdjęcie pierwsze (chyba się jakoś udało). Zdjęcie czwarte zostało również przetworzone w NC4.4 (minimalizacja kontrastu, wyostrzenie na zero, wyciągnięcie plus 2EV i D-Lighting na maksa). Sam byłem ciekaw, jak to się ma do rzeczywistej zawartości plików RAW, więc obrazki były "traktowane" starymi programami (jeszcze pod DOSa), które mają dwie istotne wady - w czasach kiedy powstawały nie było jeszcze Windowsów (dzis rzadko kto umie się czymś takim posłużyć, bo nie ma suwaków, krzywych i okienek podglądu), a maksymalną rozdzielczością monitora było 800 na 600 pikseli i niestety tylko takie obrazki "kupują" te programy. Kiedyś służyły do automatycznej wektoryzacji obrazów w formacie TIFF ze skanera, a dziś po małych przeróbkach, umożliwiają kontrolę tego co zawierają zdjęcia. Nie są to histogramy, ale różne tabele i zestawienia, czyli numeryczna statystyka, która daje pogląd na to co zostało zapisane w pliku ze zdjęciem. Przy nie doświetleniu o 5EV nie dawało się już przeskalować do przestrzeni 8 bitowej bez znacznego zmniejszenia rozdzielczości tonalnej (największe składowe koloru miały wartości poniżej 200). Przy nie doświetleniu o 3EV składowe koloru były już dużo większe niż 255. Najlepiej wypadło zdjęcie zamieszczone wyżej (minus 4EV) i to właśnie ono posłużyło jako przykład.

    Niedzwiedz, a po jaką cholerę mam przepalać o 4EV, jeśli już zdjęcie nie doświetlone o 4EV wykorzystuje pełną przestrzeń 8 bitów monitora, drukarki i JPEGa. Co mi takie prześwietlenie da? W jakim celu zwiększać rozpiętość tonalną, jeśli już ta 12 bitowa matryca Nikona daje kilkanaście razy za dużo informacji? Informacji, które później trzeba stracić. Jeśli i tak musisz stracić ponad 80% informacji o kolorze i różnych szczegółach obrazu, to w jakim celu prześwietlać i tracić jeszcze więcej? Oczywiście sytuacja może się zmienić po następnej rewolucji technologicznej w dziedzinie komputerowych urządzeń do obróbki i prezentacji obrazów, ale nasze puszki raczej tego nie doczekają.

    Niedzwiedz, jeśli nadal uważasz, że robiąc zdjęcia w JPEGach możesz przez odpowiednie naświetlanie, zwiększyć rozpiętość tonalną zdjęcia, to może przeczytaj to jeszcze raz, bo chyba czegoś nie zrozumiałeś.
    Jacek

  8. #8

    Domyślnie

    Witam!
    Przeczytałem z uwagą cały tekst i czuję niedosyt, albo nie zrozumiałem z niego nic , albo tam nigdzie nie jest napisane jaka jest rozpiętość tonalna matrycy.
    Czy mógłbym prosić o odpowiedź.
    Wojtek

  9. #9

    Domyślnie

    tojo, oczywiście mocno upraszczając całą sprawę rozpiętość matrycy wynosi gdzieś w porywach do 8EV z hakiem. Jak słusznie zauważył JK, jest tam tego od cholery i jeszcze trochę W Fuji dochodzi jeszcze ze 1,5-2EV w światłach dzięki czemu zasadniczo trudno tym aparatem na amen spartolić zdjęcie. Jeśliby jednak i tego byłoby komu mało, to zawsze może kupić cyfrowy średni format, gdzie rozpiętość sięga... 12EV

  10. #10

    Domyślnie

    Czornyj, dla chcącego nic trudnego. Tu są dwa sample z sieci zrobione S3PRO. Może nie spartolone na amen, ale bardzo mocno przejarane - nawet te malutkie sensoreczki nie pomogły.

    sampelek 1

    sampelek 2

    I jak tu wierzyć w tą niesamowitą rozpiętość tonalną S3PRO?
    Jacek

Strona 1 z 22 12311 ... OstatniOstatni

Uprawnienia umieszczania postów

  • Nie możesz zakładać nowych tematów
  • Nie możesz pisać wiadomości
  • Nie możesz dodawać załączników
  • Nie możesz edytować swoich postów
  •