PDA

Zobacz pełną wersję : Rozpiętość tonalna w fotografii cyfrowej



JK
02-07-2006, 17:14
Jeśli mnie nie pogonicie za te przydługie teksty :wink:, to spróbuję przedstawić swoje przemyślenia na temat rozpiętości tonalnej. Temat ostatnio modny na forum, ale jednocześnie temat, który bardzo szybko przekształca się w dyskusje nie na temat. Może te moje przemyślenia coś komuś wyjaśnią?

Rozpiętość tonalna w fotografii cyfrowej to rodzaj "wytrycha", który często ułatwia wytłumaczenie różnych problemów z rejestracją cyfrowego obrazu, albo "łom", który pozwala na "siłowe" przeforsowanie swoich mniej lub bardziej sensownych pomysłów i domysłów. Użycie pojęcia rozpiętości tonalnej praktycznie zamyka dyskusję, bo dokładnie nie wiadomo jak i czym to mierzyć, i co z czym porównywać. Nie bardzo wiemy co zarejestrowała matryca, a co oglądamy na monitorze i jaki wpływ na to wszystko ma rozpiętość tonalna. Ktoś pisze, że S3PRO ma cudowną rozpiętość tonalną, znacznie lepszą niż wszystko inne, co człowiek wymyślił, a za chwilę ten sam ktoś pisze, że zdjęcia robi w formacie JPEG. Ktoś inny porównuje zdjęcia robione różnymi aparatami cyfrowymi i na podstawie tego, co wyświetlił sobie na ekranie monitora, twierdzi autorytatywnie, że widzi bardzo duże różnice w rozpiętości tonalnej matryc tych aparatów. Czy to jest w ogóle możliwe? Ktoś inny zachwyca się programami dla technik HDR, nie zdając sobie sprawy jakie są konsekwencje używania tych technik dla kolorystyki zdjęć. Może warto to choć trochę uporządkować.

Co to jest rozpiętość tonalna? Jak sądzę, wszyscy się zgadzają, że jest to zdolność filmu negatywowego, slajdu, papieru fotograficznego, czy cyfrowej matrycy do rejestrowania na jednym obrazie możliwie najciemniejszych i możliwie najjaśniejszych obiektów fotografowanej sceny. Największa możliwa rozpiętość tonalna to oczywiście zdolność do zarejestrowania na jednym obrazie idealnej czerni i idealnej bieli. To taki pozornie nieosiągalny ideał rozpiętości tonalnej. Do tego miejsca zapewne wszyscy, no prawie wszyscy, są zgodni, ale zaraz zapewne przestanie to być aż tak oczywiste. Jeśli wyróżnikiem idealnie dużej rozpiętości tonalnej jest to, że na zdjęciu ma być prawidłowo zarejestrowana idealna czerń i idealna biel, to można dojść do prostego wniosku, że największą rozpiętość tonalną ma obraz dwukolorowy, złożony tylko z dwóch kolorów: białego i czarnego. Wystarczy tylko wybrać papier, którego kolor uznamy za idealną biel i tusz, którego kolor uznamy za idealną czerń. Nie ma takiej sceny, która pod względem rozpiętości tonalnej, nie zostanie w sposób idealny zarejestrowana na takim zdjęciu. Niezależnie od tego jak biała będzie idealna biel, zostanie ona prawidłowo zarejestrowana. Podobnie z idealną czernią – ona też będzie zarejestrowana prawidłowo, niezależnie od tego jak ta czerń będzie czarna. Czyli w bardzo prosty sposób został osiągnięty ideał maksymalnej rozpiętości tonalnej obrazu. Tylko, czy rzeczywiście o taką rozpiętość tonalną nam chodzi?

Niestety nie jest to ideał zdjęcia. Musimy więc brać pod uwagę nie tylko rozpiętość tonalną, ale również rozdzielczość tonalną obrazu. Niby słowa podobne, ale ich znaczenie zupełnie różne. Zgodziliśmy się, że rozpiętość tonalna to zdolność rejestrowania obiektów ciemnych (czerń) i obiektów jasnych (biel) na tym samym zdjęciu. Rozdzielczość tonalna to parametr, który określa maksymalną ilość tonów pośrednich pomiędzy czernią i bielą, tonów które mogą być na tym zdjęciu zarejestrowane. Dopiero odpowiednio dobrana rozpiętość tonalna w połączeniu z odpowiednio wysoką rozdzielczością tonalną umożliwiają wykonanie naprawdę dobrego zdjęcia. Przytoczony wyżej, dwukolorowy przykład daje praktycznie idealną rozpiętość tonalną, ale jego rozdzielczość tonalna jest równa dwa, bo tylko dwa różne tony mogą zostać zarejestrowane. Oczywiście rozwiązanie problemu nasuwa się natychmiast: można zwiększyć liczbę tonów pośrednich. Można jednak zapytać ile tych tonów pośrednich być powinno. Odpowiedź pozornie wydaje się bardzo prosta – im więcej, tym lepiej. Ale to niestety nie do końca prawda. Jeśli rozdzielczość tonalna będzie zbyt duża, na zdjęciu uwydatni się szum, jeśli będzie zbyt mała, to utracimy ciągłość obrazu, czyli przejścia pomiędzy sąsiednimi tonami będą wyraźnie widoczne – powstanie coś takiego, jak poziomice na mapie lub zobaczymy zbiór kropek o różnej jasności, które będą symulowały brakujące tony pośrednie. Już dawno istniały czarno-białe drukarki, które pozwalały na uzyskanie najpierw 16, a później 256 odcieni szarości. Te rozwiązania znacznie poprawiały "jakość" drukowanych czarno-białych obrazów, bo przy zachowaniu, przynajmniej teoretycznych, warunków do uzyskania prawie idealnej rozpiętości tonalnej znacznie zwiększały rozdzielczość tonalną. Każdy współczesny pasjonat fotografii cyfrowej powie, że w obszarze zastosowań komputerów, drukarki czarno-białe to praktycznie prehistoria. Dziś rzadko kto stosuje czarno-białe drukarki, a już na pewno nie do drukowania zdjęć. W ogóle jest to technika tak stara, że nawet niegodna jakichkolwiek rozważań.

I tu mała konsternacja. Jeśli na ekranie współczesnego monitora bardzo dobrej jakości wyświetlamy zdjęcie czarno-białe, to widzimy dokładnie taki sam obraz, jaki kiedyś przygotowywały, przynajmniej teoretycznie, te "przestarzałe" drukarki czarno-białe. Praktycznie wszystkie stosowane obecnie karty graficzne i monitory pozwalają na wyświetlenie 16,7 milionów kolorów. Kolory te składają się z trzech składowych R, G, B, ale żeby obraz był czarno-biały, wszystkie te trzy składowe muszą mieć takie same wartości. Jeśli R=0, G=0 i B=0 to otrzymamy kolor czarny, jeśli R=255, G=255 i B=255 to otrzymamy kolor biały, jeśli R=127, G=127 i B=127 to otrzymamy kolor szary. W efekcie na tym kolorowym monitorze bardzo dobrej jakości, obok czerni i bieli, otrzymamy tylko 254 pośrednie odcienie szarości. Zupełnie tak, jak w starej czarno-białej drukarce. Wierzyć się nie chce, ale to niestety prawda. Trzeba tylko skalibrować monitor tak, żeby kolor o wartościach R=0, G=0 i B=0 był widoczny jako czarny, a kolor o wartościach R=255, G= 255 i B=255 możliwie idealnie oddawał biel. Wniosek? Niezależnie od rozpiętości tonalnej fotografowanej sceny, rozpiętość tonalna obrazu wyświetlonego na monitorze nie może być większa niż 256, a rozdzielczość tonalna zdjęcia czarno-białego wykonanego w technice cyfrowej też nie może być większa niż 256, bo nawet najdroższe i najlepsze standardowe urządzenia służące do komputerowego wyświetlania obrazów i ich drukowania nie mogą wyświetlić i wydrukować większej ilości odcieni szarości. Nasuwa się kolejne pytanie, dlaczego potrzebne są oba pojęcia, jeśli zarówno rozpiętość, jak też rozdzielczość mają taka samą wartość? Rozpiętości tonalnej przestrzeni 8 bitowej zmienić się nie da, bo została tak ustalona przez konstruktorów sprzętu i oprogramowania. Można jedynie próbować kalibrować monitor tak, żeby idealną biel uzyskać przy wartościach minimalnie niższych, ale nie ma to większego sensu, a drukarki już tak kalibrować nie możemy. Natomiast rozdzielczość tonalną można zmniejszać, ale zwiększyć jej nie można. Nic nie stoi na przeszkodzie, aby czarno-białe zdjęcie wyświetlić z rozdzielczością tonalną równą 128, 64, czy 16. Po prostu świadomie (lub nieświadomie) nie wykorzystamy pewnych tonów pośrednich. Bardzo dobrze widać to na histogramie zdjęcia. Jeśli histogram (który ma szerokość 256 pikseli) jest ciągły, to wykorzystujemy pełną rozdzielczość tonalną, ale jeśli na histogramie zaczną pojawiać się przerwy (histogram staje się nieciągły), to oznacza, że rozdzielczość tonalna została zmniejszona. W skrajnym przypadku histogram może składać się tylko z kilku lub kilkunastu pionowych kresek, jeśli rozdzielczość tonalna będzie odpowiednio mała. We wszystkich tych przypadkach rozpiętość tonalna nie ulega zmianie i zawsze wynosi 256. Z uwagi na jakość zdjęcia, najczęściej staramy się wykorzystywać maksymalną możliwą rozdzielczość tonalną, a co za tym idzie ciągły histogram, bez żadnych przerw.

A co będzie z obrazami kolorowymi (dla uproszczenia będziemy się zajmowali tylko systemem RGB, bo ten system jest najczęściej stosowany). Musimy niestety stwierdzić, że lepiej nie będzie. Jeśli nasze rozważania przeniesiemy z koloru szarego na idealnie czysty kolor zielony, to z łatwością zauważymy, że ilość wszystkich tonów (stopni jasności) też będzie równa 255. Dla koloru zielonego mamy na przykład: R=0, G=1 i B=0 czyli bardzo ciemny kolor zielony, R=0, G=20 i B=0 też kolor zielony, ale nieco jaśniejszy i na koniec R=0, G=255 i B=0 czyli najjaśniejszą postać czystej zieleni. To samo dotyczy też innych kolorów, ale niestety jest ich tylko sześć (R=0,G=x,B=0), (R=x,G=0,B=0), (R=0,G=0,B=x), (R=x,G=x,B=0), (R=0,G=x,B=x) i (R=x,G=0,B=x), gdzie x jest liczbą z przedziału od 1 do 255. Czyli razem z szarością, mamy siedem podstawowych kolorów, które dają rozdzielczość tonalną równą 255 oraz jeden kolor czarny, który odpowiada brakowi informacji o kolorze. A co będzie z innymi kolorami - ma ich przecież być aż 16777216, a dotychczas uzyskaliśmy tylko 1785 różnych jasności siedmiu kolorów i jeden kolor idealnie czarny? Każdy kolor określany jest jako proporcje udziału składowych R, G i B. Możemy zatem zapytać, jaka będzie ilość możliwych do uzyskania jasności dla koloru o składowych R=165, G=31 i B=17? Jeśli założymy, że nie będziemy zmieniali koloru, a tylko jego jasność, to musimy bardzo dokładnie zachować proporcje składowych R, G i B. Przy tych założeniach widać, że ciemniejszego koloru nie wyświetlimy, bo wartość składowej B (równa 17) jest liczbą pierwszą i każda próba dzielenia tej wartości składowej musi zakończyć się zaokrąglaniem, czyli w efekcie zmianą koloru, a nie tylko jego jasności. Aby uzyskać kolor jaśniejszy musimy pomnożyć wszystkie składowe przez taka sama liczbę, ale już przy próbie pomnożenia ich przez 2 napotkamy problem z wartością składowej R. Jeśli wartość 165 pomnożymy przez 2 to otrzymamy 330, czyli więcej niż 255. Jeśli tak obliczoną składową R „obetniemy” do wartości 255, to w istotny sposób zmienimy wynikowy kolor. Wniosek jest prosty - ten konkretny kolor może być wyświetlony tylko w jednej jasności. Ale na przykład kolor o składowych R=10, G=9, B=1 może być bez problemu wyświetlony jako jaśniejszy (R=20, G=18, B=2), jeszcze jaśniejszy (R=30, G=27, B=3) i jeszcze jaśniejszy (R=40, G=36, B=4) i tak dalej, ale tylko do stanu, w którym największa składowa nie przekroczy wartości 255. Już widać, że ilość jasności pośrednich dla tego koloru będzie większa niż jeden, ale i tak znacznie mniejsza niż 255, jak to było dla kolorów podstawowych. Jest to tylko pewne uproszczenie, bo nie uwzględniamy tu mnożników będących liczbami rzeczywistymi, czy krzywych dla monitora (w całym tekście zakładamy, że krzywe mają postać linii prostej, czyli są szczególnym przypadkiem), ale dla zrozumienia zagadnienia powinno to wystarczyć.

Podsumowując można stwierdzić, że rozdzielczość bardzo dobrej karty graficznej i bardzo dobrego monitora to maksymalnie 255 stopni jasności konkretnego koloru, i to tylko dla siedmiu kolorów podstawowych. Dla przeciętnego koloru, takich stopni jasności będzie statystycznie mniej niż 2, czyli zdecydowana większość z nich nie może być ani rozjaśniona, ani przyciemniona bez równoczesnej zmiany koloru. Można więc powiedzieć, że każda zmiana jasności zdjęcia, każda cyfrowa edycja tego zdjęcia, zmienia również jego kolorystykę. Dotyczy to oczywiście tylko zdjęć kolorowych, bo rozjaśniać i przyciemniać zdjęcia czarno-białe można bez większego problemu.

Wyżej było o kartach graficznych i monitorach. Teraz będzie o formatach zapisu plików graficznych. Podczas tworzenia specyfikacji formatu JPEG wzięto pod uwagę wszystkie powyższe uwarunkowania, a szczególnie to, że rozdzielczość dla każdego koloru podstawowego nie musi być większa niż 255 (plus kolor idealnie czarny) bo i tak nie da się więcej wyświetlić na monitorze, ani wydrukować na drukarce. Wniosek stąd prosty, jeśli format JPEG nie podlegałby kompresji, to byłby (tak jak 8 bitowy TIFF) idealnie dopasowany do wymagań sprzętu, który wyświetla lub drukuje 16,7 miliona kolorów. W formacie JPEG zawsze dochodzi bardzo istotna kompresja stratna, która polega głównie na kompresji koloru, czyli zmniejszaniu ilości tonów pośrednich zapisanych w pliku zawierającym zdjęcie. Podczas kompresji nie są jednak "wycinane" jakieś konkretne kolory (tony pośrednie). Wybory, co w danym fragmencie zdjęcia utracić, a co zostawić są dokonywane lokalnie i nigdy nie wiadomo, jakie kolory po kompresji na zdjęciu wystąpią, a jakie nie. Nie będę tu opisywał algorytmu kompresji JPEG, ale chcę tylko zaznaczyć, że możliwości wyświetlania kolorów przez karty graficzne i monitory nie są większe niż paleta kolorystyczna plików w formacie JPEG. Trzeba stwierdzić, że jeśli monitor jest prawidłowo skalibrowany, to paleta kolorów zdjęcia zapisanego w JPEG jest identyczna jak paleta kolorów możliwa do wyświetlenia przez kartę graficzną i monitor bardzo dobrej jakości. A że nie wszystkie dostępne kolory są wyświetlane jednocześnie, to chyba jasne. Monitor pracujący w rozdzielczości 1600x1200 pikseli ma łącznie tych pikseli 1920000, czyli znacznie mniej niż 16,7 miliona dostępnych kolorów. Podobnie jest ze zdjęciem. Dopiero zdjęcie zrobione aparatem cyfrowym o matrycy wielkości 16,7 Mpix ma, przynajmniej teoretyczną, szansę użycia całej palety oferowanej przez kartę graficzną i monitor, ale to tylko teoria, bo typowe zdjęcia nie przedstawiają planszy testowej, tylko rzeczywiste zróżnicowane obrazy.

Jaki z tego wniosek? Ano taki, że do pełnego wykorzystania rozdzielczości tonalnej kart graficznych, dobrych monitorów oraz możliwości przenoszenia kolorów przez format JPEG wystarczy cyfrowa matryca, która rejestruje każdą składową koloru na 8 bitach. Jeśli zdjęcie jest idealnie naświetlone (na zdjęciu występuje choćby jeden piksel, którego przynajmniej jedna składowa ma wartość 0 i choćby jeden piksel którego przynajmniej jedna składowa na wartość 255), to te 8 bitów dla każdej składowej koloru daje gwarancję, wykorzystania pełnej rozpiętości tonalnej sprzętu komputerowego stosowanego powszechnie do obróbki i wyświetlania zdjęć.

Tyle o sprzęcie komputerowym, kartach graficznych, monitorach i formacie JPEG. Teraz trochę o matrycach i interpretacji tego co one rejestrują. Jeśli 8 bitów na pojedynczą składową koloru wystarczy, to w jakim celu matryce rejestrują dane na 12, czy 14 bitach? Odpowiedź jest stosunkowo prosta. Każda matryca i układ elektroniczny, który przetwarza dane z tej matrycy muszą być jakoś skalibrowane. Ta kalibracja polega na stopniu (i dopuszczalnym zakresie) wzmocnienia pojedynczego sygnału (wartości składowej koloru) tak, aby w typowych warunkach, dla typowych fotografowanych scen, zapewnić możliwie najlepsze "wpasowanie" się w te 8 bitów wymaganych przez nowoczesny sprzęt komputerowy i format JPEG. Jednakże robiąc zdjęcie aparatem bardziej skomplikowanym, niż tani kompakt cyfrowy, możemy parametry ekspozycji w różny sposób zmieniać, balans bieli też, fotografowana scena może mieć większą rozpiętość tonalną od tej typowej - wzorcowej (niezbyt często fotografujemy figurę z węgla ustawioną na śniegu w słoneczne południe, ale może się to zdarzyć). Matryca, jak każde urządzenie elektroniczne, generuje własne szumy, matryca się również nagrzewa, czyli zmieniają się parametry jej pracy, aparat pracuje w różnych temperaturach otoczenia (-20 stopni, 0 stopni lub 30 stopni). Żeby stworzyć warunki do automatycznego lub ręcznego korygowania takich błędów i odstępstw od idealnych warunków naświetlania, matryca powinna rejestrować nieco więcej niż wymagane 8 bitów na pojedynczą składową koloru, na przykład 12 bitów przyjęte dla formatu RAW. Te 8, 12 lub 14 bitów określają jednocześnie rozpiętość tonalną i maksymalną rozdzielczość tonalną matrycy. Nasuwa się pytanie dlaczego wykorzystywać tylko tak mało bitów do rejestracji składowej koloru. Jeśli byłoby ich więcej, zwiększyłaby się rozpiętość i rozdzielczość tonalna matryc, a zdjęcia byłyby znacznie lepsze. Nic nie stoi na przeszkodzie, żeby sygnały z matrycy wzmacniać do 24, czy 48 bitów na pojedynczą składową koloru. Trzeba sobie tylko zadać pytanie w jakim celu to robić? Zapas dodatkowych 4 bitów daje 16 razy większą rozpiętość i rozdzielczość tonalną dla każdego podstawowego koloru. Wydaje się on wystarczający do tego, żeby prawidłowo rejestrować obrazy, które są później wyświetlane i drukowane w przestrzeni 8 bitowej. Ten zapas 4 bitów dodatkowo umożliwia sensowną korektę naświetlenia tych obrazów za pomocą programów komputerowych. Co więcej, jeśli rozpiętość fotografowanej sceny powoduje, że poszczególne składowe koloru uzyskują wartości większe (zazwyczaj dużo większe) niż 255, to takiego obrazu i tak nie da się bez specjalnych przekształceń ani wyświetlić na monitorze, ani wydrukować na drukarce, ani zapisać w formacie JPEG. Konieczna jest świadoma lub nieświadoma strata pewnych informacji zarejestrowanych przez matrycę. Widać wyraźnie, że 12 bitowa przestrzeń dla rejestrowania składowych koloru znacznie przewyższa możliwości sprzętu, na którym obrazy te są wyświetlane, obrabiane i drukowane. Przestrzeń ta daje też bardzo duże możliwości korygowania błędów naświetlania, błędów doboru balansu bieli, ale również minimalizowania szumu, tak aby można było na ekranie monitora zobaczyć możliwie najlepsze zdjęcie o możliwie wiernie oddanych kolorach każdego elementu fotografowanej sceny.

Powstaje pytanie, jak można przekształcać obraz zapisany w przestrzeni 12 bitowej na obraz zapisany w przestrzeni 8 bitowej? Oczywiście operacja te powinna być dokonywana już po ewentualnej korekcie balansu bieli, kontrastu, nasycenia, po minimalizacji szumu, wyostrzeniu, itp. Ta metoda przekształcania obrazu, to "zawężenie" zarejestrowanych danych tak, aby po tej operacji otrzymać zdjęcie, którego teoretyczny punkt czerni ma wartości R=0, G=0 i B=0, a teoretyczny punkt bieli ma wartości R=255, G=255 i B=255. Zazwyczaj wiąże się to z pomnożeniem wszystkich składowych koloru przez pewne wartości. Nie musi być to działanie liniowe, a wartość mnożników można ustalać na podstawie krzywych, ale dla uproszczenia przyjmiemy, że jest to mnożenie wszystkich składowych przez taką samą wartość liczbową (tak naprawdę odpowiada to dość dokładnie zmniejszeniu ilości światła padającego na matrycę). W efekcie teoretyczny punkt czerni 12 bitowego zdjęcia staje się punktem czerni obszaru 8 bitowego, a teoretyczny punkt bieli 12 bitowego zdjęcia (niezależnie od tego jaką faktycznie ma wartość w przestrzeni 12 bitowej) staje się punktem bieli obszaru 8 bitowego. Oczywistym jest, że jeśli jakieś wartości większe niż 255 są sprowadzane do obszaru 0-255 to najmniej znaczące bity muszą zostać utracone. Dla przykładu załóżmy, że już po prawidłowym ustawieniu balansu bieli, wyostrzeniu itp., największa składowa koloru ma wartość 2058, teoretyczny punkt czerni został wyznaczony na 0, a teoretyczny punkt bieli na 2122. Wszystkie te wartości mieszczą się w przestrzeni 12 bitowej, czyli zdjęcie w formacie RAW nie zostało "przepalone". Aby "dopasować" wszystkie składowe koloru naszego zdjęcia do przestrzeni 8 bitowego koloru monitora, musimy przeskalować nasz teoretyczny punkt bieli o wartości 2122 do wartości 255, czyli pomnożyć wszystkie wartości przez liczbę 255/2122=0,12017. Po tym mnożeniu, wartość każdej składowej koloru musimy zaokrąglić do liczby całkowitej. Jaki będzie efekt tej operacji? Otóż wszystkie wartości z zakresu od 1985 do 1993 zostaną zastąpione taką samą wartością 239, wszystkie wartości z zakresu od 1993 do 2001 zostaną zastąpione wartością 240 i tak dalej. Widać z tego wyraźnie, że do utworzenia zdjęcia w przestrzeni 8 bitowej wykorzystamy jedynie około 12% informacji zarejestrowanych przez matrycę, a 88% tych danych musimy bezpowrotnie utracić. Zdjęcie będzie po prostu zawierało o 88% mniej informacji o kolorze, czyli również znacznie mniej widocznych szczegółów. W konsekwencji, niejako przy okazji, usuniemy także szum, który zawsze rejestrowany jest na najmniej znaczących bitach. Żeby nie było aż tak przyjemnie należy pamiętać o tym, że wartości wszystkich składowych RGB muszą być liczbami całkowitymi zarówno przed operacją, jak też po niej, czyli nie zostaną zachowane oryginalne proporcje pomiędzy składowymi RGB. Wynika z tego wprost, że w pewnym stopniu muszą zostać zmienione kolory większości pikseli, przy czym zdecydowanie większe zmiany kolorów dotyczą obszarów ciemnych, niż obszarów jasnych (dla obszarów jasnych procent traconej informacji o składowych koloru jest dużo mniejszy niż dla obszarów ciemnych). Przyjmijmy, że liczbę 241.4898 musimy zaokrąglić do całkowitej liczby 241. Stracimy więc 0.4898/241.4898 zarejestrowanej wartości, czyli stracimy tylko 2 promile składowej koloru. Jeśli jednak ta liczba będzie miała wartość 2.4898, to na zaokrągleniu stracimy 0.4898/2.4898, czyli prawie 20 procent składowej koloru. W ciemnych obszarach zdjęcia może więc powstawać dodatkowy kolorowy szum, którego nie było w danych zarejestrowanych przez matrycę, a który jest wynikiem przekształceń, o których mówimy. W efekcie takich przekształceń otrzymamy w miarę poprawne zdjęcie w przestrzeni 8 bitowej, które można już zapisać w formacie JPEG, wyświetlić na monitorze lub wydrukować. Nasuwa się jeszcze dodatkowy wniosek. Jeśli na ekranie monitora wyświetlamy zdjęcie zapisane w 12 bitowym formacie RAW, to nie widzimy jego oryginalnej wersji (monitor nie może wyświetlić obrazu w 12 bitowej przestrzeni), ale wersję automatycznie przetworzoną przez program wyświetlający, do przestrzeni 8 bitowej.

W tym miejscu wypada poruszyć jeszcze jedno zagadnienie. Zagadnienie związane z przepaleniem fragmentów zdjęcia. Aby stwierdzić, czy zdjęcie nie zawiera takich obszarów, musimy zainteresować się kolorami o maksymalnych składowych. Nasuwa się pytanie, kiedy na zdjęciu mamy do czynienia z przepaleniem. Pozornie można to sprawdzić bardzo łatwo. Funkcje takie oferują prawie wszystkie edytory zdjęć, ale sprawa wcale nie jest aż taka prosta. Programy te pokazują obszary zdjęcia, które mają wartości składowych koloru równe 255. Inaczej nie mogą, bo w przestrzeni 8 bitowej powyżej wartości 255 nie ma już nic. Ale sam fakt wystąpienia na zdjęciu punktów o wartościach składowych równych 255 nie świadczy jeszcze o przepaleniu. Aby w miarę jednoznacznie określić, czy zdjęcie zawiera przepalenia, trzeba na chwilę wrócić do fotografowanej sceny oraz jej rozpiętości tonalnej. Jeśli znamy wartość rozpiętości tonalnej fotografowanej sceny, a wartość rozdzielczości tonalnej obrazu w przestrzeni 8 bitowej jest równa 255, to możemy obliczyć jaka jest "szerokość" pojedynczego rejestrowanego tonu. Przy założeniu, że wykorzystywana krzywa na postać linii prostej (dla uproszczenia), "szerokość" ta ma wartość równą wynikowi dzielenia rozpiętości tonalnej fotografowanej sceny przez rozdzielczość tonalną. Jeśli fotografowana scena ma rozpiętość 10EV, to w wyniku dzielenia przez 256 otrzymamy około 0,039EV/ton. W uproszczeniu wartość ta określa, jaka część fotografowanej sceny będzie rejestrowana przez pojedynczy ton. Jeśli tak podejdziemy do zagadnienia, to możemy stwierdzić, że o przepaleniu zdjęcia może świadczyć tylko to, że rzeczywista "szerokość" tonu o największej wartości, który odpowiada wartości 255 - dla 8 bitowej przestrzeni, jest większa niż rzeczywista "szerokość" tonu o wartości mniejszej o jeden, czyli 254 - dla 8 bitowej przestrzeni. Jeśli tak nie jest, to zdjęcie nie jest przepalone, a jedynie idealnie naświetlone oraz idealnie przekształcone do przestrzeni 8 bitowej. Łatwo zauważyć, że przepalenia mogą powstawać zarówno podczas wykonywania zdjęcia (dotyczą wówczas przekroczenia wartości 4095 - maksymalna wartość, jaka można zapisać na 12 bitach), jak też podczas przekształcania tego zdjęcia do przestrzeni 8 bitowej (błędny dobór parametrów przekształcania lub błędne działanie algorytmu).

Dotychczas była teoria, na koniec nieco praktyki. Bardzo często spotykamy się z opiniami o lepszej lub gorszej rozpiętości tonalnej matryc cyfrowych. Często powtarzane jest pytanie, czy matryca S3PRO jest lepsza od matrycy D200, D70, czy D50 i czy rzeczywiście ma to istotne znaczenie dla zdjęć? Postaram się wykazać, że rozpiętości matryc wszystkich tych aparatów znacznie przewyższają rozpiętość przestrzeni 8 bitowej karty graficznej, monitora, drukarki, czy formatu JPEG i w konsekwencji to, że dalsze zwiększanie rozpiętości tonalnej formatu RAW ma niewielki sens. Ze względu na to, że nie można wyświetlić 12 bitowego obrazu RAW na monitorze w przestrzeni 8 bitowej bez przekształceń, trzeba zastosować jakieś rozwiązanie, które umożliwi nam "podejrzenie" tego co matryca rzeczywiście rejestruje. Najłatwiej jest "podejrzeć" to, co jest zarejestrowane w zakresie wartości od 0 do 255, czyli w zakresie 8 bitów 12 bitowej matrycy. Wykonałem więc dwa zdjęcia tej samej sceny w trybie RAW, za pomocą Nikona D200 z ustawioną czułością ISO100. Zdjęcia te nie były w żaden sposób obrabiane, nie były nawet wyostrzane, a jedynie przeskalowane na kilka różnych sposobów do przestrzeni 8 bitowej i zmniejszone. Pierwsze zdjęcie zostało wykonane w trybie Aperture Priority i naświetlone na podstawie wskazań światłomierza, bez żadnych korekt i modyfikacji. Jest to zdjęcie "wzorcowe", które posłuży nam do dalszych porównań.


https://forum.nikoniarze.pl//brak.gif
źródło (http://www.jks.com.pl/foto/rt1.jpg)

Drugie zdjęcie tej sceny również zostało wykonane w trybie Aperture Priority, ale celowo została wprowadzona korekta ekspozycji minus 4EV. Inne parametry zdjęcia nie zostały zmienione. Wynik tej operacji jest jednoznaczny - drugie zdjęcie jest nie doświetlone, ciemne i pozornie do niczego się nie nadaje.


https://forum.nikoniarze.pl//brak.gif
źródło (http://www.jks.com.pl/foto/rt2.jpg)

Czy aby jest tak na pewno? To drugie zdjęcie zostało wykonane z korektą minus 4EV w tym celu, żeby pokazać jak duża jest rozpiętość tonalna matrycy D200. Z uwagi na 8 bitową przestrzeń koloru dla monitora, zobrazowanie rozpiętości tonalnej 12 bitowej matrycy D200 możliwe jest tylko wtedy, gdy będziemy korzystali ze znacznie mniejszego zakresu rejestrowanych wartości. Najlepiej, jeśli ograniczymy wykorzystywany zakres pracy matrycy do naszych 8 bitów, czyli do zakresu od 0 do 255. Ta korekta o minus 4EV, mniej więcej odpowiada zmniejszeniu rozpiętości z 12 bitów, do około 8 bitów. Piszę około, żeby nie wdawać się w rozważania na temat charakterystyki krzywych, tego co naprawdę widzi ludzkie oko, itp. Jeśli zdjęcie zostało wykonane z korekcją minus 4EV, to w idealnych warunkach wartość składowej koloru, która bez korekcji miałaby wartość 4095 zmniejszy się około 16 razy, czyli powinna dać wartość około 255, a to już można jakoś wyświetlić na monitorze.

Wygląd drugiego zdjęcia wskazuje jednoznacznie, że matryca, układ wzmacniaczy i oprogramowanie D200 i oprogramowanie Nikon Capture nie są przystosowane do poprawnej konwersji tak wykonywanych zdjęć do przestrzeni 8 bitowej. One zajmują się głównie przetwarzaniem pełnego zakresu rejestrowanego przez matrycę, choć mają kilka przydatnych funkcji do niezbyt standardowych operacji. Spróbujmy więc zrobić to inaczej. Wyciągnijmy z drugiego zdjęcia szczegóły tak, aby upodobnić je do zdjęcia pierwszego. Po odpowiednim przeskalowaniu do obszaru 8 bitowego uzyskamy następujący efekt.


https://forum.nikoniarze.pl//brak.gif
źródło (http://www.jks.com.pl/foto/rt3.jpg)

Ogólny wygląd zdjęcia jest zbliżony do zdjęcia wzorcowego. Oczywiście inaczej zostały zapisane kolory, czyli zdjęcia nie mogą być identyczne, ale można powiedzieć, że mają zbliżony wygląd, zbliżona kolorystykę i zbliżoną jasność i zbliżoną ilość detali. Obraz ma też większe szumy, ale o tym później. Co z tego wynika? Otóż to, że do poprawnego zarejestrowania naszej sceny wystarczy ten zakres matrycy, który rejestruje 8 bitów na pojedynczą składową koloru. Ale to jeszcze nie koniec. Można jeszcze inaczej przekształcić to zdjęcie do przestrzeni 8 bitowej, pozornie wyciągając jeszcze więcej z fotografowanej sceny.


https://forum.nikoniarze.pl//brak.gif
źródło (http://www.jks.com.pl/foto/rt4.jpg)

Przypominam, że oryginał tego zdjęcia był korygowany na minus 4EV, czyli została wykorzystana tylko 1/16 zakresu pracy matrycy D200 (około 6-7% możliwości rejestracji obrazów). Rzeczywista rozpiętość tonalna i jakość zdjęć musi więc być dużo lepsza, ale w inny sposób nie można niestety zademonstrować zdjęcia zarejestrowanego przez 12 bitową matrycę, na 8 bitowych urządzeniach wyświetlających obrazy, bez tracenia większości zarejestrowanych informacji. Warto również zauważyć to, że na normalnie robionym zdjęciu, większość tych "wyciąganych" informacji nie wystąpi - zostaną usunięte wraz z szumem, bo rzeczywisty obraz zostanie zarejestrowany w dużo wyższym przedziale wartości składowych koloru, dużo dalej od szumu rejestrowanego przez matrycę.

Ten eksperyment w pełni potwierdził założenie, że 8 bitowa matryca jest wystarczająca dla potrzeb współczesnego sprzętu komputerowego, a każde rozszerzenie zakresu rejestracji koloru, na przykład do 12 bitów, daje dodatkowo bardzo, bardzo duże pole do popisu dla cyfrowej obróbki zdjęć i jest przydatne nie ze względu na mityczną rozpiętość tonalną, której i tak wykorzystać nie można, ale ze względu na minimalizację szumów, korekcje naświetlania, czy korekcje balansu bieli. W jakim celu stosuje się te 12 bitów na składową koloru bardzo łatwo wyjaśnić na przykładzie. Poniżej znajduje się crop 100% z ostatniego zdjęcia, zdjęcia przeskalowanego w sposób, który możliwie wiernie obrazuje to, co rzeczywiście rejestruje matryca.


https://forum.nikoniarze.pl//brak.gif
źródło (http://www.jks.com.pl/foto/rt5.jpg)

Właśnie taki szum rejestruje matryca D200 przy ISO100. Ale nie ma co się stresować porównywalne szumy dają wszystkie inne matryce, wszystkich innych aparatów cyfrowych, wszystkich innych producentów. Te dodatkowe 4 bity na każdą składową koloru pozwalają w naturalny sposób takie szumy usuwać lub minimalizować (podczas operacji przeskalowania większość szumów jest gubiona w naturalny sposób), korygować naświetlanie, balans bieli, kontrast, wyostrzenie, ale o tym już było. Dla zainteresowanych załączam również histogramy wszystkich czterech zdjęć.


https://forum.nikoniarze.pl//brak.gif
źródło (http://www.jks.com.pl/foto/rt6.jpg)

Na koniec jeszcze jedna uwaga. Powszechnie uważa się (nie wiem na jakiej podstawie), że rozpiętość tonalna matryc lustrzanek cyfrowych to 4-6EV. Jeśli wykonując drugie zdjęcie ustawiłem korektę minus 4EV, to w zasadzie rozpiętość tonalna tego zdjęcia powinna mieścić się w zakresie 0-2EV. Po obejrzeniu załączonych zdjęć można zapytać, czy jest tak rzeczywiście?

Podsumowując trzeba stwierdzić, że to co widzimy na monitorze podczas wyświetlania zdjęcia w formacie RAW, to nie jest oryginał zarejestrowany przez matrycę, ale jest to zawsze obraz przekształcony do przestrzeni 8 bitowej przez oprogramowanie, które go wyświetla. Tego co zarejestrowała matryca na 12, czy 14 bitach, po prostu na monitorze zobaczyć nie możemy. To co widzimy na ekranie i na papierze zależy nie tyle od rozpiętości i rozdzielczości tonalnej matrycy aparatu, ale od sposobu przekształcania tych danych do przestrzeni 8 bitowej. Nie można uzyskać na ekranie monitora rozpiętości i rozdzielczości tonalnej większej niż 256, a rozpiętość i rozdzielczość tonalną większą niż 256 daje każda matryca, która rejestruje więcej niż 8 bitów na pojedynczą składową koloru. Nasuwa się też wniosek, że rewelacyjna "rozpiętość tonalna S3PRO" jest głównie wymysłem marketingowym i polega w dużej mierze na zastosowaniu innego algorytmu przekształcania obrazu do przestrzeni 8 bitowej - algorytmu wzorowanego na metodach HDR. Nikon takich sztuczek w typowych zdjęciach nie robi i dlatego daje pozornie mniejszą rozpiętość tonalną zdjęć.

Dużo tego, ale może będzie to podstawa do rzeczowej dyskusji o rozpiętości i rozdzielczości tonalnej cyfrowych matryc, kart graficznych, monitorów, drukarek, formatów zapisu zdjęć oraz o algorytmach umożliwiających optymalne wykorzystanie tego co zarejestruje matryca, a musi wyświetlić karta graficzna i monitor oraz wydrukować drukarka. Zapraszam do dyskusji.

life
03-07-2006, 01:47
kawal solidnego tekstu :) podziwiam mam pytanie jakich technik uzywales do wyciagania z "niedoswietlonego" zdjecia?? :)

zastanawiam sie czy by nie dalo rady na podstawie jednago zdjecia zrobic np 2 (przeswietlonego i niedoswietlonego) i potem zlozyc je w HDR po to by wyciagnac szczegoly z obrazu ktorych normalnie nie widac :)

Niedzwiedz
03-07-2006, 11:03
dobry tekst troche sie nowych rzeczy dowiedzialem :) . s3 ma jeszcze jedna rzecz ktora nie jest tylko metoda konwersji ma 6 mln pikseli o 2 EV mniej czulych ktore daja wiecej informacji ze swiatel i dopieru tu konwersja do 8 bitow daje PRAKTYCZNIE wiecej szczegolow w swiatlach i cieniach.
BTW jak ktos pstryka w jpg a nie w RAW i wykorzystuje zalety wyzszej rozpietosci to znaczy ze wie jak naswietlac zdjecie i wie co to pomiar punktowy itp bo pisales o mnie ;)

[ Dodano: Pon Lip 03, 2006 12:08 pm ]
aa i jeszcze jedno a przepal o +4 i wyciagnij cos z tego ? s3 umie :)

pebees
03-07-2006, 11:17
(..)
Powszechnie uważa się (nie wiem na jakiej podstawie), że rozpiętość tonalna matryc lustrzanek cyfrowych to 4-6EV.

Nie wiem gdzie tak się uważa. Ja doczytałem się w kilku miejscach większej rozpiętości tonalnej matryc niz slajdu, a ze slajdu można ponoć wyciągnąć ponad 9 EV. To takie moje 3 grosze.

Poza tym dobry tekst, może po kolejnym Twoim wywodzie ludzie pójdą robić zdjęcia zamiast szukać na rozpiętościach tonalnych szumów i innych hot/dead pikselków. Wiem, jestem jak stara płyta :D

[ Dodano: 03-07-2006, 11:18 ]


zastanawiam sie czy by nie dalo rady na podstawie jednago zdjecia zrobic np 2 (przeswietlonego i niedoswietlonego) i potem zlozyc je w HDR po to by wyciagnac szczegoly z obrazu ktorych normalnie nie widac :)

i których nie będzie później widać na odbitce :D

miklo
03-07-2006, 16:10
aa i jeszcze jedno a przepal o +4 i wyciagnij cos z tego ? s3 umie :)
Wielka mi lustrzanka. Phi. Kompakt też potrafi. Wiesz, który co nie? ;)

Niedzwiedz
03-07-2006, 16:14
miklo, noo i kompakty tez umieja sam widzialem na wlasne oczy !!!!!

a wogole to zdradziles ta zacna marke ;)

JK
03-07-2006, 18:19
life, pytasz o to jak były obrabiane te zdjęcia. Odpowiedź jest bardzo prosta. Dwa pierwsze odczytane przez NC4.4, zmniejszone i zapisane jako JPEGi. Następnie drugie zdjęcie potraktowane przez NC4.4 korekcją plus 1.5EV i funkcją D-Lighting, z suwaczkami ustawionymi, tak aby wyglądało możliwie podobnie jak zdjęcie pierwsze (chyba się jakoś udało). Zdjęcie czwarte zostało również przetworzone w NC4.4 (minimalizacja kontrastu, wyostrzenie na zero, wyciągnięcie plus 2EV i D-Lighting na maksa). Sam byłem ciekaw, jak to się ma do rzeczywistej zawartości plików RAW, więc obrazki były "traktowane" starymi programami (jeszcze pod DOSa), które mają dwie istotne wady - w czasach kiedy powstawały nie było jeszcze Windowsów (dzis rzadko kto umie się czymś takim posłużyć, bo nie ma suwaków, krzywych i okienek podglądu), a maksymalną rozdzielczością monitora było 800 na 600 pikseli i niestety tylko takie obrazki "kupują" te programy. Kiedyś służyły do automatycznej wektoryzacji obrazów w formacie TIFF ze skanera, a dziś po małych przeróbkach, umożliwiają kontrolę tego co zawierają zdjęcia. Nie są to histogramy, ale różne tabele i zestawienia, czyli numeryczna statystyka, która daje pogląd na to co zostało zapisane w pliku ze zdjęciem. Przy nie doświetleniu o 5EV nie dawało się już przeskalować do przestrzeni 8 bitowej bez znacznego zmniejszenia rozdzielczości tonalnej (największe składowe koloru miały wartości poniżej 200). Przy nie doświetleniu o 3EV składowe koloru były już dużo większe niż 255. Najlepiej wypadło zdjęcie zamieszczone wyżej (minus 4EV) i to właśnie ono posłużyło jako przykład.

Niedzwiedz, a po jaką cholerę mam przepalać o 4EV, jeśli już zdjęcie nie doświetlone o 4EV wykorzystuje pełną przestrzeń 8 bitów monitora, drukarki i JPEGa. Co mi takie prześwietlenie da? W jakim celu zwiększać rozpiętość tonalną, jeśli już ta 12 bitowa matryca Nikona daje kilkanaście razy za dużo informacji? Informacji, które później trzeba stracić. Jeśli i tak musisz stracić ponad 80% informacji o kolorze i różnych szczegółach obrazu, to w jakim celu prześwietlać i tracić jeszcze więcej? Oczywiście sytuacja może się zmienić po następnej rewolucji technologicznej w dziedzinie komputerowych urządzeń do obróbki i prezentacji obrazów, ale nasze puszki raczej tego nie doczekają. :wink:

Niedzwiedz, jeśli nadal uważasz, że robiąc zdjęcia w JPEGach możesz przez odpowiednie naświetlanie, zwiększyć rozpiętość tonalną zdjęcia, to może przeczytaj to jeszcze raz, bo chyba czegoś nie zrozumiałeś. :)

tojo
03-07-2006, 19:30
Witam!
Przeczytałem z uwagą cały tekst i czuję niedosyt, albo nie zrozumiałem z niego nic :oops: , albo tam nigdzie nie jest napisane jaka jest rozpiętość tonalna matrycy.
Czy mógłbym prosić o odpowiedź.
Wojtek

Czornyj
03-07-2006, 19:41
tojo, oczywiście mocno upraszczając całą sprawę rozpiętość matrycy wynosi gdzieś w porywach do 8EV z hakiem. Jak słusznie zauważył JK, jest tam tego od cholery i jeszcze trochę :D W Fuji dochodzi jeszcze ze 1,5-2EV w światłach dzięki czemu zasadniczo trudno tym aparatem na amen spartolić zdjęcie. Jeśliby jednak i tego byłoby komu mało, to zawsze może kupić cyfrowy średni format, gdzie rozpiętość sięga... 12EV

JK
04-07-2006, 17:40
Czornyj, dla chcącego nic trudnego. :) Tu są dwa sample z sieci zrobione S3PRO. Może nie spartolone na amen, ale bardzo mocno przejarane - nawet te malutkie sensoreczki nie pomogły. :)

sampelek 1 (http://dc.watch.impress.co.jp/cda/parts/image_for_link/7020-456-21-2.html)

sampelek 2 (http://dc.watch.impress.co.jp/cda/parts/image_for_link/7030-456-23-2.html)

I jak tu wierzyć w tą niesamowitą rozpiętość tonalną S3PRO? :D

Niedzwiedz
04-07-2006, 17:54
strasznie lipny jest ten s3 !!

Czornyj
04-07-2006, 18:02
Dobra, dobra JK. Te zdjęcia to na pewno jakiś "czarny PR" Nikona albo Canona - Sądzę, że ich agenci dobrali się do testowanego egzemplarza i w miejscach gdzie na matrycy znajdują się dodatkowe sensory, namalowali na filtrze AA czarne kropki markerem spirytusowym!

JK
04-07-2006, 18:10
Niedzwiedz, ten S3 nie jest ani lipny, ani rewelacyjny. Ot typowa lustrzanka cyfrowa z pewnymi zaletami i całą kupą wad, jak wszystkie lustrzanki cyfrowe.

Niedzwiedz
05-07-2006, 08:54
JK, wlasnie ma swoje wady i zalety niema nic idealnego :) nie robie juz krucjat o to , bo poco wole robic foty , a wogole to nic nie robie bo sie popsul i przestal karty CF czytac i czkam az mi go oddadza takie to jest te fuji ;)

Jacek_Z
07-07-2006, 01:13
oj będzie dyskusja, ale trafiłem tu o 1 w nocy, wiec napisze więcej jutro.
nie zgadzam sie z połową wywodu JK i z wieloma założeniami tam poczynionymi. W sumie gorzej, że sa one poprzeplatane ze sprawami oczywistymi. Rozsupłanie tego bedzie niełatwe.
szkoda, że mieszkamy z JK w innych miastach, bo naprawde ciężko sie nam będzie dogadać, raz juz wałkowalismy dość podobny temat.

JK
07-07-2006, 10:54
Jacek_Z, czyli czekam na argumenty - ale tylko merytoryczne. :wink: :)

I pamiętaj, że ja od prawie 30 lat zajmuję się grafiką komputerową, a sciślej programami do przetwarzania obrazów wektorowych i rastrowych - od lat projektuję i piszę takie programy (no dla ścisłości - nie zawsze sam, czasem z różnymi zespołami współpracowników). Nie widzę tu wielkiego pola do dyskusji, ale próbuj. Łatwo skóry nie sprzedam. :wink: :D

Jacek_Z
07-07-2006, 12:08
nie, tylko merytorycznie oczywiście. nie dam sie sprowokować, ty tez zawsze jesteś spokojny, bez obaw. Ale temat jest ogromny. Dałes taki wywód, że jest na 2 dni pisania, bo oczywiście bedziesz ripostował. nie wiem jak do tego systematycznie podejść.
Zgadzam się w zupełności oczywiście na to jak opisujesz zapis na 8 czy 12, 14 bitach. ale nie zgadzam sie z tym jak z tym wiążesz rozpietość tonalną. nie ma tam takich powiązań na jakie wskazujesz.
z tego co piszesz wynika, że na 12 bitach mozna zapisac większą rozpietość tonalną niz na 8, a wg mnie tak nie jest. To jest tylko zwiększenie ciągłosci tonalnej.
bo zajmujesz sie tylko rozpietoscia tonalną jako to co zeszło z matrycy. A problem w tym, by aparat zarejestrował największa rozpietość - czyli to co na wejściu, przed matrycą.
To czym sie zajmujesz to jest sposób zapisu na 8 lub 12 bitach tego co potrafi matryca - i to opisujesz dobrze.
Ilość informacji o ciągłości tonalnej nie ma związku z rozpietoscia tonalną fotografowanej sceny. Jeżeli zubozymy sobie język opisujący do 1 bita to będziemy mieli tylko 2 stany 0 i 1, - czern i biel. Ale nie oznacza to, że fotografujemy coś co ma 2 tony, tylko, że do opisu uzywamy zbyt skromnego narzedzia.
fuji s3 potrafi zarejestrować większą różnicę EV światła padajcego na matrycę niż np d70. To zagadnienie jest decydujące, a je własnie całkowicie pomijasz. Ten artykuł powinien mieć tytuł "Ciągłość tonalna matrycy cyfrowej" i byłoby OK. Na wyjąciu z matrycy czerń i biel sa w obu tych aparatach zapisane tak samo 0,0,0, 255,255,255 (gdy 8 bitów). oczywiscie lepiej na 12 czy 14 bitach - bo wtedy wyjdzie, że fuji ma lepsza ciagłośc tonalną, ma ciagle szczegóły tam gdzie d70 ma przerwy.

JK
07-07-2006, 12:19
Jacek_Z, zanim zaczniesz pisać, zrób następujące założenie. W procesie fotografowania są różne rozpietości tonalne. Rozpiętość tonalna fotografowanej sceny (wyrażana w EV), maksymalna rozpiętość tonalna matrycy (dla 12 bitów to 4096 na pojedynczą składową koloru) i maksymalna rozpiętość tonalna monitora, drukarki, czy JPEGa (8 bitów, czyli 256 na składową koloru). Przy czym tak naprawdę ważna jest głównie ta ostatnia, bo to głównie od niej zależy ostateczna postać zdjęcia. Jeśli nie przepalisz tych 12 bitów, czyli tak dobierzesz parametry naświetlania, aby zarejestrować na matrycy całą rozpietość tonalna sceny (np. 10EV) i nie jej przepalić (składowe koloru po krektach WB, wyostrzeniu, itp, są mniejsze niż 4095) to takie zdjęcie możesz przekształcić do przesttzeni 8 bitów na wiele sposobów, ale masz szansę uzyskć pełną rozpietość forografowanej sceny (czyli te 10EV) bez przepaleń - jeśli nie popełnisz błędów w obróbce.

No dobrze, wiecej nie podpowiadam - czekam na argumenty. :)

A z tym S3 to się chyba mylisz. Matryca nie ma zdefiniowanego ani idealnego punktu czerni, ani idealnego punktu bieli. Ona jedynie rejestruje śwaitło, które na nią pada. W zależności od parametrów naświetlania kolor idealnie biały może zostać zarejestrowany jako 200, 500, 2000 lub 4095. Oczywiscie im więcej tym lepiej, ale ważne jest tylko to, zeby nie przepalić i zachować margines na dalszą obróbkę.

Jacek_Z
07-07-2006, 12:22
coś w międzyczasie dopisałem - przeczytaj końcówkę mojego poprzedniego posta.
musimy ustalic defoinicje - rozpietość tonalna i ciągłośc tonalna. to nie to samo, a wg mnie ty to mieszasz.
8 bitów to nie mozliwość zapisu 8EV, a 12 bitów to nie mozliwość zapisania wiecej czyli np. 12 EV.

JK
07-07-2006, 12:24
Jacek_Z, ja też. Proponuję przyjąć jakiś znak końca wypowiedzi, bo sie pogubimy, czekam na propozycje.

[ Dodano: Pią 07 Lip, 2006 12:29 ]
Weź też pod uwagę to, że musisz przeprowadzić proces zamiany rzeczywistej sceny, której tonalność ma charakter ciągły, na zapis cyfrowy, gdzie o ciągłości tonalnej nie może być mowy. Przyjmijmy, że będziemy to nazywać kwantyzacją. Może być mowa jedynie o rozdzielczości tonalnej (liczba kwantów o różnej wartości występujących w obrazie) i rozpiętości tonalnej, która nie może być wieksza niż maksymalna rozpiętość tonalna przestrzeni koloru (maksymalna wartość pojedynczego kwantu).

Jacek_Z
07-07-2006, 14:25
my tego bez wódki nie rozwiążemy :lol:
dziś moge pisac z doskoku, na weekend wybywam.
temat jest za obszerny.
zwrocić co chcę uwagę, że zajmujesz się tym jak opisywana jest rozpietość tonalna tego co rejestruje matryca. Jak będzie na większej ilości bitów - to będzie ona dokładniej opisana. Ale to nie zwiększy ani ciut ciut tego co potrafi matryca zarejestrować. Chodzi o to by matryca potrafiła jednoczesnie zauwazać i rejestrować szczegóły jak najjaśniejsze i jak najciemniejsze - odległe na skali EV na maxa. I to jest problem. Tu wygrywa (na te chwilę) S3 pro.

to co potem, co zejdzie z matrycy to sprawa wtórna, mniej istotna. Oczywiscie jak ktoś zrobi supermatryce, to nie będzie robił z niej zapisu bitmapy 0 i 1, a da kolor pewnie 16 bitowy. Ale to sa sprawy wtórne, dostosowania softu do osiągów matrycy. Tą część opisujesz OK.
Z wywodu twojego możnaby prawie wyciągnąc wniosek, że jak by własnie dano zapis 16 bitowy, to by zarejestrowano najwiekszą rozpietość tonalną. A to jest postawienie sprawy od tyłu. To da tylko taką mozliwość. Ale ważne jest jaką różnicę EV moze zarejestrować i przenieść matryca. Tym właściwie sie nie zajęłeś.
kolor mozna zapisać na 8, 12, 16 czy ilu sie tam chce bitach. To nie zmienia czerni i bieli, a tylko przypisaną wartość liczbową temu punktowi.
Ten sposób zapisu to trochę jak zapisywanie parametrów liczbami albo za pomoca cyfr arabskich albo cyfr rzymskich. Nie zmieni to koloru, czerni czy bieli występującej w naturze, a tylko jak to zapisano po kwantyzacji. O ile przeniesie matryca te wartosci, to potrafi je opisać. Ale jak nie przeniesie tego matryca - bo ma za małą rozpietośc tonalną EV, to "bogatszy" sposób opisu punktu nic nie da, nie zwiększy rozpietości EV a poprawi pokazywanie półtonów.
Kluczem do wszystkiego jest jak duża rozpietość EV potrafi dać matryca. Ta z S3 potrafi więcej, dzięki bardzo cwanemu zabiegowi ze sklejeniem dwóch komórek ze sobą - o dużej powierzchni i przez to o większej czułości odpowiedzialnej za cienie obrazu i drugiej - o małej powierzchni i przez to mniejszej czułości odpowiedzialnej za światła obrazu. Bez sensu taki efekt opisywać na 8 bitach, traci się całe zaletę tego rozwiązania.
We wszechświecie ma się bardzo duza rozpietośc tonalną - od czarnej dziury do wybuchu gwiazdy. Tej rozpietości nie przeniesie chyba nigdy nic :) . matryca moze sobie wyciąć pewien kawałek, ileś tam EV z tego. Dzięki czasowi naświetlania, czułości, zastosowanej przysłonie mozna "przesuwać" zakres - o szerokości ilus tam EV - jaką będzie rejestrowała matryca. Najjasniejsze z tego co może zarejestrować w takim układzie matryca to będzie biel, a najciemniejsze to będzie czerń. Nie ma to nic wspólnego z tym, czy nasze oczy będą to co rejestruje matryca widziały jako białe czy czarne. Bo np. niedoświetlona szarość będzie pokazywana jak czerń, a prześwietlana jako biel. (trzeba tu poczynic oczywiscie pewne dodatkowe założenia, np że nie fotografujemy motywu o bardzo małej rozpietości tonalnej, i że to niedoświetlenie i prześwietlenie będzie o więcej EV niż przenosi matryca. W ogóle wszędzie tu dla uproszczenia zakładam, że fotografujemy coś o b. dużej, wiecej niz potrafi ogarnąć matryca rozpietości tonalnej i że to matryca nas ogranicza)
Cały sęk w tym jaki punkt najjaśniejszy i najciemniejszy jednocześnie (w naturze, przyrodzie) rozróżnia matryca, a nie jak to jest na bitach opisane - to jest wtórne.
Jedne matryce potrafią osiągac rozpietość 8 EV, inne 10 EV. pewnie jakieś stare miały dajmy na to 6 EV.
każde z nich pokazywały biel i czerń, ale dla każdej z nich był to inny zakres szerokosci EV. Zeby było ciekawiej (sorry, że moze trochę zagmatwam), mozliwe, że najbardziej podobałby się wam obrazek z matrycy o najmniej EV, a nie najwiecej (ale opisany na wielu bitach, dla ładnej ciagłości tonalnej - tu nie ma sprzeczności). Taki obraz wydawałby się najbardziej kontrastowy. Podobnie jak podoba się obraz z Fuji Velvia 50, choc ma ona małą rozpietość.
JK - łatwiej mi było przedstawić "mój obraz" widzenia tego zagadnienia - teraz napisz z czym tu sie u mnie nie zgadzasz.

JK
07-07-2006, 14:37
No dobrze, troche to wszystko zagmatwałeś, ale mam taką propozycję. Na początku ustalmy z czym się zgadzamy, a z czym nie.

Z Twoich wypowiedzi wynika, że nie kwestionujesz tego, co napisałem o monitorach, kartach graficznych, drukarkach, formacie JPEG oraz o przetwarzaniu obrazów (dziwne by było gdybyś tu coś kwestionował, ale zawsze można się czegoś nowego dowiedzieć), czyli nie kwestionujesz niczego co dotyczy przetwarzania obrazu po jego zarejestrowaniu przez matrycę. Czy dobrze to odczytałem? Czy możemy to przyjąć? Jeśli tak, to jedyny punkt rozbieżny dotyczy tego, jak rzeczywista scena jest rejestrowana przez matrycę. Czy dobrze rozumiem Twoje wypowiedzi?

Jacek_Z
07-07-2006, 15:09
prawie tak - zgadzam sie z tym co co napisałeś o monitorach, kartach graficznych, drukarkach, formacie JPEG
o przetwarzaniu obrazów - już nie ze wszystkimi fragmentami. Wyszło ci w jakimś miejscu (upraszczając) że 8 bitów, a nie więcej daje sie pokazać, więc skoro nef jest 12 bitów to mozna bezkarnie korygować o 4 EV. zbiezność cyferek jest chyba przypadkowa, bo nie sądze byś chciał ułozyc równanie 12 bitów - 4 EV = 8 bitów. to sa inne jednostki. tu też się różnimy.
co do zapisu rzeczywistej sceny przez matryce, to nawet nie wiem czy sie róznimy, praktycznie to pominełeś, a wydawało mi się to w tym wszystkim najistotniesze, skoro to o rozpietości tonalnej ma być.

a co u mnie ci sie nie zgadza ? :D

JK
07-07-2006, 15:24
Jacku, zostawmy na chwilę sposób rejestrowania zdjęcia przez matrycę i wyjaśnijmy szczegóły mojego tekstu. Chyba bedzie prościej i nie będziemy mieszać zagadnień. Do rejestracji obrazu przez matrycę wrócimy nieco później. Pasuje?


No to wyjaśnijmy sobie problem tego 4EV. Wbrew pozorom to się mniej więcej zgadza. Zrobione zostało zdjęcie wzorcowe z korektą 0EV (zakłdam, że światłomierz D200 prawidłowo wyznaczył ekspozycję, ale i tak nie ma to wielkiego znaczenia) i drugie zdjęcie z korektą minus 4EV. O ile ja się znam na parametrach ekspozycji, to korekta o minus 4EV oznacza 16 razy mniej światła padajacego na matrycę. Matryca ma podobno charakterystykę zbliżoną do liniowej, czyli to co miało być zarejestrowane jako wartość 4095 zostanie zarejestrowane jako wartość 16 razy mniejsza, czyli 255 (oczywiecie w przybliżeniu związanym z pominieciem szumów układów elektronicznych, nieliniowości charakterystyki matrycy itp). I analogicznie nie 256 tylko 16, nie 1024 tylko 64, i tak dalej. Czy się tu mylę? Chyba nie. Jeśli się mylę to czekam na sprostowanie.

Jeśli wyjaśnimy ten szczegół to chyba wyjaśnimy wszystkie zagadnienia związane z tekstem, który napisałem. Chyba, że jeszcze masz inne wątpliwości.

Jacek_Z
07-07-2006, 16:22
jest gorąco, mózg mi staje, ale sie zgadza, faktycznie, to 16 razy mniej swiatła. wyliczenie jest ok.
tylko jakie przy tym jest założenie ? - ze cała rozpietość tonalna mieści sie na tych 8 bitach i przesuwając w zakresie tych 4 bitów nic nie tracimy. a to już jest ryzykowne założenie.
Nie sądzę by CCD pracowal liniowo i w obszarze swiatel i cieni, i było bez róznicy co poświęcamy.
np czemu mozna przeswietlić o 4 EV, a nie mozna niedoświetlić o 4EV? to by było juz 16 bitów. czyli lepiej od prawidłowo naświetlonego - niedoświetlenie (lub prześwietlenie) o +/-2 EV. dalej będa straty.
W dodatku tu zakładasz, że 8 bitów da obraz wystarczajacy (bo chyba nie doskonały), bo tak pracują urządzenia peryferyjne. Z tego w konsekwencji wyjdzie, że niepotrzebna jest większa rozpietośc tonalna niż 8 EV bo i tak nie ma jak jej pokazać.

pisałem wczesniej, że fajniejsze fotki moga wyglądać z matrycy o rozpietosci 6EV, ale pokazane na 8 lub wiecej bitach - by nie utracic ciągłosci tonalnej.
z kolei jak cos ma rozpietość np 10 EV (załóżmy, że tyle ma S3 pro) to po obrobieniu (na większej ilości bitów) i przeliczone na 8 bitów (na jpg) to i tak pokaże więcej, niż gdyby było 8 bitów od poczatku do końca jak w d70.
dzięki temu, że S3 ma zakres 10 bitów to moze pokazać to co jest na przepalonych 2 bitach w d70. będzie to widać nawet gdy sie to przeliczy na 8 bitowy kolor.

[ Dodano: Pią 07 Lip, 06 16:37 ]
przy okazji - wyłapałem coś co mi nie pasuje i moze tu pies pogrzebany - napisałeś:

"Matryca nie ma zdefiniowanego ani idealnego punktu czerni, ani idealnego punktu bieli. Ona jedynie rejestruje śwaitło, które na nią pada. W zależności od parametrów naświetlania kolor idealnie biały może zostać zarejestrowany jako 200, 500, 2000 lub 4095. Oczywiscie im więcej tym lepiej, ale ważne jest tylko to, zeby nie przepalić i zachować margines na dalszą obróbkę."

nie, to niemozliwe. jesli moze być zapisana wartość jako 200 albo jako 4095 to to by było bez sensu.
bo miałoby do końca skali - do czerni albo 200 albo 4095 - czyli "odległość" (około) albo 7 EV albo 12 EV.
Ja sądzę, że jest to tyle samo zawsze (odległość w EV od bieli do czerni) i jest to jednocześnie tyle ile może ta matryca - czyli około 8EV, a dalej są pewnie już dość nielinowe wskazania, które obcina np jpg, a które próbuje sie ratowac w RAW.

JK
07-07-2006, 18:24
Jacku, przepraszam za krótka przerwę, już wszystko wyjaśniam.

Dlaczego nie doświetliłem o 4EV? Tylko dlatego, że przy takim niedoświetleniu, teoretycznie (praktycznie również, bo sprawdzałem statystykę składowych pikseki dla tej fotki) mozna zobaczyć na monitorze prawie dokładnie to, co rejestruje matryca na 8 bitach. Oczywiście z szumem, ale inaczej się nie da. Ze zdjęć widać wyraźnie, że praktycznie nie ma strat innych poza szumem. Prześwietlić o 4EV nie można, bo przepalimy te magiczne 12 bitów i będzie po sprawie. Każdy światłomierz lustrzanki cyfrowej będzie starał się tak naświetlać, żeby chronić przed przepaleniem, ale możliwie najlepiej wykorzystywać światło. Powszechnie wiadomo, że jest to około 0,3EV - 0,7EV - 1EV w zależności od tego kto to ocenia. Nikon nie doświetla - właśnie dlatego.

Do tego pokazywania wiecej przez S3 proponuję wrócić później, bo to się wyjaśni po dyskusji o tym co rejestruje matryca.

Odnośnie punktu czerni i punktu bieli mam takie dwa przykłady, które powinny sprawę wyjaśnić:

Pierwszy dotyczy punktu czerni. Nikon oferuje funkcję redukcji szumów przy długich czasach naświetlania. Po co to robi? Bo podczas robienia zdjęcia nakładają się na siebie co najmniej dwie przyczyny zmiany wskazań sensorów matrycy: naświetlanie i błędy powodowane nagrzewaniem się matrycy. Jaki z tego wniosek? Ano taki, że jeśli na sensor padnie 0 (zero) światła, to i tak matryca jakąś wartość zarejestruje sama z siebie. Czyli punkt czerni dla matrycy wcale nie musi odpowiadać punktowi o składowych (0,0,0). Żeby im odpowiadał, trzeba odjąć wpływ zakłóceń. Najlepiej to widać podczas robienia "darków", ale działa to zawsze, bo każdy układ elektroniczny szumi, czy tego chcesz, czy nie. Tylko, że dla krótkich czasów naświetlania wpływ szumów jest tak mały, że są one całkowicie eliminowane podczas przetwarzania obrazu do przestrzeni 8 bitowej. Dla "darków" te zakłócenia są dużo większe i muszą być eliminowane oddzielnie.

Drugi dotyczy punktu bieli. Jeśli naświetlimy idealnie, to punktowi bieli odpowiada w matrycy 12 bitowej punkt o składowych koloru (4095,4095,4095). Ale kiedy tak naświetlamy? Nigdy, tylko w teorii. W rzeczywistości naświetlamy tak, aby zachować pewien margines bezpieczeństwa dla przepaleń i dalszej obróbki. Na przykład uzyskujemy (4000,4000,4000). Ale co się stanie, jeśli nie doświetlimy o 1EV? Uzyskamy wartości (2000,2000,2000). Przy nie doświetleniu o 2EV otrzymamy z tej samej sceny (1000,1000,1000). Czy takie operacje spowodowały, że biel przestała być bielą. Nie i jeszcze raz nie. W ostatnim kroku obróbki zdjęcia i tak będziemy wykonywali przetwarzanie obrazu do przestrzeni 8 bitowej i dopiero tam będzie ważne, czy punkt bieli ustawimy prawidłowo, czy nie. A będzie to możliwe we wszystkich trzech przypadkach, tylko że możniki będą różne. Przypadek pierwszy 255/4000, drugi 255/2000, trzeci 255/1000. To chyba jaśniejsze już być nie może. Przyjmijmy, że matryca jest wirtualnym nośnikiem, który jedynie pośredniczy w procesie robienia zdjęcia, pomiędzy rzeczywistą sceną, a tym co da się wyświetlić w przestrzeni 8 bitowej.

Czy jeszcze masz jakieś wątpliwości lub uwagi do mojego tekstu, czy możemy już przejść do etapu rejestrowania obrazu przez matrycę?

tojo
07-07-2006, 19:07
Czy nie można sprawdzić rozpiętości matrycy doświadczalnie?
Np. bierzemy szarą kartę i naświetlamy ją według wskazań światłomierza (w pliku powinno byc cos kolo 128), następnie sukcesywnie zwiększamy ilość wpadającego światła (np. co 1/3 EV) i dochodzimy do momentu, w którym rzeczywisty szary obraz staje się idealnie białym (w pliku mamy 255). Następnie zmniejszamy ilość światła i dochodzimy do sytuacji, w której szara karta staje się zupełnie czarna (w pliku mamy 0). Czy ten zakres EV, o jaki zmienialiśmy naświetlenie by otrzymać z szarej kartki zupełną biel i zupełną czerń nie jest rozpiętością tonalną matrycy?

Pozdrawiam
Wojtek

JK
07-07-2006, 20:00
tojo, proszę poczekaj trochę. Może Jacek_Z się jeszcze odezwie, a jeśli nie, to za jakąś godzinę pojedziemy z tym dalej. Zamierzam wykazać, że matryca nie może mieć rozpiętości mierzonej tak jak rzeczywista fotografowana scena. Ale poczekajmy chwilę, chciałbym żeby najpierw wyjaśnić wątpliwości wokół tego co napisałem na wstępie tego wątku.

tojo
07-07-2006, 20:28
OK, w takim razie czekam!

Smurf
07-07-2006, 21:26
Jacek_Z, czyli czekam na argumenty - ale tylko merytoryczne. :wink: :)

I pamiętaj, że ja od prawie 30 lat zajmuję się grafiką komputerową, a sciślej programami do przetwarzania obrazów wektorowych i rastrowych - od lat projektuję i piszę takie programy (no dla ścisłości - nie zawsze sam, czasem z różnymi zespołami współpracowników). Nie widzę tu wielkiego pola do dyskusji, ale próbuj. Łatwo skóry nie sprzedam. :wink: :D
Tak oczywiscie - w roku 1976 uzywaleś programów do przetwarzania obrazów wektorowych i rastrowych, a nawet je tworzyłeś :mrgreen: :mrgreen: :mrgreen:

JK
07-07-2006, 22:00
No to idziemy dalej z tą rozpietością tonalną. Jak już pisałem w podpowiedziach dla Jacka_Z, musimy rozróżnić rzeczywistą fotografowana scenę i matryce, która ma ją zarejestrować. Rzeczywista scena już od czasów analogowych była mierzona w sposób następujący: pomiar punktowy na światła, pomiar punktowy na cienie i odjęcie jednej wartości od drugiej i mamy rozpiętość tonalną. Aby dobrze wykonać zdjęcie trzeba było dobrać odpowiedni film i odpowiednie warunki wywołania tego filmu tak, żeby w efekcie zarejestrować możliwie kompletną, nie przepaloną scenę. Mamy więc rzeczywistą scenę o zmierzonej rozpiętości tonalnej, o rozpiętości tonalnej, która charakteryzuje się ciągłymi przejściami tonalnymi od cieni, aż po światła. Dla dalszych rozważań przyjmijmy, że rozpiętość takiej sceny to 10EV.

Następnym krokiem będzie kwantyzacja, czyli zamiana ciągłej sceny na skończoną ilość kwantów. Musimy pamiętać, że w wersji cyfrowej pojecie ciągłości tonalnej nie występuje, a cały obraz musi być podzielony na liczby całkowite, które ze swej natury nie są ciągłe. Liczba takich kwantów będzie zależna od głębi koloru matrycy i przyjętych parametrów naświetlania. Dla matrycy z 12 bitową głębią koloru liczba takich kwantów dla pojedynczej składowej koloru będzie zawsze mniejsza lub równa 4096, bo tylko tyle różnych liczb można zapisać na 12 bitach. Wynika z tego, że każdy kwant będzie miał minimalną wielkość 10EV/4096 = 0,00244EV. Jeśli naświetlimy zdjęcie tak, że nie wykorzystamy pełnych możliwości matrycy (na przykład korekcja o minus 1EV), to ilość różnych kwantów koloru będzie malała, a ich rozmiar będzie się zwiększał. Na przykład dla 2000 kwantów i naszej wzorcowej sceny, ich wielkość będzie wynosiła 0,005EV. Dla matrycy 14 bitowej ilość wszystkich możliwych kwantów wzrośnie do 16276, a ich rozmiar zmaleje do 0,0006144EV. Tylko, czy to ma jakieś znaczenie dla naszego zdjęcia?

Bierzemy aparat cyfrowy i zrobimy zdjęcie. Aby je zrobić poprawnie musimy tak dobrać parametry, żeby nie prześwietlić świateł. To się zawsze daje zrobić, jeśli trzeba, to zawsze możemy korygować EV na minus. Przyjmijmy że zdjęcie wykonujemy za pomocą aparatu z matrycą o 12 bitowej głębi koloru. Co wiec powinniśmy zarejestrować na matrycy po wykonaniu zdjęcia? Zbiór składowych koloru, z których żadna nie przekracza wartości 4095. Przyjmijmy, że tym aparatem wykonamy dwa zdjęcia. Jedno naświetlimy tak, żeby idealnej bieli odpowiadała wartość 4000 i drugie korygowane na minus o 2EV, w którym idealnej bieli będzie odpowiadała wartość 2000. Teraz weźmy S3PRO i wykonajmy zdjęcie tej sceny, które zapiszemy tak, żeby idealnej bieli odpowiadała wartość 16000 (oczywiście w 14 bitowej przestrzeni koloru). Mamy trzy zdjęcia i we wszystkich możliwie identycznie, korygujemy WB, kontrast, nasycenie, minimalizujemy szumy, wyostrzamy (zakładając, że te czynności nie doprowadziły do powstania przepalenia) i przystępujemy do przetwarzania tych trzech zdjęć do przestrzeni 8 bitowego koloru.

W przypadku pierwszego zdjęcia musimy zastosować mnożnik 255/4000 = 0,06375. Oznacza to, że jeden kwant przestrzeni 8 bitowej będzie odpowiadał 15,625 kwantom przestrzeni 12 bitowej (strata 93,6% informacji). W przypadku zdjęcia drugiego mnożnik wyniesie 255/2000 = 0,1275, czyli jeden kwant przestrzeni 8 bitowej będzie odpowiadał 7,8125 kwantom przestrzeni 12 bitowej (strata 87,3% informacji). Dla zdjęcia trzeciego będzie to odpowiednio mnożnik 255/16000 = 0,0159375, a jeden kwant przestrzeni 8 bitowej będzie odpowiadał 62,5 kwantom w przestrzeni 14 bitowej (starta 98,4% informacji). Widać z tego, że prawie wszystko, co zyskaliśmy na większej rozdzielczości tonalnej matrycy i lepszym doborze parametrów naświetlania, straciliśmy podczas przetwarzania obrazu do przestrzeni 8 bitowej. Zrobić to musimy, bo inaczej nie wyświetlimy zdjęcia, nie zapiszemy go, ani nie wydrukujemy.

Są jednak dwie sprawy, na których możemy zyskać zwiększając głębię koloru cyfrowej matrycy. Pierwsza z nich to większe możliwości korekt obrazu już po jego zarejestrowaniu (w komputerze), ale 12 bitów, to aż za dużo, a druga to nieco mniejsze szumy, które w procesie mnożenia składowych koloru przez liczby mniejsze od 1,0 będą usuwane niejako przy okazji. Ale wbrew potocznym opiniom, na żadnej rozpiętości tonalnej, czy ciągłości tonalnej zyskać niestety nie możemy.

Smurf
07-07-2006, 22:14
Moze lepiej napisz książkę, zamiast leczyć kompleksy na forum.
Chyba wiekszość ma dosyć twoich wynurzeń.
Daruj sobie.

JK
07-07-2006, 22:16
Smurf, wyobraź sobie chłopie, że prace zawodową rozpocząłem w roku 1979 i wówczas, w osrodkach naukowych, już były w dostępne komputery z monitorami graficznymi. Nie wiem, czy coś ci mówią takie mówią jak: PDP11, SM4, grafoskopy (tak to sie wówczas nazywało) firmy Tektronix, komputery ODRA, ICL i RIAD wraz z terminalami graficznymi, plotery (np. czeskie plotery DIGIGRAF). Tamte czasy to również komputery konstruowane i projektowane w Polsce takie jak MERA400, czy sławny na całym świecie (no może nie dla ciebie) 16-bitowy komputer K202 skonstruowany przez zespół inżyniera Jacka Karpińskiego. Może to wszystko przekracza twoją wyobraźnię, ale nie znaczy to, że tak nie było. Przestań się lepiej wyśmiewać i zacznij poznawać historię rozwoju przemysłu komputerowego - również polskiego, bo kiedyś taki był i funkcjonował wcale nieźle. Zacznij sie uczyć, to sie zawsze przydaje.

[ Dodano: Pią 07 Lip, 2006 22:22 ]
Smurf, czy ktoś ci każe to czytać. Jeśli nic z tego nie rozumiesz, to tu nie zaglądaj bo i po co. Chyba to proste.

Smurf
07-07-2006, 22:23
Na komputerze ODRA to ja rozpoczynalem nauke informatyki w liceum ( programowanie w jezyku COBOLw ośrodku ZETO), a nastepnie na Politechnice w 1981r (programowanie w jezyku FORTRAN). Nie pisz lepiej nic na temat jego mozliwości graficznych, tak jak na temat wszelkich znakomitych polskich komputerowych wynalazków z tamtych czasów
:lol:
Twoje posty sa wątpliwym popisem wielkich ( w swoim mniemaniu) wiadomości.
Moze czas wyleczyć kompleksy polskiego niedocenionego naukowca. :lol:

JK
07-07-2006, 22:27
Smurf, koniec dyskusji na ten temat. I poczytaj, na przykład to: http://pl.wikipedia.org/wiki/Jacek_Karpi%C5%84ski może ci się horyzonty trochę rozszerzą.

Smurf
07-07-2006, 22:32
No, a kariere miedzynarodową zrobił taki marny Bill Gates, a Pan Karpiński świnie chowa...
Byl jeszcze Pan Kowalski ( ten od turbiny do Poloneza)...
Prawdziwy fachowiec - np. inż.Kudelski jakoś sobie poradził (chociaż też przez "system" tępiony).
Poza tym minikomputer K202 nie mial praktycznie żadnych właściwości graficznych.

Czornyj
07-07-2006, 22:42
Smurf, Bill Gates urodził się wolny, w Stanach Zjednoczonych, a Jacek Karpiński urodził się niewolnikiem w prowincji imperium sowieckiego. Jest jednak subtelna różnica.

pebees
07-07-2006, 22:44
Smurf, może Ty, może JK, może i ja.. wiemy o tym wszystkim. Jednak znacząca większość nie, i z tego powodu podnieca się liczbami i dąży do nowości. Może warto jednak kształcić dzisiejszą młodzież?

Smurf
07-07-2006, 22:49
Smurf, Bill Gates urodził się wolny, w Stanach Zjednoczonych, a Jacek Karpiński urodził się niewolnikiem w prowincji imperium sowieckiego. Jest jednak subtelna różnica.
Nie oznacza to jednak, ze komputery z końca lat siedemdziesiatych w jakikolwiek sposób nadawały się do obróki grafiki wektorowej czy rastrowej, czym się chwali JK.

[ Dodano: Pią 07 Lip, 2006 ]

Smurf, może Ty, może JK, może i ja.. wiemy o tym wszystkim. Jednak znacząca większość nie, i z tego powodu podnieca się liczbami i dąży do nowości. Może warto jednak kształcić dzisiejszą młodzież?
Czy myślisz, że ktokolwiek z "młodziezy" czyta zamieszczone na forum "wykłady" JK, notabene nic tak w zasadzie nie wnoszące?

Jacek_Z
07-07-2006, 22:55
wróciłem, ale poszliście dalej. odniosę sie do tego wczesniejszego -
punkt czerni i odszumianie - to nie ma znaczenia. nazwijmy to punkt czerni moze mieć 0,0,0 po odszumianiu. nie widze zupełnie związku z naszym wywodem.
punkt bieli moze mieć max 4096, 4096, 4096. oba punkty nie mogą byc dalej niż o 8EV skoro taka ma byc rozpietośc tonalna. czyli 4096:16= 256 tyle moze miec minimalnie punkt czerni (nie może mieć 200, bo 0,0,0 jest odległe o mniej niz 8EV).
z tym, że jeżeli punkt czerni będzie miał 256,256,256 (to nie pomyłka, tradycyjnie w 8 bitach to biel) to nie ma żadnego pola manewru w stronę prześwietlenia, bo stracimy na rozpietosci 8 bitów.
mozna oczywiscie "na odwrót" zrobic wyliczenia dla punktu bieli, który nie moze mieć wartości więcej niż 256,256,256, bo inaczej do 4096 będzie miał mniej niz 8EV.

co do etapu kwantyzacji przez matrycę. napisałeś:

"Są jednak dwie sprawy, na których możemy zyskać zwiększając głębię koloru cyfrowej matrycy. Pierwsza z nich to większe możliwości korekt obrazu już po jego zarejestrowaniu (w komputerze), ale 12 bitów, to aż za dużo, a druga to nieco mniejsze szumy, które w procesie mnożenia składowych koloru przez liczby mniejsze od 1,0 będą usuwane niejako przy okazji. Ale wbrew potocznym opiniom, na żadnej rozpiętości tonalnej, czy ciągłości tonalnej zyskać niestety nie możemy."

czytając poczatek sie ucieszyłem, a dalej juz nie. Bo trzeba powiązać te więcej 2 bitów z większa (np 10 EV) rozpietością
oczywiście jak przeliczymy na 8 bitów to biel i czerń zdjęcia z lepszego i gorszego aparatu beda tak samo opisane. ale obrazy z nich otrzymane absolutnie nie będa takie same.
po prostu mozna pokazać to, co jest w przepalonych o 2EV miejscach przez odpowiednią korekcję obrazu na 12 bitach, i przeliczając na 8 bitów te jasne miejsca nadal pokazac rozróżnialne, czytelne. Czego by sie nie uzyskało z matrycy o 8 EV.
pokazać ci to moze praktycznie kilku uzytkowników tego forum mających S3. (w trybie wysokiej dynamiki oczywiscie)
Ty zakładasz własciwie brak obróbki tej matrycy o wiekszej rozpietosci i zmniejszenie tego do pracy na 8 bitach. (te ułamki, mnozniki które wyliczyłeś - to tylko uproszczenia, przeliczenia wartosci, a nie obróbka, światła wydobywa sie krzywymi, a nie zostawiając to wszystko liniowo) Wtedy sie oczywiście bezpowrotnie gubi to, co sie zyskało lepsza matrycą.

[ Dodano: Pią 07 Lip, 06 23:00 ]
czy ktoś z was zauwazył, że chociaz ja i JK sie sprzeczamy czy dyskutujemy, to zaden z nas drugiego nie obraża (JK - mogę to chyba napisać?)
w temacie posta nie wniesli co niektórzy nic nowego, a niestosowne uwagi juz słyszę.

pebees
07-07-2006, 23:03
Czy myślisz, że ktokolwiek z "młodziezy" czyta zamieszczone na forum "wykłady" JK, notabene nic tak w zasadzie nie wnoszące?

Tak właśnie myślę. I cieszę się, że Twoje posty, takie na przykład jak ten wyżej, w przeciwieństwie do postów JK, wnoszą wiele 'merytoryczności'.

JK
07-07-2006, 23:03
Smurf, nie prowokuj, ja i tak nie dam się sprowokować. A to że twój umysł nie zarejestrował pewnych faktów historycznych, nie oznacza jeszcze, że nie miały one miejsca. Poczytaj, uzupełnij wiedzę, to bedziemy mogli podyskutować. Jak na razie nie ma o czym.

[ Dodano: Pią 07 Lip, 2006 23:23 ]
Jacek_Z, po pierwsze, jeśli już to 4095, a nie 4096, ale to drobiazg. Dlaczego sądzisz, że zdjęcie musi być traktowane przez LONG EXP. NR? Jeśli tego nie zrobisz, to punkt czerni nie bedzie miał składowych (0,0,0) tylko trochę większe i nic dziwnego się nie stanie. Nie prawda? Odnośnie punktu bieli, czy nie możesz sobie wyobrazić nie doswietlenia, choćby o 1/3 EV? I już punkt bieli będzie miał nieco mniejszą wartość. Na matrycy punkty czerni i bieli są sprawą wirtualną - umowną, interpretowaną przez oprogramowanie.

Nie można również mieszać rozpiętości tonalnej sceny z rozpietością tonalną matrycy. Jeśli chcesz wyrazić rozpietość tonalną matrycy w EV to 12 bitowa matryca ma 12EV, 14 bitowa ma 14EV, tylko że to nie jest ta bajka. Trzeba odróżnić rzeczywistą rejestrowana scenę o charakterze analogowym (ciągłym) oraz parametry ją opisujące, od parametrów opisujących urządzenie cyfrowe do rejestracji tej sceny. To dwa zupełnie różne zagadnienia.

W sprawie kwantyzacji nasuwa mi się taki przykład (chyba dobrze to wszystko oddaje). Kupujesz tonę węgla, a później chwytasz wiaderko i chcesz zmieścić ile się da. Niestety dużo się nie da, bo wiaderko małe. Możesz wybrać kawałki tego węgla według różnych kryteriów (duże, małe, miał, ładne, brzydkie, ciekawe), ale wiecej niż Ci się do wiaderka zmieści nie weźmiesz. A jak chcesz odnieść to do matrycy S3PRO, to kup dwie tony węgla (to dwa razy więcej - odpowiada plus 1EV) i próbuj zmieścić w to samo wiaderko. Wybór będziesz miał pozornie nieco większy, ale więcej do tego wiaderka nie wejdzie. Przepraszam za dosadność przykładu, ale to właśnie o to chodzi.

[ Dodano: Pią 07 Lip, 2006 23:32 ]
Piszesz, że na matrycy punkty czerni i bieli nie mogą być oddalone o mniej, czy więcej niż 8EV. Toż to nieprawda. Jeśli chcesz wykorzystać możliwości matrycy w całości, to możesz różnie dobierać parametry ekspozycji. Inaczej dla sceny o rozpiętości 10EV, a inaczej dla sceny o rozpiętości 6EV, czy 3EV. Jeśli dobór ekspozycji bedzie optymalny to dla każdej z tych scen możesz uzyskać na matrycy wartości zbliżone do 4095. Czy nie mam racji? Jeśli, jak piszesz, na matrycy punktowi czerni zawsze odpowiada (0,0,0), a punktowi bieli (4095,4095,4095) to po co bawić się w ustawianie parametrów ekspozycji jeśli i tak nic zmienić się nie da?

Jacek_Z
08-07-2006, 00:52
oj, nie dogadamy sie.
w kilku punktach przyjełem twój punkt widzenia (aczkolwiek sie nie zgadazam z nim) i poprowadziłem dalej wywód by udowodnic, że prowadzi to do nikąd.

piszesz:
Nie można również mieszać rozpiętości tonalnej sceny z rozpietością tonalną matrycy. Jeśli chcesz wyrazić rozpietość tonalną matrycy w EV to 12 bitowa matryca ma 12EV, 14 bitowa ma 14EV, tylko że to nie jest ta bajka. Trzeba odróżnić rzeczywistą rejestrowana scenę o charakterze analogowym (ciągłym) oraz parametry ją opisujące, od parametrów opisujących urządzenie cyfrowe do rejestracji tej sceny. To dwa zupełnie różne zagadnienia.

no własnie - ale zdecydowanie jedno z drugim ma wiele wspólnego, pomijasz to.

co do wiaderka z weglem - jeśli mam nadmiar bitów to dlaczego piszesz o za małym wiaderku?

nie zajmuje sie w ogóle przypadkami, gdy rejestrowana secna ma mniejsza rozpietość tonalną niz matryca. zawsze zakładam, że scena ma znacząco wiecej. np 20 EV.
nie ma zadnych problemów z rejestracja obiektów o rozpietości tonalnej 3 EV, ma się wiele większe pole manewru z niedoswietleniem i przeswietleniem, nie zajmuje sie tym.
bariere zarejestrowania rozpietosci 3 EV mamy dawno za sobą, teraz chodzi o to by sie dało zarejestrować np 20 EV. na razie "krecimy się" tzn nikon, fuji itd koło 8-10 EV.

nie piszę, że punkty czerni i bieli mają 0,0,0 i odpowiednio 4095, 4095, 4095 tylko, że jesli są rejestrowane o matrycy potrafiąca rejestrowac rozpietość 8EV to punkt bieli od punktu czerni beda odległe o 8EV, czyli np jeśli biel to 4095, 4095, 4095 to czerń ma o 8 EV mniej - czyli 8EV to 256 razy ciemniej, czyli 4096/256 =16 (przepraszam za poprzednie złe wyliczenie) czyli biel ma wtedy 16,16,16. mamy pole manewru - od takiego nastawienia czasu i przysłony mozemy przeswietlic do 4 EV.
biel moze miec też 0,0,0 ale czerń ma wtedy 255,255,255. zostaje odległość 8 EV. mozemy wtedy niedoswietlic o 4 EV a i tak sie zmiescimy.

ustawianie parametrów ekspozycji jest własnie po to by czerń sie załapała między 0 a 16, a biel się załapała między 255 a 4095.
Ilość światła padającego na piksel ma byc taka, by zapisały sie z tej komórki własnie takie "stany" Regulujemy to czasem i przysłoną.

Seeker
08-07-2006, 02:18
Prawda jest tylko jedna. Mianowicie taka, ze w "pojedynku"
JK vs Jacek Z racje ma Jacek Z.

Dobrze jest najpierw rozumiec zjawisko, a dopiero pozniej
wyglaszac o nim poglady.

JK:
Mylisz skalowanie rozdzielczosci z jej obcinaniem
i jest to proste, jak budowa cepa.
Wiele elementow tej lamiglowki opisales dobrze, poza najwazniejszym.
Posiadanie 100 zl w kieszeni bedzie zawsze oznaczalo te 100 zl
niezaleznie od znajomosci historii walutowej i poziomu wyksztalcenia posiadacza,
czego nie mozna juz powiedziec o ich wykorzystaniu.
Czyli mozna owe 100 zl wykorzystac lepiej, lub gorzej.

Pozdrawiam

JK
08-07-2006, 11:04
Jacku, jak chcesz porównywać rzeczywistą scenę o ciągłej charakterystyce i zmiennej rozpiętości tonalnej (dla różnych scen ta rozpiętość może się zmieniać) i matrycę, która ma ograniczoną rozpiętość tonalną (4096 kwantów) i jest cyfrowa, czyli z założenia nieciągła. Jedno i drugie można opisywać, ale zupełnie różnymi parametrami. Punktem wspólnym jest tylko jedno - sposób odwzorowania konkretnej sceny na matrycy. Algorytm ten jest bardzo prosty i polega na tym, aby tak dobrać parametry ekspozycji, żeby zmieścić na matrycy zarówno czerń, jak też biel. Do tego służy przysłona, migawka, czułość i ewentualnie filtry.

To "wiaderko" symbolizuje 8 bitową przestrzeń koloru, czyli to co można wyświetlić na monitorze, w odniesieniu do tego co może rejestrować matryca. Dla matrycy 12 bitowej "wiaderko" jest 16 razy mniejsze, a dla matrycy 14 bitowej, aż 64 razy mniejsze. I na dodatek to "wiaderko" się nie da rozepchać – więcej się nie zmieści.


.... nie zajmuje sie w ogóle przypadkami, gdy rejestrowana secna ma mniejsza rozpietość tonalną niz matryca. zawsze zakładam, że scena ma znacząco wiecej. np 20 EV.
nie ma zadnych problemów z rejestracja obiektów o rozpietości tonalnej 3 EV, ma się wiele większe pole manewru z niedoswietleniem i przeswietleniem, nie zajmuje sie tym.
bariere zarejestrowania rozpietosci 3 EV mamy dawno za sobą, teraz chodzi o to by sie dało zarejestrować np 20 EV. na razie "krecimy się" tzn nikon, fuji itd koło 8-10 EV. ....
Masz rację. Tylko co to zmienia? Dlaczego się mamy ograniczać? Niech to będzie nawet 30EV. Zawsze musisz tak dobrać parametry ekspozycji, żeby na matrycy zmieścić całą scenę i zawsze jest to możliwe (w ostateczności możesz użyć filtra do fotografowania słońca). W efekcie matryca zarejestruje zarówno scenę o rozpiętości 3 EV, 10EV, czy 20EV. Jedyne co te obrazy będzie na matrycy różnić to rozmiar pojedynczego kwantu, który będzie coraz większy (dla 3EV będzie to 0,0007326EV, dla 10EV odpowiednio 0,002442EV, a dla 20EV aż 0,004884EV). Spadnie więc dokładność, precyzja, czy po prostu rozdzielczość zarejestrowanej sceny. Ale nikomu to nie powinno przeszkadzać, bo i tak w każdym przypadku ta rozdzielczość jest 16 razy większa niż to, co można wyświetlić na monitorze. Wniosek jest więc taki, że matryca nie może mieć jakiejś konkretnej rozpiętości tonalnej mierzonej tak jak fotografowana scena. Jeśli można na niej zarejestrować różne sceny o różnej rozpiętości tonalnej, to jaka jest rozpiętość matrycy? Jeśli można zrobić poprawne zdjęcie na śniegu, w słoneczny dzień, gdzie rozpiętość tonalna sceny będzie dużo większa niż Twoje 8-10EV to oznacza to, że matryca pozwala rejestrować zdjęcia o takiej właśnie rozpiętości. Jeszcze raz powtarzam – rozpiętość tonalna fotografowanej sceny nie jest i nie może być parametrem cyfrowej matrycy. Rozdzielczość tonalna matrycy jest definiowana jaki maksymalna liczba tonów (kwantów) składowej koloru i dla matrycy 12 bitowej jest stała i wynosi 4096.


.... nie piszę, że punkty czerni i bieli mają 0,0,0 i odpowiednio 4095, 4095, 4095 tylko, że jesli są rejestrowane o matrycy potrafiąca rejestrowac rozpietość 8EV to punkt bieli od punktu czerni beda odległe o 8EV, czyli np jeśli biel to 4095, 4095, 4095 to czerń ma o 8 EV mniej - czyli 8EV to 256 razy ciemniej, czyli 4096/256 =16 (przepraszam za poprzednie złe wyliczenie) czyli biel ma wtedy 16,16,16. mamy pole manewru - od takiego nastawienia czasu i przysłony mozemy przeswietlic do 4 EV.
biel moze miec też 0,0,0 ale czerń ma wtedy 255,255,255. zostaje odległość 8 EV. mozemy wtedy niedoswietlic o 4 EV a i tak sie zmiescimy. ....
Jak to nie piszesz. Poczytaj swoje wcześniejsze posty, wróć do naszej dyskusji o obróbce zdjęć, którą prowadziliśmy jakiś miesiąc temu. Tu jest jedna z Twoich wypowiedzi z tamtego wątku:


zmusiłes mnie do nabazgrania czegoś - przepraszam, ale to na szybko.


https://forum.nikoniarze.pl//brak.gif
źródło (http://img56.imageshack.us/img56/3676/noname1wc.jpg)

sytuacja A - wg mnie, jest biała kula, jest czarna. jpg dzieli od bieli do czerni na 256 poziomów (narysowałem 8 podziałek by było czytelne)
RAW robi to precyzyjniej - dzieli na 4095 (narysowałem 12) ale ten sam kawałek

podział jpg nad osią, raw pod osią

sytuacja B - wg ciebie - tak to opisujesz. Jpg to samo. Róznica jest w RAW. ma o 4 bajty więcej niż jpg - na zewnątrz, więc ma coś poza bielą i poza czernią - mozna przesuwać?

sytuacja B jest nieprawidłowa - nie ma niczego bielszego niż biel i czarniejszego niż czerń. nie ma nic do przesuwania.

na jpg jak widać mozna zapisac i biel i czerń.

Twierdziłeś, że czerń to (0,0,0), a biel to (4095,4095,4095) i nie może być inaczej. To ja usiłowałem Ci wyjaśnić, że tak nie jest. Przeczytaj mój tekst otwierający wątek i znajdziesz tam potwierdzenie moich słów (również na zamieszczonych zdjęciach). Nie wiem tylko dlaczego ciągle piszesz o tym 8EV, dlaczego nie 5EV, czy 11EV? Przecież fotografowane sceny maja różne rozpiętości.


..... ustawianie parametrów ekspozycji jest własnie po to by czerń sie załapała między 0 a 16, a biel się załapała między 255 a 4095.
Ilość światła padającego na piksel ma byc taka, by zapisały sie z tej komórki własnie takie "stany" Regulujemy to czasem i przysłoną.
I to jest właśnie to, co napisałem w tekście otwierającym wątek. Z jednym małym zastrzeżeniem – dla punktu czerni nie musi to być przedział 0-16, może być też większy. Jeśli może być 16, to dlaczego nie może być 17, 18, czy więcej. To zależy tylko od zakłóceń i szumów własnych układu, mikro-soczewek, filtra AA, bo jeśli coś jest idealnie czarne, to światło na matrycę nie pada. Odnośnie punktu bieli napisałeś to samo co ja, z jednym zastrzeżeniem, że wartość ta może być mniejsza niż 255, ale w takim przypadku w przestrzeni 8 bitowego koloru nie wykorzystamy wszystkich kwantów, czyli zmniejszy się rozdzielczość tonalna obrazu. Jeśli wartość ta będzie większa niż 255, to na rozdzielczości tonalnej obrazu nie stracimy nic. Możemy jedynie mieć większe szumy – ale o tym pisałem w tekście otwierającym wątek.

Jacku, nie pozostaje mi nic innego, jak tylko podziękować Ci za przyjęcie mojej argumentacji i zrozumienie mojego toku myślenia. Ostatni Twój post świadczy o tym, że punktów rozbieżnych praktycznie nie ma. No chyba, że zmienisz zdanie po raz kolejny. :wink:




.... Dobrze jest najpierw rozumiec zjawisko, a dopiero pozniej
wyglaszac o nim poglady. ....
Masz całkowitą rację. Spróbuj to wszystko zrozumieć i dopiero wtedy wygłaszaj poglądy. Budowa tego przysłowiowego cepa jest dla Ciebie jeszcze zbyt skomplikowana.

Smurf
08-07-2006, 18:08
.... Dobrze jest najpierw rozumiec zjawisko, a dopiero pozniej
wyglaszac o nim poglady. ....
Masz całkowitą rację. Spróbuj to wszystko zrozumieć i dopiero wtedy wygłaszaj poglądy. Budowa tego przysłowiowego cepa jest dla Ciebie jeszcze zbyt skomplikowana.
Seeker jak smiesz pisać nie kończąc szkół w słusznych gierkowskich czasach "wiecie - rozumiecie", a tym bardziej nie pracując naukowo w tym najbardziej twórczym okresie naszego? państwa. :mrgreen:

Seeker
08-07-2006, 22:51
Smurf: no coz.... ;) :) :)

JK: Wiecej zaufania do wiedzy innych ludzi ;)

Pozdro

JK
08-07-2006, 23:12
Seeker, to może podaj jakieś konkretne argumenty merytoryczne. Jacek_Z, który początkowo nie zgadzał sie z połową mojego tekstu, ostatnio jakoś zmienił zdanie - przynajmniej tak wynika z jego ostatniego posta. Może przedstaw swój punkt widzenia. Zobaczymy, jak Ty to rozumiesz. Daj nam szansę.

Kaleid
09-07-2006, 11:30
jak smiesz pisać nie kończąc szkół w słusznych gierkowskich czasach "wiecie - rozumiecie", a tym bardziej nie pracując naukowo w tym najbardziej twórczym okresie naszego? państwa. :mrgreen:

Zdecydowanie mam dosc Twoich chamskich prowokacji. Wiecej dystansu proszę...

Seeker
09-07-2006, 12:41
"Seeker, to może podaj jakieś konkretne argumenty merytoryczne.
Mam wrazenie, ze z gory sobie zalozyles odpornosc na nie.

"Jacek_Z, który początkowo nie zgadzał sie z połową mojego tekstu,
ostatnio jakoś zmienił zdanie -
przynajmniej tak wynika z jego ostatniego posta."
I dlatego juz wczesniej napisal: "oj, nie dogadamy sie."

"Może przedstaw swój punkt widzenia."
Myslisz, ze dam rade cie przekonac jednym postem?
Po tym, co tu juz zostalo wydrukowane?
Nie widze szans.
Musielibysmy jeszcze te same zdania tak samo rozumiec.

"Zobaczymy, jak Ty to rozumiesz."
Tak samo, jak Jacek Z, czy Smurf.
Przy czym, podobnie, jak Kaleid uwazam, ze Smurf niekoniecznie
uzywa wlasciwej formy wypowiedzi, ale to juz OT.

"Daj nam szansę."
Do niczego nie zmuszam, to tez jest jakis rodzaj szansy.
Liczy sie przyczyna + metoda dzialania + skutek, bez wzgledu na to,
czy uda sie komus ciebie przekonac.
Ilosc bajtow w bajcie ma tutaj drugorzedne znaczenie.
Mlotkiem wbija sie gwozdzie zdecydowanie wygodniej niz kamieniem,
(te same gwozdzie)
bez wzgledu na wyliczenia teoretyczne.

Napomkne jeszcze raz:
Zgadzam sie z wieloma twoimi stwierdzeniami, ale nie ze wszystkimi.

Pozdrawiam.

Jacek_Z
10-07-2006, 00:37
nie było mnie ciut i znowu jest wiele do sprostowania.
wycofam sie chyba z tej dyskusji. nie dogadamy sie, tak zreszta nawet sadziłem jak zaczynałem. temat jest tak obszerny, że za tydzień wszyscy inni uzytkownicy tego forum zobaczą watek o 40 stronach i będa mieli ubaw, nie łapiąc juz nic.
nie przekonałes mnie do swoich argumentów, a jak z tego sądzę ty nie przyjełeś moich.
rzecz oczywista, która kwestionuję z ostatnio przez ciebie podanych, cytuję:

"Niech to będzie nawet 30EV. Zawsze musisz tak dobrać parametry ekspozycji, żeby na matrycy zmieścić całą scenę i zawsze jest to możliwe (w ostateczności możesz użyć filtra do fotografowania słońca). W efekcie matryca zarejestruje zarówno scenę o rozpiętości 3 EV, 10EV, czy 20EV."

zarejestruje 3 EV, przy 10 EV będą kłopoty, 20 EV niemożliwe.
sęk w tym, że jak matryca takiej sceny o 20 EV nie ma szansy zarejestrować. jeśli zarejestrujesz słońce nakładając filtr to załatwisz jednocześnie cienie. podłozyłeś mi chyba niechcący świetny przykład. nie zarejestrujesz plam na słońcu z wnętrzem piwnicy jednoczesnie.
Taka zarejestrowana scena nie będzie podzielona przez współczynniki i po prostu informacja będzie za gęsta by byłaby czytelna, rozróżnialna jak piszesz.

Oczywiście rozpietość tonalna fotografowanej sceny to zupełnie co innego niz rozpietośc tonalna matrycy. A sposób zapisu tych danych - na 8 czy 12 bitach to trzecia sprawa. i obowiązuje tu zasada wąskiego gardła czy najsłabszego ogniwa - najsłabsza sprawa determinuje reszte. np jak motyw ma rozpietośc 3 EV to nie ma problemu, mozna go z łatwoscia "pomierzyć" matrycą która ma ponad 8EV i zapisać w 8 bitach.
Ale jak scena ma 20 EV to jej nie zarejestrujesz matrycą o rozpietości 8EV. musisz naświetlac na cienie albo na swiatła, resztę poświęcić. To jest to co każdy zna z fotografii analogowej i o czym jest we wszystkich podręcznikach.

Mogę wytłumaczyć każdy z innych punktów naszej niezgodności i tak możemy kilka dni. tak naprawdę "interesuje" to chyba jedynie nas dwóch, a gdyby nie, i gdyby jeszcze się ktoś włączył to juz wogóle zagmatwałoby prawdopodobnie dyskusję.
Nie ma sensu chyba kontynuować tego na forum, naprawdę poświęcimy temu godziny, a widzę, że mozliwie bez efektu.

tojo
10-07-2006, 12:29
No i dalej nie wiem jak to jest z tym zakresem matrycy!
W związku z tym mam dwa pytania:
1. Do JK - Czy uprawnione jest założenie, że przy określonych parametrach ekspozycji element fotoczuły matrycy jest w stanie zarejestrowac i prawidłowo zinterpretowac każdą różnicę w intensywności padajacego światła?

Jezeli odpowiedz brzmi TAK, to nie mam wiecej pytan i zgadzam sie z cala teorią JK.

Jezeli odpowiedz brzmi NIE to pytam:
2. Jaką maksymalna róznice może rejestrowac element swiatloczuly matrycy (przy stalych warunkach ekspozycji)?.

Pozdrawiam i mam nadzieje, ze ktos udzieli mi odpowiedzi.
Wojtek

JK
10-07-2006, 13:19
tojo, oczywiście że TAK, ale pod jednym warunkiem, że nie przekroczysz dopuszczalnego zakresu, czyli wartości 4095 dla matrycy 12 bitowej, bo to jest równoznaczne z przepaleniem.

Jacek_Z, może rzeczywiście warto zakończyć tę dyskusję. Nie potraficie Panowie wskazać błedów moim tekście. Nie potrafice przedstawić merytorycznych argumentów (wypowiedzi w stylu: "nie dogadamy się" nie są niestety merytoryczne). Na koniec dla wyjaśnienia sprawy zamieszczę jeszcze dwa schematyczne rysunki


https://forum.nikoniarze.pl//brak.gif
źródło (http://www.jks.com.pl/foto/rt7.jpg)

Na pierwszym z nich zostały przedstawione trzy różne schematy przetwarzania jednego obrazu od fotografowanej sceny, do przestrzeni 8 bitowej (monitor), z pośrednictwem matrycy 12 bitowej. Na rysunku zostały zachowane proporcje pomiędzy przestrzenią 12 bitową (matryca) i przestrzenią 8 bitową (monitor, JPEG, drukarka). Kolorowe linie położone pomiędzy SCENĄ, a MATRYCĄ obrazują sposób przekształacania obrazu w to co rejestruje matryca. To przekształcenie sterowane jest parametrami ekspozycji (przysłona, migawka, czułość). Jeśli wpuścimy mniej światła na matrycę, to wykorzystamy mniejszy zakres. Linie zielone odpowiadaja w przybliżeniu parametrom ekspozycji dla drugiego zdjęcia zamieszczonego w tekście (tego korygowanego o minus 4EV). Jak widać, niezależnie od tego jaką część możliwości matrycy wykorzystamy podczas naświetlania, zawsze możemy obraz przekształcić do 8 bitowej przestrzeni monitora. Obrazują to kolorowe linie pomiędzy MATRYCĄ, a OBRAZEM.

Drugi schemat pokazuje, jak bedą rejestrowane i przetwarzane sceny o różnej rozpiętości tonalnej. Widać wyraźnie, że niezależnie od rozpiętości sceny, zawsze możemy uzyskać obraz tej sceny w przestrzeni 8 bitowej. Z tych schematów widać też, że nadmiar informacji rejestrowany przez matrycę (praktycznie niezależnie od parametrów naświetlania) jest tak duży, że dalsze zwiększanie możliwości takiej matrycy ma sens jedynie teoretyczny.

A co potwierdza takie wnioski? Właśnie to, że lustrzanką cyfrową z 12 bitową matrycą, można zrobić:
- zdjęcie księżyca
- zdjęcie nocne przy oświetleniu ulicznym
- zdjęcie pomieszczenia oświetlonego tylko świecą
- zdjęcie na sniegu w południe
- zdjęcie na plaży w lipcu w słoneczny dzień
- zdjęcie zachodu słońca
- zdjęcie tarczy słonecznej (po zastosowaniu odpowiednich filtrów)
Aby te zdjęcia zostały poprawnie wykonane trzeba jedynie tak dobrać parametry ekspozycji i ewentualnie filtry, żeby zmieścić się z całą scenę w zakresie rejestrowanym przez matrycę, czyli w zakresie 0-4095.

Jeśli ktoś ma jakieś pytania, bardzo chętnie odpowiem. Ale prosze o uwagi merytoryczne, z którymi da się jakoś dyskutować.

Jacek_Z
10-07-2006, 13:41
JK wskazałem ci trochę błędów w pewnej części twego tekstu.

tojo - oczywiście, że NIE. rozpietość nieco ponad 8 EV w większości nikonowskjich matryc, w fuji około 10EV. mozna to odszukać w testach na www.dpreview.com

czyli wg JK gdyby zastosowano kolor 24 bitowy, to by swobodnie mozna było uzyskiwac taka rozpietość tonalną fotografowanej sceny, a 20 EV to już spokojnie.
po jakiego diabła w fuji S3 wymyślali duże i małe piksele? nie trzeba było tego robic, tylko dac kolor 24 bitowy. wystarczyłoby, bo matryca rejestruje jednoczesnie wszystko - cały zakres - wg JK.
te sceny które pokazałes, że sa do zarejestrowania, to są nimi dzięki zmianom w ekspozycji (czas przysłona) a nie dzięki nieograniczonym zdolnościom matrycy.

zawsze mozemy uzyskac obraz sceny, obojetnie czy 8 bitowy czy inny, problem w tym, że nie będzie on zawsze mógł odzwierciedlac fotografowana scenę wiernie i jak scena bedzie miała zbyt duzą rozpietość to jej nie pokaże.
prawidłowy rysunek powinien byc jeszcze taki - trapez stojacy na kwadracie. pierwsza od góry pozioma najdłuższa kreska to scena - np 20 EV, druga pozioma to zdolnośc matrycy - np 8 EV i trzecia o tej samej długości co druga to to co przekształcono na kolor 8 bitowy. dolna kreska nie moze byc dłuzsza niż środkowa, chyba, że będziemy sklejac zdjęcia i stosowac wynalazki typu HDR.

JK
10-07-2006, 14:20
Jacek_Z, po pierwsze tojo pytał o to, czy matryca rejestruje obraz jako wartości proporcjonalne do ilości padającego światła i tu odpowiedź jest jednoznaczna TAK. Jeśłi Ci to nie pasuje, to trudno - musisz zmienić poglądy. Jeśli na jakiś element matrycy padnie dwa razy wiecej świata, to wartość tego sensora będzie dwa razy większa. Jeśłi padnie trzy razy więcej światła - to trzy razy większa. To przecież proste (nie uwzględniamy tu drobnych odstępstw od liniowości charakterystyki matrycy). Nie mieszaj więc tojo w głowie.

Jacek_Z, a kto Ci napisał, że matryca ma nieograniczone możliwości. Ja napisałem że matryca ma rozpiętość tonalną równą 4096 kwantów, niezależnie od fotografowanej sceny. Napisałem też, że matryca ma 16 razy większą rozpiętość od tego, co możesz zobaczyć na monitorze - od tego co nazywasz zdjęciem. W jakim celu rejestrować coś, czego nigdy nie zobaczysz, bo nie ma jak? Tylko po to, żeby ułatwić sobie obróbkę i odszumianie.

Środkowa kreska to matryca o rozpietości 4096 (matryca 12 bitowa), dolna kreska to obraz na monitorze o rozpiętości 256 (8 bitowa przestrzeń). Na rysunkach zachowałem proprcje (rozpiętość obrazu na monitorze jest 16 razy mniejsza niż rozpietość matrycy), żeby wyraźnie zobrazować, co tracimy podczas wyświetlania zdjęcia na dobrym, drogim monitorze. Z HDRem nie ma to nic wspólnego.

Zink
10-07-2006, 14:50
Pozwolicie, że włączę się do dydskusji (mam nadzieję, że nie zagmatwam za bardzo :)).

Najpierw należałoby wyjasnić co to jest rozpiętość tonalna sceny i co to jest rozpiętość tonalna matrycy. Jacek_Z napisał, że to zupełnie co innego. Ale w jakim sensie? W tym, że inaczej się ją definiuje, czy w tym, że ma ona inną wartość? Wbrew pozorom wszystko od tego zależy.

Może ja spróbuję zdefiniować (poprawcie mnie jeśli gdzieś popełnię błąd):
Rozpiętość tonalna sceny - jest to (jak napisał JK) różnica w jasności najciemniejszego i najjaśniejszego fragmentu tej sceny.
Rozpiętość tonalna matrycy - jest to największa różnica jasności, jaką matryca potrafi zarejestrować na jednym zdjęciu.

Najważniejsze pytanie, o które jak przypuszczam toczy sięta cała dyskusja to: czy matryca ma stałą rozpiętość tonalną, czy zmienną?
Jacek_Z twierdzi, że stałą ("jak scena ma 20 EV to jej nie zarejestrujesz matrycą o rozpietości 8EV"). Ja postaram się pokazać, że jest inaczej.

Weźmy scenę zawierającą czarny obszar (idealnie albo prawie idealnie czarny), oraz obok niego biały obszar. Załóżmy, że różnica jakności tych obszarów wynosi 7EV. Czyli rozpiętość tonalna sceny wynosi w tym przypadku 7EV. Fotografujemy tą scenę aparatem cyfrowym, na przykład takim, którego matryca potrafi zarejestrować 8EV (to znaczy, że jasny obszar będzie opisany przez kolory o składowych mniejszych od maksymalnych - jakich, to nieistotone). Nie określam tutaj czy chodzi o zdjęcie zapisane na 8 czy 12 bitach, bo to też nie jest istotne, ważne jest czy zdjęcie zostało prześwietlone, czy nie. Otrzymaliśmy zdjęcie prawidłowo zarejestrowane (tzn. bez prześwietlenia). Co teraz się stanie, jeśli zwiększymy jasność jasnego obszaru (np. oświetlając go 8 razy jaśniejszym światłem)? Zakłądając, że ciemny obszar nie zmienił swojej jasności, to dostaliśmy scenę o rozpiętości 10EV (3 EV więcej daje 2x2x2 razy jaśniejsze światło, a tym samym rozpiętość sceny). Robimy zdjęcie tym samym aparatem. Co otrzymaliśmy? Jak można było się spodziewać zdjęcie jest prześwietlone. Więc wychodziłoby na to, że matrycą o rozpiętosci 8EV nie można zarejestrować sceny o rozpiętości 10EV. Czy na pewno?

A co by się stało gdybyśmy skrócili czas naświetlania 8 razy? Zdjęcie zrobi się ciemniejsze. A dokładniej? Obszar czarny zostanie taki jak był (pomijam szumy), no bo mniejszych wartości niż zero już być nie może. A co się stanie z obszarem białym? Jasność obszaru białego na zdjęciu będzie taka jakby obszar był 8 razy ciemniejszy, prawda? Czyli nie będzie prześwietlony. Czyli zarejestrowaliśmy scenę o rozpiętości 10EV na matrycy o rozpiętości 8EV. A co by było, gdyby to światło było jeszcze 1024 razy jaśniejsze? Scena miałaby rozpiętość 20EV i tak jak w poprzednim przykładzie skracając czas naświetlania (albo zmniejszając czułość, zwiększając przysłonę, stosując filtr ND) uzyskalibyśmy poprawną jej rejestrację na matrycy. O rozpiętości 8EV.

Chyba coś tu jest nie tak, przecież nie da się zarejestrować sceny o rozpiętości 20EV przez matrycę, która ma rozpiętość "tylko" 8EV. To może jednak ta matryca nie ma stałej rozpiętośći? Przecież zmieniając parametry naświetlania, czułość, a nawet zakładając filtr ND robimy... co? Przesuwamy "okienko" o "szerokości" 8EV? Przecież wartości określające kolor czarny nie zmieniły się, więc nie mogliśmy nic przesunąć. Wygląda więc na to, że rozciągnęliśmy "okienko" 8EV. A skoro go rozciągnęliśmy, to nie ma już 8EV, tylko więcej. W ten właśnie sposób zmienia się rozpiętość tonalną matrycy. Oczywiście "rozciągając okienko" tracimy szczegóły w ciemnych miejscach, ale bynajmniej nie dlatego, że matryca ma małą rozpiętość tonalną, ale dlatego, że zwiąkszając rozpiętość, zmniejszyliśmy jednocześnie rozdzielczość tonalną. Gdyby matryca miała stałą rozpiętość, to w powyższym przykładzie kolor "bardzo czarny" nie zostałby na matrycy zarejestrowany poprawnie, tylko musiałby zostać rozjaśniony (czyli zarejestrowany jako jaśniejszy, niż jest wrzeczywistości), analogicznie do koloru "bardzo białego", który przy prześwietleniu matryca rejestruje jako ciemniejszy niż jest wrzeczywistości. A ponieważ matryca nie ma "dolnego ograniczenia" jasności sceny (całkowity brak światła zarejestruje jako czarny - czyli prawidłowo), to "bardzo czarny" zostanie zarejestrowany po prostu jako "najbardziej czarny jak to tylko możliwe", czyli prawidłowo.

Wracając do postu Jacka_Z: "nie zarejestrujesz plam na słońcu z wnętrzem piwnicy jednoczesnie."
Zarejestruję. Problem w tym, że w piwnicy nie będzie rozróżnialnych szczegółów. Ale nie dlatego, że rozpiętość tonalna matrycy jest za mała, ale dlatego, że jej rozdzielczość tonalna jest za mała przy danej ustawionej rozpiętości.

Odniosę się jeszcze do postu Jacka_Z, którego nie było jak zaczynałem to pisać:
"po jakiego diabła w fuji S3 wymyślali duże i małe piksele?"
"chyba, że będziemy sklejac zdjęcia i stosowac wynalazki typu HDR."
Muszę cię zmartwić, ale te "duże i małe piksele" w S3 są używane właśnie do zrobienia "wynalazku typu HDR". Na czym polega HDR? Z tego zo mi wiadomo, polega na nakładaniu kilku różnie naświetlonych zdjęć w celu zwiększenia rozpiętości tonalnej zdjęcia. A tak naprawdę robi się to w celu zwiększenia nie tyle rozpiętości, co rozdzielczości tonalnej zdjęcia. A jeszcze dokładniej - do stworzenia złudzenia, że zdjęcie ma większą rozdzielczość tonalną. Rozpiętość tonalna jest zmienna, jak już pokazałem wcześniej, więc nie ma sensu sztucznie jej zwiększać, za to ilość przejść tonalnych jest stała i przy fotografowaniu scen o dużej rozpiętości tonalnej krok przejść tonalnych (rozpiętość tonalna podzielona przez ilość przejść tonalnych (dla 8-bitowego zdjęcia - 256 przejść), liczona w EV/przejście tonalne) będzie jest zbyt duży aby zarejestrować szczegóły zarówno w cieniach, jak i w światłach. Dlatego przy łączeniu różnie naświetlonych zdjęć sztucznie zmienia się rozkład szerokości kroków przejść tonalnych, tak że w cieniach kroki są małe (co pozwala na oddanie szczegółów), a w światłach kroki te są bardzo duże (dzięki czemu najjaśniejsze obszary mieszczą się jeszcze w aktualnej rozpiętości tonalnej zdjęcia). Mówiąc "kroki" mam na myśli kroki przejść tonalnych sceny, a nie gotowego zdjęcia (na zdjęciu kroki muszą być stałe, bo takie ma większość urządzeń do wyświetlania/drukowania obrazów). Teraz zastanów się co tak właściwie robi S3? Jak są wykorzystywane te dodatkowe mniejsze sensory? To działa tak, że jest robione coś w rodzaju dwóch zdjęć - jedno z dużych sensorów i drugie z małych, które na finalnym zdjęciu są nałożone w jakichś proporcjach. Toż to przecież zwykły HDR. Ponieważ mniejsze sensory mają mniejszą czułość, to krok przejść tonalnych jest dla nich większy, dzięki czemu potrafią zarejestrować większą rozpiętość tonalną od tych normalnych sensorów. Na finalnym zdjęciu efekt jest taki, że w cieniach krok przejść tonalnych jest mniejszy, dzięki czemu widać szczegóły, a w światłach krok jest większy, co pozwala na objęcie najjaśniejszych obszarów.

Chciałem coś jeszcze napisać, ale może poczekam na ewentulane bluzgi :D

JK
10-07-2006, 14:56
Jacek_Z, czytam Twój ostatni post już trzeci raz i chyba wreszcie dotarło do mnie z czym Masz problem. Przyjmij do wiadomości, bo o tym dyskutować nie zamierzam (to nie podlega żadnej dyskusji), że na monitorze, na drukarce i na papierowym zdjęciu nie możesz zobaczyć wszystkiego co zarejestruje matryca. Przestrzeń 8 bitowa ma mniejsze możliwości zapisu danych niż przestrzeń 12 bitowa.


..... prawidłowy rysunek powinien byc jeszcze taki - trapez stojacy na kwadracie. pierwsza od góry pozioma najdłuższa kreska to scena - np 20 EV, druga pozioma to zdolnośc matrycy - np 8 EV i trzecia o tej samej długości co druga to to co przekształcono na kolor 8 bitowy. .....

To nie może być kwadrat, bo górna linia (odpowiednik martycy) musi być 16 razy dłuższa od dolnej linii (odpowiednik obrazu na monitorze). Jacku, tego nie zmienisz. Taka właśnie jest zasada działania lustrzanki cyfrowej (każdego aparatu cyfrowego) i monitora (wraz z kartą graficzną). Musisz to przyjąć do wiadomości i zrozumieć. Inaczej się nie da.

[ Dodano: Pon 10 Lip, 2006 15:02 ]
Zink, no wreszcie ktoś kto rozumie zjawisko zwane fotografią cyfrową. Dziekuję za pomoc, ale niektórzy niestety są nie reformowalni. :D
Do Twojej wypowiedzi dopisze jeszcze tylko to, co zresztą już pisałem. Jeśłi podchodzić do rozpiętości matrycy wyrażanej w EV ortodoksyjnie, to należy stwierdzić, że matryca 12 bitowa ma rozpietość 12EV (taka ilość szczegółów będzie rozróżnialna) - tyle, że nie ma to nic wspólnego z rozpiętością fotografowanych scen.

Jacek_Z
10-07-2006, 15:42
zink, jesli przesuwasz coś o 8 bitach by zobaczyć cienie i swiatła to jak to robisz na jednym zdjęciu?
ekspozycją musisz wybrac jedn z tych stanów - czy na swiatła czy na cienie. to, że matryca moze zarejestrować rzeczy bardzo jasne czy bardzo ciemne to nie problem - skracając czas mamy mniej swiatła i prawidłowo oddaje swiatła obrazu. przedłużając czas prowaiłowo naswietlisz cienie. ale nie mozna jednoczesnie na jednym zdjęciu miec krótkiego i długiego czasu. Zmienną rozpiętość matrycy masz (tak nie do końca, to tylko daje taki efekt, ale nie chce komplikować tego zagadnienia) , ale na różnych zdjęciach, dlatego tak zrobiono w fuji by mozna było to miec na jednym zdjęciu.

JK tak, jeśli będzie 12 bitów to jedna z kresek będzie 16 razy dłuzsza niz 8 bitów. Da to większa ciagłosc tonalną ale nie większą ilość szczegółow zarejestrowanej sceny - np szczegółów w przeswietleniach.
na samym początku naszej dyskusji z JK pisałem z czym sie zgadzam i i zgadzałem sie z tym co piszesz o jpg, 8 bitach, monitorach, drukarkach. nie różnimy sie tu, nie mam tu problemu i mi tego nie wmawiaj, masz to w tej dyskusji zaakceptowane wiele wcześniej.

Ja z kolei odsyłam do ksiązek o fotografii i o naswietlaniu na swiatła albo na cienie (podręczniki do analogów) jak zrozumiecie o co chodzi by uzyskac wiecej szczegółów w danym zakresie ( a dlaczego nie mozna - co istotniejsze) to mozemy iśc dalej w cyfrze.
nie odpowiadasz mi na wiele moich pytań, kwestionujesz to co napiszałem, a nie chcesz wyjaśnic "dziur" w twojej teorii. wynika z niej, że matryca jest własciwie nieistotna (po co lepsze?), wazne ile bitowy kolor z niej jest zapisywany. A to bzdura, producenci zamiast myslec o jakimś HDR dawaliby kolor 24 bitowy i już. To zaden kłopot, inny sofr i lepszy procesor. Po co fuji kombinowało z podwójnymi sensorami - po co???

JK
10-07-2006, 15:59
Jacek_Z, kłopot to jest taki, że wszystkie wzmacniacze szumią (pooglądaj charakterystyki w katalogach). Zawsze jest pewien poziom optymalnego wzmocnienia sygnału, przy którym szumy są jeszcze akceptowalne. Najlepszy przykład masz w puszkach Nikona na ISO1600, gdzie szum już trochę widać. :wink:

Przepraszam, ale jeśli rozumiesz, że 8 bitowa przestrzeń ma mniejszą liczbę kwantów niż 12 bitowa przestrzeń, to jak powstał ten kwadrat :shock: z Twojego poprzedniego posta.

Co to są szczegóły? Przecież to są właśnie różnice w kolorze sąsiednich pikseli. Właśnie dlatego przestrzeń 8 bitowa może oddać 16 razy mniej szczegółów niż przestrzeń 12 bitowa.

Już pisałem - W ZAPISIE CYFROWYM NIE MA CIĄGŁOŚCI TONALNEJ. Zapis cyfrowy, charakteryzuje właśnie brak ciągłości. Dziedzina liczb naturalnych, które opisują stany matrycy NIE JEST CIĄGŁA. Tego nie zmienisz, choć byś się bardzo starał.

Jacku, nie odsyłaj do fotografii analogowej, bo cyfra to nie analog. Matryca cyfrowa to nie negatyw, czy slajd. Obróbka cyfrowa to nie wywoływacz i utrwalacz. To się niestety zmieniło. Z tej całej wiedzy pozostało to co najważniejsze dla fotografa - zasady doboru parametrów ekspozycji. Cała reszta procesu powstawania zdjęcia rządzi się innymi prawami. Niestety.

Jacku, zrozum wreszcie, że na monitorze komputera możesz zobaczyć tylko 1/16 tego co zarejestruje matryca 12 bitowa i tylko 1/64 tego co zarejestruje matryca 14 bitowa. Reszty nigdy nie zobaczysz. Reszta, czyli ponad 90% danych, musi być utracona podczas wyświetlania tego RAWa na monitorze. To niestety musisz przyjąć do wiadomości, bo tak to działa.

Jacek_Z
10-07-2006, 16:22
nie róbcie sobie ze mnie jaj, prosze. dokładanie kolejnego parametru - zmiana czułości matrycy i szumy nic nie zmieniają - jest tu tak jak w analogu praktycznie. Analogii jest naprawde duzo. Tam tez w wywoływaniu miało sie mniej ciekawe ziarno na wysokich czułosciach. Szum zwieksza się gdy zwiększając prąd podkładu próbuje sie uzyskac większą czułość komórki. W konsekwencji także powoduje to spadek rozpietosci tonalnej matrycy (choć stosunkowo nieznacznie)
za długo fotografuje, analogowo, cyfrowo (5 lat) a wczesniej za analoga pracowałem na skanach, wiec tez cyfrowo. nie jestem poczatkujacy w temacie.
wiem jaka jest róznica miedzy zapisem 8 bitowym a 12 bitowym. nie chce mi sie juz dalej pisać by ciagle tłumaczyć i odpowiadac na pytania podczas gdy moje pozostaja bez odpowiedzi.
JK najgorsze jest to, że w każdej wypowiedzi jest tak z 80% poprawnie, tak jak jest, ale nie zgadza sie pewien niuans, ale istotny.

JK
10-07-2006, 16:44
Jacku, z fotografii analogowej próbujesz przenosić analogie do fotografii cyfrowej. Ale to są tylko przybliżone analogie tworzone po to, aby fotograf analogowy mógł mniej więcej pojąć o co chodzi i jak korzystać z fotografii cyfrowej. Ja natomiast napisałem tekst o konkretach, nie mniej więcej, nie podobnie jak w analogu, nie jakoś tak w przybliżeniu. Ja napisałem konkretnie, jak obraz jest zapamiętywany i przetwarzany w fotografii cyfrowej. Próbujesz oceniać poprawność moich wypowiedzi :wink: (piszesz: "tak z 80% poprawnie"), a ja sądzę, że nie do końca rozumiesz reguły zapisu danych na matrycy oraz metody ich przetwarzania do ostatecznej postaci zdjęcia cyfrowego. Do postaci zdjęcia, które możesz wyswietlić na monitorze i przenieść na papier. Jeśli wiesz jaka jest różnica między sceną fotografowaną, 12 bitową przestrzenią koloru matrycy i 8 bitową przestrzenią koloru monitora, czy JPEGa, to powinieneś rozumieć wszystko o czym piszę oraz to, o czym pisał Zink. To jedno z drugiego wynika i żadnej magii tu nie ma. Jeśli to wszystko wiesz, to nie powinieneś kwestionować tego co napisałem na początku i w trakcie dyskusji, bo tam błędów nie ma. Są jedynie pewne niewielkie uproszczenia wprowadzone po to, żeby tekst był lepiej czytelny. Może spróbuj przeczytać wszystko jeszcze raz od początku, ale podczas tego czytania nie doszukuj się błędów, tylko postaraj się zrozumieć co zostało napisane. Będzie łatwiej wymieniać poglądy.

tojo
10-07-2006, 17:12
[quote]A co by się stało gdybyśmy skrócili czas naświetlania 8 razy? Zdjęcie zrobi się ciemniejsze. A dokładniej? Obszar czarny zostanie taki jak był (pomijam szumy), no bo mniejszych wartości niż zero już być nie może. A co się stanie z obszarem białym? Jasność obszaru białego na zdjęciu będzie taka jakby obszar był 8 razy ciemniejszy, prawda? Czyli nie będzie prześwietlony. Czyli zarejestrowaliśmy scenę o rozpiętości 10EV na matrycy o rozpiętości 8EV. A co by było, gdyby to światło było jeszcze 1024 razy jaśniejsze? Scena miałaby rozpiętość 20EV i tak jak w poprzednim przykładzie skracając czas naświetlania (albo zmniejszając czułość, zwiększając przysłonę, stosując filtr ND) uzyskalibyśmy poprawną jej rejestrację na matrycy. O rozpiętości 8EV.

Zink przy takich założeniach jakie poczyniłeś to ta teria sprawdza się również podczas naświetlania slajdów (rozpietosc ok. 6EV). Jeżeli nie przepalisz białego, to wszystko od pewnej wartości progowej bedzie czarne, a na pewno czarne bedzie czarne. Moze zalozenia wyjsciowe nalezy troche zmodyfikowac i pomiędzy bialym i czarnym obszarem ustawic jeszcze posredni szary. Ciekawe jak wtedy poradzi sobie matryca?

JK, nie posiadam jeszcze cyfrowki, ale jezeli twoja teoria jest prawdziwa to rzucam w diabły slajdy a nawet negatywy i pedze po cokolwiek z matryca. Wreszcie bede mogl fotografowac wnetrze lasu w słoneczne, letnie, poludnie.

JK
10-07-2006, 17:42
tojo, fotografować będziesz mógł napewno, ale pamiętaj, że na końcu tej "ścieżki" znajduje się nie aparat, ale najsłabsze ogniwo tego łańcuszka, czyli karta graficzna, monitor, drukarka i format JPEG, które mają rozdzielczość tylko 256 różnych odcieni dla pojedynczej składowej koloru. Tu właśnie jest bariera, która ogranicza zdjęcie ciemnego lasu w słoneczne południe. To nie matryca jest winna temu, że albo szczegóły w cieniach i przepalone światła, albo czarne cienie i szczegóły w światłach - wina leży po stronie 8 bitowej przestrzeni koloru, która jest zbyt uboga (ma zbyt małą rozdzielczość tonalną). No, ale zawsze można zdjęcie trochę inaczej obrobić (inaczej przekształcić do przestrzeni 8 bitów, np. wyciągając szczegóły z cieni za pomocą funkcji D-Lighting) lub zastosować techniki HDR robione z jednego RAWa. Robi się to bardzo łatwo - jedno zdjęcie wywołujesz "na światła" (np. minus 1-2EV - cienie będą czarne), drugie zdjecie wywołujesz "na cienie" (np. plus 2EV - światła będą przepalone) i łączysz oba zdjęcia, tym samym wyciągając szczegóły z cieni i ze świateł. Warto jeszcze pamietać, aby przed wywołaniem RAWa maksymalnie zmniejszyć kontrasty, bo one także powodują utratę szczegółów zdjęcia. Techniki HDR pokazują ile naprawdę może zarejestrować 12 bitowa matryca, choć w zamian za sztucznie "wyciąganą" wiekszą ilość szczegółów w cieniach i światłach, niestety zniekształcają kolorystykę zdjęć i osłabiają szczegóły, które nie są zarejestrowane w światłach, ani w cieniach, tylko w środkowej części przestrzeni koloru - coś trzeba stracić, żeby można było coś do obrazu dołożyć. Suma tego wszystkiego jest stała i jest to tylko 256 różnych tonów pojedynczej składowej koloru.

Jacek_Z
10-07-2006, 18:36
o, mogę sie zgodzic w całosci z ta wypowiedzią. Nawet kilka rzeczy dodać, ale to by niestety zaciemniło sprawę. To chodzi o takie niuanse czy lepiej mieć matrycę o wiekszej rozpietosci (jak S3) czy o mniejszej i kombinować wywoływaniem plików. Lepsze jest to pierwsze, bo na końcach zakresu matryca nie pracuje tak idealnie - liniowo i dlatego zniekształca sie kolorystykę zdjęć. Choć programowo mozna zrobic bardzo wiele - np przykładem (oczywiście temat z zupełnie innej parafii) jest zlikwidowanie obwódek CA. Poza tym z S3 tez mozna wywoływac zdjęcia na + i - 2 EV, sklejać i osiagnąć zawsze wiecej.
nie doczekałem sie odpowiedzi po co wymyślono te podwójne piksele z S3 - jaki tego sens?
niestety JK musiaby zburzyć swoja teorię, że istotne jest tylko to, że jpg ma 8 bitów.
przy okazji -W ZAPISIE CYFROWYM NIE MA CIĄGŁOŚCI TONALNEJ. a ja tak pisałem? Jest on lepiej odzwierciedlony za pomoca koloru 12 bitowego niz 8 bitowego i tylko o to mi chodzi. Być moze czasami stosuje za duze skróty myślowe, ale sadziłem że łapiesz.
Ja nie pisze o rzeczach które moze pokazac monitor, ale o informacji o ciągłości która jest zawarta w pliku.
ciągle piszemy tak troche obok siebie, wciskasz mi coś czego nie twierdzę i wolisz nie odpowiadać na pytania, a dopisujesz czasami oczywistosci - co stawia cie w swietle jakbyś miał rację.
ciagle sobie obiecuję, że przestane ripostować, ale z drugiej strony potem wyjdzie, że ty masz rację, bo nieobecni racji nie mają.

JK
10-07-2006, 19:17
Jacku, już dawno zauważyłem, że precyzji wypowiedzi raczej Ci trochę brakuje, ale musisz pamiętać, że ten wątek może czytać wiele osób. Osób młodych, które właśnie na tym forum szukają wiadomości o tym jak to wszystko działa. Pytasz, gdzie piszesz o ciągłości? Nie musiałem nawet sięgać do Twoich wcześniejszych wypowiedzi. Piszesz o ciągłości w tym samym poście.


...... Ja nie pisze o rzeczach które moze pokazac monitor, ale o informacji o ciągłości która jest zawarta w pliku. ......

W tym zdaniu napisałeś dwie "bzdury", przepraszam za mocne stwierdzenie, ale tak to trzeba nazwać. Po pierwsze znów piszesz o jakiejś ciągłości zawartej w pliku, a tam w pliku zawarty jest cyfrowy zapis zdjęcia, który jest nieciągły już ze swej natury. Po drugie piszesz o czymś czego nie wiesz i nigdy nie widziałeś - piszesz o rzeczach, których nie może pokazać monitor. Bardzo przepraszam, o czym wiec piszesz, skąd wiesz co tam jest zapisane? Ja zanim napisałem początkowy tekst tego wątku zadałem sobie trochę trudu, żeby choć w przybliżeniu pokazać, co może zarejestrować matryca. A ty piszesz tylko, że wiesz i to ma wystarczyć, choć nigdy tego nie widziałeś.

Powszechnie wiadomo, że łańcuch jest tylko tak mocny, jak jego najsłabsze ogniwo. Z tym się chyba zgodzisz? Jeśli tak, to po co zwiekszać rozpiętość, czy rozdzielczość matrycy? Przecież to nie jest najsłabsze ogniwo. O tym właśnie był tekst otwierający ten wątek. Najsłabszymi ogniwani (16 razy słabszymi od matrycy) są: karta graficzna, monitor, drukarka, papier fotograficzny, format JPEG. To tam trzeba szukać rozwiązań, a nie robić "bożka" z matrycy. Matrycy, która i tak daje dużo, dużo za dużo. Moim zdaniem, to co napisałem w początkowym tekście warto przeczytać, przyjąć do wiadomości, zrozumieć i nauczyć się wykorzystywać podczas robienia zdjęć i ich komputerowej obróbki.

Zink
10-07-2006, 19:19
zink, jesli przesuwasz coś o 8 bitach by zobaczyć cienie i swiatła to jak to robisz na jednym zdjęciu?
Ja nic nie przesuwam, jeśli już, to tylko rozciągam.


ekspozycją musisz wybrac jedn z tych stanów - czy na swiatła czy na cienie. to, że matryca moze zarejestrować rzeczy bardzo jasne czy bardzo ciemne to nie problem - skracając czas mamy mniej swiatła i prawidłowo oddaje swiatła obrazu. przedłużając czas prowaiłowo naswietlisz cienie. ale nie mozna jednoczesnie na jednym zdjęciu miec krótkiego i długiego czasu.
Tu właśnie jest błąd w twoim rozumowaniu. Matryca nie tylko może zarejestrować rzeczy bardzo jasne lub bardzo ciemne zależnie od parametrów, ale też może zarejestrować rzeczy bardzo jasne i bardzo ciemne jednocześnie. Dzieje się tak wtedy gdy jest ustawiona mała czułość/krótki czas/duża przysłona. Tłumaczyłem to już, ale widzę, że muszę posłużyć się bardziej dosadnym przykładem :). Pojedynczy sensor matrycy działa jak miernik napięcia, z tą różnicą, że sensor mierzy natężenie oświetlenia, a miernik - napięcie. Zasada jest podobna: możesz ustawić duży zakres, wtedy mierzysz duże napięcia, albo mały - mała napięcia. Duży zakres charakteryzuje się małą czułością (duża zmiana napięcia powoduje małą zmianę wskazania, mała zmiana powoduje brak zmiany wskazania). Odpowiada to dokładnie małej czułości sensora (duża zmiana natężenia oświetlenia -> mała zmiana sygnału wyjściowego). Treaz pytanie brzmi: czy można miernikiem napięcia zmierzyć duże i małe napięcia na tym samym, dużym zakresie? Tak, z tą uwagą, że duże napięcia będą pokazywane w miarę dokładnie (szczegóły w światłach), a małe już niekoniecznie (utrata szczegółów w cieniach), ale najważniejsze jest, że miernikiem da się zmierzyć napięcie równe zero! I to na każdym zakresie. Nie chodzi tu o to, że nie można zarejestrować jednocześnie świateł i cieni, bo można. I to właśnie jest najlepszym dowodem, że matryca ma rozpiętość tonalną zależną od czułości i parametrów naświetlania. Nie można tylko jednocześnie zarejestrować szczegółów w światłach i szczegółów w cieniach, a to z kolei świadczy o niskiej rozdzielczości tonalnej matrycy przy ustawieniu jej na dużą rozpiętość tonalną.


Zmienną rozpiętość matrycy masz (tak nie do końca, to tylko daje taki efekt, ale nie chce komplikować tego zagadnienia) , ale na różnych zdjęciach, dlatego tak zrobiono w fuji by mozna było to miec na jednym zdjęciu.
Zgadzasz się z tym, co napisał JK na początku artykułu, że można idealnie odwzorować nawet największą rozpiętość tonalną sceny za pomocą tylko białego i czarnego koloru? Jeśli tak to nie potrafię pojąć, dlaczego jeszcze nie rozumiesz tego, co próbuję wytłumaczyć. Zrobiono tak w Fuji żeby aparat sam na zawołanie robił HDR i użytkownik nie musiał się z nim "męczyć".

Kurczę, tu by się przydał wykład o wzmacnianiu sygnałów, czułości, itp., ale jakoś nie czuję się na siłach żeby go napisać :)

tojo, to byłby niestety temat na cały wykład, jak napisałem wyżej.


nie doczekałem sie odpowiedzi po co wymyślono te podwójne piksele z S3 - jaki tego sens?
Wydawało mi się, że już to opisałem wyczerpująco. Zobacz mój pierwszy post w tym temacie (ten długi), ostatni akapit.
A w kwestii ciągłości tonalnej, to JK chodzi o to, że ciągle używasz terminu "ciągłość tonalna matrycy", podczas gdy jedyną rzeczą jaką można o niej powiedzieć jest to, że nie istnieje :D. Dla matrycy można mówić jedynie o "kroku przejść tonalnych", maksymalnej możliwej "liczbie przejść tonalnych" oraz "rozdzielczości tonalnej". Jeśli chodzi o "krok przejść tonalnych", to nie wiem czy takie pojęcie istnieje i czy ma taką nazwę, wprowadziłem je w celu łatwiejszego zobrazowania pewnych rzeczy.

Jacek_Z
10-07-2006, 20:47
zink - no własnie - na końcu stwierdzasz, że to co w S3 to swego rodzaju HDR - z czym sie zgodze. ale dlaczego jego zastosowanie poprawiło sytuacje?!!!
powinniście sobie to pytanie - a dlaczego? zadawać częsciej.
to tylko ułatwienie fotografowi by nie musiał sklejać - jak sugerujesz?
to dlaczego sklejanie z d70 daje gorszy efekt niz brak sklejania w S3Pro, a sklejanie w S3pro daje wiele lepszy efekt niż sklejanie w d70? dobrze to przemyślcie.
dlaczego, dlaczego, dlaczego?

piszesz -
"matryca może zarejestrować rzeczy bardzo jasne i bardzo ciemne jednocześnie. Dzieje się tak wtedy gdy jest ustawiona mała czułość/krótki czas/duża przysłona"

bzdura. chyba, że to był jakiś z mozliwych przykładów. bo jak nie to spytam: a czemu nie np długi czas, krótka przysłona, albo krótki czas i duża przysłona - przecież to zależy od jasnosci fotografowanej sceny.
sam piszesz o mierniku - musisz przestawić czułość!!! nie możesz mierzyć jednoczesnie dużych i małych wartosci. W pewnych granicach oczywiscie - takich jak przyjmuje matryca na danym naswietleniu.

piszesz też:
"Nie chodzi tu o to, że nie można zarejestrować jednocześnie świateł i cieni, bo można. I to właśnie jest najlepszym dowodem, że matryca ma rozpiętość tonalną zależną od czułości i parametrów naświetlania."
jeżeli motyw ma niedużą rozpietośc tonalną to mozna, jeśli za dużą, to nie.
od parametrów naswietlania to nie zależy! fotografowie moi - czas 1/125 i f=8 to to samo co 1/60 i f=11. od czułości tak, ale w niewielkim zakresie.

oraz piszesz dalej:
"Nie można tylko jednocześnie zarejestrować szczegółów w światłach i szczegółów w cieniach, a to z kolei świadczy o niskiej rozdzielczości tonalnej matrycy przy ustawieniu jej na dużą rozpiętość tonalną."
no własnie!!! a chyba chodzi o duża rozpietość tonalną. co mi z tego, że matryca widzi czerń i widzi biel skoro nie daje rozróżnialnych zmian wartości na jakimś z końców tego zakresu? to praktycznie po jakis progu zamiast świateł pokazuje mi biel a sa to juz przepalenia, a z drugiego końca pokazuje mi czerń, a sa tam tez obszary niedoswietlenia.
ja pisze cały czas o fotografowanym motywie o bardzo dużej rozpietości tonalnej

podobnie jak u JK - zdanie dobre, zdanie złe i tak w kółko.
ale to co ty piszesz jest bliższe rzeczywistosci niz to co pisze JK.

[ Dodano: Pon 10 Lip, 06 20:50 ]
JK - piszesz
"Po drugie piszesz o czymś czego nie wiesz i nigdy nie widziałeś - piszesz o rzeczach, których nie może pokazać monitor."
czyli jak nie widze, że kolor 12 bitowy lepiej opisuje rzeczywistość niz kolor 8 bitowy, to znaczy, ze to nie ma miejsca?
atomów też nie widzę. podobno są.

Smurf
10-07-2006, 21:02
jak smiesz pisać nie kończąc szkół w słusznych gierkowskich czasach "wiecie - rozumiecie", a tym bardziej nie pracując naukowo w tym najbardziej twórczym okresie naszego? państwa. :mrgreen:

Zdecydowanie mam dosc Twoich chamskich prowokacji. Wiecej dystansu proszę...
A gdzie Ty tu widzisz chamstwo???
Chyba wczoraj meczu nie oglądałeś - tam to było chamstwo. :lol:
Twoje wypowiedzi niejednokrotnie były mniej sympatyczne.

JK
10-07-2006, 21:38
Jacek_Z, jeśli już dwóch Ci mówi, że się mylisz, to chyba czas przemyśleć zagadnienie od początku. :)

Czytałeś moje posty i nawet nie próbowałeś zweryfikować swego punktu widzenia. Teraz czytasz posty, które pisze Zink i znow to samo. Obaj staramy się wytłumaczyć Ci podstawy rejestracji danych przez matrycę, a Ty ciągle swoje. Ciekawe jak długo jeszcze? :wink:

tojo
10-07-2006, 22:42
JK i Jacek_Z co sądzicie o poniższym zestawieniu?:

STAGE DYNAMIC RANGE STOPS
Typical outdoor, sunlit scene 100,000:1 or more ~17 EV
Human eye 10,000:1 ~14 EV
Film camera up to ~2000:1 ~11 EV
Digital camera typically ~400:1 ~8.5 EV
Good computer monitor 500:1 to 1000:1 9 - 10 EV
Typical photo print 100:1 up to 250:1 7 - 8 EV

Ciekaw jestem opinii JK na temat podanej tu rozpietosci monitora i papieru foto, która o dziwo jest bardzo zblizona do rozpietosci matrycy!

Wartości zaczerpnąłem ze strony http://www.naturescapes.net/072006/rh0706_1.htm. Jest tam ciekawy artykuł o HDR i problemach tu omawianych. Polecam!
Wojtek

Jacek_Z
10-07-2006, 23:08
1. dwóch to jeszcze nie tak wiele. kiedyś dyskutowałem z wieksza ilościa osób. nie w tym rzecz ilu, tylko kto ma racje.
2. JK czy ty próbowałes zweryfikować swój punk widzenia?
3. sądzę, że dobrze pojmuję sposób rejestracji danych przez matrycę (co do szczegółów wiedzą to ci od softu w nikonie)
4. macie kłopot z pojęciem tego co matryca moze "zobaczyć" równocześnie przy fotografowaniu motywu o olbrzymiej rozpietości tonalnej - przy czym jak czytam to ty i zink sie nieco różnicie w tym punkcie. nie jest to problem tylko zapisu koloru na 8 czy 12 bitach, ani "wyskalowania" matrycy. Jej wyskalowanie zmienia sie tylko ze zmianą ISO.
Dzięki nieciągłemu zapisowi na bitach ma inne "odległosci" w szczegółach w bielach i czerniach - to tez pojmuje i tego nie kwestionuje. Natomiast matryca to nie jest czujnik doskonały, a tak go traktujecie, jakby potrafił wszystko zmierzyć jednocześnie. To niemożliwe. Nie pomierzy na jednym zakresie 0,0000001 A i 1000000A. I to nie przez zbyt skromny opis koloru na 12 bitach.
Najlepszym argumentem za tym jest to, że go ciągle udoskonalają.

JK
10-07-2006, 23:40
tojo, popatrz na te "zdjęcia" wykonane w technice HDR i zadaj sobie pytanie, czy to jeszcze są zdjęcia. A może to już nie są zdjęcia, tyko grafika oparta na zdjęciach. Nie mam nic przeciwko takim pracom, ale nazywanie tego zdjęciami to już chyba przegięcie.

A co do zamieszczonych danych. Sam monitor analogowy może przenosić wiecej informacji, bo monitory projektuje się tak, żeby nie pracowały na granicy możliwości, ale miały jakiś sensowny zapas. Za to, typowa karta graficzna daje 16,7 miliona kolorów, czyli 256 tonów na składową koloru, czyli jest to 8 bitowa przestrzeń dla pojedynczej składowej koloru. Już pisałem o tym na początku. Karta graficzna może przenieść tylko tyle różnych tonów pojedynczego koloru, czyli monitor też, bo sam sobie dodatkowych danych nie wymyśli. Jeśli już musimy przedstawić to w jednostkach EV (jeśli już to robimy, to trzeba pamietać, że to EV ma niewiele wspólnego za rozpiętością tonalną sceny też wyrażoną w EV) to jest to maksymalnie 8EV, bo 256 to 2 do potęgi 8.

Jeśli piszą, że "Typical photo print" przenosi 7-8 EV, to oznacza, że również nie wykracza poza 8 bitową przestrzeń koloru. Należy wnioskować, że papier fotograficzny również nie.

Jeśłi w takich samych jednostkach wyrazić rozpiętość 12 bitowej matrycy to jest to 2 do potęgi 12, czyli 12EV. Tylko, czy takie przeliczania mają jakiś sens?

Jeszcze raz powtarzam, że to, co zobaczymy na monitorze, czy na papierze zależy głównie od sposobu przetwarzania danych z matrycy do przestrzeni 8 bitowej. Może to być normalne zdjęcie wykonane typowym algorytmem, może to być pseudo HDR z S3PRO, albo obraz tworzony zaawansowanymi technikami HDR. Jakby się zastanowić, to zapewne po odpowiedniej obróbce można uzyskać na monitorze HDRa dającego złudzenie rozpiętości wiekszej niż 50EV. Czy byłoby to zdjęcie - napewno nie, ale jakiś obraz niewątpliwie by powstał i być może byłby nawet ciekawy, a napewno niecodzienny.

[ Dodano: Pon 10 Lip, 2006 23:57 ]
Jacek_Z, co mam weryfikować? Że 2+2=4, a może że 2*2*2*2=16? Tu nie ma czego weryfikować. A tak na marginesie, matrycę w technologii CCD możesz sobie bez wiekszych problemów kupić w dobrej hurtowni elektronicznej, możesz dostać lub pobrać z netu pełną dokumentację takiej matrycy, wraz z opisami typowych aplikacji. Nie musisz pytać inżynierów z Nikona. :)

tojo
11-07-2006, 12:14
Chyba cale nieporozumienie tkwi w tym, ze poslugujemy sie zupelnie innymi definicjami rozpietosci tonalnej. Wedlug mnie (byc moze i Jacka_Z) rozpietosc matrycy jest to maksymalny zakres EV fotografowanej sceny jaki moze byc poprawnie odwzorowany (bez wiekszych znieksztalcen kolorow, przejsc tonalnych) przez matryce. Ja rozpietosc tonalna matrycy wyrazam rozpietoscia tonalna fotografowanej sceny. A to ze ten zakres raz dzielony jest na 256 a innym razem na 4000 cos to swiadczy tylko o dokladnosci rejestracj szczegolow i umozliwia manipulowanie obrazem (mozemy sobie te mniejsze kawali powiekszac, łaczyc, usredniac w zasadzie do woli ale tak by nie przekroczyc wielkosci tych wiekszych wynikajacych z podzialu na 256 czesci).
W ostatnim poscie wreszcie sam udzieliles odpowiedzi, najwazniesze jest waskie gardlo a nim jest monitor, papier, a w zasadzie 8 bitowa przestrzen koloru. Skoro te elementy nie moga wyswietlic wiecej niz 8EV to nie ma sensu aby matryca rejestrowala wiecej, no bo po co?. Ona rejestruje 8EV tylko raz dzieli to na 256 innym razem na 4000 cos kawalkow. Gdyby rejestrowala wiecej to musielibysmy z czegos rezygnowac w procesie transformacji do 8bitów, a jesli rejestruje 8EV fotografowanej sceny to latwo i prosto mozemy to przeniesc na monitor czy papier nie zastanawiajac sie co tracimy.

Zink
11-07-2006, 13:12
Jacek_Z, dlaczego zastosowanie HDR poprawiło sytuację, to chyba jest oczywiste. Nikt nie stosowałby HDR gdyby nie poprawiał on sytuacji, prawda? O różnicach między efektami stosowania czy nie stosowania sklejania w D70 i S3 pro nie będę się wypowiadał, bo nie robiłem takich porównań i nie posiadam w tym temacie żadnej wiedzy.

"czas 1/125 i f=8 to to samo co 1/60 i f=11"
Oczywiście, ze to to samo. Ale ustaw na przykład: 1/125 i f/8. Można przy tym zarejestrować maksymalnie jakieśtam natężenie światła bez przepaleń, prawda? A teraz ustaw 1/4000 i f/8. Można przy tym zarejestrować dużo większe natężenie światła bez przepaleń, prawda? Jest różnica, czy nie ma? Właśnie o takich różnicach w parametrach naświetlania cały czas mówię. Wiesz co? Bardziej dosadny przykład: "S3 pro nie da się zrobić żadnego zdjęcia! Ustawiam 1s f/2.8 i ISO1600 i zdjęcie wychodzi całe białe. Tak, próbowałem zmienić ustawienia naświetlania, zmieniłem na 2s f/3.5 ISO1600 i dalej jest tak samo. No przecież tym aparatem nie da się robić zdjęć!". :P

"a chyba chodzi o duża rozpietość tonalną. co mi z tego, że matryca widzi czerń i widzi biel skoro nie daje rozróżnialnych zmian wartości na jakimś z końców tego zakresu?"
W tej chwili już nie dyskutujemy o rozpiętości, a o definicji pojęć rozpiętości, rozdzielczości, itp. Te pojęcia mylisz albo źle rozumiesz i to próbujemy ci wytłumaczyć.

"Nie pomierzy na jednym zakresie 0,0000001 A i 1000000A."
Ale pomierzy na jednym zakresie 0 A i 1000000A. Na tym właśnie opiera się definicja rozpiętości tonalnej matrycy. Jak zauważyłem ty opierasz definicję rozpiętości tonalnej matrycy na tym jaką rozpiętość tonalną sceny może ona przenieść zachowując szczegóły w cieniach i światłach jednocześnie. Ale taka definicja nie jest poprawna, bo musiałbyś jeszcze wyjaśnić co to są szczegóły w cieniach i światłach. Czy szczegóły to różnice w natężeniu światła wynoszące 1 cd? 0,1 cd? 0,01 cd? A może szczegóły to różnice w zarejestrowanych kolorach przez matrycę? A co jeśli obszar fotografowany będzie jednolity? Czy rozpiętość tonalna matrycy zależy od ilości szczegółów forografowanej sceny? I co to są szczegóły fotografowanej sceny? Dodatkowo weź pod uwagę, że widoczne szczegóły w światłach charakteryzują się dużo większymi różnicami w natężeniu światła, co szczegóły w cieniach.

"I to nie przez zbyt skromny opis koloru na 12 bitach."
A właśnie, że przez zbyt skromny. Wróćmy do miernika: gdyby był taki miernik, który wyświetlałby 20 cyfr i miał dokładność bezwzględną 0,00000001A, to na odpowiednim zakresie pokazałby prawidłowo 0,0000001A i 1000000A. I nie chodzi o to, że nie jest możliwe zbudowanie go. Ale o to, mieściłby się w niedużej szafie i kosztowałby więcej niż wynosi budżet Polski. Cały kłopot tkwi w odszumianiu i wzmacnianiu sygnału. Jak już pisałem, to zbyt skomplikowany temat na jeden post.

A co do HDRa. Dałoby się zrobić matrycę, która robiłaby sama z siebie HDR, bez podwójnych pikseli i bez składania. Wystarczyłoby, żeby miała nieliniową charakterystykę wzmocnienia, to znaczy dla każdego punktu (albo grupy 4-ch punktów kolorowych) ISO zależałoby do natężenia padającego światła. Wtedy punkty bardzo oświetlone miałyby małe iso, co oddawałoby szczegóły w światłach bez prześwietleń. Natomiast punkty słabo oświetlone miałyby duże ISO żeby oddać dobrze szczegóły w cieniach. Efekt przy dobrym doborze parametrów i nieliniowości charakterystyki dawałby efekty zbliżone do HDR.

JK
11-07-2006, 13:15
tojo, czyli od dziś zaczynasz szukać scen, które maja dokładnie 8EV i tylko takie bedziesz fotografował? :) Jeśli rozpiętośc tonalna sceny jest większa niż 8 EV lub mniejsza niż 8EV to nie będziesz robił zdjęć, bo nie warto, skoro i tak muszą wystąpić jakieś straty. Dobrze zrozumiałem? :wink: :D

Takie, a nie inne rozwiązanie wymyślono w fotografii cyfrowej w tym celu, żeby się zbytnio nie stresować rozpiętościami konkretnych scen, tylko robić poprawne zdjęcia w różnych warunkach (oczywiście, po prawidłowym dobraniu parametrów ekspozycji).

[ Dodano: Wto 11 Lip, 2006 13:23 ]
Zink, tylko jedna uwaga. Jeśli charakterystyka matrycy (ta do automartycznego HDRa) nie bedzie zbliżona do liniowej, to diabli wezma całą "analogową" wiedzę na temat doboru parametrów ekspozycji. Drobny błąd w doborze parametrów byłby wówczas trudny do poprawienia. Przy charakterystyce liniowej, taka poprawa (korekta ekspozycji) to proste dzielenie lub mnożenie i po sprawie.

ALF
11-07-2006, 14:59
panowie...pomijając niezgodności...postarajcie się wyciągnąć praktyczne wnioski z tej dyskusji, wnioski, które mogą zastosować w praktyce ignoraci techniczni :P
np. skoro garta gaficzna i monitor są najsłabszymi ogniwami w procesie zdjęciowym, to jak można to poprawić?

tojo
11-07-2006, 15:05
JK napisał:
tojo, czyli od dziś zaczynasz szukać scen, które maja dokładnie 8EV i tylko takie bedziesz fotografował? :) Jeśli rozpiętośc tonalna sceny jest większa niż 8 EV lub mniejsza niż 8EV to nie będziesz robił zdjęć, bo nie warto, skoro i tak muszą wystąpić jakieś straty. Dobrze zrozumiałem? :wink: :D

Nie od dzis, bo robie to juz od dluzszego czasu fotografujac na slajdach, a sceny o duzej rozpietosci EV fotografuje ale dokladnie analizuje i zastanawiam sie co mozna poswiecic a czego nie.


JK napisał
Takie, a nie inne rozwiązanie wymyślono w fotografii cyfrowej w tym celu, żeby się zbytnio nie stresować rozpiętościami konkretnych scen, tylko robić poprawne zdjęcia w różnych warunkach (oczywiście, po prawidłowym dobraniu parametrów ekspozycji).
Tzn. jakie? Bo nie rozumiem czy potwierdzasz moją teorię czy swoją?

JK
11-07-2006, 15:43
ALF, dać się zamrozić :wink: i poczekać do kolejnej rewolucji technicznej, czyli do 16 bitowej przestrzeni koloru karty graficznej i całej tej reszty. :D Ustawienie trzech monitorów obok siebie nic tu nie da. :wink: :D

A tak na poważnie. Nic nie trzeba robić. Trzeba tylko o tym wiedzieć i pamiętać.

Przez lata całe robiliśmy zdjęcia na papierze fotograficznym, używaliśmy slajdów, retuszowaliśmy zadrapania i inne felery. Potem oglądliśmy te slajdy na gów...ch rzutnikach i było dobrze. Skanowaliśmy te slajdy na gów...ch skanerach i oglądaliśmy na monitorze, a potem do labu i znów na papier, najczęściej taki sobie papier. I to wszystko kręciło się i kręci nadal wokół 8 bitowej przestrzeni koloru. Czasem jest o 5% lepiej, innym razem jest 10% gorzej, ale tak to jakoś wychodzi. Typowy papier fotograficzny jest jescze gorszy niż karta graficzna i monitor. Wniosek? Było tak od lat i nikomu to nie przeszkadzało.

Ten wątek założyłem nie po to, żeby kogoś dołować, że ma słaby monitor, czy drukarkę, ale po to, żeby pokazać rzeczywiste proporcje. Zeby pokazać, jak mało sensowne są niektóre dyskusje toczone ostatnio na forum (nie tylko naszym) o "rozpietości tonalnej matryc". Nie dość, że było tam pełno blędów interpretacyjnych (niektórzy mówili o ciągłości tonalnej cyfrowej matrycy), nazywania rzeczy inaczej niż się rzeczywiście nazywają, czy mogą nazywać oraz mieszania faktów. Dyskusje o tym, czego nie widać - czego nie można zobaczyć na ekranie monitora.

Rozpoczynając ten wątek napisałem, że warto to wszystko trochę uporządkować. Czy to się udało? Nie wiem. Są tacy, którzy zawsze będą dowodzili, że 2+2 jest równe 17 i chyba rady na to nie ma. Ale może kilka osób zdało sobie sprawę z tego, że zwiększanie rozdzielczości tonalnej matryc (liczby bitów, na których zapisywana jest pojedyncza składowa koloru) nie poprawi już zbyt wiele.

Czornyj
11-07-2006, 15:53
JK, z jednym się nie zgadzam - co ci da 16 bitowa przestrzeń monitora i karty graficznej? Przecież już 8-bitowa paleta zdrowo przekracza możliwości naszej percepcji! Jaka przyjdzie nam korzyść z kwantyfikacji barwy na 1024 odcienie, skoro już przy 256 odcieniach za cholerę nie jesteśmy w stanie dostrzec różnicy? To byłaby sztuka dla sztuki - wyższa jakość, której byśmy nie byli w stanie zobaczyć...

JK
11-07-2006, 18:33
Czornyj, masz rację, nic nie da. Zgadzam się z Tobą w 100% :D Ale nie chciałem dołować biednego Alfa, który z takim niepokojem pytał co z tym można zrobić, że aż mi się go żal zrobiło. :wink: :D

Zwróć też uwagę na te małe żółciutkie wstawki! :D

ALF
11-07-2006, 19:09
eee...żeby zdołować ALFa to cza być dentystą :D
piszac o praktycznych wnioskach miałem cichą nadzieję, że nie była to jedynie akademicka dyskusja...i że da się z niej coś wyciągnąć dla mas :P

Zink
12-07-2006, 13:22
A nie da się? :)
Ja na przykład dowiedziałem się, że to, że w swojej hybrydowej Minolcie miałem z matrycy kolor w 14 bitach na kanał wcale nia oznacza automatycznie lepszych zdjęć, niż z Nikona, który ma 12 bitów na kanał. Bo ani jednego, ani drugiego i tak mój monitor nie pokaże w całości. A nawet gdyby pokazał, to ja i tak nie byłbym w stanie tego zobaczyć. Te 14 bitów mogłoby się przydać do ewentualnej korekcji, ale ponieważ zawsze robiłem w jpegach (głównie z niewiedzy jaki możliwości daje raw), to i tak żadnego pożytku z nich nie było.

kwasik
12-07-2006, 16:41
Jacku, JK, pasjonujaca dyskusja. Wiele sie dowiedzialem i prawie spocilem czytajac ten watek. Dla mnie, troche laika w tych sprawach milo jest poczytac o tychze technikaliach. Wlasnie takich merytorycznych dysput bez wzajemnego obrazania i ignorancji czesto na forum brakuje ;)

stempien
15-07-2006, 11:51
To ja mam proste pytanie; Dlaczego zdjecia z aparatow Fuji (podobno chwyt marketingowy) sa lepsze? Dlaczego rejestruja zarowno mocno oswietlone miejsca jak i cienie? Z Nikonow tez daloby sie uzyskac podobne rezultaty poprzez obrobke komputerowa?

Czornyj
15-07-2006, 12:12
stempien, dałoby się

Smurf
15-07-2006, 22:11
Czornyj, " wyżej ...... nie podskoczysz". :)

PrzeMoon
16-07-2006, 15:20
To ja mam proste pytanie; Dlaczego zdjecia z aparatow Fuji (podobno chwyt marketingowy) sa lepsze? Dlaczego rejestruja zarowno mocno oswietlone miejsca jak i cienie? Z Nikonow tez daloby sie uzyskac podobne rezultaty poprzez obrobke komputerowa?

Sa lepsze czy inne? Mnie sie wydaje ze podobne pytanie mozna zadac odnosnie zdjecia zrobionego standardowa technika i HDR. Pewnie dla jednego bedzie lepsze dla innego gorsze :roll:

Czornyj
16-07-2006, 22:12
Czornyj, " wyżej ...... nie podskoczysz". :)
Ju dont noł de pałer of da dark sajd:

1) Kuzynka synka, czarny gajer, biała sukienka:

https://forum.nikoniarze.pl//brak.gif
źródło (http://members.chello.pl/m.kaluza/rozp1.jpg)
https://forum.nikoniarze.pl//brak.gif
źródło (http://members.chello.pl/m.kaluza/rozp2.jpg)

2) Kolejne dzieło szwagra i moja żożo udająca Madre de Dios w okolicznościach światła kontrowego:

https://forum.nikoniarze.pl//brak.gif
źródło (http://members.chello.pl/m.kaluza/rozp3.jpg)
https://forum.nikoniarze.pl//brak.gif
źródło (http://members.chello.pl/m.kaluza/rozp4.jpg)

3) Rusałka, która z 3000 rodzajów chabaziów w ogrodzie na lądowisko wybrała oczywiście najgorszy:

https://forum.nikoniarze.pl//brak.gif
źródło (http://members.chello.pl/m.kaluza/rozp5.jpg)
https://forum.nikoniarze.pl//brak.gif
źródło (http://members.chello.pl/m.kaluza/rozp6.jpg)

stempien
16-07-2006, 22:34
PrzeMoon, dla mnie jednoznacznie zdjecie z s2/s3 jest lepsze od zwyklego z d70.
Czornyj, fajne tylko z jednym sie nie zgadzam;
you don't know the power of the dark side !

Czornyj
16-07-2006, 22:54
Łotewer. For maj elaj iz de fors, and a pałerful elaj it iz!

kwasik
16-07-2006, 23:04
tru

Jacek_Z
29-08-2006, 17:14
wpadłem sobie na forum canona (bo nasze staneło na 5 minut) i co widze?
jest tam wątek na temat tego wątku - też niezły bo na 6 stron.
http://canon-board.info/showthread.php?t=13945

a ja ciągle też zbieram siły by na nowo wejść w polemikę, bo się nadal z JK nie zgadzam w wielu kwestiach, a zostawiłem ten temat. niech sie teraz C z nim męczą.

Czornyj
29-08-2006, 18:36
Czytałeś to co tam napisali? Typowa dyskusja wyglądała mniej więcej tak:
- Ten artykuł to kompletne bzdury!
- Bzdury? Hmmm, a np. co jest tam bzdurą?
- Nooo, nie wiem - o boszszsz, chyba jednak to przeczytam i wtedy powiem...

A jeszcze lepsze:
Artykuł napisał Jacek Karpiński - polski inżynier, który w latach 1970-73 zaprojektował i wyprodukował pierwszy w kraju minikomputer na światowym poziomie K-202...

Seeker
29-08-2006, 20:17
"A co do HDRa. Dałoby się zrobić matrycę, która robiłaby sama z siebie HDR, bez podwójnych pikseli i bez składania. Wystarczyłoby, żeby miała nieliniową charakterystykę wzmocnienia, to znaczy dla każdego punktu (albo grupy 4-ch punktów kolorowych) ISO zależałoby do natężenia padającego światła."

To wszystko slepa uliczka. Jest lepsza metoda ;) Calkiem powaznie.
A osobiscie nadal popieram Jacka_Z.

P.S.
Ciesze sie, ze pomimo roznicy pogladow nadal wszyscy zyja ;)

Jacek_Z
29-08-2006, 20:20
tak, jeden gosciu doprasza sie reszty by sie odniesli merytorycznie, a oni nie bardzo mają chęć czytać tyle stron.
kilku pisze, że widzi niescisłości ale traktują to pobieznie. Tomasz Golinski, rysiaczek czy Janusz Body widza jednak konkretne niedokładnosci w "teorii" JK i piszą jednak dośc krótko co nie tak.
zdaje się, że wysłali list chyba do JK jak zrozumiałem, by sie mógł "bronić".
te zagadnienie nie jest przypiete do konkretnego systemu, jak coś wiedzą to niech piszą.

JacekKa2
29-04-2007, 11:43
To najlepszy tekst z "działki" fotograficzno-informatycznej na jaki trafiłem w ostatnim czasie.Wiele mi wyjasnił i uporządkował w kwestii cyfrowego przetwarzania obrazu.Podziękowanie i oby więcej takich "GADUŁÓW".

Maciej
29-04-2007, 12:30
A jeszcze lepsze:
Artykuł napisał Jacek Karpiński - polski inżynier, który w latach 1970-73 zaprojektował i wyprodukował pierwszy w kraju minikomputer na światowym poziomie K-202...
JK to Jacek Karpiński?

Seeker
08-05-2007, 10:08
A co to, dochodzenie...? ;)

Bedzie chcial, to sie przyzna. W koncu to jego sprawa.

Czornyj
08-05-2007, 10:15
JK to Jacek Karpiński?

Ależ skąd, to przecież oczywista bzdura. JK to oczywiście jest JayKay, wokalista Jamiraqaui.

JK
08-05-2007, 10:21
Albo Jarosław Kaczyński. :lol: :lol: :lol: Tylko skąd on by to wszystko wiedział? :mrgreen:

jakubs
08-05-2007, 12:13
dopiero dziś tu trafiłem ...
a to znakomity i klarowny tekst, chyba nie tylko piszesz programy, ale jeszcze uczysz ;)

JK
08-05-2007, 12:20
Kiedyś uczyłem, ale już mi się nie chce. Hadlowcom i innym "managerom" taka wiedza nie jest potrzebna, a pozostali, ci lepsi, i tak wyjadą.

eldritch
08-05-2007, 16:47
JK ZGADZAM się z Tobą do tego miejscsa (analizuję tylko Twój pierwszy post):

Na koniec jeszcze jedna uwaga. Powszechnie uważa się (nie wiem na jakiej podstawie), że rozpiętość tonalna matryc lustrzanek cyfrowych to 4-6EV. Jeśli wykonując drugie zdjęcie ustawiłem korektę minus 4EV, to w zasadzie rozpiętość tonalna tego zdjęcia powinna mieścić się w zakresie 0-2EV. Po obejrzeniu załączonych zdjęć można zapytać, czy jest tak rzeczywiście?

Oczywiste są fakty dotyczące 8 bitowego standardu przetwarzania urządzeń peryferyjnych i kart grafiki oraz to co dzieje się z danymi zapisanymi w postaci 12 bitów podczas kompresji - to wszystko jest jasne.

Nie zgadzam się jedank z twierdzeniem, że matryca cyfrówki mozna zarejestrować więcej jak 5-6 EV. Twoje niedoświetlenie pierwszego zdjęcia świadczy tylk o tym, że przesunałeś poszczególne strefy ze zdjęcia pierwszego o 4ev w dół i tylko tyle. Znasz system strefowy A. Adamsa?

Proponuję taki test:
zrób zdjęcie białej kartki papieru (pomiarem punktowym, ale niekoniecznie) - kartaka ta wyjdzie na zdjęciu jako (mniej więcej) 18% szarość (tak jak skalibrowany jest światłomierz) - czyli na strefie piątej, jeżeli teraz wykonasz dwa zdjęcia jedno o 2.7 Ev do góry - drugie o 2,7 ev w dół - uzyskasz zdjęcie białe i czarne - 2,7 ev + 2,7 ev = 5,4 ev - TO JEST TA PODSTAWA o której nie wiesz.

IMHO: tak uzyskana rozpiętość tonalna - jest zapisana przy pomocy 8/12 bitów - a więć ok 5,4 ev / 256 = cośtam

JK
08-05-2007, 17:39
No tak. Niby dzwonią, tylko chyba nie w tym kościele. Wszystko by było fajnie, jeśli w cyfrowej lustrzance byłby zainstalowany klasyczny analogowy materiał negatywowy o charakterystyce zbliżonej do logarytmicznej, a nie matryca o charakterystyce liniowej. Jeśli przyjmujemy, że matryca ma charakterystykę liniową (tak jest w rzeczywistości w roboczej części tej charakterystyki) to nie ma tam miejsca na żaden system strefowy. System strefowy Ansela Adamsa i Freda Archera opisywał metody naświetlania klasycznych materiałów światłoczułych, dla których dwukrotny przyrost ilości światła dawał wzrost wartości zarejestrowanej o jedną "działkę". Do matrycy o charakterystyce liniowej zastosować się tego wprost nie da, bo tu dwukrotny przyrost ilości światła daje dwukrotny przyrost wartości zarejestrowanej. W konsekwencji, cała logika z przesuwaniem stref sprowadza się w aparacie cyfrowym do zwykłego mnożenia lub dzielenia zarejestrowanych wartości przez zupełnie dowolne liczby. Cała zabawa ze strefami traci więc sens.

W aparacie cyfrowym, podczas zapisywania zdjęć w formacie RAW, prawidłowe naświetlanie matrycy nie powinno polegać na idealnym wpasowaniu 18% szarości w środek zakresu, jak to było przy analogu, ale na takim doborze parametów, żeby nie przepalić najjaśniejszych punktów obrazu. Jeśli je naświetlimy blisko granicy przepalenia (4095 dla 12 bitów), ale ich jednak nie przepalimy, to uzyskamy idealnie naświetlony plik RAW. Plik RAW, z którego da się "wycisnąć" najwięcej. A co będziemy z nim robili dalej, to zależy już tylko od możliwości zastosowanego softu i umiejętności obrabiającego. Przyjęcie klasycznego, analogowego, modelu doboru parametrów ekspozycji jest oczywiście możliwe, ale jest to tylko pewien szczególny przypadek, który w aparacie cyfrowym stosować można, ale nie trzeba.

eldritch
08-05-2007, 21:05
JK teraz to już Pan przewalił. W analogowych aparatach wykorzystanie pomiaru strefowego polega dokładnie na tym samym!
I nikt nie wpasowywał się w 18%!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
To był tyko przykład żeby Panu wyjaśnić dlaczego luzie twierdzą, że jest 5-6 ev.
Proszę Pana, naświetlająć slajdy naświetla się na biel (na światła)!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! !!!!!!
Czyli dokładnie tak jak dla cyfry!
A a negatywy naświetla się na cienie (bo to sie potem odwraca)!!!!!!!!!!!!!!!!!!!!!!!!!!!!
Pomiar strefowy można wykorzystać do wszystkiego (oczywiście z małymi modyfikacjami, dla BW, koloru i cyfry, sljadów i negatywów).!

Podstawowy problem z tokiem Pańskiego rozumowania z przykładem opartym na tym zdjęciu kwiatka polega na tym, że niewiadomo dlaczego przyjął Pan że oba zdjęcia są rozłącznymi zbiorami w zakresie EV.
Odjął Pan od 6 4 ev, o które zjechał Pan naświetleniem i zostało Panu 2 - a to jest bzdura!
W rzeczywistości na drugiej fotce zakres nie ma 2 ev i nie ma mieć to rówanie jest nieprawidłowe!

I bez urazy ale system strefowy Adamsa można wykorzystać do oceny samej odbitki bez wiedzy o tym na jakim aparacie odbitka w ogóle powstała (analog/cyfra). Dokonuje się takich analiz na bazie samej fotki. (Mając punktowe dane ze światłomierza)

pebees
08-05-2007, 21:17
JK teraz to już Pan przewalił. W analogowych aparatach wykorzystanie pomiaru strefowego polega dokładnie na tym samym!
I nikt nie wpasowywał się w 18%!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
To był tyko przykład żeby Panu wyjaśnić dlaczego luzie twierdzą, że jest 5-6 ev.
Proszę Pana, naświetlająć slajdy naświetla się na biel (na światła)!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! !!!!!!

Czytaj jeszcze raz...


(..)jeśli w cyfrowej lustrzance byłby zainstalowany klasyczny analogowy materiał negatywowy(..)

Dalej to już mi się nie chce pisać .. :)

A i jeszcze ze wczesniejszego postu:


Nie zgadzam się jedank z twierdzeniem, że matryca cyfrówki mozna zarejestrować więcej jak 5-6 EV.
Może. 5-6 EV przyjmuje się, że jest liniowe.

eldritch
08-05-2007, 21:20
Chociaż, gdyby się zastanowić nad tym:

Jeśli je naświetlimy blisko granicy przepalenia (4095 dla 12 bitów), ale ich jednak nie przepalimy, to uzyskamy idealnie naświetlony plik RAW. Plik RAW, z którego da się "wycisnąć" najwięcej. A co będziemy z nim robili dalej, to zależy już tylko od możliwości zastosowanego softu i umiejętności obrabiającego.

i dobrze rozumiemy słowo "wycisnąć" to i ja się z Panem i Pan ze mną zgadza.

Jak dobrze czytam to przyznał Pam, że "wyciśnięte" możliwości matrycy w zakresie zakresu tonalnego nie zależą od matrycy bezpośrednio - ale od obróbki pliku raw (a to nie to samo IMHO).

Jednak nie, cofam ten post (teraz to ja tu bzdury popisałem)

eldritch
08-05-2007, 21:29
A tak na marginesie to może JK zebrałby jakieś wnioski w kilku punktach (bez względu na to kto uważa je za prawidłowe), byłoby łatwiej polemizować, bo trudno śledzić ten wątek.

pebees
08-05-2007, 21:50
trudno śledzić ten wątek.
Wybacz, ale jeśli tak jest faktycznie, to Cię to wszystko raczej średnio interesuje ;-)

JK
08-05-2007, 21:51
Jak to nie "wpasowywał"? Trzeba było tak naświetlać, aby to magiczne 18% znalazło się gdzieś w "5 strefie", bo przy logarytmicznej charakrterystyce slajdu, czy negatywu gwarantowało to mniej więcej jednakową "przestrzeń" dla zapisu świateł i cieni, a w konsekwencji w miarę prawidłowo naświetlone zdjęcie. Tak pracowała większość światłomierzy wbudowanych w aparaty (teraz to się nazywa CW, 3D-Matrix, albo jakoś tak). Naświetlanie na światła lub na cienie za pomocą spota było konieczne wtedy, gdy rozpiętość sceny przekraczała możliwości nośnika, czyli materiału światłoczułego. Trzeba było się zdecydować, co tracić. Inaczej dla negatywu, a inaczej dla slajdu. Ale tylko pozornie, bo chroniąc cienie na negatywie, tak na prawdę chroniło się światła na odbitce (bo to był negatyw). W systemie strefowym było 10 stref o takiej samej szerokości (bo to była skala logarytmiczna) - od nierozróżnialnej czerni do nierozróżnialnej bieli, a mniej więcej w środku była strefa piąta, w której to mniej więcej 18% powinno się zarejestrować, żeby zdjęcie wyglądało jak dobrze naświetlone. Nie tak było?

Problem polega na tym, że teraz to 18% powinno się rejestrować nie w środku zakresu, czyli jako wartość 2047, tylko tam gdzie jest miejsce na 18%, czyli 18% z 4095 co daje 737. Jeśli tak, to te cyfrowe niby strefy nie są strefami w rozumieniu systemu stref Adamsa, bo każda z nich ma różny rozmiar (szerokość) - rozmiar dwa razy większy od poprzedniej strefy. I wreszcie to, że jeśli fotografowana scena jest ciemna, dajmy na to zawiera tylko elementy o 60% jasności, to z możliwości rejestracyjnych matrycy nie wykorzystamy aż 40%, czyli zakres od 2457 do 4095 (ten który w efekcie najmniej szumi) nie będzie wykorzystywany. Modyfikując parametry ekspozycji możemy "niby przeswietlić" i zarejestrować obraz w innym obszarze matrycy, aby dokładniej zarejestrować te cienie, których jest dużo więcej, kosztem świateł, których i tak nie ma. Matryca cyfrowa to nie film analogowy i inaczej rejestruje obraz. Trzeba tu tylko rozróżnić robienie zdjęć w RAWach, gdzie to wszystko jest możliwe i stosunkowo łatwe do obróbki, od robienia zdjęć w JPEGach, gdzie nie jest to możliwe (a przynajmniej jest bardzo utrudnione).

Zdjęcie zapisane w formacie RAW nie jest podzielone na żadne strefy - to jakaś bzdura. Jest to ciągły obraz o charakterystyce liniowej. Zresztą w analogu też nie było żadnych stref, a obraz też był ciągły tylko jego charakterystyka była logarytmiczna. System stref Adamsa miał tylko jedną zaletę. W fotografii analogowej czynił cały proces doboru parametrów prostszym i łatwiej zrozumiałym dla ludzi nieprzygotowanych matematycznie i nic poza tym.

eldritch
08-05-2007, 22:10
W 95% się zgadzam, zwłaszcza pierwszy akapit.
Ostatni akapit - to chyba nie o mnie - bo ja nic takiego nie mowiłem.
Końcówka drugiego też się zgadzam.

eldritch
08-05-2007, 22:14
JK to może jakiś konkretny przykład - ale dobry (bez fotek).


W jakim sensie rozmiar? (do drugi akapit) (w jakich jednostkach)

JK
08-05-2007, 22:17
Przykład czego? Że jakaś liczba pomnożona przez 2 da wynik dwa razy większy? O jaki przykład Ci chodzi?

eldritch
08-05-2007, 22:17
Z możliwości matrycy, czy zapisu 12 bitowego?

eldritch
08-05-2007, 22:18
Przykłąd uzyskania większej rozpiętości tonalnej.

Radosso
08-05-2007, 22:18
Dużo i dobrze, ale przeczytam jutro :)

pebees
08-05-2007, 22:19
Przykłąd uzyskania większej rozpiętości tonalnej.
Zrób sobie rawa, potem wywołaj go +2EV. Będziesz miał przykład :)
Nikt Ci takiego przykładu z 12 EV naswietlonymi na matrycy nie da, bo ... reszta elektroniki przypięta do matrycy nadwyżki obetnie :)

macte
06-07-2007, 23:42
Uff, jednego dnia przeczytałem całość i nie żałuję. Co mogę napisać: piękna dyskusja, ciekawie bronione argumenty, dobre skróty i uogólnienia oraz zpolaryzowane stanowiska. Dla samej dyskusji warto było przeczytać, choć nie jestem znawcą tematu (zawsze miałem zacięcie do teorii).

Znam dobrego elektronika, który nie jeden raz mi mówił że ok. 3 MP matryca aparatu wystarczy do zrobienia b. dobrego zdjęcia na papierze w formacie A4 (drukarka laserowa EPSON), a trochę większa niż 20 MP sprawi, że obiektywy nie bedą już potrzebne.

Kto jednak już pstrykał lustrzankmi, ten pozostanie fanem tego sprzętu i już. Pozdrawiam wszystkich uczestniczących w dyskusji!

Zink
08-07-2007, 11:36
... a trochę większa niż 20 MP sprawi, że obiektywy nie bedą już potrzebne.

Ee? O co chodzi? Bo nie bardzo rozumiem co rozumiesz przez "nie będą już potrzebne".

macte
08-07-2007, 13:31
Zink, w praktyce nie bedą już potrzebne ze względu na wielką ilość szczegółów rejestrowaną przez matrycę. Może to pociągnąć za sobą znaczne uproszczenie obiektywów, ale to tylko opinia, którą pozwoliłem sobie przytoczyć. Pozdrawiam

Jacek_Z
08-07-2007, 16:44
w praktyce nie bedą już potrzebne ze względu na wielką ilość szczegółów rejestrowaną przez matrycę. Może to pociągnąć za sobą znaczne uproszczenie obiektywów, ale to tylko opinia, którą pozwoliłem sobie przytoczyć.
jest dokładnie na odwrót. Będa takie matryce wymagały lepszych obiektywów, a nie gorszych. Tak już sie dzieje. niektóre szkła są OK na matrycach 6 MP, a na 10 MP juz wychodzi ich słabość.

macte
08-07-2007, 20:34
Dzięki Jacek, chyba masz rację. Chciałbym Ciebie zapytać o zestaw: 10 MP D80 i obiektyw Nikkor kit 18-70 - interesuje mnie Twoja opinia. Pozdrawiam

Dodam jeszcze, że prostsze obiektywy (np. z jedną lub kilkoma soczewkami albo w ogóle "camera obscura"), wpuszczałyby więcej światła na matrycę, a obróbka danych obrazowych wymagałaby dobrego softu - wszak to tylko spekulacje, dospełnienia za kilka lat.

Jacek_Z
08-07-2007, 20:48
Dzięki Jacek, chyba masz rację. Chciałbym Ciebie zapytać o zestaw: 10 MP D80 i obiektyw Nikkor kit 18-70 - interesuje mnie Twoja opinia. Pozdrawiam

Dodam jeszcze, że prostsze obiektywy (np. z jedną lub kilkoma soczewkami albo w ogóle "camera obscura"), wpuszczałyby więcej światła na matrycę, a obróbka danych obrazowych wymagałaby dobrego softu - wszak to tylko spekulacje, dospełnienia za kilka lat.

nie używałem na d200 tego kita, wcześniej wymieniłem optykę. Kolega jednak na D80 widział nie taką ostrość jak być powinna i zostawił sobie do fotografowania też ciemnego kita z analoga Nikkora 28-80, który na cyfrze wg niego jest lepszy. Jako uzupełnienie szerokich katów ma 12-24 tokiny.

a skąd wziełeś tę 2 cześć swojej wypowiedzi - bo to ta sama teoria w innej wersji. Soczewki wpuszczają więcej światła niż dziurka z camery obscura. Nie kradną światła. Za to o dziwo fakt - camera obscura może mieć większą rozdzielczość niż obiektywy. Tylko ciężko by było z odpowiednio dużymi wymiarami w dzisiejszych czasach, bo te dzisiejsze aparaty to miniaturki w stosunku do potrzeb tak dobrej camera obscura. Przypomina to pseudonaukowe teksty, jak te z fachowców od czasopism komputerowych piszących o aparatach.

macte
08-07-2007, 20:59
Nie jestem fachowcem i nie chcę nikomu mieszać w głowie. Mam ogólne wyobrażenie o prawach fizyki i stąd takie teorie, dobre na dyskusje przy piwie. Autorytarnie nie potrafię tego powiedzieć, a jednak wydaje mi się że bardzo czuła i sprawna matryca, nie będzie już potrzebować obiektywów w dzisiejszym kształcie. Spotkałem się z tego typu opiniami u poważnych osób, których zdanie szanuję. Zaznaczam jednak, że nie są to spece od optyki, albo lustrzankowej elektroniki.

Dzięki za opinię. Być może niedługo będę miał rzeczony zestaw i mam nadzieję, że na początek mi wystarczy.

Amadeusz
22-07-2007, 00:41
Przeczytalem od poczatku do konca, glosu nie zabiore bo wiedzy nie mam by sie dzielic. Jesli dobrze kapuje to caly dylemat jest o problemie odczytu zdjecia z matrycy na ekran. Jesli to jest meritum to JK mnie przekonal, uwierzylem :-) Natomiast Jacek ma na mysli udoskonalenia matryc by sie nie babrac pozniej w jakims programie. Konkluzja moja taka: Matryca Jacka moze widziec znacznie lepiej ale nigdy nie przekroczy pewnego progu o ktorym mowi JK. Zdaniem JK polsrodki przy 8 bitach sa tylko pozorami przy rewolucji sprzetu komputerowego itp. Dobrze zrozumialem?

prz3mo
22-07-2007, 12:29
Nie rozumiem paru kwestii o ktorych sie tu dyskutuje, ale szacunek dla JK (kurcze, nie wiedzialem, ze to Jacek Karpiński) i Jacka Z za tą dyskusje.

Czornyj
22-07-2007, 12:41
(kurcze, nie wiedzialem, ze to Jacek Karpiński)

:lol: :lol: :lol:

prz3mo
22-07-2007, 12:42
:lol: :lol: :lol:

hahahaha... a nie ? ;) Jarosław Kaczynski? :D

Czornyj
22-07-2007, 12:45
JK wspomniał kiedyś na forum postać Jacka Karpińskiego i prawdopodobnie stąd powstała plotka, że sam jest Jackiem Karpińskim.

prz3mo
22-07-2007, 13:20
JK wspomniał kiedyś na forum postać Jacka Karpińskiego i prawdopodobnie stąd powstała plotka, że sam jest Jackiem Karpińskim.

Tymbardziej, ze jest tam w wikipedii napisane, ze uczestniczył w Powstaniu Warszawskim, wiec... :mrgreen:

mathu
04-02-2009, 00:23
Przeczytałem temat i niestety jest tu cała masa rzeczy z którymi się nie zgadzam a które tylko wprowadzają niepotrzebne zamieszanie. Jeżeli coś było napisane w odpowiedziach a mi umknęło to proszę o sprostowanie. Odniosę się do tego co napisał JK w pierwszym poście.


Największa możliwa rozpiętość tonalna to oczywiście zdolność do zarejestrowania na jednym obrazie idealnej czerni i idealnej bieli.
To nieprawda, dynamika świata rzeczywistego nie jest ograniczona od góry. Nie ma czegoś takiego jak idealna biel, chyba że przyjmiemy jakieś maksymalne teoretyczne natężenie jakie może przyjąć światło. Matryca rejetruje właśnie jego natężenie, które zaczyna się w zerze, ale nie ma górnego ograniczenia. Proszę zwrócić uwage na to, że piszę o rejestracji przez matrycę, a nie o wyświetlaniu na monitorze.


Niezależnie od rozpiętości tonalnej fotografowanej sceny, rozpiętość tonalna obrazu wyświetlonego na monitorze nie może być większa niż 256, a rozdzielczość tonalna zdjęcia czarno-białego wykonanego w technice cyfrowej też nie może być większa niż 256, bo nawet najdroższe i najlepsze standardowe urządzenia służące do komputerowego wyświetlania obrazów i ich drukowania nie mogą wyświetlić i wydrukować większej ilości odcieni szarości.
Tutaj JK ma rację - czy monitor wyświetla obraz z rozdzielczością 8 czy 16 bitów nie ma żadnego znaczenia, człowiek nie zauwazy schodków na przejściach tonalnych nawet przy tych 8 bitach. Ale mówimy w tym przypadku o rozdzielczości obrazu wyświetlanego, a nie rejestracji przez matrycę. O tym że w przypadku matrycy nie wystarczy 8 bitów napiszę zaraz.


W formacie JPEG zawsze dochodzi bardzo istotna kompresja stratna, która polega głównie na kompresji koloru, czyli zmniejszaniu ilości tonów pośrednich zapisanych w pliku zawierającym zdjęcie.
To nieprawda, kompresja JPG polega na wycięciu pewnych częstotliwości, a nie kolorów. Tak naprawdę odczytanie JPG prowadzi do powstawania idealnych przejść tonalnych bez najmniejszych schodków, przebiegających przez kilkupikselowe bloki na które podzielony jest obraz. Tracimy na rozdzielczości obrazu, a nie koloru.


Jaki z tego wniosek? Ano taki, że do pełnego wykorzystania rozdzielczości tonalnej kart graficznych, dobrych monitorów oraz możliwości przenoszenia kolorów przez format JPEG wystarczy cyfrowa matryca, która rejestruje każdą składową koloru na 8 bitach.
I to jest kolejna koszmarna nieprawda. Jeżeli mowa tu o tym że matryca na wyjściu generuje 8 bitów, to tu się zgadzam. Ale niestety matryce nie dokonują kompresji dynamiki, o czym napiszę za chwilę.

Następnie pojawia się przykład zdjęcia z korekcją -4EV które jest "odzyskiwane" w postprocessingu. Przykład jest dobry, ładnie pokazuje jak dużo można wyciągnąć z cieni w D200. Tylko teraz wyobraźmy sobie, że nawet po zrobieniu zdjęcia z -4EV mamy przepalenia. Bardzo łatwo to uzyskać, wystarczy zrobić zdjęcie pod światło. Akurat scena z kwiatkiem jest dość "łatwa", nawet bez korekcji nie ma tam prześwietleń. Czym bardziej będziemy korygować "na minus" i odzyskiwać to w postprocessingu, tym w "wyciąganych" cieniach pojawi się większy szum. I teraz kluczowa sprawa: dynamika matrycy nie jest określana przez to ile ma bitów na wyjściu, tylko ile z tych bitów pozwala na efektywny zapis obrazu. Innymi słowy - z góry jest to te 2 do potęgi 12 czy 10, co wynika z liczby bitów przetwornika analogowo - cyfrowego. Ale z dołu nie jest to zero, tylko poziom przy którym szum zaczyna przesłaniać nam szczegóły. W jednej matrycy będzie to wartość np. 2^4, w innej 2^6. Pozotnie między 16/2^12 i 64/2^12 nie ma aż tak wielkiej różnicy, ale okazuje się, że ta druga matryca będzie mieć cztery razy większą dynamikę. Dlaczego? Bo będziemy mogli cztery razy silniej wyciągnąć cienie, czyli niedoświetlać o 2EV więcej, co pozwoli nam złapać o te 2EV rejestrowanej sceny więcej. Różnica jest kolosalna jeśli bawimy się w rejestrowanie scen o silnych kontrastach.

Idziemy teraz dalej. Mamy jedną matrycę która rejestruje 12EV i drugą która rejestruje 14EV efektywnych informacji. JK pisze, że i tak nie wyświetlimy tej różnicy na ekranie który ma 8 bitów, czyli 8EV. To nieprawda. Podczas konwersji do 8 bitów dynamika matrycy jest kompresowana ("ściskana") do docelowej liczby bitów. Czyli wartość 2^14-1 otrzymuje na wyjściu 255 (2^8-1), a zero pozostaje zerem. To nie musi być 8 bitów - możemy kompresować do czterech. Otwórzcie dowolne zdjęcie w gimpie i zmniejszcie liczbę kolorów do 32 - pojawią się schodki, ale nie ucierpi dynamika. Bo w tym momencie (wyświetlanie obrazu docelowego) nie mówimy już o liczbie bitów w sensie zakresu, tylko w sensie rozdzielczości tonalnej.

Czym więcej zarejestruje matryca, tym więcej "upchniemy" w obrazie na monitorze. Jeżeli słabsza matryca nie zmieści w sobie np. zacienionego miejsca i jasnego nieba (bo z góry mamy przepalenie, a z dołu - szum), to musimy za pomocą doboru parametrów ekspozycji wybrać jakiś kompromisowy wycinek który wyświetlimy po konwersji na ekranie. Zawsze gdzieś stracimy - albo będzie przepalenie, albo szum w cieniach. Ale jeśli mamy do dyspozycji lepszą matrycę, to zarejestruje ona kompletną scenę, a potem możemy to już sobie upychać w 8 bitach jak chcemy - ważne że mam _co_ upychać.


Nasuwa się też wniosek, że rewelacyjna "rozpiętość tonalna S3PRO" jest głównie wymysłem marketingowym i polega w dużej mierze na zastosowaniu innego algorytmu przekształcania obrazu do przestrzeni 8 bitowej - algorytmu wzorowanego na metodach HDR.
Kolejna nieprawda, matryca S3Pro ma po prostu wyżej zdefiniowany próg przepalenia przy zachowaniu takich samych szumów jak w D200. Pozwala nam to na złapanie o jakieś 2-3EV więcej w światłach przy tych samych parametrach ekspozycji. D200 już na wejściu da przepalenie - Super CCD zarejestruje wszystkie szczegóły. I kiedy teraz upchniemy te dane w 8 bitach, to maksymalna wartość w przypadku D200 będzie przepaleniem - zobaczymy białe plamy. W S3 ładnie wpasujemy sobie całą scenę w 8 bitów i nie zobaczymy nigdzie jednolitych plam, bo matryca miała większy zapas na zliczanie fotonów.

Parę słów o tej konwersji do 8 bitów. Zwykel aparaty robią to w ten sposób, że na wejściowe dane z matrycy nakładają korekcję gamma z wartością +2.2 (żeby skompensować logarytmiczną naturę ludzkiego wzroku), a następnie liniowo "ściskają" je do docelowego zakresu 0-255, czyli proporcjonalnie skalują dane z zakresu 0 - 2^12-1 (dla przykładu gdy mamy 12 bitów na wejściu) przez podzielenie przez 16. Ale to nie jest dobra metoda - w ten sposób cienie są bardzo ciemne, a czym większa wejściowa dynamika, tym wyjściowe 8 bitów ciemniejsze (bo ta sama zmierzona wartość wypada coraz niżej w 8 bitach). Dlatego powstały takie wynalazki jak D-lighting które stosują inną krzywą transferu - ze znacznie silniejszym podbiciem cieni. Bo tak właśnie działa analogowy film światłoczuły, cienie są w nim mocno podbite, a światła mocno przyciemnione, przez co trudno zauważyć czarne lub białe plamy. W ten sam sposób kompresuje dynamikę Fuji, ale to nie jest żadna sztuczka - prawdziwą cechą Fuji jest to, że ma _co_ komrpesować, a nie sposób w jaki to robi. Ja np. robię wyłącznie w RAW, więc mnie algorytm konwersji w ogóle nie interesuje - sam konwertuję wejściowe dane do 8 bitów za pomocą ACR.

Trochę to rzeczywiście zahacza o HDRI, bo tam pliki mają po 20EV i też trzeba je jakoś wyświetlić na zwykłym ekranie. Fachowo taką kompresję dynamiki nazywa się tonemappingiem i w przypadku HDRI mamy do wyboru całą masę algorytmów dużo bardziej skomplikowanych niż zwykłe podzielenie przez zadaną liczbę. Ale dokładnie to samo robi film światłoczuły, który "wciska" scenę o rozpiętości kilkunastu EV w finalną fotkę która w przypadku papieru ma jakieś 6EV - po prostu to 6EV dotyczy wyłącznie prezentacji obrazu, a nie jego wstępnej rejestracji. To co rejestrujemy można upchnąć w dowolny wyświetlacz o dowolnej dynamice - ale musimy to wcześniej zarejestrować.

Podsumowując:

Nieprawda że wystarczy matryca która daje na wyjściu 8 bitów - sceny w świecie rzeczywistym często mają nawet po 20EV i matryca musi je jakoś zarejestrować, a niestety nie potrafi sama skompresować sobie tych 20 bitów do 8 - na wyjściu mamy odczyt z przetwornika, czym więcej bitów ma przetwornik, tym wieksza możliwa do zarejestrowania dynamika, którą sami upchniemy sobie do 8 bitów. Jeśli matryca ma 8 bitów, to zarejestruje tylko maksymalnie zakres 8EV (pomijam w tym momencie szum) i nie obejdziemy tego w żaden sposób. Jeżeli matryca ma 12 EV to możemy zarejestrować przy tych samych parametrach obiekty do 16 razy jaśniejsze, które wcześniej byłyby przepalone. Tak więc matryce o większej dynamice (nie - liczbie bitów, bo można dodać bitów i zwiększyć szum, a dynamika nie wzrośnie) _naprawdę_ mają sens - nie pokażą przewagi przy zdjęciu takim jak w przykładzie JK, ale pozwolą zarejestrować i po odpowiednich przekształceniach wyświetlić zdjęcie człowieka na tle słońca, w którym ani człowiek nie będzie czarny, ani niebo przepalone.

Jacek_Z
04-02-2009, 01:13
baaaardzo dziękuję za ta wypowiedź, odpowiada to mojemu widzeniu zagadnienia :-D

Kaleid
04-02-2009, 10:36
Jeśli matryca ma 8 bitów, to zarejestruje tylko maksymalnie zakres 8EV (pomijam w tym momencie szum) i nie obejdziemy tego w żaden sposób.

Matryca sama w sobie nie ma bitów - jest urządzeniem analogowym, rejestrującym w sposób liniowy. Bitowy jest jest jedynie przetwornik analogowo/cyfrowy.

pebees
04-02-2009, 10:58
Matryca sama w sobie nie ma bitów - jest urządzeniem analogowym, rejestrującym w sposób liniowy.

Niestety nie rejestruje liniowo. Prawie liniowo - to tak. Czy jest stricte analogowa, też bym polemizował, ale można tak przyjąć.

mathu
04-02-2009, 11:09
Matryca sama w sobie nie ma bitów - jest urządzeniem analogowym, rejestrującym w sposób liniowy. Bitowy jest jest jedynie przetwornik analogowo/cyfrowy.
Skrót myślowy - później piszę wyraźnie o przetworniku.

JK
04-02-2009, 12:36
baaaardzo dziękuję za ta wypowiedź, odpowiada to mojemu widzeniu zagadnienia
Ja bym się na twoim miejscu publicznie do tego nie przyznawał. :wink: A dlaczego, to może wyjaśni się za chwilę.


Przeczytałem temat i niestety jest tu cała masa rzeczy z którymi się nie zgadzam a które tylko wprowadzają niepotrzebne zamieszanie. Jeżeli coś było napisane w odpowiedziach a mi umknęło to proszę o sprostowanie. Odniosę się do tego co napisał JK w pierwszym poście.
Przeczytać, to może i przeczytałeś, ale czy zrozumiałeś? Czy czasem nie piszesz za szybko i bez zastanowienia? Chyba jednak za mało czasu poświęciłeś na próbę zrozumienia tego, co zostało napisane.


.....

Największa możliwa rozpiętość tonalna to oczywiście zdolność do zarejestrowania na jednym obrazie idealnej czerni i idealnej bieli.
To nieprawda, dynamika świata rzeczywistego nie jest ograniczona od góry. Nie ma czegoś takiego jak idealna biel, chyba że przyjmiemy jakieś maksymalne teoretyczne natężenie jakie może przyjąć światło. Matryca rejetruje właśnie jego natężenie, które zaczyna się w zerze, ale nie ma górnego ograniczenia. Proszę zwrócić uwage na to, że piszę o rejestracji przez matrycę, a nie o wyświetlaniu na monitorze.
Czy zastanowiłeś się o czym jest ten tekst? Podpowiem. Ten tekst jest o FOTOGRAFII. Nie o rozważaniach fizyków teoretycznych, nieogarnionych wizjach, czy sennych marzeniach, tylko o FOTOGRAFII. Nas, czyli ludzi zajmujących się fotografią, interesuje zdjęcie, czyli reprodukcja obrazka na papierze i ewentualnie obraz wyświetlony na monitorze. Wszechświat i jego problemy raczej nas w tym wątku nie interesują.

Może przyjmij do wiadomości, że w fotografii są praktycznie dwa nośniki zdjęć: papier i ekran monitora. Wszystko inne jest marginesem, albo nie istnieje. Może to się kiedyś zmieni, ale dziś tak jest i nic na to nie poradzimy. Zacznijmy może od papieru. Już 80 lat temu Anselm Adams rozmyślał nad tym, co i jak fotografujemy, dlaczego zdjęcia maja taką, a nie inną postać, jak je naświetlać, żeby zdjęcia były “dobre”. Polecam lekturę, jest ciekawa i bardzo pouczająca. Ale w skrócie. Głównym nośnikiem czaro-białego zdjęcia jest papier (fotograficzny, papier do drukarki, ... ,itp.) – to chyba jest oczywiste. No to się zastanówmy, co można na takim papierze wydrukować (pomińmy tu przez chwilę papier fotograficzny, żeby nie trzeba było wchodzić w naturę różnych procesów chemicznych). Maksymalna jasność jest zawsze jasnością papieru i to on wyznacza maksymalny poziom jasności tego, co zobaczymy na zdjęciu. Krótko mówiąc, maksymalnie jasna biel to niezadrukowany kawałek papieru i nie uzyskamy na zdjęciu nic bardziej białego (jasnego), iż ten papier. Tu chyba nie ma o czym dyskutować? Prawda? Minimalna jasność, to zawsze kolor czarnego tuszu i zadrukowany tym tuszem kawałek papieru, zadrukowany w sposób maksymalnie możliwy. Mam nadzieje, że to jest zrozumiałe. Jeśli zrozumiałe, to już masz odpowiedź na swoje wątpliwości. Rozpiętość tonalna zdjęcia nie może być większa niż rozpiętość tonalna pomiędzy czernią tuszu i bielą papieru. Nie da się na zdjęciu umieścić niczego jaśniejszego, ani niczego ciemniejszego. Znów mogę odesłać do przemyśleń Ansela Adamsa.

A co się dzieje na monitorze? To samo. Jest maksymalny poziom jasności i jest minimalny poziom jasności. To również ogranicza rozpiętość tonalną zdjęcia. Podobnie jak na papierze, na monitorze również nie da się wyświetlić elementu ciemniejszego, ani jaśniejszego. Można oczywiście “podkręcać” jasność, ale chyba nie o to chodzi. Robimy coś zupełnie przeciwnego, czyli kalibrujemy monitory. Robimy to w tym celu, żeby na różnych monitorach zdjęcia były wyświetlane podobnie (identycznie się nie da, ale to chyba oczywiste). Mam nadzieję, że wątpliwości tu również nie ma.

Co z tego wynika? Ano wynika z tego, że o maksymalnej rozpiętości tonalnej zdjęcia decyduje rozpiętość tonalna nośnika obrazu, a nie słońce, gwiazdy, czy inne rozważania teoretyczne. Rozpiętość tonalną liczymy w jednostkach EV. Przypominam, że jednostka EV to dwukrotny wzrost jasności. Ma to oczywiście swoje konsekwencje dla naszych obrazków. W przypadku papieru jest nieco trudniej, ale dla zdjęć wyświetlanych na monitorze, można dość łatwo oszacować tę rozpiętość tonalną. I wyjdzie nam coś około 8EV. Zadziwiająco blisko tego, do czego doszedł Adams 80 lat temu. Z dobrym papierem i dobrym tuszem będzie podobnie, może będzie on miał nieco mniejszą rozpiętość tonalną, ale rząd 7-8 EV jest tym, o czym tu mowa. I jeszcze jedno. Sama fizyczna matryca mnie mało interesuje. Interesuje mnie dopiero obraz zapisany w pliku RAW i to, co można z tym obrazem robić, aż do wydrukowania go na papierze.


.....

Niezależnie od rozpiętości tonalnej fotografowanej sceny, rozpiętość tonalna obrazu wyświetlonego na monitorze nie może być większa niż 256, a rozdzielczość tonalna zdjęcia czarno-białego wykonanego w technice cyfrowej też nie może być większa niż 256, bo nawet najdroższe i najlepsze standardowe urządzenia służące do komputerowego wyświetlania obrazów i ich drukowania nie mogą wyświetlić i wydrukować większej ilości odcieni szarości.

Tutaj JK ma rację - czy monitor wyświetla obraz z rozdzielczością 8 czy 16 bitów nie ma żadnego znaczenia, człowiek nie zauwazy schodków na przejściach tonalnych nawet przy tych 8 bitach. Ale mówimy w tym przypadku o rozdzielczości obrazu wyświetlanego, a nie rejestracji przez matrycę. O tym że w przypadku matrycy nie wystarczy 8 bitów napiszę zaraz. .....
No. Chociaż tu nie ma problemów. Pewnie dlatego, że bardziej jednoznacznie napisać tego chyba nie można.


.....

W formacie JPEG zawsze dochodzi bardzo istotna kompresja stratna, która polega głównie na kompresji koloru, czyli zmniejszaniu ilości tonów pośrednich zapisanych w pliku zawierającym zdjęcie.
To nieprawda, kompresja JPG polega na wycięciu pewnych częstotliwości, a nie kolorów. Tak naprawdę odczytanie JPG prowadzi do powstawania idealnych przejść tonalnych bez najmniejszych schodków, przebiegających przez kilkupikselowe bloki na które podzielony jest obraz. Tracimy na rozdzielczości obrazu, a nie koloru. .....
No i znów chwilę pomyślmy. Przed kompresją JPEG mamy oryginalny obraz, który jest obrazem dyskretnym. Nie ciągłym, tylko dyskretnym. Dyskretna jest zarówno geometria tego obrazu (układ pikseli), jak też kolorystyka (składowe RGB). Oznacza to tylko tyle, że taki obraz składa się ze skończonej i ściśle określonej liczby “kropek” o kolorach wybranych ze skończonego i ściśle określonego zbioru dostępnych kolorów. Nic tu nie jest ciągłe. Taki nieciągły obraz chcemy kompresować bardziej, niż pozwalają algorytmy bezstratne (np. LZW). Jeśli algorytmy bezstratne nie dają rady (choć, być może jeszcze nie zostało powiedziane ostatnie słowo w tym względzie), to dalsza kompresja może być już tylko stratna. Na czym to musi polegać? Ano na ograniczeniu ilości informacji zawartej w obrazie. Inaczej obrazek bardziej skompresować się nie da. Czy możemy kompresować obraz zmieniając liczbę pikseli? Teoretycznie tak, ale praktycznie nie bardzo, bo później i tak trzeba by te wszystkie piksele jakoś odtworzyć, a sam algorytm byłby dużo bardziej skomplikowany. Dużo łatwiej i lepiej jest kompresować kolor (dokładniej luminancję i dwie składowe chrominancji, ale to już trzeba poczytać o kompresji JPEG). I jeszcze taka drobna uwaga. Ja nie gdybam. Ja wiem jak to jest robione.

I teraz twój kolejny pomysł z ta ciągłością tonalną przy odtwarzaniu danych z JPEGa, i pomysł z tymi częstotliwościami. Kto ci takich bzdur naopowiadał? Obraz przed kompresją jest dyskretny, obraz po kompresji jest również dyskretny, obraz po dekompresji też jest dyskretny. Gdzie tu jest miejsce na pojęcia “częstotliwości”, ciągłości, “idealnych przejść tonalnych”. Na takie cudactwa nie ma miejsca w dyskretnych danych. Ale zostawmy to. Algorytmy kompresji JPEG są jawne, dostępne i można je sobie przeanalizować, jeśli ktoś czuje taką potrzebę.


.....Następnie pojawia się przykład zdjęcia z korekcją -4EV które jest "odzyskiwane" w postprocessingu. Przykład jest dobry, ładnie pokazuje jak dużo można wyciągnąć z cieni w D200. Tylko teraz wyobraźmy sobie, że nawet po zrobieniu zdjęcia z -4EV mamy przepalenia. Bardzo łatwo to uzyskać, wystarczy zrobić zdjęcie pod światło. Akurat scena z kwiatkiem jest dość "łatwa", nawet bez korekcji nie ma tam prześwietleń. .........
Nie będę cytował wszystkiego, bo nie warto – za dużo bzdur się tam wkradło. Ustaliliśmy chyba jednoznacznie, że rozpiętość tonalna zdjęcia na papierze, czy na ekranie monitora jest skończona i ściśle określona. Jeśli tak jest, to nie ma możliwości umieszczenia na takim zdjęciu niczego, co wykracza poza tę maksymalną rozpiętość tonalną nośnika. Kolejnym ważnym założeniem jest to, że 1 EV to ma być dwukrotne zmniejszenie lub zwiększenie jasności. Właśnie z uwzględnieniem tych faktów są przygotowywane JPEGi “prosto z puszki”. Jeśli jednak nasza matryca może zarejestrować nieco więcej, niż można zobaczyć na zdjęciu, to żeby to rzeczywiście zobaczyć trzeba zrobić działania dokładnie odwrotne, do tego, o czym napisałeś. Trzeba zmniejszyć rozpiętość tonalną tego co zrejestrowała matryca. Można w pewnym uproszczeniu powiedzieć, że musimy sztucznie zmniejszyć rozpiętość tonalną tego co zarejestrowała matryca, aż do poziomu tego, co możemy pokazać na zdjęciu. Tylko czy to ma sens?

Zależy na czym komu zależy. Takie zmniejszanie rozpiętości tonalnej obrazu z matrycy zawsze łączy się ze spadkiem lokalnych kontrastów i pogorszeniem ciągłości tonalnej obrazu. Można powiedzieć, że w takim obrazku EV nie jest równe 2 razy, tylko 1.8 razy, 1.5 razy, czy 1.2 razy. Objawia się to tym, że obrazek wygląda na “mdły”, “wyprany”, bo my jesteśmy przyzwyczajeni do tego, że EV to dwa razy, a nie mniej. Programy robiące HDR, DRI, czy jak by tego nie nazywać omijają ten problem, robią to trochę inaczej. Zmniejszają one rozpiętość tonalną obrazu, ale jednocześnie lokalnie podbijają kontrasty. W konsekwencji zmieniają też kolorystykę, bo inaczej się nie da. Właśnie dlatego te obrazki wydają się (powiedzmy delikatnie) dziwne. Działanie jest więc dokładnie odwrotne w stosunku do twoich pomysłów. Nie jest wtedy zwiększana rozpiętość tonalna obrazu, tylko jest ona zmniejszana. Jeśli chcemy taką większą rozpiętość “wtłoczyć” na normalne zdjęcie, to musimy ją zmniejszyć do możliwości nośnika, a nie zwiększyć.

Dobrze. Już mi się nie chce tłumaczyć spraw oczywistych. Proponuję jednak nieco wolniej pisać, dłużej myśleć i czasem coś poczytać. Spokojne przemyślenie tych zagadnień na pewno nie zaszkodzi.

mathu
04-02-2009, 12:57
Czy zastanowiłeś się o czym jest ten tekst? Podpowiem. Ten tekst jest o FOTOGRAFII. Nie o rozważaniach fizyków teoretycznych, nieogarnionych wizjach, czy sennych marzeniach, tylko o FOTOGRAFII. Nas, czyli ludzi zajmujących się fotografią, interesuje zdjęcie, czyli reprodukcja obrazka na papierze i ewentualnie obraz wyświetlony na monitorze. Wszechświat i jego problemy raczej nas w tym wątku nie interesują.
A powinny, bo niestety fotografia cyfrowa jest mocno zaczepiona w naukach ścisłych i od tego nie da się uciec.


Maksymalna jasność jest zawsze jasnością papieru i to on wyznacza maksymalny poziom jasności tego, co zobaczymy na zdjęciu. Krótko mówiąc, maksymalnie jasna biel to niezadrukowany kawałek papieru i nie uzyskamy na zdjęciu nic bardziej białego (jasnego), iż ten papier. Tu chyba nie ma o czym dyskutować? Prawda.? Minimalna jasność, to zawsze kolor czarnego tuszu i zadrukowany tym tuszem kawałek papieru, zadrukowany w sposób maksymalnie możliwy.
Ale ty plączesz maksymalną jasność widzianą przez matrycę i maksymalną jasność reprodukcji...


Rozpiętość tonalna zdjęcia nie może być większa niż rozpiętość tonalna pomiędzy czernią tuszu i bielą papieru. Nie da się na zdjęciu umieścić niczego jaśniejszego, ani niczego ciemniejszego. Znów mogę odesłać do przemyśleń Ansela Adamsa.
Oczywiście że się DA, bo film rejestruje w sposób całkowicie nieliniowy i transformuje wejściową dynamikę sceny do dynamiki wyświetlanej. Jasne że jak pomierzysz spektrofotometrem zdjęcie odbijające światło, to zawsze dostaniesz dynamikę mniej więcej 6EV. Ale odcienie zdjęcia nie są liniowym odpowiednikiem tego co widział aparat - światła i cienie zawierają "upchniętą" dynamikę i to właśnie o nią rozchodzi się w fotografii kiedy mówimy o dynamice. O to żebyśmy nie mieli przepaleń i czarnych cieni. I tu nie ma znaczenia czy chcesz reprodukować scenę o 12EV na monitorze o 8EV czy odbitce o 6EV - jesli zastosujesz odpowiednią transformację, to zmieścisz te 12EV w mniejszej dynamice.


A co się dzieje na monitorze? To samo. Jest maksymalny poziom jasności i jest minimalny poziom jasności. To również ogranicza rozpiętość tonalną zdjęcia.
Nośnika używanego do reprodukcji, a nie zdjęcia!


Co z tego wynika? Ano wynika z tego, że o maksymalnej rozpiętości tonalnej zdjęcia decyduje rozpiętość tonalna nośnika obrazu, a nie słońce, gwiazdy, czy inne rozważania teoretyczne. Rozpiętość tonalną liczymy w jednostkach EV. Przypominam, że jednostka EV to dwukrotny wzrost jasności. Ma to oczywiście swoje konsekwencje dla naszych obrazków. W przypadku papieru jest nieco trudniej, ale dla zdjęć wyświetlanych na monitorze, można dość łatwo oszacować tę rozpiętość tonalną. I wyjdzie nam coś około 8EV. Zadziwiająco blisko tego, do czego doszedł Adams 80 lat temu. Z dobrym papierem i dobrym tuszem będzie podobnie, może będzie on miał nieco mniejszą rozpiętość tonalną, ale rząd 7-8 EV jest tym, o czym tu mowa. I jeszcze jedno.
Nieprawda, te rozważania mają sens tylko w przypadku liniowej funkcji transferu. A takich się nie stosuje.




I teraz twój kolejny pomysł z ta ciągłością tonalną przy odtwarzaniu danych z JPEGa, i pomysł z tymi częstotliwościami. Kto ci takich bzdur naopowiadał? Obraz przed kompresją jest dyskretny, obraz po kompresji jest również dyskretny, obraz po dekompresji też jest dyskretny. Gdzie tu jest miejsce na pojęcia “częstotliwości”, ciągłości, “idealnych przejść tonalnych”. Na takie cudactwa nie ma miejsca w dyskretnych danych. Ale zostawmy to. Algorytmy kompresji JPEG są jawne, dostępne i można je sobie przeanalizować, jeśli ktoś czuje taką potrzebę.
JK - piszesz straszne głupoty. Poczytaj na jakiej zasadzie działa kompresja JPG. Odwrotna transformata Fouriera generuje właśnie sinusoidalne przebiegi o idealnych przejściach tonalnych, które potem przerzucamy na piksele. Czym bardziej skompresujesz obraz, tym bardziej on się wygładzi, bo zostaną same niskie częstotliwości.


Nie będę cytował wszystkiego, bo nie warto – za dużo bzdur się tam wkradło. Ustaliliśmy chyba jednoznacznie, że rozpiętość tonalna zdjęcia na papierze, czy na ekranie monitora jest skończona i ściśle określona. Jeśli tak jest, to nie ma możliwości umieszczenia na takim zdjęciu niczego, co wykracza poza tę maksymalną rozpiętość tonalną nośnika. Kolejnym ważnym założeniem jest to, że 1 EV to ma być dwukrotne zmniejszenie lub zwiększenie jasności. Właśnie z uwzględnieniem tych faktów są przygotowywane JPEGi “prosto z puszki”. Jeśli jednak nasza matryca może zarejestrować nieco więcej, niż można zobaczyć na zdjęciu, to żeby to zobaczyć trzeba zrobić działania dokładnie odwrotne, do tego, o czym napisałeś. Trzeba zmniejszyć rozpiętość tonalną tego co zrejestrowała matryca. Można w pewnym uproszczeniu powiedzieć, że musimy sztucznie zmniejszyć rozpiętość tonalną tego co zarejestrowała matryca, aż do poziomy tego, co możemy pokazać na zdjęciu. Tylko czy to ma sens?
Oczywiście że MA SENS.

Masz tu przykład z Fuji:


https://forum.nikoniarze.pl//brak.gif
źródło (http://img530.imageshack.us/img530/5064/dscf01792is9.jpg)


https://forum.nikoniarze.pl//brak.gif
źródło (http://img223.imageshack.us/img223/4959/dscf0179ku8.jpg)

Upchnąłem w 8EV jakieś 13, bo wykorzystałem cały zakres jaki daje mi matryca na ISO100.
Na górze wołanie standardowe, na dole silna kompresja przy pomocy ACR.

Matrycą z 8EV nie będzie CZEGO upychać. Nie uda się przyciemnić nieba, bo tam zawsze będize przepalenie.


Zależy na czym komu zależy. Takie zmniejszanie rozpiętości tonalnej obrazu z matrycy zawsze łączy się ze spadkiem lokalnych kontrastów i pogorszeniem ciągłości tonalnej obrazu. Można powiedzieć, że w takim obrazku EV nie jest równe 2 razy, tylko 1.8 razy, 1.5 razy, czy 1.2 razy. Objawia się to tym, że obrazek wygląda na “mdły”, “wyprany”, bo my jesteśmy przyzwyczajeni do tego, że EV to dwa razy, a nie mniej. Programy robiące HDR, DRI, czy jak by tego nie nazywać omijają ten problem, robią to trochę inaczej. Zmniejszają one rozpiętość tonalną obrazu, ale jednocześnie lokalnie podbijają kontrasty. W konsekwencji zmieniają też kolorystykę, bo inaczej się nie da. Właśnie dlatego te obrazki wydają się (powiedzmy delikatnie) dziwne.
No bo trzeba UMIEĆ to zrobić poprawnie, żeby zdjęcie nie wyglądało sztucznie. Patrz wyżej. Górna fotka wygląda jak z typowego cyfraka P&S, dolna jak z analoga. A o to się rozchodzi.


Działanie jest więc dokładnie odwrotne w stosunku do twoich pomysłów. Nie jest wtedy zwiększana rozpiętość tonalna obrazu, tylko jest ona zmniejszana. Jeśli chcemy taką większą rozpiętość “wtłoczyć” na normalne zdjęcie, to musimy ją zmniejszyć do możliwości nośnika, a nie zwiększyć.
Przecież dokładnie tak napisałem. Jest stosowane odwzorowanie np. [0, 2^12-1] -> [0, 2^8 - 1]. Przecież to oczywiste.


Dobrze. Już mi się nie chce tłumaczyć spraw oczywistych. Proponuję jednak nieco wolniej pisać, dłużej myśleć i czasem coś poczytać. Spokojne przemyślenie tych zagadnień na pewno nie zaszkodzi.
A ja proponuję na przyszłość nie wycinać całego meritum zostawiając tylko jedno zdanie z którym następnie się walczy. Bo ja jasno i wyraźnie napisałem o co mi chodzi, co ty skwapliwie wyciąłeś.

Sindbad
04-02-2009, 13:26
Czy zastanowiłeś się o czym jest ten tekst? Podpowiem. Ten tekst jest o FOTOGRAFII. Nie o rozważaniach fizyków teoretycznych, nieogarnionych wizjach, czy sennych marzeniach, tylko o FOTOGRAFII. Nas, czyli ludzi zajmujących się fotografią, interesuje zdjęcie, czyli reprodukcja obrazka na papierze i ewentualnie obraz wyświetlony na monitorze. Wszechświat i jego problemy raczej nas w tym wątku nie interesują.


Z całym szacunkiem JK. Twoje teksty są bardzo kompetentne i rzeczowe. Ale czytając je mam osobiście wrażenie, że właśnie Ty często masz tendencje odjeżdżania w teorie kwantowe i temu podobne ;-) gubiąc gdzieś po drodze te kolorowe widoczki, które jakby nie było są właśnie fotografią, w pierwotnym tego słowa znaczeniu.

Generalnie takie dyskusje są pewnie pasjonujące, ale tak naprawdę to margines fotografii. Można np wylać tonę atramentu na opisywanie właściwości szkła z których zbudowane są soczewki, ale ma się to nijak w porównaniu do znaczenia nieprzemyślanego kadru czy choćby krzywego horyznotu ;-)

mpwt
04-02-2009, 13:32
Z całym szacunkiem JK. Twoje teksty są bardzo kompetentne i rzeczowe.

Czekaj, czekaj... niech temat będzie kontynuowany. Bo jest ciekawy. Ja się zgadzam i z jedną i z drugą stroną. Ale mam dziwne wrażenie, że dyskutują o dwóch różnych rzeczach. Czekam na wnioski :)

Sindbad
04-02-2009, 13:40
Czekaj, czekaj... niech temat będzie kontynuowany. Bo jest ciekawy. Ja się zgadzam i z jedną i z drugą stroną. Ale mam dziwne wrażenie, że dyskutują o dwóch różnych rzeczach. Czekam na wnioski :)

Ależ absolutnie nie neguję samego wątku. Również uważam że jest ciekawy, aczkolwiek ostatniego posta mathu nie przeczytałem już... :twisted:
Natomiast trochę rozbawiła ;-) mnie uwaga JK, że rozmowa jest o fotografii a nie o fizyce :-D

mathu
04-02-2009, 13:47
Ależ absolutnie nie neguję samego wątku. Również uważam że jest ciekawy, aczkolwiek ostatniego posta mathu nie przeczytałem już...
Zerknij chociaż na fotki, pokazałem na nich na czym polega wykorzystanie matrycy która ma więcej niż 8EV.

mpwt
04-02-2009, 13:48
Zerknij chociaż na fotki, pokazałem na nich na czym polega wykorzystanie matrycy która ma więcej niż 8EV.

D700 też tak potrafi, nie przekonujesz mnie :p ;)

Sindbad
04-02-2009, 13:52
Zerknij chociaż na fotki, pokazałem na nich na czym polega wykorzystanie matrycy która ma więcej niż 8EV.

Nie zrozum mnie źle. Po prostu ta dyskusja przestała mnie interesować. Prosty chłopak ze mnie ;-)
Natomiast fotki oczywiście widziałem, wiele innych tego typu również. Matryca Fuji jest świetna, to wiem. Czy znacznie lepsza od zwykłej CCD. Nie wiem.
Jak nauczę się robić lepsze zdjęcia i d70s zacznie mnie ograniczać, to rozważę ten problem :-P

Jacek_Z
04-02-2009, 14:06
Ja bym się na twoim miejscu publicznie do tego nie przyznawał. :wink: A dlaczego, to może wyjaśni się za chwilę.
Zasmucę cię, ale ty mnie nie przekonałeś (bo nie masz racji :) w tym o co się spieraliśmy wcześniej.

..dynamika świata rzeczywistego nie jest ograniczona od góry. Nie ma czegoś takiego jak idealna biel, chyba że przyjmiemy jakieś maksymalne teoretyczne natężenie jakie może przyjąć światło. Matryca rejetruje właśnie jego natężenie, które zaczyna się w zerze, ale nie ma górnego ograniczenia. Proszę zwrócić uwage na to, że piszę o rejestracji przez matrycę, a nie o wyświetlaniu na monitorze.
zgadzam się z tym, ale JK napisał na to:

Czy zastanowiłeś się o czym jest ten tekst? Podpowiem. Ten tekst jest o FOTOGRAFII. Nie o rozważaniach fizyków teoretycznych, nieogarnionych wizjach, czy sennych marzeniach, tylko o FOTOGRAFII. Nas, czyli ludzi zajmujących się fotografią, interesuje zdjęcie, czyli reprodukcja obrazka na papierze i ewentualnie obraz wyświetlony na monitorze. Wszechświat i jego problemy raczej nas w tym wątku nie interesują.

Może przyjmij do wiadomości, że w fotografii są praktycznie dwa nośniki zdjęć: papier i ekran monitora. Wszystko inne jest marginesem, albo nie istnieje.
Niestety nie, inne rzeczy też istnieją i nas interesują. I zaczynasz je na szczęście dostrzegać - piszesz o tym pod koniec. Oczywiście, że decydującą rolę dla tego co na zdjęciu ma ... fotografowana scena i jej rozpiętość!
ja rozumiem, że zajmujesz się "wąskim gardłem" czyli papierem i tuszem lub monitorem, ale one mają pokazują plik po pewnych działaniach matematycznych. Te działania są podstawowe dla tego co w efekcie zobaczymy. Zgodzę się, że monitow nie wyświetli więcej niż 8 EV, ale to nie znaczy, że na zdjęciu wyświetlanym na monitorze nie zobaczymy czegoś, co w naturze miało rozpiętość 10 EV czy więcej.
Zajmując się 8 EV monitora wszedłeś w ślepą uliczkę.


Rozpiętość tonalna zdjęcia nie może być większa niż rozpiętość tonalna pomiędzy czernią tuszu i bielą papieru. Nie da się na zdjęciu umieścić niczego jaśniejszego, ani niczego ciemniejszego. Znów mogę odesłać do przemyśleń Ansela Adamsa.

A co się dzieje na monitorze? To samo. Jest maksymalny poziom jasności i jest minimalny poziom jasności. To również ogranicza rozpiętość tonalną zdjęcia. Podobnie jak na papierze, na monitorze również nie da się wyświetlić elementu ciemniejszego, ani jaśniejszego.
Tak, oczywiście, że tak. Tylko, że fotografia nie pokazuje wiernego odzwierciedlenia rzeczywistości, więc to co napisałes to prawda, z tym, że to własnie to ja uznaję za oczywiste i się tym nie zajmuję, w odróznieniu od rozpietości sceny, która jest podstawą.


Co z tego wynika? Ano wynika z tego, że o maksymalnej rozpiętości tonalnej zdjęcia decyduje rozpiętość tonalna nośnika obrazu, a nie słońce, gwiazdy, czy inne rozważania teoretyczne. Rozpiętość tonalną liczymy w jednostkach EV. Przypominam, że jednostka EV to dwukrotny wzrost jasności. Ma to oczywiście swoje konsekwencje dla naszych obrazków. W przypadku papieru jest nieco trudniej, ale dla zdjęć wyświetlanych na monitorze, można dość łatwo oszacować tę rozpiętość tonalną. I wyjdzie nam coś około 8EV.
tak, ale na monitorze można wyświetlić coś co ma 4 EV różnicy bez problemu, ale można "ściskając" wyświetlic coś co ma w naturze 20 EV różnicy, zaprezentować wszystkie detale znajdujące się na scenie o takiej rozpiętości, detale w świetle i w cieniach na 8 EV monitora. Sęk w tym co potrafi zarejestrowac matryca, jaka jest rozpiętość, którą potrafi zarejestrować.
oczywiście stracimy mnóstwo informacji ściskając 20 EV do 8 EV i pokazując zdjęcie w jpg (no chyba, że zapiszemy plik po tej operacji to w naprawdę wielobitowym kolorze i nie w jpg, to potem da się odwrócić te operacje bez wielkiego uszczerbku)


Sama fizyczna matryca mnie mało interesuje. Interesuje mnie dopiero obraz zapisany w pliku RAW i to, co można z tym obrazem robić, aż do wydrukowania go na papierze.
No i to błąd. To matryca decyduje co się znajdzie w pliku RAW. matryce są udoskonalane i w RAW jest coraz więcej info. Rejestrują coraz więcej (patrząc pod kątem DR) i dlatego już przechodzi się pomału na 14 bitowy kolor.


Ustaliliśmy chyba jednoznacznie, że rozpiętość tonalna zdjęcia na papierze, czy na ekranie monitora jest skończona i ściśle określona. Jeśli tak jest, to nie ma możliwości umieszczenia na takim zdjęciu niczego, co wykracza poza tę maksymalną rozpiętość tonalną nośnika. Kolejnym ważnym założeniem jest to, że 1 EV to ma być dwukrotne zmniejszenie lub zwiększenie jasności. Właśnie z uwzględnieniem tych faktów są przygotowywane JPEGi “prosto z puszki”. tak


Jeśli jednak nasza matryca może zarejestrować nieco więcej, niż można zobaczyć na zdjęciu, to żeby to zobaczyć trzeba zrobić działania dokładnie odwrotne, do tego, o czym napisałeś.

Trzeba zmniejszyć rozpiętość tonalną tego co zrejestrowała matryca. Można w pewnym uproszczeniu powiedzieć, że musimy sztucznie zmniejszyć rozpiętość tonalną tego co zarejestrowała matryca, aż do poziomy tego, co możemy pokazać na zdjęciu. Tylko czy to ma sens? No wreszcie zajełeś się najważniejszym. Ma sens, robisz to (a właściwie twoje body) na codzień. I nie wygląda to źle :)


Zależy na czym komu zależy. Takie zmniejszanie rozpiętości tonalnej obrazu z matrycy zawsze łączy się ze spadkiem lokalnych kontrastów
tak

i pogorszeniem ciągłości tonalnej obrazu.nie. A niby dlaczego? Ściskanie 20 EV do 8 EV powoduje utratę informacji (choc nawet niekoniecznie, zależy to także od zapisu takiego pliku), ale oko ludzkie tego nie wyłapie, nie rozróżniamy aż tylu poziomów.


Można powiedzieć, że w takim obrazku EV nie jest równe 2 razy, tylko 1.8 razy, 1.5 razy, czy 1.2 razy. Objawia się to tym, że obrazek wygląda na “mdły”, “wyprany”, bo my jesteśmy przyzwyczajeni do tego, że EV to dwa razy, a nie mniej.

przecież na codzień twoje body tak robi. Rejestruje już z 10 EV, a ty musisz pokazywac to na 8 EV. Ściskasz to 1,1 raza.
Body MF potrafią rejestrować 12 EV, a nadal pokazuje się na monitorach wyświetlających 8 EV. Jeśli takie ściskanie jest niekorzytne to po co lepsze matryce niz ta z D70? (załóżmy, że ona miała 8 EV). Wiem, napiszesz, że po to by ratować źle naświetlone zdjęcie i móc cos wyciągać z przepałów lub niedoświetleń. A co z d3 czy d3X, czy z MF czy z fuji s5 pro ? One to potrafią robić, a obrazki się bardzo podobają.


Nie jest wtedy zwiększana rozpiętość tonalna obrazu, tylko jest ona zmniejszana. Jeśli chcemy taką większą rozpiętość “wtłoczyć” na normalne zdjęcie, to musimy ją zmniejszyć do możliwości nośnika, a nie zwiększyć.Tak. No wreszcie załapałeś :wink:


Działanie jest więc dokładnie odwrotne w stosunku do twoich pomysłów.
niech on się broni sam, ale ja nie widzę by on miał takie pomysły, on pisze o tym co ja pisałem w postach 17, 21 itd.

mathu opisał rzeczywistość, z czym tu się można nie zgadzać?
W dodatku widzę, że twoje stanowisko ewoluowało co nieco, to co w tej chwili piszesz to przyznanie nam racji, z tym, że uznajesz jako najistotniejsze wyświetlanie monitora, a rozpiętość sceny ponad 8 EV uznajesz za nieistotną, a jej ewentualne pokazanie za coś obarczone błędem i niemal złe.

Czym więcej zarejestruje matryca, tym więcej "upchniemy" w obrazie na monitorze. Jeżeli słabsza matryca nie zmieści w sobie np. zacienionego miejsca i jasnego nieba (bo z góry mamy przepalenie, a z dołu - szum), to musimy za pomocą doboru parametrów ekspozycji wybrać jakiś kompromisowy wycinek który wyświetlimy po konwersji na ekranie. Zawsze gdzieś stracimy - albo będzie przepalenie, albo szum w cieniach. Ale jeśli mamy do dyspozycji lepszą matrycę, to zarejestruje ona kompletną scenę, a potem możemy to już sobie upychać w 8 bitach jak chcemy - ważne że mam _co_ upychać.


Kolejna nieprawda, matryca S3Pro ma po prostu wyżej zdefiniowany próg przepalenia przy zachowaniu takich samych szumów jak w D200. Pozwala nam to na złapanie o jakieś 2-3EV więcej w światłach przy tych samych parametrach ekspozycji. D200 już na wejściu da przepalenie - Super CCD zarejestruje wszystkie szczegóły. I kiedy teraz upchniemy te dane w 8 bitach, to maksymalna wartość w przypadku D200 będzie przepaleniem - zobaczymy białe plamy. W S3 ładnie wpasujemy sobie całą scenę w 8 bitów i nie zobaczymy nigdzie jednolitych plam, bo matryca miała większy zapas na zliczanie fotonów.

Nieprawda że wystarczy matryca która daje na wyjściu 8 bitów - sceny w świecie rzeczywistym często mają nawet po 20EV i matryca musi je jakoś zarejestrować, a niestety nie potrafi sama skompresować sobie tych 20 bitów do 8 - na wyjściu mamy odczyt z przetwornika, czym więcej bitów ma przetwornik, tym wieksza możliwa do zarejestrowania dynamika, którą sami upchniemy sobie do 8 bitów. Jeśli matryca ma 8 bitów, to zarejestruje tylko maksymalnie zakres 8EV (pomijam w tym momencie szum) i nie obejdziemy tego w żaden sposób. Jeżeli matryca ma 12 EV to możemy zarejestrować przy tych samych parametrach obiekty do 16 razy jaśniejsze, które wcześniej byłyby przepalone. Tak więc matryce o większej dynamice (nie - liczbie bitów, bo można dodać bitów i zwiększyć szum, a dynamika nie wzrośnie) _naprawdę_ mają sens - nie pokażą przewagi przy zdjęciu takim jak w przykładzie JK, ale pozwolą zarejestrować i po odpowiednich przekształceniach wyświetlić zdjęcie człowieka na tle słońca, w którym ani człowiek nie będzie czarny, ani niebo przepalone.Zgadzam się absolutnie.

mathu
04-02-2009, 14:13
D700 też tak potrafi, nie przekonujesz mnie :p ;)
Czy D700 ma matrycę o dynamice 8EV? No właśnie. Pokazałem z S5 bo z niego korzystam. D700 też tak potrafi, bo NIE MA na matrycy ograniczenia do 8EV. Więc sam widzisz, że wcale matryca 8EV NIE WYSTARCZY.

Jacek_Z
04-02-2009, 14:17
D700 też tak potrafi, nie przekonujesz mnie :p ;)a powinien, bo matryca D700 pokazuje właśnie więcej niż 8 EV - ponad 11 EV. I ciekawe, co JK z tym fantem zrobi. Takie zdjęcie jest złe, czy dobre? ;-) bombel staje na rzęsach, by wyciągnąc niebo, czyli by pokazac ponad 10 EV rozpiętości (pokazać na 8 EV monitorze) przez obróbkę zdjęcia. Inne body to potrafią od ręki (D3, D700, S3 i s5 pro). Jackowi się zapewne zdjęcia z D3 podobają, ale gani pokazywanie rozpiętości ponad 8 EV. Ciekawe.

JK
04-02-2009, 14:19
Jacku. Chyba plączesz się w zeznaniach. Potwierdziłeś, że papier i skalibrowany monitor mają stałą i ściśle określoną rozpiętośc tonalną. O tym chyba nie dyskutujemy, bo nie ma o czym? Jest na zdjęciu miejsce najjaśniesze, jest miejsce najciemniejsze, dzielimy to najjaśniejsze przez dwa tyle razy ile trzeba, aż dostaniemy to najciemniejsze. I to jest rozpiętość nośnika wyrażona w EV. Nie możesz więc zobaczyć zdjęcia o wiekszej rozpiętości tonalnej, niż oferują te nośniki. Nie możesz, bo nie ma jak tego zaprezentować. Jeśli zrobisz zdjęcie czegoś co ma 20-30-50-100EV i przetworzysz to jakoś do postaci, która umożliwi Ci pooglądanie tego cuda, to zobaczysz zdjęcie o rozpiętości tonalnej nośnika i tylko tyle. Takie dziwnie wyglądające zdjęcie, zdjęcie o dziwacznej kolorystyce, o dziwnych kontrastach, ale o dokładnie takiej rozpiętości, jak rozpiętość nośnika. Jeśli zmierzysz jasność najciemnieszego i najjaśnieszego miejsca na tym zdjęciu, to tam nie będzie tych kilkudziesięciu EV, tylko będzie rozpiętość nośnika, czyli papieru lub monitora. O tych dziesiątkach EV możesz myśleć tylko wirtualnie, bo nigdy tego nie zobaczysz.

Ja nigdzie nie napisałem, że dodatkowe bity RAWa nie są przydate. Przeczytaj to jeszcze raz. Jak wiesz mam D3, a ten ma podobno jeszcze trochę więcej niż D700 i S5. I to się przydaje. Przydaje się do tego, żeby przestać myśleć o ustawianiu WB i parametrów ekspozycji. Nie ma sensu, bo to można pokorygować później. Ważne tylko, żeby nie przepalić, bo wtedy już wiele zrobić się nie da.

mpwt
04-02-2009, 14:20
a powinien, bo matryca D700 pokazuje właśnie więcej niż 8 EV - ponad 11 EV. I ciekawe, co JK z tym fantem zrobi.

Ale przecież nie kłóci się to z teorią Jacka :D
Choć może doprecyzujmy, matryca nie pokaże a zarejestruje.

Jacek_Z
04-02-2009, 14:21
JK z tą częścią twojego rozumowania zgodziłem się kilkanaście stron temu, od zawsze, od pierwszego posta.

JK
04-02-2009, 14:27
Jeśli się zgodziłeś, to po co piszesz o tych 20EV. Takiego czegoś w fotografii nie ma, bo tego nie zobaczysz. Nie ma możliwości, czyli jest to tylko wirtualna gadanina. Możesz oczywiście z tego "wybrać" interesujące Cię 7-8 EV i koniec. Nic więcej. "Wybierać" możesz na różne sposoby, ale więcej nie będzie i wiadomo to już od czasów Adamsa.

Jacek_Z
04-02-2009, 14:31
Ale przecież nie kłóci się to z teorią Jacka :D

Ale Jacek napisał:

Jeśli jednak nasza matryca może zarejestrować nieco więcej, niż można zobaczyć na zdjęciu, to żeby to rzeczywiście zobaczyć trzeba zrobić działania dokładnie odwrotne, do tego, o czym napisałeś. Trzeba zmniejszyć rozpiętość tonalną tego co zrejestrowała matryca. Można w pewnym uproszczeniu powiedzieć, że musimy sztucznie zmniejszyć rozpiętość tonalną tego co zarejestrowała matryca, aż do poziomu tego, co możemy pokazać na zdjęciu. Tylko czy to ma sens?

Zależy na czym komu zależy. Takie zmniejszanie rozpiętości tonalnej obrazu z matrycy zawsze łączy się ze spadkiem lokalnych kontrastów i pogorszeniem ciągłości tonalnej obrazu. ..
...
Objawia się to tym, że obrazek wygląda na “mdły”, “wyprany”, bo my jesteśmy przyzwyczajeni do tego, że EV to dwa razy, a nie mniej..
By zakończyć ugodowo to przyjmijmy, że wrażenie czy taki obrazek jest mdły jest subiektywne.
Wg mnie jak coś ma 8 EV rozpiętości to nie będzie mdłe. Bo niby dlaczego jedno 8 EV ma się prezentować na monitorze mdle (to ze spłaszczonego 20 EV) a drugie (ze sceny mającej 8 EV) nie ? Będa się prezentowały tak samo "klarownie". A że będą widoczne inne detale to inna sprawa. Oko ma właściwości akomodacji i nie sądzę by obrazek pokazujący detale mające jasność o 20 EV różną, wydawały się nienaturalne.
Powtarzam - oba obrazki będa miały po 8 EV rozpietości, więc będa tak samo "ładne".

Jacek_Z
04-02-2009, 14:33
Jeśli się zgodziłeś, to po co piszesz o tych 20EV. Takiego czegoś w fotografii nie ma, bo tego nie zobaczysz. Nie ma możliwości, czyli jest to tylko wirtualna gadanina. Możesz oczywiście z tego "wybrać" interesujące Cię 7-8 EV i koniec. Nic więcej. "Wybierać" możesz na różne sposoby, ale więcej nie będzie i wiadomo to już od czasów Adamsa.
nie, mogę spłaszczyć 20 EV by je pokazać na 8 EV. Oko to widzi w naturze, jest cos takiego jak akomodacja.
A już myślałem, że się dogadamy.:-?

JK
04-02-2009, 14:39
Możesz "spłaszczyć" co chcesz, ale jak to zrobisz, to każdy normalny człowiek powie, że to jest sztuczne, nieprawdziwe. Poszukaj, są na forum fotek z Kasprowego (wiesz ze zlotu NKP) i są tam fotki robione w południe, które wyglądają prawie jak nocne, tylko jakoś dziwacznie podoświetlane. O to Ci chodzi?

glenio
04-02-2009, 14:49
Oko to widzi w naturze, jest cos takiego jak akomodacja.

Może nie akomodacja - to pojęcie opisuje oczny odpowiednik autofocusa. ;) Natomiast owo "spłaszczanie" odbywa się zarówno na obszarze siatkówki (i to jest po prostu adaptacja) jak i w mózgu, ale nie wiem jak to się nazywa.

mathu
04-02-2009, 14:57
Możesz "spłaszczyć" co chcesz, ale jak to zrobisz, to każdy normalny człowiek powie, że to jest sztuczne, nieprawdziwe.


https://forum.nikoniarze.pl//brak.gif
źródło (http://img530.imageshack.us/img530/5064/dscf01792is9.jpg)
https://forum.nikoniarze.pl//brak.gif
źródło (http://img223.imageshack.us/img223/4959/dscf0179ku8.jpg)

Co tu jest sztuczne i nieprawdziwe?


https://forum.nikoniarze.pl//brak.gif
źródło (http://img522.imageshack.us/img522/7946/dscf01872ke1.jpg)
https://forum.nikoniarze.pl//brak.gif
źródło (http://img155.imageshack.us/img155/6720/dscf0187fz1.jpg)

Co tu jest sztuczne i nieprawdziwe?

Oba wyciągane na maksa z S5.

glenio
04-02-2009, 15:02
Co tu jest sztuczne i nieprawdziwe?

Choinka bez wątpienia. :lol:

JK
04-02-2009, 15:22
Co tu jest sztuczne i nieprawdziwe?
Oba wyciągane na maksa z S5.

No właśnie to. Jeden lubi zepsuć zdjęcie i później kombinować, jak je ratować, a drugi woli dobrze (nie za mocno, lecz mądrze - parafrazując reklamę) naświetlić i nie mieć tych kłopotów. Wiem co mówię, według testów netowych, moja puszka ma tych EV więcej niż S5, ale to jeszcze nie powód, żeby notorycznie przepalać fotki.

Popatrz na te "śnieżne". Zdjęcie zrobiłeś o 13 z minutami (jeśli EXIF nie kłamie), czyli w jasny dzień, a po tej niby przeróbce wygląda to jak zdjęcie zrobione przy zachodzącym słońcu pewnie ze dwie godziny później. I to ma być uratowane zdjęcie?

Na koniec może rada od starszego kolegi. Zamiast ratować fotki, lepiej ich nie psuć podczas naświetlania.

igsux3
04-02-2009, 15:24
Lol, kolega pyta o to, czy wyglada to sztucznie, a ty mu o tym, ze nie potrafi naswietlac :mrgreen: :mrgreen: :mrgreen: naprawde JK szacunek dla twojej wiedzy, ale czasem tak pitolisz, ze czytac nie mozna.

JK
04-02-2009, 15:32
No to popatrz na to pierwsze zdjęcie. Gdyby je naswietlił o jakieś 1 EV mniej, to nie musiał by kombinować, a zdjęcie byłoby bardziej naturalne, niż to kombinowane. Zresztą jest raczej kiepsko pokombinowane. Można było lepiej.

Czornyj
04-02-2009, 15:34
No właśnie to. Jeden lubi zepsuć zdjęcie i później kombinować, jak je ratować, a drugi woli dobrze (nie za mocno, lecz mądrze - parafrazując reklamę) naświetlić i nie mieć tych kłopotów. Wiem co mówię, według testów netowych, moja puszka ma tych EV więcej niż S5, ale to jeszcze nie powód, żeby notorycznie przepalać fotki.

Popatrz na te "śnieżne". Zdjęcie zrobiłeś o 13 z minutami (jeśli EXIF nie kłamie), czyli w jasny dzień, a po tej niby przeróbce wygląda to jak zdjęcie zrobione przy zachodzącym słońcu pewnie ze dwie godziny później. I to ma być uratowane zdjęcie?

Na koniec może rada od starszego kolegi. Zamiast ratować fotki, lepiej ich nie psuć podczas naświetlania.

To stek komunałów. Jeśli np. tak jak na przykładzie 2 musisz na jednym zdjęciu ująć dwa środowiska o bardzo różnym poziomie oświetlenia, to albo trzeba robić cuda (lampy, szare folie w oknach), albo po prostu wykorzystać techniki DRI czy HDR. Jeśli wykona się to umiejętnie, to efekt jest estetyczny - a to że ktoś może łatwo zrobić z tego kaszanę to nie jest żaden argument, na tej zasadzie można zanegować każdą technikę fotograficzną, bo każda potencjalnie może dać syfiasty, "nienaturalny" efekt (fotografia ex definiendi jest nienaturalna).

mathu
04-02-2009, 15:36
No właśnie to. Jeden lubi zepsuć zdjęcie i później kombinować, jak je ratować, a drugi woli dobrze (nie za mocno, lecz mądrze - parafrazując reklamę) naświetlić i nie mieć tych kłopotów. Wiem co mówię, według testów netowych, moja puszka ma tych EV więcej niż S5, ale to jeszcze nie powód, żeby notorycznie przepalać fotki.
To fotki nie są przepalone. To tylko ACR na defaultowych ustawieniach wybiera sobie wycinek dynamiki z raw i zrzuca go do JPG bez kompresji która według ciebie wygląda sztucznie.
Więc się pytam - co tu wygląda sztucznie? JPG który jest przejarany w obie strony, bo cienie i światła już się "nie zmieściły", czy JPG w którym skompresowałem całą dynamikę sceny?


Na koniec może rada od starszego kolegi. Zamiast ratować fotki, lepiej ich nie psuć podczas naświetlania.
W jaki sposób chcesz naświetlić scenę która ma np. 12 EV żeby nie trzeba było podbijać cieni i przyciemniać świateł? Oświeć mnie, bo nie wiem. Dla ułatwienia powiem ci, że i niebo i okno były jaśniejsze dużo bardziej niż 256 razy od cienia i fotela, więc jakich bys nie dobrał parametrów naświetlania, nigdy nie wpasujesz takiej sceny w matrycę o 8EV.

Cały czas mam wrażenie że stanowiskiem moderatora próbujesz stworzyć sztuczny autorytet i wypowiadać się z wyższością o czyjejś argumentacji, nie próbując w ogóle odnieść się użytych argumentów.

Kaleid
04-02-2009, 15:45
JK: ale tej sceny nie a się poprawnie naświetlić za jednym razem bez pomocy filtrów lub ew wyciągania cieni czy świateł.

JK
04-02-2009, 16:36
Ale o czym my tu właściwie dyskutujemy? Przeczytajcie pierwszy post tego wątku, to zobaczycie, że pisałem tam o ogromnej nadwyżce danych z matrycy D200 względem realnych wymagań odnośnie tworzenia typowego JPEGa. Tu chyba róznicy zdań już nie ma. Obecnie, w D3 mam tego jeszcze dużo więcej. Od samego początku uważałem, że ta nadwyżka jest przydatna i dlatego od początku piszę, że warto robić zdjęcia w formacie RAW. Warto wykorzystywać możliwości matrycy, ale świadomie, nie produkując potworków. Ta nadwyżka możliwości jest bardzo cenna z punktu widzenia pewności, że się zdjęć nie zepsuje, że się ich nie przepali, bo to chyba jedna z częstszych przyczyn psucia zdjęć. A jeśli się coś popsuje, to będzie można to naprawić. Jeszcze raz napiszę. Nadwyżka informacji rejestrowanych przez współczesne matryce jest gigantycznie duża w stosunku do tego, co jest potrzebne dla zrobienia typowego JPEGa i do tego co można zobaczyć na ostatecznym zdjęciu. Warto to świadomie wykorzystywać.

Ktoś się uczepił tych kilkunastu EV, więc starałem się wam wytłumaczyć, że takie "wyciągane" zdjęcia, to wcale nie są obrazki o rozpiętości tonalnej większej, niż normalny typowy JPEG. Nie mogą mieć większej rozpiętości tonalnej, niż pozwala papier i monitor, bo nawet nie możemy ich zobaczyć. Po modyfikacjach, takie zdjęcia stają się zdjęciami o dużo mniejszej rozpiętości, niż by się pozornie wydawało. Uważam też, że jeśli takie "spłaszczania" są źle robione (a takich źle robionych jest nie mało), to są one nienaturalne, mają nienaturalne kolory, rozjechany balans bieli i często wyglądają sztucznie. Co nie oznacza, że nie nie da się tych mechanizmów wykorzystać dobrze.

Nie zmienia to jednak faktu, że nie da się zprezentować na papierze, czy monitorze zdjecia, które ma rozpiętość tonalną wiekszą niż 7-8 EV. Jeśli ktoś uważa inaczej, to jego sprawa, niech tkwi w błędzie.

Tyle na ten temat.

mathu
04-02-2009, 16:48
Ale o czym my tu właściwie dyskutujemy? Przeczytajcie pierwszy post tego wątku, to zobaczycie, że pisałem tam o ogromnej nadwyżce danych z matrycy D200 względem realnych wymagań odnośnie tworzenia typowego JPEGa. Tu chyba róznicy zdań już nie ma. Obecnie, w D3 mam tego jeszcze dużo więcej. Od samego początku uważałem, że ta nadwyżka jest przydatna i dlatego od początku piszę, że warto robić zdjęcia w formacie RAW.


Ten eksperyment w pełni potwierdził założenie, że 8 bitowa matryca jest wystarczająca dla potrzeb współczesnego sprzętu komputerowego, a każde rozszerzenie zakresu rejestracji koloru, na przykład do 12 bitów, daje dodatkowo bardzo, bardzo duże pole do popisu dla cyfrowej obróbki zdjęć i jest przydatne nie ze względu na mityczną rozpiętość tonalną, której i tak wykorzystać nie można, ale ze względu na minimalizację szumów, korekcje naświetlania, czy korekcje balansu bieli.

Rozumiesz o co chodzi?
Większa matryca to nie pole do popisu przy ratowaniu zdjęć z nietrafionym pomiarem światła, tylko możliwość świadomego naświetlenia na światła i zarejestrowania całej dynamiki która później zostanie skompresowana do 8 bitowego JPG. I wcale matryca 8EV nie wystarczy żeby zrobić dowolne zdjęcie.
Pokazałem na przykładach jak to wygląda - zdjęcie po lewej to właśnie mniej - więcej wycinek 8EV (tak defaultowo wywołuje zdjęcie ACR), a zdjęcie prawe to wykorzystanie wszystkich EV które zostały zapisane w rawie. To nie jest żadne ratowanie zdjęcia, ono było poprawnie naświetlone "na światła", nic nie było przepalone. To jest właśnie przykład do czego wykorzystuje się te kilkanaście EV w matrycach - do odtworzenia rzeczywistości. Bo nikt mi chyba nie powie, że stojąc tam widziałem białe okno i białe niebo? A że niebo było jasniejsze o wiele bardziej, niż 8EV od ciemnych obiektów, to matrycą 8EV po prostu nie zarejestrowałbym jego błękitu rejestrując jednocześnie szczegóły w cieniach.

Jacek_Z
04-02-2009, 17:03
to jest po prostu adaptacja.
o to, to. Ważne, że wiadomo o co mi chodziło ;-):oops::-D


Możesz "spłaszczyć" co chcesz, ale jak to zrobisz, to każdy normalny człowiek powie, że to jest sztuczne, nieprawdziwe. Wcale nie każdy :wink:, zdjęcia mathu (te po prawej) nie są nienaturalne, a zdjęcia po lewej właśnie wyglądaja źle, nienaturalnie.


Poszukaj, są na forum fotek z Kasprowego (wiesz ze zlotu NKP) i są tam fotki robione w południe, które wyglądają prawie jak nocne, tylko jakoś dziwacznie podoświetlane. O to Ci chodzi?
Tak. Ale zdjęcia mathu lepiej obrazują o co chodzi, a ta sytuacja jest zdecydowanie częstsza.
Sa tez ze zlotu zdjęcia nocne, zrobione na długim czasie przy pełni księżyca. Jasno jak w dzień. Nienaturalnie, a można to focić na jpg z 8 EV. Czy fotografia musi pokazywać wszystko "normalnie" ?


Popatrz na te "śnieżne". Zdjęcie zrobiłeś o 13 z minutami (jeśli EXIF nie kłamie), czyli w jasny dzień, a po tej niby przeróbce wygląda to jak zdjęcie zrobione przy zachodzącym słońcu pewnie ze dwie godziny później. I to ma być uratowane zdjęcie?a to po lewej jest OK? Poprzepalany śnieg, dom, niebo, słupki. Tylko ciemnozielone drzewo iglaste jest OK. I jest ono takie samo dobre na prawym zdjęciu. Prawe zdjęcie mogło być ciut jaśniejsze, dało się takie zrobić bez problemu, pewnie jest celowo przesadzone by wyolbrzymić zaletę jaka daje taka matryca.


Na koniec może rada od starszego kolegi. Zamiast ratować fotki, lepiej ich nie psuć podczas naświetlania.hm. One nie są popsute naświetlaniem. Scena ma za dużo EV, trzeba normalnie iść na kompromis - światła czy cienie. Jak matryca ma mało EV to kicha.


No to popatrz na to pierwsze zdjęcie. Gdyby je naswietlił o jakieś 1 EV mniej, to nie musiał by kombinować, a zdjęcie byłoby bardziej naturalne, niż to kombinowane. Zresztą jest raczej kiepsko pokombinowane. Można było lepiej.ale diabli by wzieli detale w igliwiu drzewa.

O i widzisz - po pierwsze: fotki nie wyglądają sztucznie, po prostu pokazują detale w ciemnych i jasnych miejscach jednocześnie (chodzi o 2 zestawy zdjęć mathu), po drugie: zdjęcia z lewej jak naświetlić? jak niedoświetlisz to zaginą detale w ciemnych miejscach. Ale to już koledzy wypunktowali.

Może podejde do tematu inaczej. Dlaczego pokazywanie 12 EV na 8 bitach ci się nie podoba? To jest spłaszczanie 1,5 x. Jakie spłaszczanie jest OK, a jakie już nie?
Miałeś D200, on pokazywał prawie 10 EV DR. D3 pokazuje prawie 12 EV. Obrazek ci się pogorszył czy polepszył? Kiedyś kolejne body będzie mogło rejestrować na raz rozpiętość 14 EV - będzie gorsze??? Bo trzeba obraz pokazać na 8 bitach matrycy LCD, odbitce czy mieć w pliku jpg.
D200 "ściskał" około1,2x (załóżmy, że był więc "naturalny"), D3 ściska prawie 1,5x. I nadal jest "naturalny". Nie wiem czy jakiekolwiek "ściskanie" będzie się wydawało nienaturalne. Nawet jak matryca będzie rejestrowała przykładowo te nieszczęsne 20 EV i będzie ściskanie rozpiętości 2,5x, to nic się nie stanie. Jesli scena będzie miała mniej EV (na przykład 11 EV) to zapewne soft zrobi cos jak auto kontrast w PS i całe 8 EV będzie zagospodarowane, nie będzie sztywnego współczynnika 2,5x. (histogram zostanie rozciągnięty tak, że na 8 bitach będzie od lewej do prawej) Oczywiście przy tylu EV kolor będzie musiał być zapisywany np na 24 bitach RAW, w każdym razie więcej niż teraźniejsze 14. Ale to sprawa wtórna, nie podstawowa.

Piotr.S
13-02-2009, 20:31
JK - trzymaj się - jasne, ze obracamy się w rozpietości 0 -255 (czemu? - to dłuższa historia). Sztuka kompresjii wiekszej rozpiętości tonalnej w tak zawężonej skali, polega na: umiejętnym wybieraniu istotnych dla tematu wartości tonalnych, śledzeniu w czasie korekcji histogramów i zdroworozsądkowemu podejściu do wszelakich komputeropwych poprawiaczy. Może tu niektórych wkurzę? - ale uważam, ze zdrowy rozsądek i umiarkowanie w podejściu do filtrów cyfrowych - przynosi dobre efekty. No i te 0-255 - to biblia

listerreg
08-05-2009, 18:44
Witam wszystkich,

to moj pierwszy (nie wiem czy nie ostatni ;) post tutaj i chcialbym zeby nie wszyscy mnie znienawidzili od razu.

Trafilem na wywod pana moderatora szukajac w googlu info wlasnie o rozpietosci tonalnej matrycy cyfrowej. Ucieszylo mnie, ze ktos posiadajacy niemala wiedze zapragnal na ten temat napisac. Niestety tylko poczatkowo, czytajac dalej, w szczegolnosci kolejne posty JK, stwierdzam ze smutkiem, ze sama wiedza nie wystarczy.
Przyznaje, ze nie przeczytalem wszystkich 17 stron watku i nawet stlumilem poczatkowo w sobie chec dopisywania kolejnego postu, ale przeczytalem ostatnia strone, na ktorej sa posty pisane przeszlo 2 i pol roku pozniej (!) i widze, ze nie pomoglo.

Jak na tym satyrycznym obrazku: nie jestem jeszcze w lozku bo ktos w internecie nie ma racji... ;>

Kolego JK, nawet zdjecia zostaly zamieszczone aby uzmyslowic Ci blad w Twoim rozumowaniu, a Ty obrazasz wszystkich, ktorzy sie z Toba nie zgadzaja piszac, ze jak chca to moga sobie tkwic w bledzie. To Ty tkwisz w bledzie i to juz tyle czasu, zadufany w przeswiadczeniu o swojej wyzszosci nad masa amatorow.

Rozpietosci tonalnej nie mierzy sie w bitach/liczbach opisujacych dany obraz, a w wartosciach fizycznych badz im pochodnych takich jak EV, lux czy candela na mkw (dokladnie niech sie wypowie jakis fizyk) odnoszacych sie do rzeczywistego obrazu.

To oznacza, iz rozpietosc tonalna o jakiej tu jest mowa to cecha fotografowanej sceny, a nie zapisanego obrazu.

Obraz wyswietlony na monitoze ma rozpietosc tonalna taka jaka ma (mozna zobaczyc w testach okreslana jako kontrast) i nie jest to 0-255 - bo to nic nie oznacza.

Niby jest jasne jak sam piszesz, ze rozpietosc tonalna, a rozdzielczosc tonalna to dwie rozne rzeczy, a jednak wciaz piszesz, ze dla pozniejszego wyswietlenia na monitorze nie ma znaczenia, ze matryca ma wieksza rozpietosc tonalna...

W koncu trzeba to wyraznie powiedziec: mowiac o rozpietosci tonalnej matryc rozumiemy roznice w rzeczywistej (fizycznej) jasnosci pomiedzy najciemniejszym mozliwym do zarejestrowania tonem ROZNIACYM SIE, JUZ PO ZAPISANIU, OD POPRZEDNIEGO ZAPISANEGO TONU, a najjasniejszym mozliwym do zarejestrowania tonem ROZNIACYM SIE, JUZ PO ZAPISANIU, OD POPRZEDNIEGO TONU.

Mowiac opisowo jeden koniec rozpietosci tonalnej to obiekty tak jasne, ze one jak i obiekty od nich jasniejsze sa zapisywane przez aparat z ta sama (maksymalna) wartoscia jasnosci, a drugi to obiekty tak ciemne, ze zarowno one jak i obiekty od nich ciemniejsze nie roznia sie juz niczym na zdjeciu.

Nie ma to nic wspolnego z glebia bitowa zapisywanego obrazu. Gdyby bylo tak jak piszesz czyli 0 rownalo sie czerni, a kolejne wartosci coraz wyzszej rzeczywistej jasnosci danego obiektu to obraz o zrownowazonych tonach zarejestrowany przy tych samych warunkach z glebia 8 bitowa bylby 17 razy jasniejszy od obrazu zapisanego z glebia 4 bitowa. W ogole glebia bitowa nie ma nic wspolnego z jasnoscia obrazu.

Obraz zapisany z glebia 8 bitowa wyglada na monitorze dokladnie tak samo jezeli chodzi o jego jasnosc jak obraz zapisany z glebia np. 4 bitowa (celowo przyjmuje wartosci nizsze zebys sie nie zaslanial brakiem technicznych mozliwosci wyswietlenia czegokolwiek) jedyne co zauwazalne to spadek plynnosci w przejsciach tonalnych (gradientach). To samo tyczy sie glebi, jak mowisz nie mozliwych do wykorzystania, maja one zwiekszona (przynajmniej matematycznie) ROZDZIELCZOSC tonalna i wciaz nie ma to nic wspolnego z rozpietoscia tonalna matrycy. To sa dwie odrebne sprawy. Moze istniec aparat zapisujacy obrazy z jakas ogromna 32-bitowa glebia bitowa, ktorego rozpietosc tonalna bedzie wynosic np. 2EV i co wiecej moze on wykorzystywac te 32 bity na zapisanie wszystkich 65 535 tonow w zakresie tych 2EV jak rowniez moze istnies aparat zapisujacy obraz 8-bitowy o bardzo duzej rozpietosci tonalnej i TAK, ta rozpietosc tonalna zostanie zarejestrowana. Bez zadnej kompresji. Po prostu obiekty ciemniejsze niz zwykle bede odwzorowane jako 0 i jasniejsze niz zwykle jako 255 a obiekty o srednich tonach zostana odwzorowane z mniejsza dokladnoscia tonalna. Tylko, ze tak sie dzieje w przypadku kazdego aparatu - "nieskonczona" roznorodnosc tonow jest przedstawiana za pomoca skonczonej liczby rownej glebi bitowej.


Ostatnia kwestia w tym poscie: naturalnosc zdjecia. Czym to sie mierzy? Bo w Twoim przypadku to na pewno nie zdolnosciami ludzkiego oka do postrzegania jasnych i ciemnych obiektow jednoczesnie. Nie wnikajac w kwestie zmniejszajacego sie w czasie wplywu stalego bodzca, rozpietosc tonalna ludzkiego oka jest zdecydowanie wieksza od 8EV, ktorych sie tak uczepiles.

Co wiecej nie jest prawda, ze jezeli dla danego ustawienia ekspozycji obraz zapisal sie z wartoscia jasnosci 4094 to wprowadzenie korekcji o -4EV sprawi, ze obraz zostanie zapisany z wartoscia 255. Tak byloby gdyby 0 rownalo sie tylko i wylacznie obrazowi idealnie czarnemu, a tak jak wiemy nie jest i -4EV moze sprawic, ze w konkretnym aparacie o malej rozpietosci tonalnej matrycy ten sam obraz po korekcie przyjmie wartosc np. zerowa.


To tyle slowem naprawiania internetu. Spodziewam sie, ze nastepnym razem bede sie logowal juz jako GOSC. ;)

Pozdrawiam wszystkich serdecznie.
alek

P.S. mam nikona ;)

loki_p
08-05-2009, 19:16
listerreg witamy ;)

JK
09-05-2009, 00:15
Inwektywy pominę i może przejdźmy do konkretów:


..... Rozpietosci tonalnej nie mierzy sie w bitach/liczbach opisujacych dany obraz, a w wartosciach fizycznych badz im pochodnych takich jak EV, lux czy candela na mkw (dokladnie niech sie wypowie jakis fizyk) odnoszacych sie do rzeczywistego obrazu. .....
To się oczywiście zgadza, ale nie do końca. Różnice jasności można mierzyć w takich, czy innych jednostkach (można nawet wykombinować swoje własne jednostki, o ile jednocześnie zaproponujemy sposób przeliczania tych jednostek na jakieś powszechnie przyjęte), ale nic nie stoi na przeszkodzie, żeby jasność, czy też zmiany jasności, zapisać za pomocą liczb. Nie wiem czy zauważyłeś, ale w technice komputerowej takie wielkości jak jasność zapisuje się za pomocą pewnego zbioru liczb całkowitych. To jest dyskretny zbiór wartości i oczywiście jest dużo bardziej ograniczony niż ciągłe funkcje, znane z rozważań teoretycznych, ale jakimś zbiorem wartości jednak jest. Co więcej taki zbiór liczb całkowitych jest powszechnie stosowany do opisu obrazów wyświetlanych na monitorze i na dziś w zupełności wystarcza do opisu takich obrazów. Jeśli jasność można zapisać w postaci liczb całkowitych, to jest to przecież równoznaczne z możliwością zapisania ich w postaci ciągu bitów. Jeśli jasność opiszemy takimi właśnie ciągami bitów, to różnice pomiędzy poziomami jasności też możemy zapisać za pomocą takich bitów. W konsekwencji rozpiętość tonalną obrazka także za pomocą bitów możemy opisać. To chyba dyskusji nie podlega?


..... To oznacza, iz rozpietosc tonalna o jakiej tu jest mowa to cecha fotografowanej sceny, a nie zapisanego obrazu. .....
To też jest tylko część prawdy. Jest oczywiście coś takiego jak rozpiętość tonalna fotografowanej sceny, ale jest również rozpiętość tonalna zdjęcia, które zrobiliśmy. Oglądamy to zdjęcie, wydrukowane na papierze lub wyświetlone na monitorze, ale takie oglądane zdjęcie też może być sceną lub jej fragmentem. Wystarczy sobie wyobrazić, że fotografujemy obraz monitora z wyświetlonym zdjęciem i opartą i ten monitor papierową odbitkę, która przedstawia to samo, co widzimy na monitorze. Jeśli takie coś jest sceną, a niewątpliwie jest sceną, to musi mieć również swoją rozpiętość tonalną. Nawet daje się pomierzyć. Prawda?


..... Obraz wyswietlony na monitoze ma rozpietosc tonalna taka jaka ma (mozna zobaczyc w testach okreslana jako kontrast) i nie jest to 0-255 - bo to nic nie oznacza. .....
Przyjmijmy przez chwilę, że tak jest. Co by to wtedy oznaczało? Ano oznaczało by to, że możemy dowolnie regulować rozpiętość tonalną zdjęcia za pomocą pokrętła kontrastu w monitorze. Mówiąc prościej, wyświetlamy sobie na monitorze zdjęcie, jakieś dowolne zdjęcie i zaczynamy się bawić. Kręcimy kontrastem w dół – zdjęcie ma rozpiętość 5EV. Kręcimy w górę zdjęcie - ma rozpiętość 15EV. Przypominam, że ciągle oglądamy to samo zdjęcie. Widzisz tu jakiś sens? Bo ja nie widzę. Po co by były matryce o większej rozpiętości, jeśli załatwia to gałka w monitorze? Czyli ustawiony kontrast urządzenia wyświetlającego obraz nie ma chyba nic wspólnego z rozpiętością tonalną zdjęcia? Ma on wiele wspólnego z tym, czy zdjęcie na monitorze wygląda naturalnie, czy nie, czy jest dobrze widoczne i dobrze odbierane przez widzów w warunkach zmiennego oświetlenia zewnętrznego. Ale po to używamy różnych kalibratorów, żeby zdjęcia oglądane na różnych monitorach i w różnych warunkach wyglądały sensownie i możliwie tak samo. Podobnie do tego, jak wyglądają te zdjęcia na papierze. Idealnie się nie da, ale do tego chyba dążymy, a kręcenie kontrastem temu nie pomaga.


..... Niby jest jasne jak sam piszesz, ze rozpietosc tonalna, a rozdzielczosc tonalna to dwie rozne rzeczy, a jednak wciaz piszesz, ze dla pozniejszego wyswietlenia na monitorze nie ma znaczenia, ze matryca ma wieksza rozpietosc tonalna... .....
Ja tego nie piszę, a przynajmniej nie tak to formułuję. Ja tylko piszę, że za pomocą papieru, drukarki, labu, monitora i zdjęcia w formacie JPEG, czyli mediów z 8-mio bitową głębia koloru, nie możemy przedstawić wszystkiego, co ewentualnie może zarejestrować matryca o większej rozpiętości, bo ograniczeniem jest tu właśnie 8-mio bitowa przestrzeń. To piszę.


..... W koncu trzeba to wyraznie powiedziec: mowiac o rozpietosci tonalnej matryc rozumiemy roznice w rzeczywistej (fizycznej) jasnosci pomiedzy najciemniejszym mozliwym do zarejestrowania tonem ROZNIACYM SIE, JUZ PO ZAPISANIU, OD POPRZEDNIEGO ZAPISANEGO TONU, a najjasniejszym mozliwym do zarejestrowania tonem ROZNIACYM SIE, JUZ PO ZAPISANIU, OD POPRZEDNIEGO TONU.

Mowiac opisowo jeden koniec rozpietosci tonalnej to obiekty tak jasne, ze one jak i obiekty od nich jasniejsze sa zapisywane przez aparat z ta sama (maksymalna) wartoscia jasnosci, a drugi to obiekty tak ciemne, ze zarowno one jak i obiekty od nich ciemniejsze nie roznia sie juz niczym na zdjeciu. .....
No to wróciliśmy do sedna sprawy. Nie da się zapisać, wyświetlić, czy wydrukować większej jasności niż ta, która jest wzorcowo przypisana do wartości 255 (o kręceniu kontrastem tu nie mówimy). Nie da się wyświetlić, czy wydrukować jasności mniejszej niż 0. Mamy więc minimalny przedział 0-1 i maksymalny przedział 254-255. Dokładnie tak jak napisałeś. Jaka jest więc “różnica” jasności? To proste. Jak policzymy to wyjdzie nam 256. To jest różnica. Ale jednostki EV nie opisują różnic. Żeby przejść na jednostki EV trzeba zauważyć, że 256 to 2 do 8 potęgi. Jak już napisałem, możesz sobie podkręcić kontrast w monitorze, ale nie zmieni to faktu, że na zdjęciu maksymalna jasność nadal odpowiada wartości 255, a minimalna jasność podpowiada wartości 0. Poza tymi wartościami nie ma już nic, bo być nie może.

..... Nie ma to nic wspolnego z glebia bitowa zapisywanego obrazu. Gdyby bylo tak jak piszesz czyli 0 rownalo sie czerni, a kolejne wartosci coraz wyzszej rzeczywistej jasnosci danego obiektu to obraz o zrownowazonych tonach zarejestrowany przy tych samych warunkach z glebia 8 bitowa bylby 17 razy jasniejszy od obrazu zapisanego z glebia 4 bitowa. W ogole glebia bitowa nie ma nic wspolnego z jasnoscia obrazu.

Obraz zapisany z glebia 8 bitowa wyglada na monitorze dokladnie tak samo jezeli chodzi o jego jasnosc jak obraz zapisany z glebia np. 4 bitowa (celowo przyjmuje wartosci nizsze zebys sie nie zaslanial brakiem technicznych mozliwosci wyswietlenia czegokolwiek) jedyne co zauwazalne to spadek plynnosci w przejsciach tonalnych (gradientach). To samo tyczy sie glebi, jak mowisz nie mozliwych do wykorzystania, maja one zwiekszona (przynajmniej matematycznie) ....
Wartość 0 to najmniejsza możliwa do wyświetlenia jasność, czyli w naszym przypadku coś, co odpowiada czerni, choć czernią wcale być nie musi. Bieli będzie odpowiadała wartość 255 i tego też nie zmienisz. Możesz sobie ten zakres 0-255 dzielić dowolnie i pomijać różne wartości pośrednie, ale to te dwie skrajne wartości definiują maksymalną rozpiętość tonalną zdjęcia. Tego zagadać się nie da.

..... Moze istniec aparat zapisujacy obrazy z jakas ogromna 32-bitowa glebia bitowa, ktorego rozpietosc tonalna bedzie wynosic np. 2EV i co wiecej moze on wykorzystywac te 32 bity na zapisanie wszystkich 65 535 tonow w zakresie tych 2EV jak rowniez moze istnies aparat zapisujacy obraz 8-bitowy o bardzo duzej rozpietosci tonalnej i TAK, ta rozpietosc tonalna zostanie zarejestrowana. Bez zadnej kompresji. Po prostu obiekty ciemniejsze niz zwykle bede odwzorowane jako 0 i jasniejsze niz zwykle jako 255 a obiekty o srednich tonach zostana odwzorowane z mniejsza dokladnoscia tonalna. Tylko, ze tak sie dzieje w przypadku kazdego aparatu - "nieskonczona" roznorodnosc tonow jest przedstawiana za pomoca skonczonej liczby rownej glebi bitowej. ....
A po co komu aparat FOTOGRAFICZNY rejestrujący rozpiętość 2EV? Zauważ, że kładę nacisk na słowo FOTOGRAFICZNY. Takie coś może być bardzo przydatne, a czasem wręcz niezbędne w różnych dziwnych przyrządach, ale nie w aparatach fotograficznych. Aparat fotograficzny służy do robienia zdjęć, czyli do rejestrowania rzeczywistości w sposób zbliżony do tego, jak ją widzimy na co dzień, choć aparat może być wykorzystywany także do innych celów, na przykład ogólnie mówiąc artystycznych, ale nie o tym tu chyba mowa. Przynajmniej ja to tak rozumiem.


..... Ostatnia kwestia w tym poscie: naturalnosc zdjecia. Czym to sie mierzy? Bo w Twoim przypadku to na pewno nie zdolnosciami ludzkiego oka do postrzegania jasnych i ciemnych obiektow jednoczesnie. Nie wnikajac w kwestie zmniejszajacego sie w czasie wplywu stalego bodzca, rozpietosc tonalna ludzkiego oka jest zdecydowanie wieksza od 8EV, ktorych sie tak uczepiles. ....
Co to jest naturalność zdjęcia? Moim zdaniem jest to takie przedstawienie sceny, przy którym przeciętny człowiek powie, że obraz przedstawiony na zdjęciu jest podobny do rzeczywistej sceny, że ludzie na tym zdjęciu wyglądają podobnie do tego, jak wyglądali podczas robienia zdjęcia. Oczywiście nie wszystkie zdjęcia muszą spełniać te warunki. Są zdjęcia czarno-białe, jest sepia, są też różne HDRy. Obecnie coraz więcej jest tych kompletnie “odjechanych” zdjęć, bo dostępny jest PS, Corel, GIMP i inne narzędzia, a udziwnianie zdjęć często uważane jest za oryginalność, albo maskuje błędy ekspozycji. Czasem może i jest to oryginalne, choć ja podchodzę do tego w bardziej tradycyjny sposób.


.... Co wiecej nie jest prawda, ze jezeli dla danego ustawienia ekspozycji obraz zapisal sie z wartoscia jasnosci 4094 to wprowadzenie korekcji o -4EV sprawi, ze obraz zostanie zapisany z wartoscia 255. Tak byloby gdyby 0 rownalo sie tylko i wylacznie obrazowi idealnie czarnemu, a tak jak wiemy nie jest i -4EV moze sprawic, ze w konkretnym aparacie o malej rozpietosci tonalnej matrycy ten sam obraz po korekcie przyjmie wartosc np. zerowa. ....
Jak to nie jest prawdą? A co to oznacza? Wartość –4EV oznacza to że dopuściliśmy do matrycy 16 razy mniej światła, matryca ma charakterystykę zbliżona do liniowej, czyli to co bez korekty dało wartość 4094, po korekcie –4EV da 4094 / 16 = 255 (lub 256 w zależności od przyjętej metody zaokrągleń). Zero oczywiście odpowiada czerni, bo niczego ciemniejszego niż 0 zapisać nie możemy. I to 0 to jest właśnie cyfrowa czerń.

Ufff. Już mi się nie chce o tym pisać.

A to, że masz Nikona to dobrze. To jest bardzo dobry sprzęt.

listerreg
09-05-2009, 13:59
Ostatni raz, obiecuje. Jest weekend, ale niestety, trzeba pracowac.


Jeśli jasność można zapisać w postaci liczb całkowitych, to jest to przecież równoznaczne z możliwością zapisania ich w postaci ciągu bitów. Jeśli jasność opiszemy takimi właśnie ciągami bitów, to różnice pomiędzy poziomami jasności też możemy zapisać za pomocą takich bitów. W konsekwencji rozpiętość tonalną obrazka także za pomocą bitów możemy opisać. To chyba dyskusji nie podlega?

Mysle, ze stad wlasnie bierze sie wadliwosc Twojego rozumowania...

rozpietosc tonalną obrazka za pomoca skali bitowej i owszem, ale juz rozpietosc tonalną skali bitowej za pomoca tej samej skali bitowej - nie bardzo. To tautologia.

Wezmy taki przyklad:

Czy skoro skala Beauforta jest 12 stopniowa, a skala Saffira 5 stopniowa to oznacza to, ze zakres sily wiatru opisany skala Beauforta jest wiekszy? Czy wiatry mieszczace sie w skali Beufforta moga byc silniejsze od tych mieszczacych sie w skali Saffira?

Nie.

Podobnie w przypadku glebi bitowej. Nie ma znaczenia jak duza glebie bitowa zastosujemy zawsze 0 symbolizowac bedzie absolutna czern, a ostatnia wartosc (255 dla 8 bitow, 4095 dla 12 bitow itd.) bedzie symbolizowac absolutna biel.

Oznacza to, ze rozpietosc tonalna czy to skali 8 czy 12 bitowej jest taka sama i jest absolutna (...? w kazdym razie maksymalna).

Nie trzeba sie zastanawiac co jest w stanie wyswietlic monitor dzis czy za rok - zawsze 0 = czern a 255 lub 4095 = biel.
To czego natomiast nie potrafi wyswietlic monitor to gradacja zwiekszonej glebi. Innymi slowy nie jest on wstanie wyswietlic roznic pomiedzy wszystkimi 4095 poziomami jasnosci - w uproszczeniu kazde 16 kolejnych tonow glebi 12 bitowej bedzie wyswietlane jako 1 ton na monitorze.
Na marginesie: zaden monitor nie wyswietli poprawnie zadnej komputerowej glebi bitowej (chocby 1 bitowej) wlasnie z tego wzgledu, ze nie jest on w stanie odwzorowac ani absolutnej czerni, ani absolutnej bieli.

Mam nadzieje, ze wystarczajaco jasno.

Dla powtorzenia:
Rozdzielczosc tonalna to 255 lub 4095 odcieni szarosci.
Rozpietosc tonalna to roznica w jasnosci pomiedzy 0 a odpowiednio 255 lub 4095 MIERZONA W RZECZYWISTYCH WARTOSCIACH jakie te liczby reprezentuja. Reprezentuja natomiast to samo: czern = 0, biel = 255 = 4095 = 65535 itd. Ergo ;p - rozpietosc tonalna pomiedzy 0 a 255 (8bit) i pomiedzy 0 a 4095 (12bit) i pomiedzy 0 a 65535 (16bit) jest zawsze taka sama i rowna sie rozpietosci tonalnej pomiedzy absolutna czernia a absolutna biela.

Ponizej obrazek, ktory namalowalem specjalnie na ta okazje. Mam nadzieje, ze sie spodoba:


https://forum.nikoniarze.pl/imgimported/2009/05/5b8649d4365b6a0emed-1.png
źródło (http://images40.fotosik.pl/116/5b8649d4365b6a0emed.png)


Pozdrawiam
alek

JK
09-05-2009, 17:00
Ten rysunek jest niestety nieprawdziwy. To działa dokładnie w drugą stronę, choć takie coś może się czasem zdarzyć, ale to będzie tylko szczególny przypadek. Ale po kolei.

Musimy zacząć od monitora. Zakładam, że rozmawiamy o monitorze kalibrowanym, bo o tych "rozjechanych" nawet nie ma co gadać - szkoda na to czasu. Jeśli monitor jest kalibrowany, to wartości 0 odpowiada jasność przewidziana dla czerni, a wartości 255 odpowiada jasność przewidziana dla bieli. Po to są kalibratory, żeby dało się ustawić tak samo (lub bardzo podobnie) wiele różnych monitorów i żeby na wszystkich obrazki wyglądały podobnie. Oczywiście jedne monitory są gorsze, inne są lepsze, niektóre mają wady i czasem dostajemy jakieś odstępstwa, również odnośnie tej czerni i bieli, ale w założeniu powinniśmy na różnych monitorach uzyskiwać jasności zdefiniowane we wzorcu kalibracyjnym. Istotne jest zwłaszcza to, że jasność dla wartości 0 i jasność dla wartości 255 wynikają z definicji wzorca, a nie z dowolnego kręcenia kontrastem. Tu chyba wątpliwości nie ma. Jeśli założymy, że tak właśnie jest, to musimy powiedzieć, że nie ma fizycznej możliwości przekroczenia rozpiętości urządzenia, na którym wyświetlamy obraz. Nie da się i tyle.

Analogicznie jest ze zdjęciami wydrukowanymi na papierze. Tam też jest jakiś wzorzec czerni odpowiadający wartości 0 i jakiś wzorzec bieli odpowiadający wartości 255. W konsekwencji, również nie możemy przekroczyć rozpiętości tonalnej nośnika, tak jak nie możemy przekroczyć rozpiętości tonalnej monitora. W literaturze można bez problemu znaleźć dane o rozpiętości tonalnej papieru fotograficznego, jeśli to kogoś interesuje.

Kalibratory wprowadzono po to, żeby to co wychodzi z labu, czy z drukarki wyglądało możliwie tak samo, jak to co widzimy na monitorze. W przeciwnym przypadku kalibracja miała by niewielki sens. Ale jeśli jednak ma sens, to rozpiętość tonalna papieru fotograficznego i rozpietość tonalna kalibrowanego monitora muszą być w miarę porównywalne. Nie takie same, bo się nie da, ale porównywalne. Taka kalibracja powoduje więc ustalenie wzorcowej rozpiętości tonalnej urządzeń służących do wyświetlania i reprodukcji zdjęć. Co więcej, ta kalibracja została pomyślana tak, żeby zdjęcia zapisane w 8-mio bitowej przestrzeni (format JPEG) wyglądały "dobrze" i przypominały rzeczywistość. Fachowcy od obrazów mogą sobie poustawiać co chcą, jak chcą i pewnie dadzą sobie z tym radę, ale normalny śmiertelnik patrzy na papierowe zdjęcie, patrzy na monitor z wyświetlonym zdjeciem, patrzy za okno i albo mówi, że jest ładnie, albo mówi, że jest jakoś dziwnie i źle. Kalibracja ma między innymi spowodować to, żeby zbyt dziwnie nie było.

Mam nadzieję, że jest to jasne i że nie ma watpliwości, co do tego, że urządzenia do przentacji zdjęć mają swoją własną rozpiętość tonalną, a proces kalibracji sprowadza tę rozpiętość do jakiegoś określonnego wzorca.

No to jedziemy dalej. Wiele lat temu Adams stworzył swój system stref. Nie spadło mu to z nieba. Robił to oceniając jasność różnych scen i prównując je ze sobą. Co mu z tego wyszło wiemy (zakładam, że wiemy). Wymyślił, że w przypadku "dobrego" zdjecia, "środek" obszaru rozpiętości tonalnej sceny powinien trafiać w środek możliwości rejestracyjnych nośnika (prawidłowy dobór ekspozycji). Wychodzi z tego, że ważne jest usytuowanie tej magicznej średniej szarości, a reszta jest wynikowa. W dużej części przypadków, ta "reszta" mieści się w rozpiętości tonalnej materiałów fotograficznych, a także urządzeń, które to wyświetlają i drukują. Jeśli rozpiętość tonalna sceny jest mniejsza niż rozpiętość nośnika (to co przedstawiłeś na swoim rysunku), to nie rozciągamy jej na siłę. Pozostają niewykorzystane obszary po obu stronach i tyle. Jeśli zrobisz zdjęcie szarej ściany, to nie będzie na nim, ani czerni, ani bieli i nie będziesz tego na siłę "rozciągał", tylko zostawisz, jak jest. Oczywiście można próbować to "naciągać" podbijając kontrast, ale to już nie będzie to samo zdjęcie, to nie będzie ta szara ściana. Takie "naciągane" zdjęcie nie przedstawia już fotografowanej sceny, tylko coś mniej lub bardziej wycudowanego. Ale są tez inne przypadki. Jeśli rozpiętość sceny jest większa niż rozpietość nosników zdjęć, to wszystkie informacje wykraczające poza rozpietość tych nośników są tracone. Są "obcinane", czyli zamieniane na kolor czarny (wartość 0) i na kolor biały (wartość 255). Jest to naturalne, bo jeśli oglądamy taką scenę w rzeczywistości (jako całość), to nie widzimy ani detali w obszarze czerni, ani detali w obszarze bieli (znów kłania się kolega Adams).

Może być tak, że będziemy dysponowali aparatem o gigantycznej rozpiętości tonalnej i na jednym zdjęciu zarejestrujemy wszystko, od drobnych detali na powierzchni sadzy, po subtelne detale plam na słońcu. Jeśli takie coś uzyskamy i będziemy chcieli to coś wyświetlić na monitorze lub wydrukować na papierze, to stwierdzimy, że się nie da. Dlaczego? Ano dlatego, że rozpiętość tonalna takiej sceny przekracza możliwości urządzeń do prezentacji zdjęć, czyli monitorów, drukarek, labów i papieru. Nie da się, bo nasz monitor nie będzie świecił jak słońce i nie będzie tak czarny jak ta sadza.To jest chyba oczywiste? Jeśli jednak mimo wszystko chcemy takie coś zrobić, to możemy spróbować jakoś to "wtłoczyć" w obszar możliwy do wyświetlenia, czyli zrobić jakiegoś tam super HDRa, czy coś takiego. Jest tylko jedno ale. To nie monitor wyświetli zwiekszoną rozpiętość tonalną, tylko my spowodujemy sztuczne i nienaturalne "spłaszczenie" rozpiętości tonalnej takiej sceny i dostosujemy obrazek do możliwości urządzeń prezentujących zdjęcia. W efekcie powstanie obrazek o rozpiętości tonalnej, która nie przekracza możliwości kalibrowanego monitora, drukarki, czy papieru. Obrazek, który będzie w sposób sztuczny przedstawiał naszą scene o gigantycznej rozpiętości tonalnej "wciśniętą" w rozpiętość tonalną typowego zdjęcia. Zrobić to się da, ale to będzie bardzo zły obrazek, z totalnie "rozjechaną" kolorystyką, a na dodatek nie będzie na nim widać: albo detali tej sadzy, albo tych plam na słońcu, albo niczego innego poza tymi detalami.

Nie wiem, czy można to opisać jeszcze jaśniej.

Jacek_Z
11-05-2009, 16:28
Ten rysunek jest niestety nieprawdziwy. To działa dokładnie w drugą stronę, choć takie coś może się czasem zdarzyć, ale to będzie tylko szczególny przypadek. Rysunek jest OK, zmylić może tylko to, że górna jego część nie jest szersza niż niższe, ale kolega to "nadrobił" prowadząc linie w dół na kształt trapezu.


Ale są tez inne przypadki. Jeśli rozpiętość sceny jest większa niż rozpietość nosników zdjęć, to wszystkie informacje wykraczające poza rozpietość tych nośników są tracone. Są "obcinane", czyli zamieniane na kolor czarny (wartość 0) i na kolor biały (wartość 255). Jest to naturalne, bo jeśli oglądamy taką scenę w rzeczywistości (jako całość), to nie widzimy ani detali w obszarze czerni, ani detali w obszarze bieli (znów kłania się kolega Adams). Własnie taka scena jest na rysunku.


Może być tak, że będziemy dysponowali aparatem o gigantycznej rozpiętości tonalnej i na jednym zdjęciu zarejestrujemy wszystko, od drobnych detali na powierzchni sadzy, po subtelne detale plam na słońcu. Jeśli takie coś uzyskamy i będziemy chcieli to coś wyświetlić na monitorze lub wydrukować na papierze, to stwierdzimy, że się nie da. Dlaczego? Ano dlatego, że rozpiętość tonalna takiej sceny przekracza możliwości urządzeń do prezentacji zdjęć, czyli monitorów, drukarek, labów i papieru. Nie da się, bo nasz monitor nie będzie świecił jak słońce i nie będzie tak czarny jak ta sadza.To jest chyba oczywiste?
Nie jest oczywiste, bo się da wyświetlić. I sam właściwie niżej piszesz jak się to dzieje:


Jeśli jednak mimo wszystko chcemy takie coś zrobić, to możemy spróbować jakoś to "wtłoczyć" w obszar możliwy do wyświetlenia, czyli zrobić jakiegoś tam super HDRa, czy coś takiego. Jest tylko jedno ale. To nie monitor wyświetli zwiekszoną rozpiętość tonalną, tylko my spowodujemy sztuczne i nienaturalne "spłaszczenie" rozpiętości tonalnej takiej sceny i dostosujemy obrazek do możliwości urządzeń prezentujących zdjęcia. W efekcie powstanie obrazek o rozpiętości tonalnej, która nie przekracza możliwości kalibrowanego monitora, drukarki, czy papieru. Obrazek, który będzie w sposób sztuczny przedstawiał naszą scene o gigantycznej rozpiętości tonalnej "wciśniętą" w rozpiętość tonalną typowego zdjęcia. Zrobić to się da, ale to będzie bardzo zły obrazek, z totalnie "rozjechaną" kolorystyką, a na dodatek nie będzie na nim widać: albo detali tej sadzy, albo tych plam na słońcu, albo niczego innego poza tymi detalami.
Z tym, że to nie wymaga wcale naszych nadzwyczajnych kombinacji, specjalnej obróbki itd. To aparat robi sam, przypisując czerni 0, a bieli 4095 (zakłądając perfekcyjne naświetlenie). Detale na nim będą widoczne, kolory się nie rozjadą (bo i niby dlaczego?). Przykład - matryca Fuji S5PRO. Przy zapisie np w 16 bitowym kolorze informacji będzie dużo, a czy monitor potrafi wyświetlić takie niuanse - to inna sprawa. Te prymitywne i nie skalibrowane monitory pewnie zatracą część detalu. Wydobywac detal, tak by go było widać na prymitywnym monitorku będzie można łatwo, zmieniając lokalnie kontrast.

JK
11-05-2009, 16:38
To ja mam taką drobną propozycję. Zrób zdjęcie słońca, wyświetl je na monitorze, a następnie zrób spotem dwa pomiary. Pomierz słońce w rzeczywistości i pomierz słońce na ekranie. Jeśli ci wyjdą identyczne warunki ekspozycji, to masz rację. Jeśli jednak wyjdą różne, to ja mam rację. Taki prosty, wiele mówiący test. Możesz też inaczej to zrobić. Usiądź metr przed monitorem, na którym wyświetlisz zdjęcie słońca i posiedź tak godzinę, jeśli się spocisz i opalisz, to też przyznam ci rację. :wink:

Jacek_Z
11-05-2009, 17:10
Przemyśl ten eksperyment jeszcze raz, bo on nic nie udowadnia :-D
Nigdzie nie twierdzę, że wartość 4095 da mi jasność taką, jaką ma fotografowana scena (np słońce)
255, 4096 i 65535 daje taką samą jasność monitora, odpowiednio w 8, 12, 16 bitach.
Ale w 8 bitach zarejestruje się tylko 255 poziomów, a w 16 bitach - 65535 poziomów jasności.
Jaki stąd wniosek? W 16 bitach jest pole manewru - w zależności jak się oprogramuje aparat (matrycę) ( i jakie są jej możliwości jeśli chodzi o zliczanie fotonów) są 2 możliwości (a nawet jest i trzecia, pośrednia):
1. można w 16 bitach rejestrować wiele większą rozpiętość tonalną sceny, niż w 8 bitach (bo tam można zauważyć tylko 255 poziomów jasności)
2. można taką samą rozpiętośc sceny przedstawić wiele precyzyjniej niż w 8 bitach, bo tak samo duży odstęp w EV pociąc na aż 65535 poziomów.

Czornyj
11-05-2009, 17:26
Robiłem ostatnio zdjęcie wnętrza - scena miała zbyt dużą rozpiętość tonalną:
Tak źle +2EV

https://forum.nikoniarze.pl//brak.gif
źródło (http://members.chello.pl/m.kaluza/DR1.jpg)
Tak niedobrze -2EV

https://forum.nikoniarze.pl//brak.gif
źródło (http://members.chello.pl/m.kaluza/DR2.jpg)
Istotnie, monitor czy odbitka przenoszą 7-8EV, ja zaś fotografowałem scenę o rozpiętości 12EV - skompresowanie tego zakresu do 8EV dałoby dość mdły rezultat. Tylko nikt nie powiedział, że muszę kompresować całość - mając do dyspozycji większą DR zakodowaną w 16-o bitowym pliku mogę sobie lokalnie wyciągać z danego miejsca ile mi się zamarzy:

https://forum.nikoniarze.pl//brak.gif
źródło (http://members.chello.pl/m.kaluza/DR3.jpg)

JK
11-05-2009, 17:26
Jacku. Nie interesuje mnie twoje pole manewru, bo nie o tym rozmawiamy.

Kalibrowany monitor ma pewną rozpiętość tonalną, której nie przekroczysz. Można go trochę podkręcić, ale wtedy już nie będzie kalibrowany. Te twoje "manewry" nigdy nie spowodują, że obraz zostanie wyświetlony z większą rozpiętością tonalną, niż to umożliwia monitor. Nie spowodują też, że papierowa odbitka będzie miała większą rozpiętość tonalną, niż może papier, drukarka i lab. Nie pojmujesz tego?

Nie da się i koniec. Nie ma o czym dyskutować.

JK
11-05-2009, 17:36
.... Istotnie, monitor czy odbitka przenoszą 7-8EV, ja zaś fotografowałem scenę o rozpiętości 12EV - skompresowanie tego zakresu do 8EV dałoby dość mdły rezultat. Tylko nikt nie powiedział, że muszę kompresować całość - mając do dyspozycji większą DR zakodowaną w 16-o bitowym pliku mogę sobie lokalnie wyciągać z danego miejsca ile mi się zamarzy ......

No to chyba jesteśmy w domu.

Ręcznie możesz sobie robić co chcesz, ale nie wyciągać, tylko spłaszczać. Spłaszczać tak, żeby z wynikową rozpiętością tonalną nie przekroczyć tych magicznych 8EV labu, drukarki, JPEGa, papieru, czy monitora. Aparat tego automatycznie nie zrobi, bo nie wie jak ma to zrobić. Nie wie co ma spłaszczać, a co zostawić. Jeśli zrobi to wszystko równo, czyli zmniejszy kontrast obrazka, to będzie kiepsko - "mdło" i nieciekawie. Dlatego żaden aparat tego nie robi i dlatego w pierwszym poście tego wątku napisałem, że matryca ma duzo większe możliwości rejestracji obrazu, niż jest to realnie potrzebne.

Czornyj
11-05-2009, 17:44
Dlatego żaden aparat tego nie robi i dlatego w pierwszym poście tego wątku napisałem, że matryca ma duzo większe możliwości rejestracji obrazu, niż jest to realnie potrzebne.

Po pierwsze - jak widać powyżej większa DR była mi realnie potrzebna, a po drugie - można np. lekko spłaszczyć same światła, by uniknąć na zdjęciu czystej bieli.

Po trzecie - opracowywane są obecnie algorytmy lokalnego mapowania większej rozpiętości tonalnej w taki sposób, by uzyskać percepcyjnie naturalny efekt i z tego co widziałem rezultaty są obiecujące. Że większość niedoświadczonych użytkowników zrobi sobie tą wielką DR kuku, to już inna para kaloszy.

Jacek_Z
11-05-2009, 17:49
Edit - już popędzili z tekstem :), poniższe pisałem zbyt długo, nie widziałem powyższych 3 postów, 2 JK i 1 czornego

Więc popatrz na powyższe przykłady zdjęć czornego. Scena miała (załóżmy) 14 EV, na matrycy rejestrującej powiedzmy 10 EV gubiła detale w światłach lub czerniach (w zależności czy niedoświetlono czy prześwietlono).

Teraz oglądamy to jako jpg, a więc na 255 poziomach, na 8 bitach. Wygląda to naturalnie, bo jest coś takiego jak akomodacja, przez zwężenie źrenicy oka możemy zobaczyc szczegóły w jasnym, przy rozszerzeniu - w ciemnym, w zależności od tego jakiemu fragmentowi sceny sie przygląda człowiek. Mózg (komputer) nam to skleja.
Oczywiści tu czornyj wydobył różnice obróbką, ale to dlatego, że nie ma takich matryc (może ta z Fuji?). Kiedyś może (a nawet zapewne) będzie od razu rejestrowana taka rozpiętość.
Martwisz się o naturalność wyglądu sceny mającej ponad 8 EV rozpiętości wg mnie niepotrzebnie.
Ja wiem, że często fajniej wygląda coś o mniejszej rozpiętości (vide - slajdy na których pracowałem pół życia), ale duża rozpiętość (ściśnięta) tez potrafi dobrze wyglądać, co udowadniają powyższe zdjęcia.

Teraz sobie wymyslam: być może soft aparatu będzie dawał możliwość wyboru, z jaką rozpiętością ma pracować matryca (w fuji tak to jest, ale z "konieczności", bo są podwójne piksele). Jak fotograf zobaczy, że pracując na dużej dynamice histogram ma ładny przebieg, ale się kończy daleko od któregoś z brzegów, to będzie się przełączał w mała dynamikę matrycy, histogram będzie rozciągnięty do obu brzegów.

JK
11-05-2009, 17:58
No przecież to zdjecie, które zrobił Czornyj, nie ma więcej niż 8EV. Zostało sztucznie "sprowadzone" do tych 8EV, bo więcej wyświetlić się nie da. Żeby nie wiem jak wielką rozpiętość miała matryca, to i tak bez ręcznych robótek takie zdjęcie nie powstanie. A jak nawet powstanie, to i tak nie będzie miało wiecej niż 8EV.

Chyba, że uda ci się ten test z opalaniem. :mrgreen:

Czornyj
11-05-2009, 18:00
Edit - już popędzili z tekstem :), poniższe pisałem zbyt długo, nie widziałem powyższych 3 postów, 2 JK i 1 czornego

Więc popatrz na powyższe przykłady zdjęć czornego. Scena miała (załóżmy) 14 EV, na matrycy rejestrującej powiedzmy 10 EV gubiła detale w światłach lub czerniach (w zależności czy niedoświetlono czy prześwietlono).

Teraz oglądamy to jako jpg, a więc na 255 poziomach, na 8 bitach. Wygląda to naturalnie, bo jest coś takiego jak akomodacja, przez zwężenie źrenicy oka możemy zobaczyc szczegóły w jasnym, przy rozszerzeniu - w ciemnym, w zależności od tego jakiemu fragmentowi sceny sie przygląda człowiek. Mózg (komputer) nam to skleja.
Oczywiści tu czornyj wydobył różnice obróbką, ale to dlatego, że nie ma takich matryc (może ta z Fuji?). Kiedyś może (a nawet zapewne) będzie od razu rejestrowana taka rozpiętość.
Martwisz się o naturalność wyglądu sceny mającej ponad 8 EV rozpiętości wg mnie niepotrzebnie.
Ja wiem, że często fajniej wygląda coś o mniejszej rozpiętości (vide - slajdy na których pracowałem pół życia), ale duża rozpiętość (ściśnięta) tez potrafi dobrze wyglądać, co udowadniają powyższe zdjęcia.

Teraz sobie wymyslam: być może soft aparatu będzie dawał możliwość wyboru, z jaką rozpiętością ma pracować matryca (w fuji tak to jest, ale z "konieczności", bo są podwójne piksele). Jak fotograf zobaczy, że pracując na dużej dynamice histogram ma ładny przebieg, ale się kończy daleko od któregoś z brzegów, to będzie się przełączał w mała dynamikę matrycy, histogram będzie rozciągnięty do obu brzegów.

Nie Jacku - ja sobie połączyłem te dwa ujęcia w jedno o większej DR, po czym zostawiłem całe prześwietlone, a w przepałach lokalnie obniżałem ekspozycję i to w różnym stopniu dla wybranych fragmentów. Automatycznie nie da się tego dobrze zrobić, bo zdjęcie ma wtedy strasznie obniżony kontrast.

mathu
11-05-2009, 18:06
JK znowu piszesz jedno i to samo, a mnie już się naprawdę nie chce tłumaczyć tego po raz kolejny...

Tw twoje "ręczne robótki" to właśnie ta cała magia która siedzi w dużej dynamice negatywów i którą każdy fotograf cyfrowy powinien opanować. Pokazywałem w tym wątku zdjęcia bez robótek i z robótkami, teraz Czornyj pokazał swoje i masz już na n-tym przykładzie zaprezentowane, że liczba bitów matrycy nie przekłada się 1:1 na liczbę bitów na monitorze i że każdy dodatkowy EV matrycy się przydaje. Nie wiem ile jeszcze zamierzasz ciągnąć ten temat...

Jacek_Z
11-05-2009, 18:07
No przecież to zdjecie, które zrobił Czornyj, nie ma więcej niż 8EV. tak, i zauważ, że każde z tych trzech ma te 8 EV na monitorze, a jednak wyglądają inaczej, prawda:-D?


Nie Jacku - ja sobie połączyłem te dwa ujęcia w jedno o większej DR, po czym zostawiłem całe prześwietlone, a w przepałach lokalnie obniżałem ekspozycję i to w różnym stopniu dla wybranych fragmentów.
Domyślałem się jak to zrobiłeś.


Automatycznie nie da się tego dobrze zrobić, bo zdjęcie ma wtedy strasznie obniżony kontrast.no i dlatego, że nie miałes do dyspozycji takiej matrycy.

Czornyj
11-05-2009, 18:31
Matryca nie ma znaczenia - wykonując bracketing i łącząc ekspozycje możemy sobie dowolnie zwiększać DR naszego zdjęcia. Kłopot w tym, że żeby potem uzyskać taki dobry rezultat trzeba dość umiejętnie dobierać stopień ekspozycji lokalnie dla danych partii, bo faktycznie na monitorze mamy do dyspozycji tylko ok. 8EV i tego za bardzo nie da się przeskoczyć, ani nawet nie ma sensu, bo odbitka w praktyce ma zwykle jeszcze mniej (6-7EV).

W niczym nie ujmuje to jednak przydatności matryc o dużej DR - tyle tylko że posługiwanie się nimi nie jest takie proste i oczywiste, jakby się mogło wydawać.

JK
11-05-2009, 18:33
...... Pokazywałem w tym wątku zdjęcia bez robótek i z robótkami, teraz Czornyj pokazał swoje i masz już na n-tym przykładzie zaprezentowane, że liczba bitów matrycy nie przekłada się 1:1 na liczbę bitów na monitorze ...
A gdzie ja to napisałem? Może poczytaj uważnie co zostało napisane.


...... i że każdy dodatkowy EV matrycy się przydaje. ...
A czy ja napisałem gdzieś, że jest inaczej? Dlatego właśnie robię zdjęcia D3.

Gdybyś miał kłopot z rozumieniem pisanego tekstu, to pomogę:

..... 8 bitowa matryca jest wystarczająca dla potrzeb współczesnego sprzętu komputerowego, a każde rozszerzenie zakresu rejestracji koloru, na przykład do 12 bitów, daje dodatkowo bardzo, bardzo duże pole do popisu dla cyfrowej obróbki zdjęć i jest przydatne nie ze względu na mityczną rozpiętość tonalną, której i tak wykorzystać nie można, ale ze względu na minimalizację szumów, korekcje naświetlania, czy korekcje balansu bieli. ........
To z pierwszego posta tego wątku.

mathu
11-05-2009, 18:46
..... 8 bitowa matryca jest wystarczająca dla potrzeb współczesnego sprzętu komputerowego, a każde rozszerzenie zakresu rejestracji koloru, na przykład do 12 bitów, daje dodatkowo bardzo, bardzo duże pole do popisu dla cyfrowej obróbki zdjęć i jest przydatne nie ze względu na mityczną rozpiętość tonalną, której i tak wykorzystać nie można, ale ze względu na minimalizację szumów, korekcje naświetlania, czy korekcje balansu bieli. ........

Można.

Jakby Czornyj miał matrycę rejestrującą 16EV to nie musiałby robić dwóch zdjęć.

Jacek_Z
11-05-2009, 19:02
Matryca nie ma znaczenia - wykonując bracketing i łącząc ekspozycje możemy sobie dowolnie zwiększać DR naszego zdjęcia.
nie zawsze można robic bracketing. Modelki na plaży, część ciała w słońcu, twarz w cieniu - przyda się większe DR niz jest teraz w D3x


Jakby Czornyj miał matrycę rejestrującą 16EV to nie musiałby robić dwóch zdjęć.Trochę można zyskać wołając 2x rawa, na światła i na cienie. Jak rozumiem to było jedno zdjęcie, w którym różne partie były traktowane różnymi krzywymi (i potem składane)


Kłopot w tym, że żeby potem uzyskać taki dobry rezultat trzeba dość umiejętnie dobierać stopień ekspozycji lokalnie dla danych partii,

W niczym nie ujmuje to jednak przydatności matryc o dużej DR - tyle tylko że posługiwanie się nimi nie jest takie proste i oczywiste, jakby się mogło wydawać.To jak oprogramują takie "przyszłościowe" matryce producenci to inna sprawa. Już teraz robione sa rózne zabiegi. ADL w nikonie, w Fuji S5Pro podwójne piksele i w konsekwencji do wyboru dynamika 100 czy 400%. Będą i inne metody, w miarę rozwoju matryc producenci zaproponują rozwiązania. Pewnie będzie coś w rodzaju auto - kontrastu z PS, bo gdyby matryca rejestrowała ze 20 EV to zwykła scena by wyglądała kiepsko. Zapewne wtedy odrzuci się części skrajne "histogramu", gdzie nie ma żadnej info, a to co jest rejestrowane zostanie zapisane na mniejszej ilości bitów (lub interpolowane w górę, do xx bitowego koloru - to kwestia wtórna, mniej istotna). Taka opcja będzie w wersji auto i zapewne w wersji manualnej, gdzie się będzie wybierało krzywą lepsza dla świateł albo lepszą dla cieni itd.
Cos mi się wydaje, że sprzęt profi może być jeszcze bardziej skomplikowany, bardziej konfigurowalny :-D, ale co się wtedy będzie na forum działo, oj oj :mrgreen:

JK
11-05-2009, 19:03
..... 8 bitowa matryca jest wystarczająca dla potrzeb współczesnego sprzętu komputerowego, a każde rozszerzenie zakresu rejestracji koloru, na przykład do 12 bitów, daje dodatkowo bardzo, bardzo duże pole do popisu dla cyfrowej obróbki zdjęć i jest przydatne nie ze względu na mityczną rozpiętość tonalną, której i tak wykorzystać nie można, ale ze względu na minimalizację szumów, korekcje naświetlania, czy korekcje balansu bieli. ........
Można.

Jakby Czornyj miał matrycę rejestrującą 16EV to nie musiałby robić dwóch zdjęć.

Taaa. Jaasne. Żeby zrobić digarta, a nie zdjęcie. Przeciez to właśnie napisałem. Napisałem o OBRÓBCE. Czytaj ze zrozumieniem.

Jacek_Z
11-05-2009, 19:11
Żeby zrobić digarta, a nie zdjęcie. Zamieść gdzieś w sieci tego składaka czornego. Nikt nie zakwalifikuje tego jako "dziwoląga", każdy będzie sądził, że to zwykłe zdjęcie.

mathu
11-05-2009, 19:48
Taaa. Jaasne. Żeby zrobić digarta, a nie zdjęcie.

Mhm...

A takie zachowanie filmu negatywowego to też digart czy zdjęcie?


https://forum.nikoniarze.pl/imgimported/2009/05/crvFilm-2.gif
źródło (http://www.covingtoninnovations.com/dslr/crvFilm.gif)

Ze sceny wchodzi 10EV dynamiki które są następnie kompresowane do 6EV wyjściowej dynamiki na odbitce. Nie obcinane, tylko kompresowane. Dokładnie tak samo jak ja wywołuję rawy w ACR i mieszczę w JPG dynamikę sceny o wiele większą niż 8EV.

Czornyj
11-05-2009, 21:01
Jacek_Z - D2X ma skuteczną rozpiętość tonalną ok. 8EV - ze 2EV można jeszcze wyciągnąć z cieni, ale wydobywa się zbyt dużo szumu i nieciągłości. W D3/D700 nie ma tego problemu i tam można śmiało ciągnąć z cieni, a do tego ma jeszcze większy zapas w światłach - spokojnie można wyciągać ok. 12EV niezłej jakości (w porywach do 13), trzeba tylko chronić światła przed przepałem.
Wracając do mojego zdjęcia - wykonałem dwie ekspozycje o DR 8EV i złożyłem je w jedną o rozpiętości 12EV. Trzeba tu jednak powiedzieć, że 12EV plik po prostu skompresowany do 8EV wygląda se raczej średnio:

https://forum.nikoniarze.pl//brak.gif
źródło (http://members.chello.pl/m.kaluza/DR4.jpg)
Dlatego ze swojej 12EV-owej ekspozycji lokalnie wymaskowałem sobie strefy, które rozjaśniłem o +2EV, oraz przyciemniłem o -2EV i -4EV - w sumie zdjęcie składa się jednak ze stref o rozpiętości 8EV, dzięki czemu zachowało kontrastowość i tak dobrze wygląda:

https://forum.nikoniarze.pl//brak.gif
źródło (http://members.chello.pl/m.kaluza/DR5.jpg)
JK ma słuszność w tym, że standardowy papier i monitor więcej nie przeniosą - i nie ma racji, bo stosując bardziej inteligentną obróbkę można z tego zrobić doskonały użytek.

mathu - z negatywu nie wywoływało się praktycznie nigdy całej dostępnej DR, tylko jej fragment.

mathu
11-05-2009, 21:08
mathu - z negatywu nie wywoływało się praktycznie nigdy całej dostępnej DR, tylko jej fragment.
Ale nie robiło się silnego odcięcia jak w cyfrówce - na brzegach cienie i światła łagodnie opadały do czerni i bieli. Dlatego właśnie zdjęcia z negatywu są pozbawione takich przepałów jak w cyfrówce.

JK
11-05-2009, 21:26
......, JK ma słuszność w tym, że standardowy papier i monitor więcej nie przeniosą - i nie ma racji, bo stosując bardziej inteligentną obróbkę można z tego zrobić doskonały użytek. .....

Czy wy nie umiecie czytać? Gdzie ja napisałem, że się nie da? Od samego początku, od pierwszego posta tego wątku powtarzam, że zapas danych na obróbkę jest bardzo duży. Przedstawiłem na obrazkach, jak duże są te nadmiary informacji. To Jacek_Z ma jakąś obsesję tonalną na punkcie monitorów i papieru. Ja tylko napisałem, że 8-bitów to max. co może wyświetlić monitor i że pozostałe dane z matrycy są nadmiarowe - możliwe do wykorzystania podczas obróbki, ale podczas obróbki, a nie podczas standardowego wyświetlania zdjęcia na monitorze.

Może jednak spróbujcie wrócić na poczatek tego wątku i poczytać, co napisałem.

mathu
11-05-2009, 21:50
Cały twój pierwszy post jest napisany w tonie "dynamika matryc nie ma znaczenia, bo i tak monitor wyświetla tylko 8EV".

Wypisujesz też rzeczy takie jak:


Nasuwa się też wniosek, że rewelacyjna "rozpiętość tonalna S3PRO" jest głównie wymysłem marketingowym i polega w dużej mierze na zastosowaniu innego algorytmu przekształcania obrazu do przestrzeni 8 bitowej - algorytmu wzorowanego na metodach HDR. Nikon takich sztuczek w typowych zdjęciach nie robi i dlatego daje pozornie mniejszą rozpiętość tonalną zdjęć.

Przecież to jest po prostu bzdura.

Jacek_Z
11-05-2009, 21:55
No patrz, a ja się w ogóle nie przejmuję zakresem możliwości wyświetlania monitorów :-D co mi imputujesz (tylko się nie denerwuj, wiem, że to ważne, ale ona jest jaka jest i już), a jedynie możliwą do zarejestrowania rozpiętością tonalną fotografowanej sceny. To co ma aparat przed matrycą i co potrafi matryca to dla mnie sedno sprawy.

Tytuł wątku jest chyba nieco mylący, bo JK zagadnienie rozpatruje praktycznie właśnie pod kątem rozdzielczości tonalnej pliku, czyli tego co zejdzie z matrycy. Sporo osób tu uważa, że to sprawa wtórna, choć nie da się ukryć istotna, wyjaśnia jak zdjęcie widzimy na monitorze, papierze itd.

JK
12-05-2009, 11:52
.... Tytuł wątku jest chyba nieco mylący, bo JK zagadnienie rozpatruje praktycznie właśnie pod kątem rozdzielczości tonalnej pliku, czyli tego co zejdzie z matrycy. Sporo osób tu uważa, że to sprawa wtórna, choć nie da się ukryć istotna, wyjaśnia jak zdjęcie widzimy na monitorze, papierze itd.

A możesz oglądać cyfrowe zdjęcia w inny sposób, niż jako wyświetlone na monitorze lub wydrukowane na papierze? Jak?

Ja piszę o konkretach, o tym co mozna zobaczyć, a nie o wirtualnej rzeczywistości, której nie można wyświetlić, czy wydrukować bez agresywnej obróbki.

Jacek_Z
12-05-2009, 12:42
Ja piszę o konkretach, o tym co mozna zobaczyć, a nie o wirtualnej rzeczywistości, której nie można wyświetlić, czy wydrukować bez agresywnej obróbki.Agresywna obróbka jest potrzebna, bo matryce za mało potrafią ;). gdyby matryce potrafiły więcej, to obróbka by była prościutka. Wtedy da się łatwo wyświetlić to, czego nie potrafi matryca o DR rzędu 8 EV.
Piszesz o tym co można zobaczyc na monitorze. A ja pisze o tym, co mozna zobaczyc np za oknem, a chce się to pokazać na monitorze (zdjęciu). Ciebie interesuje ostatni etap, mnie to co jest na początku.


A możesz oglądać cyfrowe zdjęcia w inny sposób, niż jako wyświetlone na monitorze lub wydrukowane na papierze? Jak?
Mnie interesuje całość, czyli jak fotografowaną scenę (a nie tylko plik) zobaczyć na monitorze. Nie rozbieram na czynniki pierwsze samego wyświetlania zdjęć, bo zanim się zrobi zdjęcie to jest przed nami nie monitor, a fotografowana scena, o takim a nie innym kontraście. Nie martw się o wyświetlanie detali ze sceny o tak dużej rozpiętości, bo to nie problem. Generalnie nigdy nam nie zależy na pokazaniu wszystkich detali i ściskanie czy spłaszczanie pewnych fragmentów obrazu nie stanowi problemu. Pozbycie się informacji to nie problem. Ale gdy sytuacja jest odwrotna - gdy brak informacji (w światłach czy cieniach) to nie idzie jej już pozyskać, nie ma skąd, nie ma jak tego uczynić.

Na razie jeśli rozpiętość sceny jest zbyt duża, to jedyne co można zrobić to łagodzić kontrasty oświetlenia (doświetlając cienie itp). Nie zawsze da się jednak złagodzić takie kontrasty (za duży obiekt, za daleko itd). Stąd ciągoty do matryc potrafiących więcej. Ci co robią motywy nie ruszające się mają opcję - HDR.
Wszystko zależy co kto robi, bo ma się taką tendencję do patrzenia na fotografię pod kątem swoich potrzeb. To normalne, dotyczy to 95% rad dawanych na forum :-D.

Dopuszczasz doświatlanie cieni jako metodę naturalną zmniejszania DR, a nienaturalne ma być używanie matryc o większej DR i uzyskującej detale w cieniach w sposób automatyczny?
Mogę wskazać na forum przykłady zdjęc gdzie była ogromna ingerencja w PS, a zdjęcia były uważane za fotografie. Ba, sam jestem ortodoksem:-D i chciałbym rozróżniania "czystej fotografii" :mrgreen: (wiem, nie ma czegoś takiego) od "digartów" itp. Popatrz na wątek w glamour - autorka qstra, tytuł paintings. Popatrz na watek w cafe http://forum.nikon.org.pl/showthread.php?t=98330 i podyskutuj z czornym o naturalności na zdjęciach.
Każdy ma inny pogląd czym jest naturalnie wyglądające zdjęcie. Dla mnie fot qustry i to co w linku do cafe to nienaturalny efekt, a takie nazwijmy to HDR - to coś naturalnego.
Nasze oceny co jest narturalne są bardzo subiektywne. Dyskusja o tym co naturalne jest bezcelowa, rozmawiajac o tym możemy się nigdy nie dogadać. Zostańmy przy "technikaliach".

Slepy
12-06-2009, 23:54
Ja piszę o konkretach, o tym co mozna zobaczyć, a nie o wirtualnej rzeczywistości, której nie można wyświetlić, czy wydrukować bez agresywnej obróbki.

Przestaję już rozumieć zamysł Twojego posta. Zakładam ze w Twoim rozumieniu aparaty powinny rejestrowac obraz w przestrzeni 8bit, bo przeciez monitory i tak nie wyświetlą więcej niz te 8bit??
No to wyjasnij, po co w takim razie producenci produkują matryce rejestrujące w 12 i 14 bitach? (Przy Twoich założeniach to nic nie rozumiejące matoły).

Demonizowanie matryc Super-CCD Fuji, to jakaś bzdura jak napisał wyzej mathu.

wyjaśnię Ci coś JK: Matryca Fuji, to 6mpx matryca zbudowana z dwóch rodzajów pixeli. Gdy przyciskasz spust migawki, obraz rejestrują jedne pixele (6mln) - i jest to obraz taki, jak widzą wszystkie inne aparaty. Drugi obraz za tym samym pociągnięciem spustu jest rejestrowany przez te drugie pixele i ma on wartość -2EV względem tych pierwszych. Dzięki temu ta rozpiętość jest poszerzona o -2EV ciemniejszy obraz. Gdy inny aparat zarejestruje scenę i do przestrzeni 8bit nie uda się wcisnąć detali z tych przepalonych miejsc, tam pomoże S-CCD, która wydobędzie z dodatkowych -2EV dodatkowe informacje.

To żaden cud technologiczny, tylko mądrze pomyślana rzecz.

I uwierz (jako posiadacz S5, F80, D60, -czasem-C5D) mogę ci powiedzieć, że niezwykle się przydaje.

Rozumiem profesjonalne podejście do sprawy, lecz przeginasz zasłaniając sie liczbami i próbując obalać "jakieś mity".

Obraz wyświetlany jest w 8bitach, ale my dzięki nowoczesnym matrycom możemy decydować o tym, co z naszych 14bitów zostanie w te 8 bitów upakowane..

Pozdrawiam

SlaWasII
15-06-2009, 08:44
Koniec?! ;)
Uff... pół nocy i cały ranek czytałem z zaangażowaniem takim, jak kiedyś przed najtrudniejszą sesją. I co, teraz wnioski mam sobie sam wyciągnąć? He, he...
Świetny wątek. Ale do konsensusu daleko! Mam swoje przemyślenia ale muszę to jeszcze poukładać w głowie, by nie wkładać kija w mrowisko zbyt pochopnymi uwagami.
Dzięki Jacku i Jacku za ożywioną dyskusję!

mOSAd
15-06-2009, 20:52
To ja jeszcze przypomnę prosto napisany artykuł Kena http://www.kenrockwell.com/fuji/s5/dynamic-range.htm, który dobitnie wyjaśnia, do czego przydaje się rozszerzona dynamika w aparacie (dla nieanglistów - wystarczy sobie obrazki pooglądać i na nie ponajeżdżać). A podsumowując, im większy zakres dynamiczny matrycy (nie ma to związku z tym na ilu bitach to opisujemy!) tym bardziej kontrastowe (dynamiczne) sceny da się sfotografować przy pomocy jednego ujęcia. Jednocześnie tym wolniej nasze krzywe kolorów się nasycają i maleje ryzyko obcięcia krzywej, ze względu na inną dynamikę różnych kanałów barwnych (załóżmy, że wszystkie kanały z osobna mają niby 8 EV, ale kanał czerwony mamy o 2 EV przesunięty w stosunku do zielonego). Daje nam to mniejsze ryzyko pojawienia się dziwnych kolorów (szarości, cyjanów, magent) w światłach.

Wszędzie tam, gdzie mamy do czynienia w kadrze ze słońcem, ze światłami reflektorów, oraz odbiciami tychże, na przykład na wodzie, lub skórze człowieka, dodatkowy zakres dynamiki matrycy jest nieoceniony, ponieważ przy użyciu właściwego oprogramowania, pozwala tak krzywą świateł ukształtować, że będzie przypominała to, co rejestrowało ludzkie oko (wraz z naszym kłamliwym mózgiem). Ilość bitów na kolor pozwala uzyskać płynniejsze przejścia tonalne i dokładniejszy kolor, co nabiera znaczenia właśnie podczas kompresji sceny o dynamice rzędu 12-15EV do naszych 7-8EV na monitorze i papierze. Jeśli się przyjrzymy przykładowi Kena z przechodzeniem koloru czerwonego z biały, okaże się, że żółte plamy na skórze i czasem jej dziwny odcień nagle staną się wytłumaczalne.

Zatem, uważam, że im większy zakres tonalny matryca potrafi zarejestrować tym lepiej. A czy 12 bitów, czy 14, które opisują wartości składowych koloru - to ma już o wiele mniejsze znaczenie w typowych zastosowaniach. 12 bitów jest w 99% przypadków wystarczające (16 razy dokładniejszy opis, niż to potem widzimy na ekranie), ale przy wymagających zastosowaniach (choćby właśnie z pogranicza HDR) dodatkowa precyzja nie zaszkodzi.

We wnioskach w pierwszym poście JK jest jeden jedyny błąd. Reszta jest właściwie prawdziwa (między wierszami można wyczytać pewne tendecje, ale sam tekst pisany jest moim zdaniem w porządku).


Nasuwa się też wniosek, że rewelacyjna "rozpiętość tonalna S3PRO" jest głównie wymysłem marketingowym i polega w dużej mierze na zastosowaniu innego algorytmu przekształcania obrazu do przestrzeni 8 bitowej - algorytmu wzorowanego na metodach HDR.

To jest właśnie ten jeden mylny wniosek. Pomieszanie rozpiętości tonalnej (możliwej do zarejestrowania dynamiki) z rozdzielczością bitową. Ta rewelacyjna rozpiętość tonalna S3PRO jest zasługą zwiększonej - dzięki dodatkowym sensorom - dynamiki, która z bitami nie ma tu nic wspólnego. Ma za to dużo wspólnego z *precyzją* oddania koloru w jasnych partiach obrazu. Zapis w S3Pro mógłby być równie dobrze 7-obitowy i nadal efekt byłby lepszy od 12-u bitów z D200! Różniłaby się jedynie płynność przejść tonalnych, ale nie umiejętność wciśnięcia większej dynamiki w JPEGa i oddania kolorów w światłach.
Najnowsze matryce stosowane w Nikonach, mają jednak zbliżony zakres dynamiki, stąd o ile porównując D200 i S3Pro (czy S5Pro) była to otchłań, o tyle aktualne RAWy z pełnoklatkowych Nikonów (oraz średnioformatowych matryc) niosą już pomalutku informację o obrazie coraz bliższą temu co daje S5Pro. I dopiero w tym momencie (dziś, ale nie prawie trzy lata temu) wykorzystanie tych danych, zależy wyłącznie od oprogramowania (choć cały czas zdecydowany prym wiedzie tu rozwiązanie Fuji!), a niebo prawie zawsze może być niebieskie. Należy jednak dodać, że w formacie DX, matryce Fuji nie mają sobie równych pod względem rejestrowanego zakresu dynamiki (i wierności kolorów) i po prostu miażdżą konkurencję w tej dyscyplinie.

Slepy
16-06-2009, 20:18
Należy jednak dodać, że w formacie DX, matryce Fuji nie mają sobie równych pod względem rejestrowanego zakresu dynamiki (i wierności kolorów) i po prostu miażdżą konkurencję w tej dyscyplinie.

Ale zawsze, wbrew takim faktom, jakie przedstawiłeś i temu ostatniemu stwierdzeniu znajdzie się ktoś, kto nawet mądrymi liczbami się podpierając powie, ze jest inaczej. To jakaś taka wymuszona antypatia do tych matryc, kompletnie nie wiem, czym powodowana...

grzes73
03-09-2009, 00:41
Właśnie dobrnąłem do końca tego wątku i chciałbym się w związku z tym odnieść do poniższej wypowiedzi JK


Zawsze musisz tak dobrać parametry ekspozycji, żeby na matrycy zmieścić całą scenę i zawsze jest to możliwe (w ostateczności możesz użyć filtra do fotografowania słońca). W efekcie matryca zarejestruje zarówno scenę o rozpiętości 3 EV, 10EV, czy 20EV. Jedyne co te obrazy będzie na matrycy różnić to rozmiar pojedynczego kwantu, który będzie coraz większy (dla 3EV będzie to 0,0007326EV, dla 10EV odpowiednio 0,002442EV, a dla 20EV aż 0,004884EV).



Chodzi oczywiście o sporną kwestię zakresu tonalnego samego elementu światłoczułego. Trudno mi sobie wyobrazić w jaki sposób miałby on zarejestrować zmiany natężenia światła o 20 rzędów wielkości?

Na najbardziej podstawowym poziomie, samego kawałka krzemu, mamy dwa naturalne ograniczenia. Pierwsze z nich to wydajność kwantowa całego procesu fotoelektrycznego a drugie to nieodłączny szum. Stosunek tych dwóch wielkości determinuje zakres tonalny samego elementu światłoczułego. O ile się nie mylę to jest zasadnicze ograniczenie, które pojawia się na poziomie podstawowym, zanim jeszcze dochodzi do zagadnień związanych z przetwarzaniem analogowo-cyfrowym. Typowe wartości jakie można znależć to coś z zakresu 1:3000 do 1:5000, zatem daleko tu jeszcze do rejestrowania scen o rozpiętości tonalnej 20 EV.

Jeśli parametry ekspozycji zostaną tak dobrane aby nie było przepaleń to lwia część z tych 20EV zginie po prostu w szumie, a to trudno uznać za "rejestrację".

grzes73
03-09-2009, 08:14
oczywiscie 20EV to nie 20 a 6 rzedow wielkosci (pozno bylo jak pisalem :-)), co oczywiscie w niczym nie zmienia faktu, ze daleko jeszcze do tej granicy.

JK
06-09-2009, 22:18
Jeszcze jeden nawiedzony.

Poczytaj to wszystko uważnie, może nawet kilka razy, spróbuj zrozumieć co tu napisałem, to wtedy może będziesz wiedział o co chodzi. Piszesz o elemencie światłoczułym, ale zapominasz o tym, że zanim ten element zadziała, to trzeba do niego dopuścić światło. O tym ile światła dopuścimy do matrycy decyduje nie matryca, tylko czas naświetlania i przysłona obiektywu, a więc elementy nijak nie związane z tym twoim elementem światłoczułym. Jeśli scena ma (na przykład) rozpiętość 15EV i w wyniku jej rejestracji przy jakimś założonym czasie i jakiejś założonej przysłonie mogą wystapić przepalenia to co robimy? Skracamy czas naświetlania lub przymykamy przysłonę. Jeśli skrócimy ten czas dwukrotnie, to dopuścimy do matrycy dwa razy mniej światła, a tym samym jasność naszej sceny dla matrycy nie będzie już wynosiła 15EV, tylko 14EV - mam nadzieję, że to oczywiste? Jeśli nadal jest zbyt jasno, to możemy czas naświetlania skracać jeszcze bardziej. Jeśli skrócimy ten czas osiem razy (3EV), to dla matrycy nasza scena o rozpiętości 15EV stanie się sceną o rozpiętości 12EV. Rozumiesz to, czy to zbyt trudne? Element światłoczuły jeszcze nic nie zarejestrował, a rozpiętość tonalna sceny została zmniejszona (dopasowana) za pomocą odpowiedniego doboru parametrów ekspozycji. Jeśli chcesz, to możesz sobie zmniejszyć tę rozpiętość jeszcze bardziej - najlepiej tak, żeby nie przepalić świateł. Dopiero wtedy, gdy dobierzesz odpowiednie parametry ekspozycji i zrobisz zdjęcie, zacznie działać ten twój element światłoczuły. Nie wcześniej.

Dla każdego logicznie myślącego człowieka jest jasne, że cały system doboru parametrów ekspozycji służy dopasowaniu rozpiętości tonalnej fotografowanej sceny do możliwości rejestracyjnych elementu światłoczułego (z filmem było dokładnie tak samo). Oczywiste jest to, że identyczne wartości jasności rejestrowane przez elementy światłoczułe matrycy, podczas rejestracji różnych zdjęć odpowiadają różnym jasnościom fotografowanych scen. Nie ma tu stałego przypisania jasności punktów fotografowanej sceny do wartości liczbowych rejestrowanych przez matrycę. Jeśli tak jest, a jest tak bezdyskusyjnie, to w sensie fotograficznym, nie można mówić o tym, że matryca ma jakąś konkretną rozpiętość tonalną. Można jednak tak mówić, rozmawiając o konstrukcji matrycy jako takiej i jest to wtedy coś takiego, jak omawiana w pierwszym poście, rozpiętość tonalna monitora, czy papieru. To jest rozpiętość tonalna urządzenia zwanego matrycą. Jeśli nasza matryca "produkuje" 12-to bitowe dane o obrazie, to ta matryca ma teoretyczną rozpiętość tonalną równą 2 do potegi 12. Analiza tej rozpiętości tonalnej matrycy może oczywiście uwzględniać nieliniowości, szumy i inne wady, ale to nadal nie ma nic wspólnego z fotografowana sceną, bo nie da się na stałe powiązać wartości rejestrowanych przez matrycę z jasnością (rozpiętością tonalną) różnych fotografowanych scen. Nie da się, bo każdą scenę można fotografować przy różnych ustawieniach parametrów ekspozycji i jeśli te parametry będą różne, to ta sama scena będzie rejestrowana przez matrycę na różne sposoby (w różnych zakresach wartości). Co więcej, za pomocą współczesnych aparatów, z tych różnie zarejestrowanych zdjęć możemy bez większego trudu uzyskać na monitorze praktycznie identyczne obrazki naszej fotografowanej sceny. Możemy to zrobić dlatego, że jest format RAW, a możliwości rejestracyjne współczesnych matryc wielokrotnie przekraczają realne potrzeby związane z wyświetlaniem lub drukowaniem zdjeć. I o tym właśnie była ta dyskusja.

Teraz rozumiesz? Czy może nadal zbyt trudne?

Jacek_Z
06-09-2009, 22:33
Jeśli nasza matryca "produkuje" 12-to bitowe dane o obrazie, to ta matryca ma teoretyczną rozpiętość tonalną równą 2 do potegi 12.
jedną scenę możesz zarejestrować tylko przy jednej ekspozycji - to oczywiste. Jesli chcesz miec zarejestrowany poziom zerowy (czerń) oznacza, że na pojedyńczą komórkę pada najwyżej do kilku (x) fotonów (nie wiem ile). A do zarejestrowania bieli przy 12-bitowym obrazie oznacza, że musi złapac te x do 12 potęgi. To olbrzymia liczba. Sęk w tym, że to nie takie proste i na dzis to chyba max co potrafi matryca. Po prostu "wiaderko" (te z przykładów o ekspozycji - zależność czasu i przysłony) nie mieści więcej wody (tzn fotonów).
Kiedyś trafiłem na pewne opracowanie w internecie mówiące o tym, a także poważnie i wyczerpująco ktoś o tym pisał na forum KKM.

JK
06-09-2009, 22:46
jedną scenę możesz zarejestrować tylko przy jednej ekspozycji - to oczywiste. Jesli chcesz miec zarejestrowany poziom zerowy (czerń) oznacza, że na pojedyńczą komórkę pada najwyżej do kilku (x) fotonów (nie wiem ile). A do zarejestrowania bieli przy 12-bitowym obrazie oznacza, że musi złapac te x do 12 potęgi. To olbrzymia liczba. Sęk w tym, że to nie takie proste i na dzis to chyba max co potrafi matryca. Po prostu "wiaderko" (te z przykładów o ekspozycji - zależność czasu i przysłony) nie mieści więcej wody (tzn fotonów).
Kiedyś trafiłem na pewne opracowanie w internecie mówiące o tym, a także poważnie i wyczerpująco ktoś o tym pisał na forum KKM.

Jacku, daj już spokój, bo aż przykro to czytać.

Zrób zdjęcie naświetlone w punkt. Następnie zrób drugie zdjęcie (NEF) tej samej sceny z czasem krótszym o 1EV bez zmiany pozostałych parametrów. Później otwórz to drugie zdjęcie w NX-ie (na przykład) i zrób korektę ekspozycji o +1 EV. Nie rób ze zdjeciami nic więcej, tylko zapisz je jako JPEGi, zanieś oba zdjęcia do labu i jeśli odróżnisz, które jest które, to może Ci uwierzę. :wink:

Jacek_Z
06-09-2009, 22:59
Co ma piernik do wiatraka? Ja też sądzę (i mogę się założyć) , że nie da rady odróżnić kadru innego o 1 EV w momencie gdy ma się zapas redukując potem zdjęcie do zapisanego na 8 bitach. W dodatku zapewne pomniejszonego co zupełnie zatuszuje ewentualny szum.
Spróbuj zrozumieć co piszemy. Piszemy o możliwości zrobienia sceny o dużej rozpiętości na jednym zdjęciu, przy jednej ekspozycji. Nie rozpatrujemy w ogóle zrobienia z niego odbitki ani oglądania go na monitorze. Piszemy o informacji, która może być (lub jej nie ma) w pliku.

temat może nieco przybliżą posty:
http://klubkm.pl/forum/showpost.php?p=569901&postcount=2
http://klubkm.pl/forum/showpost.php?p=641371&postcount=259
choć mam wrażenie że gdzieś pisali tam o tym jeszcze dokładniej, ale chyba nie potrafie tego wyszukać (hasła krzem i foton dają m.in te linki, inne słowa dają zbyt wiele wyników by mi się chciało przez to przedzierać)

JK
06-09-2009, 23:09
Co ma piernik do wiatraka? Ja też sądzę (i mogę się założyć) , że nie da rady odróżnić kadru innego o 1 EV w momencie gdy ma się zapas redukując potem zdjęcie do zapisanego na 8 bitach. W dodatku zapewne pomniejszonego co zupełnie zatuszuje ewentualny szum.
Spróbuj zrozumieć co piszemy. Piszemy o możliwości zrobienia sceny o dużej rozpiętości na jednym zdjęciu, przy jednej ekspozycji. Nie rozpatrujemy w ogóle zrobienia z niego odbitki ani oglądania go na monitorze. Piszemy o informacji, która może być (lub jej nie ma) w pliku.

Jakiej "dużej rozpiętości na jednym zdjęciu"? Co Ty za brednie opowiadasz. Ani na monitorze, ani na papierze nie uzyskasz rozpiętości tonalnej większej niż 7-8EV. To już było wyjaśniane i myślałem, że dotarło. Tu nie ma o czym dyskutować, bo to jest elementarz.

Jacek_Z
06-09-2009, 23:18
I z tym się zgadzam, powiem więcej - wszyscy się zgadzają i z tym nie polemizują.

przeczytaj post wyżej - dałem nowe linki

JK
06-09-2009, 23:37
......temat może nieco przybliżą posty:
http://klubkm.pl/forum/showpost.php?p=569901&postcount=2
http://klubkm.pl/forum/showpost.php?p=641371&postcount=259
choć mam wrażenie że gdzieś pisali tam o tym jeszcze dokładniej, ale chyba nie potrafie tego wyszukać (hasła krzem i foton dają m.in te linki, inne słowa dają zbyt wiele wyników by mi się chciało przez to przedzierać)

Te linki są OK. Niektórzy sporo mogą się z nich dowiedzieć. Wszystko się tam zgadza, no może pomijając drobne i nieistotne uproszczenia. Te linki to kolejny argument za prawdziwością tego, co napisałem. Tylko trzeba to uważnie przeczytać i zrozumieć - to o obiektywach też :wink:.

grzes73
07-09-2009, 10:54
Tutaj zamiescilem swoja odpowiedz:
http://www.nikon.org.pl/showthread.php?p=1458385#post1458385

MilekS
04-12-2011, 23:37
Czy zastanowiłeś się o czym jest ten tekst? Podpowiem. Ten tekst jest o FOTOGRAFII. Nie o rozważaniach fizyków teoretycznych, nieogarnionych wizjach, czy sennych marzeniach, tylko o FOTOGRAFII. Nas, czyli ludzi zajmujących się fotografią, interesuje zdjęcie, czyli reprodukcja obrazka na papierze i ewentualnie obraz wyświetlony na monitorze. Wszechświat i jego problemy raczej nas w tym wątku nie interesują
Doczytałem do czternastej strony i na razie wystarczy.

Świetny tekst MATHU. Brawo! Doskonałe rozumienie zagadnienia i klarowne jego wyłożenie.

Aż przykro czytać ten nieprzyjemny ton JK, który jest MODERATOREM więc - spodziewałbym się po nim moderowania dyskusji i emocji, a nie agresji w wypowiedziach skierowanych do dyskutantów nie popierających Jego tez.

Czymże jest FOTOGRAFIA? Czyż nie rejestracją obrazu RZECZYWISTOŚCI? Kto tyle pisał o rozpiętości tonalnej SCENY a teraz pisze że Wszechświat Jego (nas?) nie interesuje? Rozumiem, że JK interesuje tylko strumień bitów płynący z matrycy poprzez wzmacniacze, przetworniki, procesory, rejestrowany w pamięci i nie mający nijakiego związku z otaczającą fizycznie realną rzeczywistością. Ale wtedy już nie mówimy o fotografii tylko o przetwarzaniu sygnałów elektrycznych.

Nie będę się rozpisywał o RÓWNOPRAWNOŚCI przetworników o charakterystyce liniowej czy logarytmicznej albo w kształcie krzywej S. Ważne jest, żeby przetwarzanie, z postaci optycznej na elektryczną, obróbka sygnału, rejestracja i powtórne przetworzenie z uwzględnieniem charakterystyki urządzenia zamieniającego sygnały elektryczne na obraz optyczny (monitor, projektor, drukarka, papier, tusze itp) powodowały takie wrażenia WZROKOWE, które będą SUBIEKTYWNIE najlepiej odwzorowywały percepcję wzrokową rzeczywistej fotografowanej sceny. Liniowy charakter przetwornika wcale nie odpowiada charakterystyce pracy zmysłów, dlatego odpowiednie przetwarzanie sygnału kompensuje niedoskonałości i ograniczenia idealnego (w przypadku urządzeń pomiarowych) liniowego urządzenia.

A w skrócie moje wrażenie o wywodach JK - za dużo bitów, za mało logiki.
Zaś o całym wątku - za dużo emocji, za mało merytorycznej dyskusji. Ale pozostało przecież jeszcze paręnaście stron do przeczytania (jeśli wytrwam).