Ostatnio na forum pojawia się sporo wątków i postów dotyczących różnych aspektów ostrości zdjęć. Ktoś tam ma FF/BF i na dodatek to się jakoś dziwnie zmienia; komuś aparat nie ostrzy z długimi obiektywami; komuś nie ostrzy z krótkimi obiektywami; ktoś oddaje aparat do serwisu, bo nie ostrzy na nieskończoność z żadnym obiektywem, a powinien; ktoś inny ma niezły jasny obiektyw, ale tak mydlany, że aż się go używać nie da; ktoś inny byle jakim obiektywem robi ostrzejsze zdjęcia niż obiektywami z najwyższej półki; obiektywy idealnie ostre dla aparatu analogowego są bardzo kiepskie dla cyfry. Te wypowiedzi skłoniły mnie do liczbowego opisania pewnego zjawiska fizycznego, które niektórzy znają i rozumieją, inni instynktownie wyczuwają jego obecność i skutki, lecz nie do końca wiedzą o co chodzi, ale większość fotografujących aparatami cyfrowymi z pewnością nigdy się nad tym nie zastanawiała. Co więcej, nie zdają sobie z tego sprawy niektórzy zawodowi fotografowie z wieloletnim stażem. To co zostanie napisane dalej dotyczy zarówno lustrzanek cyfrowych, kompaktów cyfrowych, jak też cyfrowych hybryd. Dotyczy wszystkiego, co ma wbudowaną cyfrową matrycę do rejestracji obrazów.

Tych, którzy całe to zagadnienie rozumieją i potrafią je opisać za pomocą liczb, wzorów i wykresów, przepraszam za uproszczenia, za zaokrąglenia i za pominięcie pewnych mniej istotnych aspektów. Postawię teraz kilka pytań, a następnie postaram się na nie odpowiedzieć.

- Czy lustrzanka cyfrowa może wyostrzyć na nieskończoność?
- Czy zdjęcie prawidłowo wyostrzone na nieskończoność i zarejestrowane przez cyfrową matrycę będzie ostre?
- Jakie znaczenie w przypadku lustrzanki cyfrowej ma odległość hiperfokalna?

Odpowiedzi na te pytania w fotografii analogowej były jasne proste i dość oczywiste. Lustrzanka analogowa może bez problemu wyostrzyć na nieskończoność, takie zdjęcie będzie ostre od odległości hiperfokalnej do nieskończoności, a jeśli nastawimy odległość ostrzenia na hiperfokalną, to uzyskamy największą możliwą głębię ostrości. Nasuwa się jednak pytanie, czy w przypadku lustrzanek cyfrowych oraz kompaktów i hybryd też tak będzie? Tu odpowiedź nie jest już taka prosta i jednoznaczna. Obiektyw zapewne da obraz ostry, tak samo jak dla lustrzanki analogowej, ale czy można porównywać negatyw lub slajd analogowy z matrycą i czy obraz zostanie zarejestrowany przez matrycę jako ostry tak jak to było w fotografii analogowej?

Przyczyną uzasadnionych wątpliwości jest właśnie cyfrowa matryca stosowana do zarejestrowania zdjęcia. Jak powszechnie wiadomo matryca to bardzo regularna siatka elementów światłoczułych, rozłożonych w węzłach prostokątnej siatki. Matryca taka ma ściśle określoną liczbę punktów w pionie i w poziomie, a to determinuje maksymalną rozdzielczość rejestrowanych obrazów. Światłoczułe materiały analogowe nie mają aż tak regularnej struktury i w przeciwieństwie do matrycy cyfrowej, mogą mieć różną wielkość ziarna, czyli tym samym dawać różną rozdzielczość. Aby obliczyć maksymalną rozdzielczość matrycy cyfrowej wystarczy podzielić ilość punktów w pionie lub w poziomie przez wybrany rozmiar obrazu. Ale można też odwrotnie. Dzieląc rozmiar obrazu przez liczbę punktów możemy się dowiedzieć, jaki rozmiar będzie miał pojedynczy zarejestrowany punkt tego obrazu. Zazwyczaj robimy takie obliczenia w oparciu o rozmiar zdjęcia wykonanego na papierze lub rozmiar obrazu wyświetlonego na monitorze. Jednak można, a czasem nawet trzeba, takie przeliczenia zastosować do rzeczywistego rozmiaru fotografowanej sceny, czy fotografowanego obiektu, czyli do obrazu, który dopiero ma być zarejestrowany na zdjęciu.

Wyobraźmy sobie, że dysponujemy lustrzanką z optymalnie dobranym obiektywem i chcemy wykonać zdjęcie odległej grupy wysokich drzew. Kadrujemy tak, aby cała grupa drzew była widoczna w wizjerze. Tym samym wyznaczamy rzeczywisty rozmiar obiektów, które będziemy rejestrować za pomocą matrycy aparatu. W zależności od tematu zdjęcia, rozmiar obiektów może być podawany w milimetrach lub centymetrach (dla makro), w metrach (dla portretu, sportu, imprezy w pomieszczeniu zamkniętym), ale również w setkach metrów lub w kilometrach (dla krajobrazu). Niezależnie od tego co będziemy fotografować, liczba punktów matrycy jest zawsze taka sama, a więc zawsze możemy wyznaczyć fragment obszaru fotografowanej sceny, który musi zostać zarejestrowany przez jeden światłoczuły punkt matrycy. Wartość ta jest zależna od kąta widzenia obiektywu, odległości obiektu od aparatu, rozmiaru matrycy (FF, DX) oraz ilości punktów światłoczułych w poziomie i w pionie matrycy. Wzory matematyczne opisujące te zależności nie są zbyt skomplikowane, ale nie będę tu ich przytaczał, żeby nie stresować zatwardziałych humanistów. W zamian zamieszczę tabelkę, która może się okazać przydatna podczas planowania kadrów dla potrzeb fotografii cyfrowej. Tabelka ma trzy kolumny. W pierwszej kolumnie znajdują się typowe ogniskowe obiektywów, w drugiej kolumnie współczynnik obliczony dla Nikona D200, a w trzeciej kolumnie współczynnik obliczony dla Nikonów D70/D50.

12 mm – 0,566 – 0,732
20 mm – 0,530 – 0,686
24 mm – 0,460 – 0,594
28 mm – 0,396 – 0,510
35 mm – 0,322 – 0,418
50 mm – 0,234 – 0,302
60 mm – 0,201 – 0,258
70 mm – 0,170 – 0,219
85 mm – 0,141 – 0,181
105 mm – 0,116 – 0,148
180 mm – 0,068 – 0,088
200 mm – 0,060 – 0,076
300 mm – 0,040 – 0,051

Aby z tej tabelki skorzystać, wystarczy pomnożyć przez odpowiedni współczynnik, odległość fotografowanego przedmiotu od aparatu wyrażoną w metrach. Jeśli za pomocą Nikona D200 i obiektywu o ogniskowej 50 mm chcemy zrobić portret osoby oddalonej o 1,5 metra, to po pomnożeniu 1,5 metra przez 0,234 otrzymamy liczbę 0,351. Jest to wyrażony w milimetrach rozmiar obszaru, który będzie naświetlał jeden światłoczuły punkt na matrycy. Każdy światłoczuły punkt matrycy przyjmie kolor, który będzie uśrednionym kolorem dla całego tego obszaru. Tym samym, najmniejszym możliwym do zarejestrowania na matrycy detalem naszego obiektu będzie obszar o wymiarach 0,351 mm na 0,351 mm, ale matryca zarejestruje ten obszar jako pojedynczy punkt. Mniejszych detali zarejestrować nie można, mogą one jedynie pośrednio wpływać na wartość uśrednionego koloru tego punktu, ale widoczne na zdjęciu na pewno nie będą. Jeśli tym samym obiektywem, ale z Nikonem D70 będziemy chcieli wykonać zdjęcie elewacji budynku oddalonego o 30 metrów, to po pomnożeniu 30 przez 0,302 otrzymamy 9,06 mm, czyli najmniejszy możliwy do zarejestrowania detal elewacji tego budynku będzie miał wymiary 9,06 mm na 9,06 mm, ale również będzie to pojedynczy punkt o uśrednionym kolorze.

Wróćmy teraz do odpowiedzi na początkowe pytania. Fotografujemy Nikonem D70 z obiektywem o ogniskowej 20 mm rozległy krajobraz. W odległości 300 metrów znajduje się grupa wysokich drzew, trochę dalej, w odległości 1000 metrów stoi budynek, a na horyzoncie mamy las. Ustawiamy przysłonę na f/8, prawidłowo ustawiamy ostrość i teoretyczne mamy wymaganą głębię ostrości dla zarejestrowania tej sceny tak, aby wszystko na zdjęciu było ostre. Jest jednak jedno małe ale. Jeśli pomnożymy nasze 300 metrów przez współczynnik z tabelki równy 0,686, to w efekcie otrzymamy liczbę 205,8. Minimalny detal fotografowanej grupy drzew możliwy do zarejestrowania przez jeden element światłoczuły matrycy ma więc wymiar 205,8 mm na 205,8 mm. Możemy zatem zapomnieć o zarejestrowaniu poszczególnych igieł drzew iglastych, pojedyncze liście i gałęzie też nie będą widoczne. W miarę ostre mogą być jedynie pnie i bardzo grube konary – te o średnicach znacznie większych niż 20 centymetrów. Reszta będzie tylko zbiorem kolorowych kropek, które nie przenoszą żadnej sensownej faktury, a jedynie są wypadkową uśrednionych kolorów poszczególnych obszarów o wymiarach 205,8 mm na 205,8 mm. A co będzie, jeśli w odległości 1000 metrów będzie budynek? Z obliczeń wyjdzie nam, że minimalny możliwy do zarejestrowania, jako jeden punkt matrycy, detal tego budynku to obszar 686 mm na 686 mm, czyli okna nie zostaną zarejestrowane jako okna, ale jako kilka różnokolorowych punktów, szerokie i wysokie drzwi jeszcze być może będą rozróżnialne, ale wszystko będzie sprawiało wrażenie kompletnie nieostrego - rozmytego. Jeśli te drzewa i ten dom są głównym tematem naszego zdjęcia, a na horyzoncie mamy las to na zdjęciu nie będzie żadnego ostro zarejestrowanego elementu, pomimo bardzo starannego i prawidłowego ustawienia ostrości na obiektywie. Jedyne co na takim zdjęciu może wydawać się ostre, to chmury, bo chmury nie zawierają drobnych detali, a rejestrowane są jedynie jako kolorowe plamy.

Nasuwa się kolejne pytanie, czy możliwe jest określenie takiej odległości obiektu od aparatu, żeby rozdzielczość matrycy nie miała istotnego wpływu na ostrość zdjęcia? Oczywiście tak. Można obliczyć w jakiej odległości od aparatu powinien znaleźć się obiekt, aby był na pewno uznany za ostry, o ile ostro naświetli go obiektyw. Przy czym należy pamiętać, że ostrość obrazu jest pojęciem subiektywnym, względnym, zależnym w dużej mierze od wielkości i rozdzielczości obrazu, na który patrzymy oraz od odległości, z jakiej ten obraz oglądamy. Przyjęło się dość powszechnie, że ostrość zdjęć cyfrowych oceniana jest z perspektywy cropa 100% wyświetlanego na monitorze (nie chcę tu dyskutować, czy jest to podejście właściwe, czy nie, ale tak właśnie jest). Jeśli na monitorze oglądamy zdjęcie powiększone do 100%, a monitor ma rozdzielczość około 85 dpi, to jeden piksel na ekranie ma rozmiar około 0,3 milimetra. Dobierając z tabelki odpowiedni współczynnik i wykonując dzielenie (0,3/0,234) obliczymy, że aby w obrazie oglądanym w ten sposób, rozdzielczość matrycy nie wpływała negatywnie na ostrość obiektu (aby rozdzielczość matrycy była większa niż to, co możemy zarejestrować za pomocą obiektywu), to fotografowany obiekt musi być oddalony od Nikona D200 z obiektywem o ogniskowej 50 mm nie bardziej, niż o 1,28 metra. Dla D70 z tym samym obiektywem będzie to już tylko 0.99 metra. Dla mniejszych odległości obiektu od aparatu rozdzielczość matrycy pozwoli na prawidłowe zarejestrowanie całego obiektu, a ostrość obrazu będzie determinowana głównie przez ostrość obiektywu. Jeśli jednak ta odległość będzie większa od obliczonej, to o ostrości nie będzie już decydowała ostrość obiektywu, ale rozdzielczość matrycy. Początkowo nieostrości będą niewielkie, jeszcze akceptowalne, ale wraz ze zwiększaniem odległości obiektu od aparatu, obraz na ekranie monitora będzie wydawał się coraz bardziej rozmyty, nawet pomimo prawidłowego ustawienia ostrości na obiektywie.

A jak będzie w przypadku matrycy cyfrowej Nikona D200 z odległością hiperfokalną? Jeśli obiektyw o ogniskowej 50 mm przymkniemy do f/5,6 to odległość hiperfokalna wyniesie około 22 metrów, czyli teoretycznie obiektyw zapewni nam głębię ostrości rozciągająca się od 11 metrów, do nieskończoności. Z powyższych rozważań i z prostych obliczeń można jednak wyciągnąć wniosek, że w wyniku ustawienia odległości ostrzenia na odległość hiperfokalną praktycznie nie mamy szans zrobić zdjęcia, które na monitorze w powiększeniu 100% będzie uznane za ostre. Dla tego zestawu i odległości 11 metrów, uzyskamy obszar rejestrowany przez jeden światłoczuły punkt matrycy o rozmiarach 2,57mm na 2,57 mm. Czyli ostro raczej nie będzie (dla tak małej odległości obiektu od aparatu wymagamy ostrości wręcz idealnej), dla większych odległości będzie już tylko coraz gorzej, a dla mniejszych odległości ostro nie będzie z winy obiektywu, który wyostrzy tylko te obiekty, które są oddalone o więcej niż 11 metrów. Czyli na tym zdjęciu oglądanym na monitorze w powiększeniu 100% żaden obiekt nie będzie ostry. Wniosek jest prosty - odległość hiperfokalna dla matrycy cyfrowej, w przypadku oglądania zdjęcia na monitorze w powiększeniu 100%, praktycznie nie istnieje.

Rzeczywiste zdjęcie ostrzone na odległość hiperfokalną, czyli odbitka wykonana na papierze w formacie, dajmy na to, 10x15, czy 15x20 cm jest bardziej tolerancyjne niż ekran monitora i może jeszcze wyglądać nieźle. Rozdzielczość takiego zdjęcia zazwyczaj wynosi około 300 dpi, a więc jest prawie cztery razy większa niż rozdzielczość monitora. Tym samym nieostrości będą wyglądały na cztery razy mniejsze i mogą jeszcze być akceptowalne, o ile zdjęcie zostanie odpowiednio wyostrzone w programie graficznym. Wielkość tych nieostrości można również ograniczać zmniejszając rozmiar zdjęcia. Forumowe miniaturki mogą w pewnych sytuacjach wyglądać lepiej, niż duże odbitki z tych zdjęć wykonane na papierze. Oglądając zdjęcia na monitorze w 100% powiększeniu najczęściej jednak powiemy, że na tych zdjęciach nic nie jest ostre. No chyba, że celowo lub przypadkowo tak dobraliśmy kadr, obiektyw i odległości fotografowanych obiektów, że na zdjęciu nie widać już żadnych szczegółów (liście, gałęzie, okna, drzwi, sierść, pióra) tylko kolorowe plamy. Granice tych plam mogą w pewnych warunkach sprawiać wrażenie ostrych obszarów, ale obszarów pozbawionych detali, których przecież oczekujemy od ostrego zdjęcia. Efekt względnie ostrego zdjęcia możemy uzyskać tylko wtedy, gdy najmniejsze detale fotografowanej sceny będą kilkukrotnie większe niż obszary możliwe do zarejestrowania przez pojedynczy punkt matrycy. Im tych punktów będzie więcej, tym taki detal będzie się wydawał bardziej ostry. Tak na przykład, mogą zostać zarejestrowane szczyty górskie fotografowane z odległości kilku kilometrów, gdzie pojedynczych kamieni i głazów już nie widać, a w dole widzimy już nie las złożony z pojedynczych drzew i gałęzi, ale jedynie zielone plamy lasu.

Z rozdzielczością matrycy i jej bardzo regularnym układem wiąże się taż inne zjawisko. Otóż może nam się wydawać, że odsuwając obiekt od aparatu będzie on na przemian mniej lub bardzie ostry. Wynika to z tego, że matryca musi uśredniać kolory poszczególnych punktów. Aby to wyjaśnić posłużę, się prostym przykładem. Załóżmy, że fotografujemy ogrodzenie złożone ze 150 idealnie pionowych prętów na jednolitym tle. Pręty te mają na przemian grubości 10 i 12 milimetrów i rozstawione są naprzemiennie co 100 i co 400 milimetrów (cienki pręt, 100 mm, gruby pręt, 400 mm, cienki pręt, 100 mm, gruby pręt, 400 mm, itd.). Jeśli z obliczeń wyjdzie nam, że pojedynczy punkt matrycy zarejestruje kwadrat o rozmiarach 1, 2, 5, 10, 20, 25, lub 50 milimetrów (wszystkie te liczby są podzielnikami naszego modułu 100 milimetrów), to ogrodzenie zostanie zarejestrowane jako ostre. Jeśli odległość aparatu od tego ogrodzenia będzie nadal wzrastać, to obraz stanie się coraz bardziej nieostry – niektóre dwa pręty odległe o 100 mm będą rejestrowane przez ten sam punkt matrycy. Ale przy odległości, dla której rozmiar kwadratu osiągnie dokładne wartości 100 lub 200 milimetrów ogrodzenie znów pozornie stanie się ostre – tyle, że nie zobaczymy wszystkich prętów, bo te dwa odległe o 100 mm zostaną zawsze zarejestrowane przez jeden punkt matrycy (będziemy mieli wrażenie, że to jeden pręt). To już nie będzie ten sam płot, ale znowu zrobi się prawie ostry. Jest to zjawisko znane wszystkim posiadaczom D70 i nazywa się mora, czyli interferencja siatki punktów matrycy z prawie pionowymi i prawie poziomymi liniami rejestrowanego obrazu. Ta mora w pewnych szczególnych przypadkach może powodować, że zdjęcie wydaje się ostre, choć „zgubiona” została tak duża ilość detali, że to nie jest już to samo zdjęcie. Na przykład, liczba prętów naszego ogrodzenia nie wynosi już 150, tylko 75, ale za to ogrodzenie robi wrażenie ostrego, tylko że na zdjęciu jest to już inne ogrodzenie niż w rzeczywistości.

Innym ciekawym efektem jest to, że delikatne przesuwanie aparatu w pionie lub w poziomie, albo skręcanie go o niewielki kąt, będzie powodowało dość istotne zmiany tego, co zarejestruje matryca. Będziemy wykonywali inne zdjęcia tego samego obiektu, a obiekt ten subiektywnie może wydawać się mniej lub bardziej ostry, choć ostry zapewne nie będzie nigdy. Wynika to z faktu, że po minimalnej zmianie położenia aparatu uśrednianie koloru dla każdego światłoczułego punktu matrycy będzie dotyczyło zupełnie innego zastawu rzeczywistych punktów (a tym samym rzeczywistych kolorów) fotografowanego obiektu. Ale to już wynika wprost z tego co napisałem wyżej.

Zamieszczona wyżej tabelka zawiera zaokrąglone współczynniki przydatne podczas szacowania wielkości obszaru rejestrowanego przez jeden punkt światłoczuły matryc D50, D70 i D200. Dla uproszczenia zostało przyjęte, że jest to jeden piksel (z uwzględnieniem interpolacji Bayera), który tworzony jest na podstawie czterech sąsiednich elementów światłoczułych (RGBG). Trzeba by jeszcze uwzględnić wpływ filtra AA, dodatkowo powiększając wszystkie współczynniki, ale to już zostało pominięte.

W tym wszystkim istotne i warte zapamiętania jest to, że każda matryca cyfrowa ma stałą rozdzielczość i nie ma możliwości zmiany tej rozdzielczości w zależności od fotografowanej sceny. Ze każdy pojedynczy element światłoczuły matrycy rejestruje nie kolor idealnego punktu, tylko uśredniony kolor prostokąta, a ściślej obszaru, który będziemy odbierali jako prostokąt, o wymiarach zależnych od odległości do fotografowanego obiektu i od użytego obiektywu. Jeśli odległości do fotografowanego przedmiotu są zbyt duże, to o ostrości zdjęcia nie decyduje ostrość obiektywu, ale rozdzielczość matrycy. Fotografując lustrzanka cyfrową krajobrazy lub odległe przedmioty, czy zwierzęta, po prostu trzeba sobie z tego zdawać sprawę i nie wpadać w panikę, jeśli na zdjęciu coś będzie nieostre, tylko zastanowić się jak można takie zdjęcie poprawić – zrobić inaczej. Nieostrości wynikające z zastosowania matrycy cyfrowej nie są wadą konkretnego aparatu, czy obiektywu, ale są wynikiem zastosowania techniki cyfrowej w fotografii.