Close

Strona 1 z 6 123 ... OstatniOstatni
Pokaż wyniki od 1 do 10 z 53
  1. #1

    Domyślnie Czy lustrzanka cyfrowa może wyostrzyć na nieskończoność?

    Ostatnio na forum pojawia się sporo wątków i postów dotyczących różnych aspektów ostrości zdjęć. Ktoś tam ma FF/BF i na dodatek to się jakoś dziwnie zmienia; komuś aparat nie ostrzy z długimi obiektywami; komuś nie ostrzy z krótkimi obiektywami; ktoś oddaje aparat do serwisu, bo nie ostrzy na nieskończoność z żadnym obiektywem, a powinien; ktoś inny ma niezły jasny obiektyw, ale tak mydlany, że aż się go używać nie da; ktoś inny byle jakim obiektywem robi ostrzejsze zdjęcia niż obiektywami z najwyższej półki; obiektywy idealnie ostre dla aparatu analogowego są bardzo kiepskie dla cyfry. Te wypowiedzi skłoniły mnie do liczbowego opisania pewnego zjawiska fizycznego, które niektórzy znają i rozumieją, inni instynktownie wyczuwają jego obecność i skutki, lecz nie do końca wiedzą o co chodzi, ale większość fotografujących aparatami cyfrowymi z pewnością nigdy się nad tym nie zastanawiała. Co więcej, nie zdają sobie z tego sprawy niektórzy zawodowi fotografowie z wieloletnim stażem. To co zostanie napisane dalej dotyczy zarówno lustrzanek cyfrowych, kompaktów cyfrowych, jak też cyfrowych hybryd. Dotyczy wszystkiego, co ma wbudowaną cyfrową matrycę do rejestracji obrazów.

    Tych, którzy całe to zagadnienie rozumieją i potrafią je opisać za pomocą liczb, wzorów i wykresów, przepraszam za uproszczenia, za zaokrąglenia i za pominięcie pewnych mniej istotnych aspektów. Postawię teraz kilka pytań, a następnie postaram się na nie odpowiedzieć.

    - Czy lustrzanka cyfrowa może wyostrzyć na nieskończoność?
    - Czy zdjęcie prawidłowo wyostrzone na nieskończoność i zarejestrowane przez cyfrową matrycę będzie ostre?
    - Jakie znaczenie w przypadku lustrzanki cyfrowej ma odległość hiperfokalna?

    Odpowiedzi na te pytania w fotografii analogowej były jasne proste i dość oczywiste. Lustrzanka analogowa może bez problemu wyostrzyć na nieskończoność, takie zdjęcie będzie ostre od odległości hiperfokalnej do nieskończoności, a jeśli nastawimy odległość ostrzenia na hiperfokalną, to uzyskamy największą możliwą głębię ostrości. Nasuwa się jednak pytanie, czy w przypadku lustrzanek cyfrowych oraz kompaktów i hybryd też tak będzie? Tu odpowiedź nie jest już taka prosta i jednoznaczna. Obiektyw zapewne da obraz ostry, tak samo jak dla lustrzanki analogowej, ale czy można porównywać negatyw lub slajd analogowy z matrycą i czy obraz zostanie zarejestrowany przez matrycę jako ostry tak jak to było w fotografii analogowej?

    Przyczyną uzasadnionych wątpliwości jest właśnie cyfrowa matryca stosowana do zarejestrowania zdjęcia. Jak powszechnie wiadomo matryca to bardzo regularna siatka elementów światłoczułych, rozłożonych w węzłach prostokątnej siatki. Matryca taka ma ściśle określoną liczbę punktów w pionie i w poziomie, a to determinuje maksymalną rozdzielczość rejestrowanych obrazów. Światłoczułe materiały analogowe nie mają aż tak regularnej struktury i w przeciwieństwie do matrycy cyfrowej, mogą mieć różną wielkość ziarna, czyli tym samym dawać różną rozdzielczość. Aby obliczyć maksymalną rozdzielczość matrycy cyfrowej wystarczy podzielić ilość punktów w pionie lub w poziomie przez wybrany rozmiar obrazu. Ale można też odwrotnie. Dzieląc rozmiar obrazu przez liczbę punktów możemy się dowiedzieć, jaki rozmiar będzie miał pojedynczy zarejestrowany punkt tego obrazu. Zazwyczaj robimy takie obliczenia w oparciu o rozmiar zdjęcia wykonanego na papierze lub rozmiar obrazu wyświetlonego na monitorze. Jednak można, a czasem nawet trzeba, takie przeliczenia zastosować do rzeczywistego rozmiaru fotografowanej sceny, czy fotografowanego obiektu, czyli do obrazu, który dopiero ma być zarejestrowany na zdjęciu.

    Wyobraźmy sobie, że dysponujemy lustrzanką z optymalnie dobranym obiektywem i chcemy wykonać zdjęcie odległej grupy wysokich drzew. Kadrujemy tak, aby cała grupa drzew była widoczna w wizjerze. Tym samym wyznaczamy rzeczywisty rozmiar obiektów, które będziemy rejestrować za pomocą matrycy aparatu. W zależności od tematu zdjęcia, rozmiar obiektów może być podawany w milimetrach lub centymetrach (dla makro), w metrach (dla portretu, sportu, imprezy w pomieszczeniu zamkniętym), ale również w setkach metrów lub w kilometrach (dla krajobrazu). Niezależnie od tego co będziemy fotografować, liczba punktów matrycy jest zawsze taka sama, a więc zawsze możemy wyznaczyć fragment obszaru fotografowanej sceny, który musi zostać zarejestrowany przez jeden światłoczuły punkt matrycy. Wartość ta jest zależna od kąta widzenia obiektywu, odległości obiektu od aparatu, rozmiaru matrycy (FF, DX) oraz ilości punktów światłoczułych w poziomie i w pionie matrycy. Wzory matematyczne opisujące te zależności nie są zbyt skomplikowane, ale nie będę tu ich przytaczał, żeby nie stresować zatwardziałych humanistów. W zamian zamieszczę tabelkę, która może się okazać przydatna podczas planowania kadrów dla potrzeb fotografii cyfrowej. Tabelka ma trzy kolumny. W pierwszej kolumnie znajdują się typowe ogniskowe obiektywów, w drugiej kolumnie współczynnik obliczony dla Nikona D200, a w trzeciej kolumnie współczynnik obliczony dla Nikonów D70/D50.

    12 mm – 0,566 – 0,732
    20 mm – 0,530 – 0,686
    24 mm – 0,460 – 0,594
    28 mm – 0,396 – 0,510
    35 mm – 0,322 – 0,418
    50 mm – 0,234 – 0,302
    60 mm – 0,201 – 0,258
    70 mm – 0,170 – 0,219
    85 mm – 0,141 – 0,181
    105 mm – 0,116 – 0,148
    180 mm – 0,068 – 0,088
    200 mm – 0,060 – 0,076
    300 mm – 0,040 – 0,051

    Aby z tej tabelki skorzystać, wystarczy pomnożyć przez odpowiedni współczynnik, odległość fotografowanego przedmiotu od aparatu wyrażoną w metrach. Jeśli za pomocą Nikona D200 i obiektywu o ogniskowej 50 mm chcemy zrobić portret osoby oddalonej o 1,5 metra, to po pomnożeniu 1,5 metra przez 0,234 otrzymamy liczbę 0,351. Jest to wyrażony w milimetrach rozmiar obszaru, który będzie naświetlał jeden światłoczuły punkt na matrycy. Każdy światłoczuły punkt matrycy przyjmie kolor, który będzie uśrednionym kolorem dla całego tego obszaru. Tym samym, najmniejszym możliwym do zarejestrowania na matrycy detalem naszego obiektu będzie obszar o wymiarach 0,351 mm na 0,351 mm, ale matryca zarejestruje ten obszar jako pojedynczy punkt. Mniejszych detali zarejestrować nie można, mogą one jedynie pośrednio wpływać na wartość uśrednionego koloru tego punktu, ale widoczne na zdjęciu na pewno nie będą. Jeśli tym samym obiektywem, ale z Nikonem D70 będziemy chcieli wykonać zdjęcie elewacji budynku oddalonego o 30 metrów, to po pomnożeniu 30 przez 0,302 otrzymamy 9,06 mm, czyli najmniejszy możliwy do zarejestrowania detal elewacji tego budynku będzie miał wymiary 9,06 mm na 9,06 mm, ale również będzie to pojedynczy punkt o uśrednionym kolorze.

    Wróćmy teraz do odpowiedzi na początkowe pytania. Fotografujemy Nikonem D70 z obiektywem o ogniskowej 20 mm rozległy krajobraz. W odległości 300 metrów znajduje się grupa wysokich drzew, trochę dalej, w odległości 1000 metrów stoi budynek, a na horyzoncie mamy las. Ustawiamy przysłonę na f/8, prawidłowo ustawiamy ostrość i teoretyczne mamy wymaganą głębię ostrości dla zarejestrowania tej sceny tak, aby wszystko na zdjęciu było ostre. Jest jednak jedno małe ale. Jeśli pomnożymy nasze 300 metrów przez współczynnik z tabelki równy 0,686, to w efekcie otrzymamy liczbę 205,8. Minimalny detal fotografowanej grupy drzew możliwy do zarejestrowania przez jeden element światłoczuły matrycy ma więc wymiar 205,8 mm na 205,8 mm. Możemy zatem zapomnieć o zarejestrowaniu poszczególnych igieł drzew iglastych, pojedyncze liście i gałęzie też nie będą widoczne. W miarę ostre mogą być jedynie pnie i bardzo grube konary – te o średnicach znacznie większych niż 20 centymetrów. Reszta będzie tylko zbiorem kolorowych kropek, które nie przenoszą żadnej sensownej faktury, a jedynie są wypadkową uśrednionych kolorów poszczególnych obszarów o wymiarach 205,8 mm na 205,8 mm. A co będzie, jeśli w odległości 1000 metrów będzie budynek? Z obliczeń wyjdzie nam, że minimalny możliwy do zarejestrowania, jako jeden punkt matrycy, detal tego budynku to obszar 686 mm na 686 mm, czyli okna nie zostaną zarejestrowane jako okna, ale jako kilka różnokolorowych punktów, szerokie i wysokie drzwi jeszcze być może będą rozróżnialne, ale wszystko będzie sprawiało wrażenie kompletnie nieostrego - rozmytego. Jeśli te drzewa i ten dom są głównym tematem naszego zdjęcia, a na horyzoncie mamy las to na zdjęciu nie będzie żadnego ostro zarejestrowanego elementu, pomimo bardzo starannego i prawidłowego ustawienia ostrości na obiektywie. Jedyne co na takim zdjęciu może wydawać się ostre, to chmury, bo chmury nie zawierają drobnych detali, a rejestrowane są jedynie jako kolorowe plamy.

    Nasuwa się kolejne pytanie, czy możliwe jest określenie takiej odległości obiektu od aparatu, żeby rozdzielczość matrycy nie miała istotnego wpływu na ostrość zdjęcia? Oczywiście tak. Można obliczyć w jakiej odległości od aparatu powinien znaleźć się obiekt, aby był na pewno uznany za ostry, o ile ostro naświetli go obiektyw. Przy czym należy pamiętać, że ostrość obrazu jest pojęciem subiektywnym, względnym, zależnym w dużej mierze od wielkości i rozdzielczości obrazu, na który patrzymy oraz od odległości, z jakiej ten obraz oglądamy. Przyjęło się dość powszechnie, że ostrość zdjęć cyfrowych oceniana jest z perspektywy cropa 100% wyświetlanego na monitorze (nie chcę tu dyskutować, czy jest to podejście właściwe, czy nie, ale tak właśnie jest). Jeśli na monitorze oglądamy zdjęcie powiększone do 100%, a monitor ma rozdzielczość około 85 dpi, to jeden piksel na ekranie ma rozmiar około 0,3 milimetra. Dobierając z tabelki odpowiedni współczynnik i wykonując dzielenie (0,3/0,234) obliczymy, że aby w obrazie oglądanym w ten sposób, rozdzielczość matrycy nie wpływała negatywnie na ostrość obiektu (aby rozdzielczość matrycy była większa niż to, co możemy zarejestrować za pomocą obiektywu), to fotografowany obiekt musi być oddalony od Nikona D200 z obiektywem o ogniskowej 50 mm nie bardziej, niż o 1,28 metra. Dla D70 z tym samym obiektywem będzie to już tylko 0.99 metra. Dla mniejszych odległości obiektu od aparatu rozdzielczość matrycy pozwoli na prawidłowe zarejestrowanie całego obiektu, a ostrość obrazu będzie determinowana głównie przez ostrość obiektywu. Jeśli jednak ta odległość będzie większa od obliczonej, to o ostrości nie będzie już decydowała ostrość obiektywu, ale rozdzielczość matrycy. Początkowo nieostrości będą niewielkie, jeszcze akceptowalne, ale wraz ze zwiększaniem odległości obiektu od aparatu, obraz na ekranie monitora będzie wydawał się coraz bardziej rozmyty, nawet pomimo prawidłowego ustawienia ostrości na obiektywie.

    A jak będzie w przypadku matrycy cyfrowej Nikona D200 z odległością hiperfokalną? Jeśli obiektyw o ogniskowej 50 mm przymkniemy do f/5,6 to odległość hiperfokalna wyniesie około 22 metrów, czyli teoretycznie obiektyw zapewni nam głębię ostrości rozciągająca się od 11 metrów, do nieskończoności. Z powyższych rozważań i z prostych obliczeń można jednak wyciągnąć wniosek, że w wyniku ustawienia odległości ostrzenia na odległość hiperfokalną praktycznie nie mamy szans zrobić zdjęcia, które na monitorze w powiększeniu 100% będzie uznane za ostre. Dla tego zestawu i odległości 11 metrów, uzyskamy obszar rejestrowany przez jeden światłoczuły punkt matrycy o rozmiarach 2,57mm na 2,57 mm. Czyli ostro raczej nie będzie (dla tak małej odległości obiektu od aparatu wymagamy ostrości wręcz idealnej), dla większych odległości będzie już tylko coraz gorzej, a dla mniejszych odległości ostro nie będzie z winy obiektywu, który wyostrzy tylko te obiekty, które są oddalone o więcej niż 11 metrów. Czyli na tym zdjęciu oglądanym na monitorze w powiększeniu 100% żaden obiekt nie będzie ostry. Wniosek jest prosty - odległość hiperfokalna dla matrycy cyfrowej, w przypadku oglądania zdjęcia na monitorze w powiększeniu 100%, praktycznie nie istnieje.

    Rzeczywiste zdjęcie ostrzone na odległość hiperfokalną, czyli odbitka wykonana na papierze w formacie, dajmy na to, 10x15, czy 15x20 cm jest bardziej tolerancyjne niż ekran monitora i może jeszcze wyglądać nieźle. Rozdzielczość takiego zdjęcia zazwyczaj wynosi około 300 dpi, a więc jest prawie cztery razy większa niż rozdzielczość monitora. Tym samym nieostrości będą wyglądały na cztery razy mniejsze i mogą jeszcze być akceptowalne, o ile zdjęcie zostanie odpowiednio wyostrzone w programie graficznym. Wielkość tych nieostrości można również ograniczać zmniejszając rozmiar zdjęcia. Forumowe miniaturki mogą w pewnych sytuacjach wyglądać lepiej, niż duże odbitki z tych zdjęć wykonane na papierze. Oglądając zdjęcia na monitorze w 100% powiększeniu najczęściej jednak powiemy, że na tych zdjęciach nic nie jest ostre. No chyba, że celowo lub przypadkowo tak dobraliśmy kadr, obiektyw i odległości fotografowanych obiektów, że na zdjęciu nie widać już żadnych szczegółów (liście, gałęzie, okna, drzwi, sierść, pióra) tylko kolorowe plamy. Granice tych plam mogą w pewnych warunkach sprawiać wrażenie ostrych obszarów, ale obszarów pozbawionych detali, których przecież oczekujemy od ostrego zdjęcia. Efekt względnie ostrego zdjęcia możemy uzyskać tylko wtedy, gdy najmniejsze detale fotografowanej sceny będą kilkukrotnie większe niż obszary możliwe do zarejestrowania przez pojedynczy punkt matrycy. Im tych punktów będzie więcej, tym taki detal będzie się wydawał bardziej ostry. Tak na przykład, mogą zostać zarejestrowane szczyty górskie fotografowane z odległości kilku kilometrów, gdzie pojedynczych kamieni i głazów już nie widać, a w dole widzimy już nie las złożony z pojedynczych drzew i gałęzi, ale jedynie zielone plamy lasu.

    Z rozdzielczością matrycy i jej bardzo regularnym układem wiąże się taż inne zjawisko. Otóż może nam się wydawać, że odsuwając obiekt od aparatu będzie on na przemian mniej lub bardzie ostry. Wynika to z tego, że matryca musi uśredniać kolory poszczególnych punktów. Aby to wyjaśnić posłużę, się prostym przykładem. Załóżmy, że fotografujemy ogrodzenie złożone ze 150 idealnie pionowych prętów na jednolitym tle. Pręty te mają na przemian grubości 10 i 12 milimetrów i rozstawione są naprzemiennie co 100 i co 400 milimetrów (cienki pręt, 100 mm, gruby pręt, 400 mm, cienki pręt, 100 mm, gruby pręt, 400 mm, itd.). Jeśli z obliczeń wyjdzie nam, że pojedynczy punkt matrycy zarejestruje kwadrat o rozmiarach 1, 2, 5, 10, 20, 25, lub 50 milimetrów (wszystkie te liczby są podzielnikami naszego modułu 100 milimetrów), to ogrodzenie zostanie zarejestrowane jako ostre. Jeśli odległość aparatu od tego ogrodzenia będzie nadal wzrastać, to obraz stanie się coraz bardziej nieostry – niektóre dwa pręty odległe o 100 mm będą rejestrowane przez ten sam punkt matrycy. Ale przy odległości, dla której rozmiar kwadratu osiągnie dokładne wartości 100 lub 200 milimetrów ogrodzenie znów pozornie stanie się ostre – tyle, że nie zobaczymy wszystkich prętów, bo te dwa odległe o 100 mm zostaną zawsze zarejestrowane przez jeden punkt matrycy (będziemy mieli wrażenie, że to jeden pręt). To już nie będzie ten sam płot, ale znowu zrobi się prawie ostry. Jest to zjawisko znane wszystkim posiadaczom D70 i nazywa się mora, czyli interferencja siatki punktów matrycy z prawie pionowymi i prawie poziomymi liniami rejestrowanego obrazu. Ta mora w pewnych szczególnych przypadkach może powodować, że zdjęcie wydaje się ostre, choć „zgubiona” została tak duża ilość detali, że to nie jest już to samo zdjęcie. Na przykład, liczba prętów naszego ogrodzenia nie wynosi już 150, tylko 75, ale za to ogrodzenie robi wrażenie ostrego, tylko że na zdjęciu jest to już inne ogrodzenie niż w rzeczywistości.

    Innym ciekawym efektem jest to, że delikatne przesuwanie aparatu w pionie lub w poziomie, albo skręcanie go o niewielki kąt, będzie powodowało dość istotne zmiany tego, co zarejestruje matryca. Będziemy wykonywali inne zdjęcia tego samego obiektu, a obiekt ten subiektywnie może wydawać się mniej lub bardziej ostry, choć ostry zapewne nie będzie nigdy. Wynika to z faktu, że po minimalnej zmianie położenia aparatu uśrednianie koloru dla każdego światłoczułego punktu matrycy będzie dotyczyło zupełnie innego zastawu rzeczywistych punktów (a tym samym rzeczywistych kolorów) fotografowanego obiektu. Ale to już wynika wprost z tego co napisałem wyżej.

    Zamieszczona wyżej tabelka zawiera zaokrąglone współczynniki przydatne podczas szacowania wielkości obszaru rejestrowanego przez jeden punkt światłoczuły matryc D50, D70 i D200. Dla uproszczenia zostało przyjęte, że jest to jeden piksel (z uwzględnieniem interpolacji Bayera), który tworzony jest na podstawie czterech sąsiednich elementów światłoczułych (RGBG). Trzeba by jeszcze uwzględnić wpływ filtra AA, dodatkowo powiększając wszystkie współczynniki, ale to już zostało pominięte.

    W tym wszystkim istotne i warte zapamiętania jest to, że każda matryca cyfrowa ma stałą rozdzielczość i nie ma możliwości zmiany tej rozdzielczości w zależności od fotografowanej sceny. Ze każdy pojedynczy element światłoczuły matrycy rejestruje nie kolor idealnego punktu, tylko uśredniony kolor prostokąta, a ściślej obszaru, który będziemy odbierali jako prostokąt, o wymiarach zależnych od odległości do fotografowanego obiektu i od użytego obiektywu. Jeśli odległości do fotografowanego przedmiotu są zbyt duże, to o ostrości zdjęcia nie decyduje ostrość obiektywu, ale rozdzielczość matrycy. Fotografując lustrzanka cyfrową krajobrazy lub odległe przedmioty, czy zwierzęta, po prostu trzeba sobie z tego zdawać sprawę i nie wpadać w panikę, jeśli na zdjęciu coś będzie nieostre, tylko zastanowić się jak można takie zdjęcie poprawić – zrobić inaczej. Nieostrości wynikające z zastosowania matrycy cyfrowej nie są wadą konkretnego aparatu, czy obiektywu, ale są wynikiem zastosowania techniki cyfrowej w fotografii.
    Jacek

  2. #2
    pebees
    Gość

    Domyślnie

    Dobry tekst. Pogratulować, może się niektórym rozjaśni conieco i nie będą ciągle krzyczeli - nieostre!
    Notabene podobnie jest dla filmu, tylko tam determinowane jest to przez lpi (tak jak i tu) obiektywu i film (jego rodzaj, też jak tutaj, tyle, że film zastąpiono matrycą). I ani przy cyfrze, ani przy analogu mniej pomoże dowolnie rzeźnicki obiektyw, niż zrobienie odpowiedniej odbiti i oglądanie jest z odpowiedniej odległości

  3. #3

    Domyślnie

    JK, a jak wyliczyłeś te współczynniki? Bo rozdzielczość matrycy bayerowskiej to pojęcie dość względne...

  4. #4

    Domyślnie

    Czornyj, z prostych wzorów trygonometrycznych.
    Te współczynniki są oczywiście zaokrąglone i można dyskutować, czy je mnożyć przez 2, dzielić przez 2, a może nie przez 2 tylko przez pierwiastek z 2, ale to nie jest tu ważne. Najwyżej nie będzie to 0,20 mm tylko 0,18 mm , czy 0,23 mm. Dla zobrazowania problemu te z tabelki całkowicie wystarczą.
    Jacek

  5. #5

    Domyślnie

    Ja jednak myślę JK, że Jurgenowi i Rocznikowi daje popalić filtr AA.
    Popatrz na to:
    16MP Canon Ds MkII (matryca z mikrosoczewkami i grubaśnym blokiem kryształu dwójłomnego):

    14MP Kodak DCSPro (matryca kompletnie pozbawiona tych udogodnień):

    Albo to:
    Canon 5D - cieńsza "płyta nagrobna":

    I znowu nasz ulubiony DsMkII, gdzie kryształu nie żałowano:

  6. #6

    Domyślnie

    A ja nie wiem, co im daje popalić. Z całą pewnością nie jest to jedna przyczyna. Filtr AA może też coś dokładać, ale ja bym tych gównych przyczyn nieostrości szukał w innych miejscach. Jeśli byłby to filtr AA, to z N600 wszystkie zdjęcia byłyby mydlane, a tak nie jest. Mocniejszy filtr AA może wpływać na 1, góra 2 sąsiednie punkty światłoczułe na matrycy - w innym przypadku z żadnym obiektywem nie mogło by być ostro. A ich nieostrości z tych luf są conajmniej o rząd większe niż to co może powodować filtr AA.
    Jacek

  7. #7

    Domyślnie

    Wilekie Dzięki

    To teraz wiem dlaczego robiąc testowe zdjęcie AF S 18-200 VR z D200 gałęzi sosny (30m) , to co było ostre w wizjerze okazało się nieostre na zdjęciu.

    Dobrze ze interesuje mnie również makrofotografia

    pozdrawiam
    Sławek

  8. #8

    Domyślnie SWIETNY TEKST!!!!

    Super tekst, wszyscy powinni Ci za to dziekowac, ze tez chcialo Ci sie liczyc...

    Mam nadzieje iz wszyscy pikselomaniacy i ostrzyciele wezma sie raczej do roboty w Szopie miast dywagowac nad ostroscia... golych JPGow. Swietny artykol! POZDRAWIAM!

  9. #9
    Super Moderator Konto PREMIUM Awatar Jacek_Z
    Dołączył
    11 2005
    Miasto
    Bydgoszcz
    Posty
    32 751

    Domyślnie

    slaw74 nie ciesz się. Te wyliczenia dotyczyły pikseli matrycy, a nie zapisu w jpg. te wyliczenia są aktualne dla RAW jak najbardziej.

    JK - należą ci się podziękowania, że ci się chciało.
    W wielu miejscach wykazałeś, że cyfrowe zdjęcie detalu "nie ma prawa" byc ostre. I intuicyjnie się z tym zgdzam (nie przeliczałem, nie sprawdzałem, zakładam, że zrobiłeś to OK). Zastosowałes tu wzory z "idealnej" geometrii Pitagorasa czy Talesa. W rzeczywistośći będzie pewnie jeszcze gorzej, bo nie tylko problemem jest wielkośc piksela ale i te soczewki przed nimi, interferencje itd.
    Cyfra jest do bani, tak długo juz podejrzewałem szkoda, że gorsze wyprze lepsze (czyli analoga)
    Ale mimo że preferuje analoga, to nie do końca jestem przekonay że zdjęcia na analogu w niektórych z tych sytuacji byłyby ostre (czytelne). Np. czy byłyby czytelne okna w domku zrobionym z odległości 1 km obiektywem o ogniskowej 20 mm. To dla analoga bardzo szeroki kąt, domek byłby mikroskopijny, czy okna byłyby czytelne? chyba nie.

    Mam uwage do jeszcze paru miejsc tego wywodu- - czy wyznacznikiem ostrości jest 100% crop na monitorze? przecież zdjęcie na papierze ma 300 dpi. A przez takie założenie udowadniasz, że odległośc hiperfokalna jest w cyfrze "teoretyczna" bo tak jest tylko akceptowalna na papierze foto, a w rzeczywistości nie. Tylko co to jest rzeczywistość - monitor czy odbitka papierowa? Analogowy mały obrazek dawał akceptowalne odbitki do jakiś 50x60 cm. Większe formaty oglądane z bliska pokazywały już wyraźnie ziarno i nieostrą krawędź. Z D200 mozna powiększac do podobnych formatów
    Moje systemy: Nikon F i Z, Hasselblad, Leica, Pentax, Rolleiflex, FKD Zenity, Praktiki, ruskie dalmierze i około 30 szkiełek.

  10. #10

    Domyślnie

    Jacek_Z, no przecież napisałem, że z tym cropem 100% (albo 1:1, jak kto woli) się tylko tak przyjęło, ale nie koniecznie warto się z tym zgadzać. To, że niektórzy chcą podskoczyć wyżej niż mogą, nie oznacza, jeszcze, że tak robić trzeba. Wiekszość tego wywodu dowodzi między innymi tego, że oglądanie 100% cropów na ekranie monitora jest delikatnie mówiąc głupotą, a gapienie się na takiego cropa z nosem przystawionym do monitora nie ma najmniejszego sensu. Ale jeśli ktoś lubi, to czemu nie. Tylko niech nie marudzi, że ma nieostro. Tak właśnie jest i tak będzie zawsze. Nawet jeśli maryce będą miały 5 razy większe rozdzielczości i 5 razy większe rozmiary, to i tak zawsze znajdzie się taki krajobraz, któremu nie da się zrobić zdjęcia w ten sposób, żeby crop 100% na monitorze był ostry. W analogu jest o tyle lepiej, że ziarno nie jest aż tak jednorodne i nie jest aż tak uporządkowane, jak punkty w cyfrowej matrycy. Dzięki temu odbiera się analogowe zdjęcia krajobrazu jako ogólnie lepsze i pozornie bardziej ostre, pomimo tego, że wszystkie reguły odwzorowania obrazu są tam takie same jak w cyfrze. No i jeszcze jedno. Nieczęsto ogląda się zdjęcia analgowe w tak wielkich powiększeniach. Dla D200 crop 100% na monitorze odpowiada mniej więcej formatowi 1200x800 milimetrów na papierze. A jeśli już, to trzeba ten obrazek oglądać z odległości kilku metrów, a nie z nosem wlepionym w monitor.
    Jacek

Strona 1 z 6 123 ... OstatniOstatni

Uprawnienia umieszczania postów

  • Nie możesz zakładać nowych tematów
  • Nie możesz pisać wiadomości
  • Nie możesz dodawać załączników
  • Nie możesz edytować swoich postów
  •