Close

Strona 1 z 3 123 OstatniOstatni
Pokaż wyniki od 1 do 10 z 53

Mieszany widok

Poprzedni post Poprzedni post   Następny post Następny post
  1. #1

    Domyślnie Czy lustrzanka cyfrowa może wyostrzyć na nieskończoność?

    Ostatnio na forum pojawia się sporo wątków i postów dotyczących różnych aspektów ostrości zdjęć. Ktoś tam ma FF/BF i na dodatek to się jakoś dziwnie zmienia; komuś aparat nie ostrzy z długimi obiektywami; komuś nie ostrzy z krótkimi obiektywami; ktoś oddaje aparat do serwisu, bo nie ostrzy na nieskończoność z żadnym obiektywem, a powinien; ktoś inny ma niezły jasny obiektyw, ale tak mydlany, że aż się go używać nie da; ktoś inny byle jakim obiektywem robi ostrzejsze zdjęcia niż obiektywami z najwyższej półki; obiektywy idealnie ostre dla aparatu analogowego są bardzo kiepskie dla cyfry. Te wypowiedzi skłoniły mnie do liczbowego opisania pewnego zjawiska fizycznego, które niektórzy znają i rozumieją, inni instynktownie wyczuwają jego obecność i skutki, lecz nie do końca wiedzą o co chodzi, ale większość fotografujących aparatami cyfrowymi z pewnością nigdy się nad tym nie zastanawiała. Co więcej, nie zdają sobie z tego sprawy niektórzy zawodowi fotografowie z wieloletnim stażem. To co zostanie napisane dalej dotyczy zarówno lustrzanek cyfrowych, kompaktów cyfrowych, jak też cyfrowych hybryd. Dotyczy wszystkiego, co ma wbudowaną cyfrową matrycę do rejestracji obrazów.

    Tych, którzy całe to zagadnienie rozumieją i potrafią je opisać za pomocą liczb, wzorów i wykresów, przepraszam za uproszczenia, za zaokrąglenia i za pominięcie pewnych mniej istotnych aspektów. Postawię teraz kilka pytań, a następnie postaram się na nie odpowiedzieć.

    - Czy lustrzanka cyfrowa może wyostrzyć na nieskończoność?
    - Czy zdjęcie prawidłowo wyostrzone na nieskończoność i zarejestrowane przez cyfrową matrycę będzie ostre?
    - Jakie znaczenie w przypadku lustrzanki cyfrowej ma odległość hiperfokalna?

    Odpowiedzi na te pytania w fotografii analogowej były jasne proste i dość oczywiste. Lustrzanka analogowa może bez problemu wyostrzyć na nieskończoność, takie zdjęcie będzie ostre od odległości hiperfokalnej do nieskończoności, a jeśli nastawimy odległość ostrzenia na hiperfokalną, to uzyskamy największą możliwą głębię ostrości. Nasuwa się jednak pytanie, czy w przypadku lustrzanek cyfrowych oraz kompaktów i hybryd też tak będzie? Tu odpowiedź nie jest już taka prosta i jednoznaczna. Obiektyw zapewne da obraz ostry, tak samo jak dla lustrzanki analogowej, ale czy można porównywać negatyw lub slajd analogowy z matrycą i czy obraz zostanie zarejestrowany przez matrycę jako ostry tak jak to było w fotografii analogowej?

    Przyczyną uzasadnionych wątpliwości jest właśnie cyfrowa matryca stosowana do zarejestrowania zdjęcia. Jak powszechnie wiadomo matryca to bardzo regularna siatka elementów światłoczułych, rozłożonych w węzłach prostokątnej siatki. Matryca taka ma ściśle określoną liczbę punktów w pionie i w poziomie, a to determinuje maksymalną rozdzielczość rejestrowanych obrazów. Światłoczułe materiały analogowe nie mają aż tak regularnej struktury i w przeciwieństwie do matrycy cyfrowej, mogą mieć różną wielkość ziarna, czyli tym samym dawać różną rozdzielczość. Aby obliczyć maksymalną rozdzielczość matrycy cyfrowej wystarczy podzielić ilość punktów w pionie lub w poziomie przez wybrany rozmiar obrazu. Ale można też odwrotnie. Dzieląc rozmiar obrazu przez liczbę punktów możemy się dowiedzieć, jaki rozmiar będzie miał pojedynczy zarejestrowany punkt tego obrazu. Zazwyczaj robimy takie obliczenia w oparciu o rozmiar zdjęcia wykonanego na papierze lub rozmiar obrazu wyświetlonego na monitorze. Jednak można, a czasem nawet trzeba, takie przeliczenia zastosować do rzeczywistego rozmiaru fotografowanej sceny, czy fotografowanego obiektu, czyli do obrazu, który dopiero ma być zarejestrowany na zdjęciu.

    Wyobraźmy sobie, że dysponujemy lustrzanką z optymalnie dobranym obiektywem i chcemy wykonać zdjęcie odległej grupy wysokich drzew. Kadrujemy tak, aby cała grupa drzew była widoczna w wizjerze. Tym samym wyznaczamy rzeczywisty rozmiar obiektów, które będziemy rejestrować za pomocą matrycy aparatu. W zależności od tematu zdjęcia, rozmiar obiektów może być podawany w milimetrach lub centymetrach (dla makro), w metrach (dla portretu, sportu, imprezy w pomieszczeniu zamkniętym), ale również w setkach metrów lub w kilometrach (dla krajobrazu). Niezależnie od tego co będziemy fotografować, liczba punktów matrycy jest zawsze taka sama, a więc zawsze możemy wyznaczyć fragment obszaru fotografowanej sceny, który musi zostać zarejestrowany przez jeden światłoczuły punkt matrycy. Wartość ta jest zależna od kąta widzenia obiektywu, odległości obiektu od aparatu, rozmiaru matrycy (FF, DX) oraz ilości punktów światłoczułych w poziomie i w pionie matrycy. Wzory matematyczne opisujące te zależności nie są zbyt skomplikowane, ale nie będę tu ich przytaczał, żeby nie stresować zatwardziałych humanistów. W zamian zamieszczę tabelkę, która może się okazać przydatna podczas planowania kadrów dla potrzeb fotografii cyfrowej. Tabelka ma trzy kolumny. W pierwszej kolumnie znajdują się typowe ogniskowe obiektywów, w drugiej kolumnie współczynnik obliczony dla Nikona D200, a w trzeciej kolumnie współczynnik obliczony dla Nikonów D70/D50.

    12 mm – 0,566 – 0,732
    20 mm – 0,530 – 0,686
    24 mm – 0,460 – 0,594
    28 mm – 0,396 – 0,510
    35 mm – 0,322 – 0,418
    50 mm – 0,234 – 0,302
    60 mm – 0,201 – 0,258
    70 mm – 0,170 – 0,219
    85 mm – 0,141 – 0,181
    105 mm – 0,116 – 0,148
    180 mm – 0,068 – 0,088
    200 mm – 0,060 – 0,076
    300 mm – 0,040 – 0,051

    Aby z tej tabelki skorzystać, wystarczy pomnożyć przez odpowiedni współczynnik, odległość fotografowanego przedmiotu od aparatu wyrażoną w metrach. Jeśli za pomocą Nikona D200 i obiektywu o ogniskowej 50 mm chcemy zrobić portret osoby oddalonej o 1,5 metra, to po pomnożeniu 1,5 metra przez 0,234 otrzymamy liczbę 0,351. Jest to wyrażony w milimetrach rozmiar obszaru, który będzie naświetlał jeden światłoczuły punkt na matrycy. Każdy światłoczuły punkt matrycy przyjmie kolor, który będzie uśrednionym kolorem dla całego tego obszaru. Tym samym, najmniejszym możliwym do zarejestrowania na matrycy detalem naszego obiektu będzie obszar o wymiarach 0,351 mm na 0,351 mm, ale matryca zarejestruje ten obszar jako pojedynczy punkt. Mniejszych detali zarejestrować nie można, mogą one jedynie pośrednio wpływać na wartość uśrednionego koloru tego punktu, ale widoczne na zdjęciu na pewno nie będą. Jeśli tym samym obiektywem, ale z Nikonem D70 będziemy chcieli wykonać zdjęcie elewacji budynku oddalonego o 30 metrów, to po pomnożeniu 30 przez 0,302 otrzymamy 9,06 mm, czyli najmniejszy możliwy do zarejestrowania detal elewacji tego budynku będzie miał wymiary 9,06 mm na 9,06 mm, ale również będzie to pojedynczy punkt o uśrednionym kolorze.

    Wróćmy teraz do odpowiedzi na początkowe pytania. Fotografujemy Nikonem D70 z obiektywem o ogniskowej 20 mm rozległy krajobraz. W odległości 300 metrów znajduje się grupa wysokich drzew, trochę dalej, w odległości 1000 metrów stoi budynek, a na horyzoncie mamy las. Ustawiamy przysłonę na f/8, prawidłowo ustawiamy ostrość i teoretyczne mamy wymaganą głębię ostrości dla zarejestrowania tej sceny tak, aby wszystko na zdjęciu było ostre. Jest jednak jedno małe ale. Jeśli pomnożymy nasze 300 metrów przez współczynnik z tabelki równy 0,686, to w efekcie otrzymamy liczbę 205,8. Minimalny detal fotografowanej grupy drzew możliwy do zarejestrowania przez jeden element światłoczuły matrycy ma więc wymiar 205,8 mm na 205,8 mm. Możemy zatem zapomnieć o zarejestrowaniu poszczególnych igieł drzew iglastych, pojedyncze liście i gałęzie też nie będą widoczne. W miarę ostre mogą być jedynie pnie i bardzo grube konary – te o średnicach znacznie większych niż 20 centymetrów. Reszta będzie tylko zbiorem kolorowych kropek, które nie przenoszą żadnej sensownej faktury, a jedynie są wypadkową uśrednionych kolorów poszczególnych obszarów o wymiarach 205,8 mm na 205,8 mm. A co będzie, jeśli w odległości 1000 metrów będzie budynek? Z obliczeń wyjdzie nam, że minimalny możliwy do zarejestrowania, jako jeden punkt matrycy, detal tego budynku to obszar 686 mm na 686 mm, czyli okna nie zostaną zarejestrowane jako okna, ale jako kilka różnokolorowych punktów, szerokie i wysokie drzwi jeszcze być może będą rozróżnialne, ale wszystko będzie sprawiało wrażenie kompletnie nieostrego - rozmytego. Jeśli te drzewa i ten dom są głównym tematem naszego zdjęcia, a na horyzoncie mamy las to na zdjęciu nie będzie żadnego ostro zarejestrowanego elementu, pomimo bardzo starannego i prawidłowego ustawienia ostrości na obiektywie. Jedyne co na takim zdjęciu może wydawać się ostre, to chmury, bo chmury nie zawierają drobnych detali, a rejestrowane są jedynie jako kolorowe plamy.

    Nasuwa się kolejne pytanie, czy możliwe jest określenie takiej odległości obiektu od aparatu, żeby rozdzielczość matrycy nie miała istotnego wpływu na ostrość zdjęcia? Oczywiście tak. Można obliczyć w jakiej odległości od aparatu powinien znaleźć się obiekt, aby był na pewno uznany za ostry, o ile ostro naświetli go obiektyw. Przy czym należy pamiętać, że ostrość obrazu jest pojęciem subiektywnym, względnym, zależnym w dużej mierze od wielkości i rozdzielczości obrazu, na który patrzymy oraz od odległości, z jakiej ten obraz oglądamy. Przyjęło się dość powszechnie, że ostrość zdjęć cyfrowych oceniana jest z perspektywy cropa 100% wyświetlanego na monitorze (nie chcę tu dyskutować, czy jest to podejście właściwe, czy nie, ale tak właśnie jest). Jeśli na monitorze oglądamy zdjęcie powiększone do 100%, a monitor ma rozdzielczość około 85 dpi, to jeden piksel na ekranie ma rozmiar około 0,3 milimetra. Dobierając z tabelki odpowiedni współczynnik i wykonując dzielenie (0,3/0,234) obliczymy, że aby w obrazie oglądanym w ten sposób, rozdzielczość matrycy nie wpływała negatywnie na ostrość obiektu (aby rozdzielczość matrycy była większa niż to, co możemy zarejestrować za pomocą obiektywu), to fotografowany obiekt musi być oddalony od Nikona D200 z obiektywem o ogniskowej 50 mm nie bardziej, niż o 1,28 metra. Dla D70 z tym samym obiektywem będzie to już tylko 0.99 metra. Dla mniejszych odległości obiektu od aparatu rozdzielczość matrycy pozwoli na prawidłowe zarejestrowanie całego obiektu, a ostrość obrazu będzie determinowana głównie przez ostrość obiektywu. Jeśli jednak ta odległość będzie większa od obliczonej, to o ostrości nie będzie już decydowała ostrość obiektywu, ale rozdzielczość matrycy. Początkowo nieostrości będą niewielkie, jeszcze akceptowalne, ale wraz ze zwiększaniem odległości obiektu od aparatu, obraz na ekranie monitora będzie wydawał się coraz bardziej rozmyty, nawet pomimo prawidłowego ustawienia ostrości na obiektywie.

    A jak będzie w przypadku matrycy cyfrowej Nikona D200 z odległością hiperfokalną? Jeśli obiektyw o ogniskowej 50 mm przymkniemy do f/5,6 to odległość hiperfokalna wyniesie około 22 metrów, czyli teoretycznie obiektyw zapewni nam głębię ostrości rozciągająca się od 11 metrów, do nieskończoności. Z powyższych rozważań i z prostych obliczeń można jednak wyciągnąć wniosek, że w wyniku ustawienia odległości ostrzenia na odległość hiperfokalną praktycznie nie mamy szans zrobić zdjęcia, które na monitorze w powiększeniu 100% będzie uznane za ostre. Dla tego zestawu i odległości 11 metrów, uzyskamy obszar rejestrowany przez jeden światłoczuły punkt matrycy o rozmiarach 2,57mm na 2,57 mm. Czyli ostro raczej nie będzie (dla tak małej odległości obiektu od aparatu wymagamy ostrości wręcz idealnej), dla większych odległości będzie już tylko coraz gorzej, a dla mniejszych odległości ostro nie będzie z winy obiektywu, który wyostrzy tylko te obiekty, które są oddalone o więcej niż 11 metrów. Czyli na tym zdjęciu oglądanym na monitorze w powiększeniu 100% żaden obiekt nie będzie ostry. Wniosek jest prosty - odległość hiperfokalna dla matrycy cyfrowej, w przypadku oglądania zdjęcia na monitorze w powiększeniu 100%, praktycznie nie istnieje.

    Rzeczywiste zdjęcie ostrzone na odległość hiperfokalną, czyli odbitka wykonana na papierze w formacie, dajmy na to, 10x15, czy 15x20 cm jest bardziej tolerancyjne niż ekran monitora i może jeszcze wyglądać nieźle. Rozdzielczość takiego zdjęcia zazwyczaj wynosi około 300 dpi, a więc jest prawie cztery razy większa niż rozdzielczość monitora. Tym samym nieostrości będą wyglądały na cztery razy mniejsze i mogą jeszcze być akceptowalne, o ile zdjęcie zostanie odpowiednio wyostrzone w programie graficznym. Wielkość tych nieostrości można również ograniczać zmniejszając rozmiar zdjęcia. Forumowe miniaturki mogą w pewnych sytuacjach wyglądać lepiej, niż duże odbitki z tych zdjęć wykonane na papierze. Oglądając zdjęcia na monitorze w 100% powiększeniu najczęściej jednak powiemy, że na tych zdjęciach nic nie jest ostre. No chyba, że celowo lub przypadkowo tak dobraliśmy kadr, obiektyw i odległości fotografowanych obiektów, że na zdjęciu nie widać już żadnych szczegółów (liście, gałęzie, okna, drzwi, sierść, pióra) tylko kolorowe plamy. Granice tych plam mogą w pewnych warunkach sprawiać wrażenie ostrych obszarów, ale obszarów pozbawionych detali, których przecież oczekujemy od ostrego zdjęcia. Efekt względnie ostrego zdjęcia możemy uzyskać tylko wtedy, gdy najmniejsze detale fotografowanej sceny będą kilkukrotnie większe niż obszary możliwe do zarejestrowania przez pojedynczy punkt matrycy. Im tych punktów będzie więcej, tym taki detal będzie się wydawał bardziej ostry. Tak na przykład, mogą zostać zarejestrowane szczyty górskie fotografowane z odległości kilku kilometrów, gdzie pojedynczych kamieni i głazów już nie widać, a w dole widzimy już nie las złożony z pojedynczych drzew i gałęzi, ale jedynie zielone plamy lasu.

    Z rozdzielczością matrycy i jej bardzo regularnym układem wiąże się taż inne zjawisko. Otóż może nam się wydawać, że odsuwając obiekt od aparatu będzie on na przemian mniej lub bardzie ostry. Wynika to z tego, że matryca musi uśredniać kolory poszczególnych punktów. Aby to wyjaśnić posłużę, się prostym przykładem. Załóżmy, że fotografujemy ogrodzenie złożone ze 150 idealnie pionowych prętów na jednolitym tle. Pręty te mają na przemian grubości 10 i 12 milimetrów i rozstawione są naprzemiennie co 100 i co 400 milimetrów (cienki pręt, 100 mm, gruby pręt, 400 mm, cienki pręt, 100 mm, gruby pręt, 400 mm, itd.). Jeśli z obliczeń wyjdzie nam, że pojedynczy punkt matrycy zarejestruje kwadrat o rozmiarach 1, 2, 5, 10, 20, 25, lub 50 milimetrów (wszystkie te liczby są podzielnikami naszego modułu 100 milimetrów), to ogrodzenie zostanie zarejestrowane jako ostre. Jeśli odległość aparatu od tego ogrodzenia będzie nadal wzrastać, to obraz stanie się coraz bardziej nieostry – niektóre dwa pręty odległe o 100 mm będą rejestrowane przez ten sam punkt matrycy. Ale przy odległości, dla której rozmiar kwadratu osiągnie dokładne wartości 100 lub 200 milimetrów ogrodzenie znów pozornie stanie się ostre – tyle, że nie zobaczymy wszystkich prętów, bo te dwa odległe o 100 mm zostaną zawsze zarejestrowane przez jeden punkt matrycy (będziemy mieli wrażenie, że to jeden pręt). To już nie będzie ten sam płot, ale znowu zrobi się prawie ostry. Jest to zjawisko znane wszystkim posiadaczom D70 i nazywa się mora, czyli interferencja siatki punktów matrycy z prawie pionowymi i prawie poziomymi liniami rejestrowanego obrazu. Ta mora w pewnych szczególnych przypadkach może powodować, że zdjęcie wydaje się ostre, choć „zgubiona” została tak duża ilość detali, że to nie jest już to samo zdjęcie. Na przykład, liczba prętów naszego ogrodzenia nie wynosi już 150, tylko 75, ale za to ogrodzenie robi wrażenie ostrego, tylko że na zdjęciu jest to już inne ogrodzenie niż w rzeczywistości.

    Innym ciekawym efektem jest to, że delikatne przesuwanie aparatu w pionie lub w poziomie, albo skręcanie go o niewielki kąt, będzie powodowało dość istotne zmiany tego, co zarejestruje matryca. Będziemy wykonywali inne zdjęcia tego samego obiektu, a obiekt ten subiektywnie może wydawać się mniej lub bardziej ostry, choć ostry zapewne nie będzie nigdy. Wynika to z faktu, że po minimalnej zmianie położenia aparatu uśrednianie koloru dla każdego światłoczułego punktu matrycy będzie dotyczyło zupełnie innego zastawu rzeczywistych punktów (a tym samym rzeczywistych kolorów) fotografowanego obiektu. Ale to już wynika wprost z tego co napisałem wyżej.

    Zamieszczona wyżej tabelka zawiera zaokrąglone współczynniki przydatne podczas szacowania wielkości obszaru rejestrowanego przez jeden punkt światłoczuły matryc D50, D70 i D200. Dla uproszczenia zostało przyjęte, że jest to jeden piksel (z uwzględnieniem interpolacji Bayera), który tworzony jest na podstawie czterech sąsiednich elementów światłoczułych (RGBG). Trzeba by jeszcze uwzględnić wpływ filtra AA, dodatkowo powiększając wszystkie współczynniki, ale to już zostało pominięte.

    W tym wszystkim istotne i warte zapamiętania jest to, że każda matryca cyfrowa ma stałą rozdzielczość i nie ma możliwości zmiany tej rozdzielczości w zależności od fotografowanej sceny. Ze każdy pojedynczy element światłoczuły matrycy rejestruje nie kolor idealnego punktu, tylko uśredniony kolor prostokąta, a ściślej obszaru, który będziemy odbierali jako prostokąt, o wymiarach zależnych od odległości do fotografowanego obiektu i od użytego obiektywu. Jeśli odległości do fotografowanego przedmiotu są zbyt duże, to o ostrości zdjęcia nie decyduje ostrość obiektywu, ale rozdzielczość matrycy. Fotografując lustrzanka cyfrową krajobrazy lub odległe przedmioty, czy zwierzęta, po prostu trzeba sobie z tego zdawać sprawę i nie wpadać w panikę, jeśli na zdjęciu coś będzie nieostre, tylko zastanowić się jak można takie zdjęcie poprawić – zrobić inaczej. Nieostrości wynikające z zastosowania matrycy cyfrowej nie są wadą konkretnego aparatu, czy obiektywu, ale są wynikiem zastosowania techniki cyfrowej w fotografii.
    Jacek

  2. #2

    Domyślnie

    W rzeczy samej, ten elaborat, w skomplikowany sposób wyjaśnia prostą, stałą zależność, rozdzielczości fizycznej matrycy a wielkości rejestrowanych szczegółów. Jedno nie może być różne od drugiego w oczywisty sposób. Matryca nie zarejestruje detalu obrazu mniejszego niż własny piksel, uwzględniając skalę odwzorowania obiektywu. Praktycznie identycznymi regułami rządzi się fotografia analogowa, tylko zamiast piksela jest cząsteczka emulsji światłoczułej. Jest jednak wielokrotnie mniejsza od najmniejszych pikseli przetworników w aparatach, stąd jej znacznie większa zdolność rejestracji detali.
    Zawodowo zdjęć nie robię już ze 25 lat, ale coś tam zostało. Teraz rozwiązuję problemy innych fotografów.
    monitory.mastiff.pl - masz problem z kolorem, wal śmiało

  3. #3

    Domyślnie

    Na tym też się znasz?

    Cytat Zamieszczone przez Tom01 Zobacz posta
    W rzeczy samej, ten elaborat, w skomplikowany sposób wyjaśnia prostą, stałą zależność, rozdzielczości fizycznej matrycy a wielkości rejestrowanych szczegółów. Jedno nie może być różne od drugiego w oczywisty sposób. ......
    No widzisz. Napisałem o uproszczeniach. Nie chciałem tego gmatwać, żeby większość czytelników mogła zrozumieć o co tu chodzi. Ale jak już chcesz być aż taki precyzyjny, to może sięgnij do teorii rejestracji sygnałów, a dowiesz się, że rozdzielczość matrycy i rozdzielczość obrazu rejestrowanego przez tę matrycę nie są równe - "w oczywisty sposób".

    Cytat Zamieszczone przez Tom01 Zobacz posta
    ...... Matryca nie zarejestruje detalu obrazu mniejszego niż własny piksel, uwzględniając skalę odwzorowania obiektywu. .......
    Jak już przebrniesz przez kilka podstawowych twierdzeń dotyczących cyfrowej rejestracji analogowych danych, to może wyjaśnisz nam, co ma wspólnego skala odwzorowania obiektywu ze zdolnością rejestracyjną matrycy. To nawet może być ciekawy wywód.

    Cytat Zamieszczone przez Tom01 Zobacz posta
    ........ Praktycznie identycznymi regułami rządzi się fotografia analogowa, tylko zamiast piksela jest cząsteczka emulsji światłoczułej. Jest jednak wielokrotnie mniejsza od najmniejszych pikseli przetworników w aparatach, stąd jej znacznie większa zdolność rejestracji detali.
    Jeśli nie widzisz różnic pomiędzy procesem rejestracji obrazu na analogowym filmie i za pomocą cyfrowej matrycy z filtrem Bayera, to trudno. Ale kombinuj dalej.
    Ostatnio edytowane przez JK ; 04-01-2008 o 16:54
    Jacek

  4. #4

    Domyślnie

    Cytat Zamieszczone przez JK Zobacz posta
    Na tym też się znasz? (...) to może sięgnij do teorii rejestracji sygnałów (...) Jak już przebrniesz przez kilka podstawowych twierdzeń
    Nie musi Pan być uszczypliwy. Proszę nie traktować wszystkich, wchodzących z Panem w polemikę jako niedouczonych ignorantów. Robi Pan to nagminnie, nieżależnie czy dotyczy optyki, geometrii, teorii sygnałów, marketingu, czy prawa.

    Nie zamierzam dyskutować z Pana wykładem, gdyż nie zawiera błędów merytorycznych w szczegółach. Pierwszą uwagę mam co do metodyki, sposobu przekazywania tej wiedzy. Nie tylko z zasobu informacji zawartej w wykładzie, ale i z metody wynika czy jest to pożyteczna rzecz, czy strzępienie języka. Nawet Witkacy przemyśliwał, że nie tylko treścią ale i formą coś można przekazać, ale w jego przypadku było to nieco skrajne podejście. Stworzenie wartościowego wykładu, wymaga poczynienia kilku założeń, jak specyfika grupy odbiorców i cel. Jak Pan wielokrotnie podkreśla, jesteśmy na amatorskim forum fotograficznym, co determinuje specyfikę grupy odbiorców. Wynika z tego wybór odpowiednich narzędzi przekazu. Teoretykowi od sygnałów wyłożyłby Pan temat, posługując się kilkoma stronami matematyki wyższej, z transformacją Fouriera, twierdzeniem Shanona wraz z dowodem i całą gromadą innych niezwykle zajmujących rzeczy. Młodzieży z amerykańskiego college'u natomiast, trzebaby obrazować zjawisko przy pomocy mikroskopijnych robaczków dłubiących w matrycy/kliszy. Cel jednak jest ten sam, pokazanie bardzo prostej zależności. Zakładając, że nasi forumowi koledzy, mają z reguły całkiem spory IQ, przekazanie idei jest z definicji proste. Z drugiej strony, nie jest to forum naukowe i wyliczenia jakie Pan poczynił są zupełnie zbędne. Nie pomagają w zrozumieniu zjawiska, a wprowadzają komplikację problemu. Powiem więcej, tworzą problem. Co więcej skacze Pan z kwiatka na kwiatek, mniej lub bardziej zgrabnie łącząc, różne poboczne aspekty, wokół głównego tematu. Można zrobić ankietę, kto rzeczywiście wie, co oznaczają i z czego się biorą podane w tabelce współczynniki do obliczania minimalnych detali. Jak ktoś powiedział "bez kalkulatora ani rusz". Takich odskoków w pozornie powiązane aspekty jest więcej. Sam mechanizm zjawiska będącego myślą przewodnią, można schematycznie przedstawić następująco:


    Wniosek można zawrzeć w jednym zdaniu: Im większe upakowanie detali w rzutowanym obrazie na przetwornik o stałej rozdzielczości, tym większa utrata ich jakości. Lub odwrotnie. Im większe upakowanie detali, tym wymagana jest wyższa rozdzielczość przetwornika w celu zachowania jakości. Co wpływa na owo "upakowanie" jest w naturalny sposób zrozumiałe przez każdego fotografa. Reszta jest zupełnie zbędna i znakomicie nadaje się na osobny wykład o wpływie sposobu, a nie przedmiotu rejestracji na ostrość. Już Pan to zresztą zrobił. Owo mieszanie tematów jest drugą moją uwagą. Tytuł artykułu sugeruje rozpatrywanie problemu z ostrzeniem, który w rzeczywistości nie istnieje. Sięgnięcie do sformułowania "ostrzenie w nieskończoności", zostało użyte przez Pana, jako wytrych, pozornie łączący ostrość z rozdzielczością. Nie powiem, pojechał Pan po tym gładko. Jednak jedno i drugie należą co prawda do tej samej dziedziny, ale są osobnymi aspektami, zasługującymi na rozłączne, całościowe potraktowanie. Zmieszanie, jak widać dało dość skomplikowany, dwoisty opis jednego problemu i rozwinięcie jednej dywagacji.

    Reasumując, artykuł zawiera sporo pożytecznej wiedzy, jednakże słabo usystematyzowanej i zawierającej nieco pomieszane zagadnienia. Wiem, że ma Pan doświadczenie pedagogiczne. Należy to poczytywać jako zaletę, ale w wielu przypadkach odnoszę wrażenie, że ewolucja metodyki już się zakończyła. W Pańskim również. Wnioskuję to, z małej elastyczności na poddawane przez innych, w dyskusjach, argumenty i problematykę. Umiejętność stworzenia dobrego wykładu, merytorycznie bogatego, ale nie przeładowanego, przekrojowego, ale nie zamieszanego jest nadzwyczaj rzadka. Proszę się trochę bardziej postarać. Wszak ma Pan w dorobku znacznie lepsze publikacje i reputacja tego wymaga. Jak to Pan często się powołuje, "młodzież patrzy".
    Ostatnio edytowane przez Tom01 ; 04-01-2008 o 23:26
    Zawodowo zdjęć nie robię już ze 25 lat, ale coś tam zostało. Teraz rozwiązuję problemy innych fotografów.
    monitory.mastiff.pl - masz problem z kolorem, wal śmiało

  5. #5

    Domyślnie

    Zapominasz kolego o jednym. To nie są wykłady, a forum to nie uniwersytet. To są tylko bardzo uproszczone pogadanki, których celem nie jest zdobycie tytułu magistra, czy chwalenie się wiedzą, a jedynie sygnalizowanie problemów. Są tacy, którzy nie muszą tego czytać, bo świetnie wiedzą o co chodzi, a pozostali nie potrzebują usystematyzowanej i kompletnej wiedzy, a jedynie chwili refleksji. Najczęściej wystarczy samo zauważenie faktu, że jakiś problem występuje, zrozumienie na czym on polega i jakie ma znaczenie. Jeśli ktoś potrzebuje więcej wiedzy, to bez trudu potrzebne informacje znajdzie. A "teoretykowi od sygnałów" nie trzeba takich rzeczy tłumaczyć, bo zna je od podszewki, bez czytania tego forum. Ale jeśli ktoś tego nie wie, a na dodatek nie chce mu się uważnie czytać i myśleć o tym co czyta, to wypisuje różne dziwne rzeczy, na przykład, zrównując rozdzielczość matrycy Bayera z rozdzielczością obrazu który ta matryca może rejestrować.

    Właśnie to nas różni. Ja uważam, że na tym forum wystarczy problemy sygnalizować w sposób uproszczony - możliwie strawny również dla tych, którzy sami z różnych powodów nie potrafią tego wszystkiego opisać i policzyć, choć to zazwyczaj bardzo proste. Ale jeśli ktoś chce się poświęcić rozważaniom teoretycznym na nieco wyższym poziomie (również tym związanym z monitorami), to droga wolna. Tylko dlaczego na forum internetowym? Bo tu łatwiej? Bo tu anonimowo?

    Moje pytania pod Twoim adresem nadal pozostają aktualne. A ten związek rozdzielczości matrycy ze skalą owzorowania obiektywu może być całkiem niezłym tematem na komedię. Czekamy na szersze wyjaśnienia - pośmiejemy się wszyscy razem.
    Jacek

  6. #6

    Domyślnie

    Cytat Zamieszczone przez JK Zobacz posta
    celem (...) jedynie sygnalizowanie problemów.
    Sęk cały w tym, że "problem ostrości" jest sztucznym tworem stworzonym przez Pana w, niech będzie, pogadance. Nie wiem jaki był tego cel, ale może Pan temat rozwinąć, wszak to forum dyskusyjne.

    Cytat Zamieszczone przez JK Zobacz posta
    A ten związek rozdzielczości matrycy ze skalą owzorowania obiektywu
    A kto tak twierdził i gdzie?

    Cytat Zamieszczone przez JK Zobacz posta
    Ale jeśli ktoś tego nie wie, a na dodatek nie chce mu się uważnie czytać i myśleć o tym co czyta, to wypisuje różne dziwne rzeczy, na przykład, zrównując rozdzielczość matrycy Bayera z rozdzielczością obrazu który ta matryca może rejestrować.
    Udam, że nie słyszałem kolejnej impertynencji, choć moja cierpliwość ma granice.

    Posłużyłem się uproszczeniem, dokładnie takim jak Pańskie. Formalnie, powinno to brzmieć: (w naszym przypadku dwie) liczby stałe nie zawierają elementu zmienności. Ich wzajemny stosunek jest zawsze stały. Nic się nie zmienia w zdolności rejestracji najmniejszych detali, zmieniają się same detale. Mniejsze/większe równa się gorzej/lepiej zarejestrowane. Ot i cała filozofia, a Pan dorobił do tego problem ostrości. Należałoby tytuł i postawione tezy zmienić na bardziej zbieżne z tekstem. Wówczas miałoby to większy sens.

    Bardzo podobne zmieszanie pojęć wystąpiło w Pana sąsiedniej pogadance. Opisał Pan inne zjawisko nazywając je aberracją chromatyczną. Tu jest w zasadzie identycznie, opisał Pan inny problem, nazywając go nieostrością.

    Cytat Zamieszczone przez JK Zobacz posta
    Tylko dlaczego na forum internetowym? Bo tu łatwiej? Bo tu anonimowo?
    Przecież nikt nie zabrania Panu przedstawiać się.
    Ostatnio edytowane przez Tom01 ; 05-01-2008 o 03:28
    Zawodowo zdjęć nie robię już ze 25 lat, ale coś tam zostało. Teraz rozwiązuję problemy innych fotografów.
    monitory.mastiff.pl - masz problem z kolorem, wal śmiało

  7. #7

    Domyślnie

    Cytat Zamieszczone przez Tom01 Zobacz posta
    ....... Matryca nie zarejestruje detalu obrazu mniejszego niż własny piksel, uwzględniając skalę odwzorowania obiektywu. .......
    A to kto napisał?

    Dla mnie to już koniec tej bezsensownej niby-dyskusji.
    Jacek

  8. #8

    Domyślnie

    Cytat Zamieszczone przez JK Zobacz posta
    A to kto napisał?
    A gdzież tu "związek rozdzielczości matrycy ze skalą owzorowania obiektywu"?

    Cytat Zamieszczone przez JK Zobacz posta
    Dla mnie to już koniec tej bezsensownej niby-dyskusji.
    Zgadzam się. Niestety jest Pan przewidywalny do bólu. Przykro mi, ze próby dyskusji z Panem, przypominają rzut grochem o ścianę. EOT
    Zawodowo zdjęć nie robię już ze 25 lat, ale coś tam zostało. Teraz rozwiązuję problemy innych fotografów.
    monitory.mastiff.pl - masz problem z kolorem, wal śmiało

  9. #9

    Domyślnie Odp: Czy lustrzanka cyfrowa może wyostrzyć na nieskończoność?

    Tom, czytałem Twoje opinie o monitorach (CB), nie miałem wątpliwości że masz o nich duże pojęcie, teraz tym bardziej nie mam, widzę że fizyka teoretyczna i praktyczne przemyślenia to Twój chleb powszedni.
    Pozdrawiam!
    EOS

  10. #10

    Domyślnie Odp: Czy lustrzanka cyfrowa może wyostrzyć na nieskończoność?

    Cytat Zamieszczone przez masterpiter Zobacz posta
    Tom, czytałem Twoje opinie o monitorach (CB), nie miałem wątpliwości że masz o nich duże pojęcie, teraz tym bardziej nie mam, widzę że fizyka teoretyczna i praktyczne przemyślenia to Twój chleb powszedni.
    Poczytuję to za komplement. Opisane wszak moje zastrzeżenia, to zwykłe, logiczne wyciągnięcie wniosków z prostych zjawisk. Nie ma w tym żadnej większej nauki.
    Zawodowo zdjęć nie robię już ze 25 lat, ale coś tam zostało. Teraz rozwiązuję problemy innych fotografów.
    monitory.mastiff.pl - masz problem z kolorem, wal śmiało

Strona 1 z 3 123 OstatniOstatni

Uprawnienia umieszczania postów

  • Nie możesz zakładać nowych tematów
  • Nie możesz pisać wiadomości
  • Nie możesz dodawać załączników
  • Nie możesz edytować swoich postów
  •