PDA

Zobacz pełną wersję : Czy tylko obiektywy powodują aberracje chromatyczne?



JK
15-05-2006, 20:50
Czy tylko obiektywy powodują aberracje chromatyczne? Jaki obiektyw wybrać, aby uniknąć problemu z aberracją chromatyczną? Jak robić zdjęcia, aby aberracje chromatyczne minimalizować? Zapewne niektórzy z nas stawiają sobie podobne pytania, ale odpowiedzi bywają różne. Najczęściej pada odpowiedź w formie pytania. Jak taki drogi obiektyw może dawać takie koszmarne aberracje? Na analogu był dużo lepszy. Ale, czy taka odpowiedź na pytanie zawsze ma sens i czy tylko obiektyw jest za aberracje odpowiedzialny?

Na początek taka mała ściąga. W tym tekście występują pojęcia punkt światłoczuły, sensor i piksel. Używam ich w następującym znaczeniu:
sensor – pojedynczy element czuły na światło rejestrujący jedną składową koloru.
punkt światłoczuły – obszar 2 na 2 sensory rejestrujący pełną informację o kolorze.
piksel – najmniejszy kolorowy element składowy zarejestrowanego zdjęcia.
Pojęcia te są dość zbliżone, ale w istotny sposób różne, a jak różne, to widać między innymi, w różnych materiałach reklamowych, gdzie matryca o 6 milionach sensorów jest zachwalana i sprzedawana jako matryca o 6 milionach pikseli RGB.

Jak już prawie wszyscy wiedzą :wink:, jeden punkt światłoczuły matrycy (zespół sensorów rejestrujący kolorowy fragment obrazu na potrzeby jednego nie interpolowanego piksela RGB) naświetlany jest przez rzeczywisty obszar zależny od kąta widzenia obiektywu, rozmiaru i rozdzielczości matrycy oraz odległości obiektu od aparatu. Było o tym TU (http://forum.nikon.org.pl/showthread.php?t=6418). Nigdy nie jest to teoretyczny, idealny punkt, a zawsze kwadrat, okrąg lub coś pośredniego, a tak naprawdę to, co na zdjęciu będziemy odbierali jako kwadrat o rozmiarach jednego piksela RGB. Rozmiarach, które można odnieść do fotografowanego obiektu i w przybliżeniu obliczyć. Powstaje jednak pytanie, co to jest jeden punkt światłoczuły matrycy? Z punktu widzenia konstruktora matryc, najmniejszy element światłoczuły, to pojedynczy sensor, który w zależności od ilości światła, które na niego pada zwraca pojedynczą wartość liczbową. W dokumentacjach aparatów podawane są wielkości matryc (np. 6 Mpix, 10 Mpix, 12 Mpix) oraz ilości „punktów” w pionie i w poziomie. Te informacje nie dotyczą jednak ilości punktów rejestrujących kolor obrazu, czy ilości pikseli RGB, ale właśnie sumarycznej ilości pojedynczych sensorów czułych na światło. Wszystko byłoby prawdziwe, gdyby nie fakt, że pojedynczy sensor, czyli element światłoczuły w matrycach z interpolacją Bayera nie rejestruje koloru tylko poziom jasności. Aby zarejestrować kolor trzeba użyć co najmniej trzech sensorów, które będą rejestrowały kolory dla potrzeb pojedynczego piksela RGB (R-czerwony, G-zielony i B-niebieski). Matryca to prostokątna siatka pojedynczych sensorów, które rozłożone są w jej węzłach. Przyjęto więc, że w matrycach obok siebie znajdą się cztery sensory tworzące kwadrat 2 na 2, które będą rejestrowały składowe koloru RGBG. Taki zespół czterech sensorów można nazwać punktem światłoczułym matrycy, ponieważ to właśnie on rejestruje kompletny zestaw informacji barwnej, która przekształcana jest następnie na jeden piksel RGB. Wynika z tego, że sensorów rejestrujących kolor zielony będzie dwa razy więcej niż sensorów dla koloru czerwonego i niebieskiego. Taki układ sensorów wygląda następująco:

RGRGRGRGRGRG
GBGBGBGBGBGB
RGRGRGRGRGRG
GBGBGBGBGBGB
RGRGRGRGRGRG
GBGBGBGBGBGB

Wyraźnie widać, że dowolny kwadrat o wymiarach 2 na 2 sensory pozwala na odczytanie jednej składowej R, jednej składowej B i dwóch składowych G. Bez trudu można zauważyć, że faktyczna rozdzielczość matrycy D50/D70, której zadaniem jest rejestrowanie kolorowych pikseli RGB, to nie 3008 na 2000 pikseli RGB, tylko 1504 na 1000 pikseli RGB. Czyli rzeczywista wielkość matrycy wyrażona w pikselach RGB, powinna być w odniesieniu do ilości pojedynczych sensorów, podzielona przez 4, bo tylko tyle jest sensorów czerwonych i niebieskich, czyli tylko tyle pikseli RGB można zarejestrować. Bez rejestracji koloru czerwonego lub niebieskiego trudno raczej mówić o rejestracji koloru piksela RGB. Wielkość matrycy taka właśnie by była, gdyby nie zastosowano rozwiązania interpolacyjnego, które powoduje, że ilość uzyskiwanych pikseli RGB wzrasta czterokrotnie. Ale wzrasta tylko pozornie. Każdy element światłoczuły leży w środku większego kwadratu o wymiarach 3 na 3 sensory, czyli można utworzyć aż cztery zestawy RGBG z udziałem każdego pojedynczego sensora. Pozornie wracamy do rozdzielczości 3008 na 2000 punktów, ale to już nie jest to samo. Są to już piksele interpolowane. Można zapytać, co w tym złego. Odpowiedź jest bardzo prosta – spada ostrość rejestrowanego obrazu i nie tylko ostrość, ale o tym później. Jeśli jeden fizyczny sensor ma wpływ na kolor aż czterech sąsiednich pikseli, to oznacza, że następny sensor też na wpływ na cztery sąsiednie piksele i tak dalej, i tak dalej. W efekcie następuje rozmycie obrazu. Jeśli w idealnych warunkach uda się nam zarejestrować pionową czarną linię o grubości dokładnie jednego teoretycznego piksela, narysowaną na białym tle, czyli linię, która ma grubość dwóch sensorów, to oczekujemy, że w efekcie na zdjęciu zobaczymy bardzo ostrą linię pionową o grubości jednego piksela. Nic bardziej mylnego. Ta ostra pionowa linia, ze względu na interpolację, rozmyje się i da obraz pionowego pasa o grubości aż trzech sąsiednich pikseli - pikseli przekształconych przez algorytm interpolacji. Przy czym kolor środka tego pasa o grubości trzech pikseli będzie czarny, a kolor dwóch zewnętrznych pikseli będzie szary (50% bieli tła i 50% czerni linii). W efekcie coś, co chcieliśmy zarejestrować w sposób idealnie ostry, wyjdzie rozmyte (bez ostrych krawędzi), a ten obszar rozmycia wyrażony w pikselach RGB będzie trzy razy większy niż linia wzorcowa.

Można więc iść dalej w ograniczaniu rozdzielczości naszej matrycy i powiedzieć, że jej faktyczna rozdzielczość w poziomie leży gdzieś pomiędzy 1504, a 1002 pikseli RGB. Po uśrednieniu tych wartości (połowa rozmycia powodowanego przez interpolację dotyczy koloru linii, a połowa koloru tła) daje to rozdzielczość około 1253 pikseli RGB. Dla rozdzielczości pionowej musimy zrobić takie same przeliczenia i w efekcie otrzymamy 1253 na 833 pikseli RGB. Ale to jeszcze nie koniec. Przed matrycą mamy filtr AA, który nieco „rozmywa” nasz obraz. W zależności od modelu aparatu i zastosowanego filtra AA te „rozmycia” są różne, ale tu przyjmiemy, że zasięg filtra AA to tylko jeden sąsiedni sensor matrycy. W rzeczywistości jest to zapewne zdecydowanie większy obszar oddziaływania – co najmniej jeden piksel RGB, czyli dwa sensory, ale tu do obliczeń przyjmijmy, że tylko jeden sensor. Co więc otrzymamy? Otrzymamy informację, że jeden zestaw RGBG, czyli jeden naświetlany punkt matrycy ma wpływ na kolor aż pięciu sąsiednich pikseli RGB w poziomie – taki właśnie pionowy pas o grubości pięciu pikseli na białym tle zostawi na matrycy wzorcowa czarna linia o grubości jednego piksela RGB. W efekcie otrzymamy rzeczywistą rozdzielczość naszej matrycy z D50/D70 i będzie to około 602 na 400 pikseli RGB. Można dyskutować, jaka część rozmytego, szarego pasa należy do linii, a jaka jeszcze do białego tła, ale nie zmienia ta faktu, że nasza idealna pionowa linia o grubości jednego piksela zostanie zarejestrowana jako pionowy pas złożony z pięciu pikseli o różnej skali szarości na białym tle. Należy przy tym pamiętać, że zasięg działania filtra AA, założony podczas obliczeń, to tylko jeden sensor (jeśli przyjąć, że ten zasięg to dwa sensory, to nasza wzorcowa cienka linia dałaby szary pas o szerokości siedmiu pikseli RGB). Rozdzielczość 3008 na 2000 pikseli RGB o 12-to bitowej głębi koloru jest więc tylko chwytem marketingowym, który bez żadnych dodatkowych wyjaśnień zastąpił w folderach reklamowych i w dokumentacji pojęcie ilości sensorów, ilością interpolowanych pikseli RGB (dla D200 będzie trochę lepiej, ale nadal niewiele, bo odpowiada to wartościom około 774 na 518 pikseli RGB).

Zastanówmy się co z tego wszystkiego wynika. Zastosowanie filtra Bayera i filtra AA powoduje nie tylko rozmycie obrazu, ale również to, że kolor naszej wzorcowej cienkiej czarnej linii na białym tle będzie się rozkładał na pięć sąsiednich pikseli RGB, zapewne w sposób zbliżony do krzywej Gaussa, choć o tym decyduje w dużej mierze oprogramowanie interpretujące obraz. Na krawędziach tej linii będzie kolor jasnoszary, bliżej środka - nieco ciemniejszy, ale taż szary, a w środku tego obszaru - najciemniejszy, ale nie czarny. Tu swoją rolę odgrywa filtr AA, który powoduje, że nawet ten środkowy piksel, który w powinien być czarny, zostanie rozjaśniony przez wpływ sąsiednich białych pikseli należących do tła. Aby otrzymać rzeczywiście czarną linię (choćby jeden czarny piksel w środku tej linii), musimy zrobić zdjęcie linii grubszej niż jeden piksel, grubszej o wartość wynikającą z rzeczywistego zasięgu działania filtra AA, czyli z punktu widzenia odwzorowania koloru realna rozdzielczość matrycy będzie jeszcze mniejsza.

Czas na wnioski. Jeśli chcemy otrzymać linię o właściwym odwzorowaniu koloru (przynajmniej w środku tej linii), to w założonych warunkach, linia musi mieć grubość co najmniej siedmiu interpolowanych pikseli RGB. Każda linia ostra w oryginale, stanie się nieostra na zdjęciu i będzie miała łagodne przejście od koloru linii do koloru tła, wymagające co najmniej dwóch pikseli po każdej stronie. To samo dotyczy granic dowolnych kolorowych obszarów. Problem nieco się komplikuje, jeśli linia lub granica obszaru nie jest pozioma, ani pionowa, tylko leży pod innym kątem do poziomego układu sensorów matrycy. Najgorszym przypadkiem jest położenie tej linii pod kątem 45 stopni do poziomu – minimalny obszar rozmycia zwiększa się wówczas o pierwiastek z dwóch, czyli z dwóch do około trzech pikseli RGB, po każdej stronie linii. Przejście od koloru zbliżonego do koloru oryginalnej linii do koloru tła wymaga więc aż trzech pikseli po obu stronach tej linii. Jeśli chcemy zarejestrować czarny punkt i spowodować, żeby w środku zarejestrowanego obszaru znalazł się rzeczywiście choć jeden piksel koloru czarnego, to na zdjęciu zobaczymy go jako obszar o rozmiarze 7 na 7 pikseli. Pamiętać też trzeba o tym, że matryca rejestruje kolory pośrednie, których w rzeczywistości nie ma. Te odcienie szarości z powyższego przykładu, to jedynie idealny model. W rzeczywistości kolor każdego piksela RGB jest wyznaczany w drodze interpolacji koloru kilkunastu sąsiednich pikseli, a otrzymywany w ten sposób kolor wynikowy takiego piksela niejednokrotnie potrafi zadziwić.

Jaki to wszystko ma wpływ na efekty uzyskiwane na zdjęciach. Ten wpływ jest dość intuicyjny i nazywa się aberracja chromatyczna. Jeśli robimy zdjęcie ciemnej gałęzi na tle jasnego nieba to spodziewamy się ostrej krawędzi pomiędzy ciemną gałęzią i jasnoniebieskim niebem. Innych barw nie przewidujemy. W rzeczywistości przejście pomiędzy kolorem ciemnobrązowym lub ciemnoszarym, a jasnoniebieskim kolorem nieba wymaga dwóch, trzech lub więcej pikseli z każdej strony gałęzi. Kolor tych pikseli będzie się stopniowo zmieniał od jasnoniebieskiego nieba do ciemno brązowej gałęzi, przechodząc przez odcienie pośrednie, które będą wypadkową wartości wielu sensorów matrycy. Jeśli obraz gałęzi będzie niezbyt ostry (problemy z ostrością obiektywu, głębią ostrości, lub z wielkością rzeczywistego obszaru naświetlającego pojedynczy punkt matrycy i uśrednianiem koloru), to ta liczba pikseli znajdujących się w obszarze przejścia od koloru gałęzi do koloru nieba będzie jeszcze większa. W pewnych warunkach nie zobaczymy nawet koloru gałęzi, tylko nieostry obszar o kolorze szaroniebieskim lub fioletowym. Te nieszczęsne gałęzie są często dość odległe od aparatu, czyli zaczyna dawać o sobie znać zjawisko przedstawione TU (http://forum.nikon.org.pl/showthread.php?t=6418). Taka rzeczywista gałąź może być znacznie cieńsza niż to, co może zarejestrować jeden punkt światłoczuły matrycy, czyli zestaw czterech sąsiednich sensorów. W tym przypadku, już uśredniony kolor wejściowy padający na matrycę, będzie zmieniony w takich proporcjach, w jakich gałąź wypełnia obszar rejestrowany przez jeden punkt światłoczuły matrycy. Jeśli ta gałąź jest dostatecznie cienka, to nie zostanie zarejestrowany kolor gałęzi, tylko, na przykład, 30% koloru gałęzi i 70% jasnoniebieskiego koloru nieba. Co więcej często nie jesteśmy nawet w stanie przewidzieć jaki będzie ten uśredniony kolor. Jedno jest pewne – będzie to jakiś kolor z dużym udziałem składowej niebieskiej. Co z tego wyjdzie nie trzeba chyba nikomu tłumaczyć - dostaniemy piękny „fiolecik”. I ten „fiolecik” będzie przetwarzany przez algorytm interpolacji oraz przez filtr AA, w połączeniu z niebieskim kolorem tła (niebo) dając jeszcze inne odcienie pośrednie. Wrażenie „fioletowej” obwódki będzie jeszcze bardziej wzmacniane, poprzez dodatkowe rozmycie granic kolorowych plam. A co będzie, jeśli na tle bardzo jasnego nieba sfotografujemy żółtego ptaszka? Oczywiście też będzie kolorowa obwódka, tyle że o innym zestawie barw – mniej kłujących w oczy.

Takie przejścia pomiędzy kolorami na naszych zdjęciach są wszędzie, można je wyraźnie obserwować powiększając w programie graficznym dowolne zdjęcie. Powiększając je znacznie bardziej, niż do 100%, aż zobaczymy poszczególne piksele RGB. Różnokolorowe interpolowane piksele w obszarach przejść pomiędzy obszarami będą wszędzie (najlepiej widoczne w tych miejscach, gdzie zdjęcie jest ostre), ale nie wszędzie są tak dobrze widoczne jak w przypadku ciemnych gałęzi, czy drutów na tle jasnego nieba. A wniosek? Wniosek jest prosty. Ten rodzaj aberracji chromatycznej nie dotyczy obiektywu tylko cyfrowej matrycy. Aberracja powodowana przez obiektyw tylko się na to nakłada i jest bardzo skutecznie wzmacniana. Wiedzą o tym producenci aparatów, wie również Nikon. Ta wiedza skłoniła go do wprowadzenia do programu Nikon Capture funkcji minimalizacji aberracji chromatycznej, którą można włączyć na stałe. Funkcja programu, jak to funkcja, działa automatycznie i nie zawsze jest w stanie automatycznie wszystko wykryć i skorygować. Korygować może tylko te błędy, których mechanizm powstawania jest znany projektantom, czyli te, które są wprowadzane przez interpolację pikseli i filtr AA. Natomiast tego, co dociera do matrycy z obiektywu (wpływ uśredniania koloru dla pojedynczych punktów światłoczułych i rzeczywiste aberracje chromatyczne obiektywu) programowo korygować zazwyczaj się już nie da. Dlatego pomimo zastosowania algorytmu korekcji, na zdjęciach widzimy piękne kolorowe (najczęściej fioletowe) obwódki wokół różnych ciemnych detali. Te fioletowe najszybciej wpadają nam w oko. Jak działa taki program? Stara się on analizować obraz i wykrywać granice kolorowych plam, a jeśli takie granice znajdzie, stara się możliwie maksymalnie, ale bez przesady, zmniejszać obszar przejścia jednego koloru w drugi. Ale nie może robić tego zawsze i wszędzie, bo to również wzmacniałoby szum. Algorytm nie wie gdzie była oryginalna krawędź, czyli zazwyczaj robi ją gdzieś w środku obszaru przejścia, o ile taki obszar prawidłowo wykryje. Działania takie, w połączeniu z interpolacją koloru pikseli mogą czasem dawać wrażenie nieznacznego pogrubiania cienkich linii. Ale te wszystkie korekcje są możliwe tylko wówczas, jeśli różnice kolorów dwóch sąsiednich obszarów są na tyle duże, aby algorytm mógł rozpoznać je jako krawędź – jako granicę dwóch różnych kolorowych obszarów. Jeśli te kolory są do siebie zbliżone lub obszary są niewielkie to algorytm musi potraktować je jako łagodne przejścia tonalne i po prostu je pominie, a tym samym pozostawi na zdjęciu nieostrości. To były jedynie rozważania o możliwych do zastosowania algorytmach. Każdy program robi to inaczej i rzeczywiste metody wyszukiwania i minimalizacji aberracji na pewno są bardziej skomplikowane.

Czas na wnioski końcowe. Rzeczywista rozdzielczość matryc cyfrowych wyrażona w rzeczywistych (nie interpolowanych) pikselach RGB jest dużo mniejsza od tej, którą producenci podają w materiałach reklamowych i w dokumentacji – ot, taki bajer reklamowy związany z interpolacja Bayera :wink:. Metoda interpolacji koloru poszczególnych pikseli RGB oraz filtr AA są bezpośrednią i bardzo istotną przyczyną powstawania aberracji chromatycznych w fotografii cyfrowej, obiektywy są tu winne w mniejszym stopniu niż matryca i dlatego w fotografii analogowej aberracja stanowiła o wiele mniejszy problem. Interpolacja koloru pikseli RGB i filtr AA powodują istotny spadek ostrości rejestrowanego obrazu związany z celowym rozmywaniem informacji docierających do obiektywu z zewnątrz. Recepta na poprawę ostrości zdjęć i eliminację aberracji chromatycznej powodowanej przez matrycę wydaje się prosta – to rezygnacja z interpolacji koloru pikseli oraz rezygnacja z filtra AA, ale kto by wówczas kupił lustrzankę cyfrową ze wszechobecną morą i matrycą o rzeczywistej wielkości 1,5 Mpix (D50/D70), czy 2,5 Mpix (D200)?

Cóż, zapraszam do dyskusji. Proszę traktować ten tekst jako wprowadzenie. :)

Czornyj
15-05-2006, 21:21
JK, Dzięki za tak obszerny i ciekawy wywód - przeczytałem z niekłamanym zainteresowaniem.
Zgadzam się w 100% że interpolacja do spółki z filtrem AA powodują eskalację występowania aberracji chromatycznej. Nie do końca jednak zgodzę się z tezą, że są one jedynymi czynnikami powodującymi powstawanie tego efektu w fotografii cyfrowej.

Należałoby bowiem również wspomnieć o mikrosoczewkach znajdujących się nad każdą lokacją piksela, które również mogą być powodować to zjawisko. Na poparcie tej tezy przywołam ogólnie znane fakty:

- CA w fotografii cyfrowej w największym stopniu występuje w przypadku obiektywów ultraszerokokątnych, co zdaje się właśnie wskazywać na mikrosoczewki,
- powstawanie tego zjawiska jest mniejsze w przypadku ultraszerokokątnych obiektywów wyposażonych w specjalne powłoki (vide Sigma 10-20, o CA mniejszych niż np. w Tokinie 12-24)
- powstawanie CA jest (najprawdopodobniej) mniejsze w przypadku matryc pozbawionych mikrosoczewek (vide Kodak DCS Pro, w porównaniu z Canonem 1Ds - choć porównania, które widziałem nie mogą być 100% dowodem ze względu na zastosowanie jedynie optyki podobnej klasy, oraz fakt pozbawienia DCS-a filtra AA)

JK
15-05-2006, 21:26
Czornyj, oczywiście masz rację, ale chodziło mi bardziej o przybliżenie tego zagadnienia i jako, takie zwymiarowanie tych poblemów. Czy nazwiemy to filtrem AA, czy mikrosoczewkami, czy wykombinujemy jeszcze coś innego, to będzie to miało wpływ na rozległość zniekształcanych fragmentów obrazów, ale zasada rozmywania obrazu pozostanie praktycznie taka sama.

meliszipak
15-05-2006, 21:31
Mnie trudno dyskutować na tak wysokim, merytorycznym poziomie, ale artykuł
przeczytałem z przyjemnością.

W Olympusie dzięki zastosowaniu telecentrycznej optyki zlikwidowne zostało
nieporządane zjawisko CA?

Po przymknięciu blendy zjawisko CA zanika?

Czornyj
15-05-2006, 21:33
Czornyj, oczywiście masz rację, ale chodziło mi bardziej o przybliżenie tego zagadnienia i jako, takie zwymiarowanie tych poblemów. Czy nazwiemy to filtrem AA, czy mikrosoczewkami, czy wykombinujemy jeszcze coś innego, to będzie to miało wpływ na rozległość zniekształcanych fragmentów obrazów, ale zasada rozmywania obrazu pozostanie praktycznie taka sama.
wiem, wiem, ale jak jest okazja się powymądrzać to nie mogę się oprzeć ;)

marecki_5
15-05-2006, 21:41
Pamiętacie słynną lustrzankę Sigmy SD9? Jako pierwsza wykorzystywała trójwarstwową matrycę foveon która miała zapewnić rewelacyjną ostrość i barwę zdjęć. Jak widać na sampach na dpreview i Steve's Digicams jakość nie jest aż tak rewelacyjna. Myślę, że nie należy demonizować matryc mozaikowych i generowanych przez nie artefaktów.

cypherdid
15-05-2006, 21:52
dobry text..dzięki..good job...
tyle że nie idealizujmy także fotografii analogowej...tam też jest kilka a może i więcej czynników wpływających na zmniejszenie rozdzielczości itp...źle przeprowadzona obróbka czy nawet odbicia wewnątrzwarstwowe i załamania na poszczególnych warstwach [odblaski refleksyjne i dyfuzyjne]...też mogłoby być lepiej

kwasik
15-05-2006, 22:02
wiele sie z tego tekściku dowiedziałem, dzieki

Czornyj
15-05-2006, 22:17
Pamiętacie słynną lustrzankę Sigmy SD9? Jako pierwsza wykorzystywała trójwarstwową matrycę foveon która miała zapewnić rewelacyjną ostrość i barwę zdjęć. Jak widać na sampach na dpreview i Steve's Digicams jakość nie jest aż tak rewelacyjna. Myślę, że nie należy demonizować matryc mozaikowych i generowanych przez nie artefaktów.
Sigmy mają swoje wady, ale poziom detalu obrazu uzyskiwana z ich 3MP sensora FOVEON jest wyższy od 6MP lustrzanek, przy zdecydowanie wyższej kontrastowości lokalnej i większej dynamice układu. Ogólnie matryca była rewelacyjna, jedyną jej wadą był fakt, że nigdy nie trafiła do porządnego korpusu z solidnymi układami i oprogramowaniem przetwarzającym dane z matrycy, bo Sigma SD10 - mimo iż nienajgorsza - to rozwiązanie mimo wszystko nieco partyzanckie.

pebees
15-05-2006, 22:26
JK, nie chciało mi się tego czytać dziś, jutro przeczytam. Ale 3 grosze wtrącę, a co! Otóż problemy tego typu będą zawsze występować na styku dwóch materiałów o różnych własnościach, więc czy to przysłona, czy matryca, czy film - wszędzie są. Gdzieniegdzie są tylko niezauważalne :D

Czornyj
15-05-2006, 22:30
Otóż problemy tego typu będą zawsze występować na styku dwóch materiałów o różnych własnościach, więc czy to przysłona, czy matryca, czy film - wszędzie są. Gdzieniegdzie są tylko niezauważalne :D
Tylko JK pisze dlaczego widać je bardziej.
Oczywiście, że CA jest nieuniknione, i każdy kto w analogu używał dobrego slajdu i skanera doskonale zdaje sobie z tego sprawę.

Seeker
17-05-2006, 14:13
"Stara się on analizować obraz i wykrywać granice kolorowych plam, a jeśli takie granice znajdzie, stara się możliwie maksymalnie, ale bez przesady, zmniejszać obszar przejścia jednego koloru w drugi. Ale nie może robić tego zawsze i wszędzie, bo to również wzmacniałoby szum. Algorytm nie wie gdzie była oryginalna krawędź, czyli zazwyczaj robi ją gdzieś w środku obszaru przejścia, o ile taki obszar prawidłowo wykryje."

I jest to wystarczajacy powod do modernizacji sposobu dzialania algorytmow
minimalizujacych widocznosc tego zjawiska (zakladajac, ze metoda
jego wykrywania jest wlasnie taka).

W zwiazku z powyzszym mam pewien pomysl. Ot taka luzna koncepcja...
Jednak opis bylby zbyt zakrecony na zasmiecanie forum.
A moze jest tu jakis zdolny programista...?

pebees
17-05-2006, 22:56
Czornyj, dlaczego widać je bardziej? No tak.. ale JK nie ma racji.
Widać je bardziej, bo się wszyscy dziś, za przeproszeniem, spuszczają nad megapikselami, szumami, aberracjami i innymi akumulatorami zamiast robić zdjęcia.

Tak lekko OT - jak czytam o tych fotografowanych dekielkach i innych białych ścianach, liczeniu dead/hot pikseli to się zastanawiam czy ja normalny jestem. Bo jakoś nie chce mi się i nie mam zamiaru robić takich cudów.

JK
17-05-2006, 23:10
pebees, nikt Ci nie proponuje pstrykania dekielków i ścian (a tak na marginesie, nie jesteś na bieżąco - ściany mają być ceglane :D), ale moim zdaniem o pewnych podstawowych sprawach lepiej wiedzieć, niż nie wiedzieć. Praw fizyki i zasad geometrii nie przeskoczysz, możesz co najwyżej tracić czas na kombinowanie, dlaczego zdjęcia nie wychodzą jak należy i na korygowanie skutków tego "nie wychodzenia". Czasem lepiej usuwać przyczyny błędów niż ratować zepsute fotki. Ja tam zawsze wolę najpierw poczytać, potem pomyśleć, a dopiero na końcu coś robić, zdjęcia również. Ale można też odwrotnie - każdy ma swoje upodobania.

Czornyj
17-05-2006, 23:14
pebees, to taki mały trainspotting - nie zależą od tego losy wszechświata, ale bywa zabawne :D

Ja np. nie znoszę oglądać TV bo mnie śmiertelnie nudzi, książki i whisky są drogie, a fotografować jest sens wtedy, kiedy jest dobre światło. A o aberracjach zawsze można poczytać...

ALF
17-05-2006, 23:26
no i znając wyniki jackowych testów nie bedziesz marudził, że twój najnowszy obiektyw robi nieostre zdjęcia :lol:

pebees
18-05-2006, 00:15
ALF, nie, będę marudził, że każdy jest o kant d..y potłuc, bo ca i nieostry :D
Czornyj, świat zmierza ku schyłkowi.. światło niedługo zgaśnie ;-)
JK, wiem o co Co chodziło, to była tylko mała dygresja. Wiem też, że (nie chcę nikogo obrażać :D) jakieś 95 procent ludzików z tego forum nie zna elementarnych zasad fizyki. I kupując cyfrówki mają nadzieję, że nie będą musieli znać. A Ty im tę nadzieję zabierasz ;-)

gmoszkow
18-05-2006, 03:18
JK: Ty chłopie zawsze madrze na tym forum prawiles, ale tym razem to chyle czapke...

Szczerze sie przyznam, ze myslalem, ze jesli matryca ma rozdzielczosc 2000 x 3000 to znaczy, ze tak naprawde ma 6 Mpix czerwonych, 6 Mpix Niebieskich i 12 Zielonych no ale jak rozumiem to moje czcze nadzieje byly

Pozdrawiam

Grzegorz

JK
18-05-2006, 23:46
gmoszkow, możesz to bardzo szybko sprawdzić. Zrób za pomocą D200 dowolne zdjęcie w NEFie bez kompresji i sprawdź jaką plik ma wielkość. Będzie to zawsze troszkę więcej niż 15 MB. Każdy sensor zwraca wartość zapisaną na 12-tu bitach, czyli na 1,5 bajtu. W pliku znajduje się więc około 10 milionów wartości 12-to bitowych. A to już daje magiczne 10Mpix z instrukcji.

Niedzwiedz
19-05-2006, 10:47
tez sie zgadzam w d70 z moimi stalakami mialem mniejsze CA lub wcale teraz w s3 (tam jest tych interploracji sporo) wylaza w moich szklach wieksze niz z d70

tzk
04-09-2007, 21:11
Czy w takim razie możliwe jest w przypadku pewnych nieodkonalości matrycy w jednym a drugim aparacie, że aberacje np. w jednym D200 będą większe niż drugim przy założeniu, że jest testowany ten sam obiektyw ?

JK
04-09-2007, 22:52
Raczej nie. Te aberracje nie są powodowane przez matrycę, tylko przez soft, który dokonuje interpretacji koloru. Wielkość tych przekłamań (obszarów przejść) koloru nie może więc zależeć od konkretnego egzemplarza matrycy (wykluczam jakieś braki produkcyjne). Różnice będą natomiast występować, przy różnych ustawieniach parametrów obrazu (kontrast, wyostrzanie, odszumianie) i tu chyba trzeba szukać przyczyn różnego zachowania się dwóch puszek z tym samym obiektywem.

Tom01
03-01-2008, 22:44
Ciekawa teoria, jednakże nie ma nic wspólnego z pojęciem aberracji chromatycznej. Pomimo możliwego podobieństwa efektu, mechanizm jego powstawania jest zupełnie inny. Defekt przedstawiony przez Pana, możnaby nazwać jakąś aberracją (odchyłką, wadą), ale z pewnością nie aberracją chromatyczną. Temu terminowi jest zarezerwowane zjawisko fizyczne (optyczne) nie mające nic wspólnego z algorytmami interpolacji pikseli RGB.

Piotr.S
08-02-2009, 13:02
Oj, przecież JK chodziło o ostateczny efekt na fotografiach - i o to tu na forum fotograficznym chodzi. Oczywiście, są fizyczne-optyczne powody ogniskowania różnych częstotliwości światła (dyspersja - to dla purystów optycznych), są również fizyczne-elektryczne powody powstawania podobnych efektów (nasycenie ładunków elektrycznych poszczególnych komórek matrycy aparatu) i są równiż przyczyny spowodowane niedoskonałością programowych algorytmów obsługujących matrycę Bayera. Końcowego użytkownika interesuje efekt końcowy i tyle. Szkoda czasu na kłótnie, która przyczyna efektu jest ważniejsza. Całe szczęście dla fotografów, efekt "aberracji chromatycznej" (sumaryczny - optyczny, elektryczny i programowy) jest w miarę prosty do usunięcia za pomocą oprogramowania do obróbki zdjęć.

welury
15-08-2009, 14:28
Zwracałem uwagę w testach na aberację chromatyczną przy kupnie obiektywu, nie biorąc innego czynnika pod uwagę.
Teraz nie wiem już jak oceniać obiektyw pod tym względem.