Close

Strona 3 z 4 PierwszyPierwszy 1234 OstatniOstatni
Pokaż wyniki od 21 do 30 z 36
  1. #21

    Domyślnie

    Cytat Zamieszczone przez TOP67 Zobacz posta
    Cały ten wątek wygląda na prowokację? Bo jak można wątpić, że 40 jest większe od 10?
    Przeczytaj jeszcze raz czego dotyczyło pytanie...

  2. #22

    Domyślnie

    Cytat Zamieszczone przez Jacek_Z Zobacz posta
    Nie. Zmniejszenie martwych powierzchni pomiędzy pikselami nie zwiększa ilości detalu. Powoduje wyłapywanie większej ilości fotonów padających na matrycę, przez co daną czułośc osiąga się bez większego wzmocnienia sygnału. Mogę się zgodzić, że większe wyzyskanie tego co pada na matryce BSI to w efekcie mniejsze szumy, a mniejsze szumy to więcej detalu. Ale tu nie rozmawiamy o tym przypadku, załóżmy, że czułość matrycy jest najniższa.
    Zrobiłem rysunek, to chyba będzie jaśniej:
    Załącznik 1260
    rząd 1 - to to co fotografujemy
    rząd 2 - fotocele zbierające światło, o różnych kształtach i powierzchni. A - sensor BSI, B, C, D - sensory mniejsze niż BSI, wkoło nich to co się marnuje na odprowadzenie sygnału.
    rząd 3 - to co wynikowo otrzymujemy w pliku (mamy na zdjęciu)

    Ważny jest ten rząd 2 - załóżmy, że w kolumnie A jest sensor typu BSI, B - jakiś tam tradycyjny, C - wymyśliłem sobie okrągły sensor, D - wymyśliłem pięciokąty. Fuji miało sześciokątne sensory i to dwóch bardzo różnych rozmiarów, które sklejał (dając dużą DR). Sensor nie musi być prostokątny czy kwadratowy.
    Piksel (rząd 3) nie ma kształtu czy powierzchni. Ma parametry R, G, B. Narysowałem go jednak jakby miał rozmiar, w dodatku taki, jak to co odwzorowuje (rząd 1). Istotne jest to, że piksel ten będzie miał takie same parametry w przypadku rejestrowania go przez celę A jak i B, C czy D. Po prostu będzie to (opisany na 8 bitach) R=1, G=126, B = 255 (przypadek, sprawdziłem pipetą w PS jaką wartość ma ten niebieski).
    Zakładam sytuację idealną, czyli nie uwzględniam szumu, nie uwzględniam filtra AA, ale także i optyki, wad tejże (optyka ma tu dość zasadnicze znaczenie) czy dyfrakcji albo i długości fali światła. No ale mówimy o wpływie piksela BSI, a nie o obrazie jako takim, na który wpływa nie tylko matryca, ale i obiektyw.
    Twoje rozumowanie nie jest poprawne (albo warunkowo poprawne). Zamień niebieskie kwadraty na górze na tintę od białej w środku do granatowej na brzegach. W wyniku tego w trzecim rzędzie będziemy mieli cztery różne kolory niebieskie i tylko pierwszy będzie odda poprawnie barwę jako średnią z całej powierzchni. Aby jeszcze lepiej unaucznić problem powiększ myślowo siatkę zasłaniającą sensor tak aby zasłaniała prawie cały sensor. W takim przypadku kolor piksela zrobi się biały.

    Jak widać zasłanianie pola sensora musi prowadzić do spadku ilości informacji. Spadek ilości informacji będzie dokładnie proporcjonalny do utraconej powierzchni.

    Pozdro
    Wiesiek
    Ostatnio edytowane przez Wujot ; 19-11-2017 o 15:07

  3. #23
    ksh
    Gość

    Domyślnie

    Cytat Zamieszczone przez Zelber Zobacz posta
    Mieszasz dwie rzeczy ze sobą nie związane.
    @Zelber
    Nie mieszam tylko dyskutujemy o matrycy w aparacie i dlaczego sensor o większej ilości pikseli wypluje do gotowego pliki wiecej informacji o całym zarejestrowanym obrazie, a dyskusja o rodzaju samego sensora jest bardzo ważny ponieważ zwiększenie ilości pikseli nie przekłada się równo na ilość informacji czyli szczegółowości, dopiero sensor BSI nadrabia to co tracą zwykłe matryce.

    Uproszczając i mocno nie podpierając się dokładnymi wynikami i danymi:
    Zakładamy że mamy matryce o takiej samej powierzchni z 12Mpix, druga matryca z 48Mpix nie da 4x więcej szczegółów ani informacji do przerobienia ( klasyczna matryca ma zbyt duże wady konstrukcji dla matryc mocno upakowanych, powyżej 24-28Mpix są za duże straty i nic nie daje dodawanie kolejnych pikseli, dodatkowo spada użyteczne iso ).
    Czym większe upakowanie tym zysk z ilości kolejnych milionów pikseli maleje i tu pojawia się sensor BSI, który zmniejsza te straty, można by tu nawet odwrotnie do tego podejść i zastanowić się jak wspaniała mogłaby być taka matryca jak jest w D850 ale o 24Mpix, obstawiam że użyteczne ISO byłoby 2x wyższe, a szczegółowość i DR robiłaby rekordy.

    Wracając do pytania początkowego, ilość pikseli na matrycy o tej samej powierzchni daje więcej szczegółów ale nie proporcjonalnie że 48Mpix da nam 4x więcej w porównaniu do 12Mpix, można to sprawdzić w testach, a to że wtrąciłem w temat matryce BSI ma sens bo to jest rozwój, który nas zbliża do tego by bliżej odnośnie pytania.
    Ostatnio edytowane przez ksh ; 19-11-2017 o 15:21

  4. #24

    Domyślnie

    Cytat Zamieszczone przez koesh Zobacz posta
    @Zelber
    Nie mieszam tylko dyskutujemy o matrycy w aparacie i dlaczego sensor o większej ilości pikseli wypluje do gotowego pliki wiecej informacji o całym zarejestrowanym obrazie, a dyskusja o rodzaju samego sensora jest bardzo ważny ponieważ zwiększenie ilości pikseli nie przekłada się równo na ilość informacji czyli szczegółowości, dopiero sensor BSI nadrabia to co tracą zwykłe matryce.

    Uproszczając i mocno nie podpierając się dokładnymi wynikami i danymi:
    Zakładamy że mamy matryce o takiej samej powierzchni z 12Mpix, druga matryca z 48Mpix nie da 4x więcej szczegółów ani informacji do przerobienia ( klasyczna matryca ma zbyt duże wady konstrukcji dla matryc mocno upakowanych, powyżej 24-28Mpix są za duże straty i nic nie daje dodawanie kolejnych pikseli, dodatkowo spada użyteczne iso ).
    Czym większe upakowanie tym zysk z ilości kolejnych milionów pikseli maleje i tu pojawia się sensor BSI, który zmniejsza te straty, można by tu nawet odwrotnie do tego podejść i zastanowić się jak wspaniała mogłaby być taka matryca jak jest w D850 ale o 24Mpix, obstawiam że użyteczne ISO byłoby 2x wyższe, a szczegółowość i DR robiłaby rekordy.

    Wracając do pytania początkowego, ilość pikseli na matrycy o tej samej powierzchni daje więcej szczegółów ale nie proporcjonalnie że 48Mpix da nam 4x więcej w porównaniu do 12Mpix, można to sprawdzić w testach, a to że wtrąciłem w temat matryce BSI ma sens bo to jest rozwój, który nas zbliża do tego by bliżej odnośnie pytania.
    Wg. mnie wątek BSI jest zupełnie zbędny gdyż pytanie nie dotyczyło matryc BSI ani żadnego rozwoju. Podobnie z szumem czy DR. Przyrost szczegółów też nie był przeze mnie poruszany. Temat dotyczył tego co świetnie mi dwie osoby wyjaśniły bez wtrącania czegoś co było nieistotne dla mojego pytania.

  5. #25
    ksh
    Gość

    Domyślnie

    Już wyjaśniłem dlaczego to ma wpływ na to co pytasz ale jak już wszystko wiesz to ok nie ma co drążyć tematu, jak ktoś kiedyś będzie szukał dlaczego matryca z czterokrotnie większą ilością pikseli nie daje czterokrotnie więcej szczegółów to może tu trafi.

  6. #26

    Domyślnie

    Bardzo ciekawy wątek powstał, który po drodze rozszczepił się na dwa. Pierwszy, to prosta odpowiedź na pytanie @nikoniarz-a sprowadzająca się do geometrii bez wchodzenia w matryce, optykę itd. I drugi o wpływie powierzchni czynnej piksela na oddanie szczegółowości przez matrycę. Posty dotyczące drugiego wątku są dla mnie nowością i z zainteresowaniem je przeczytałem i przy okazji chciałem za to podziękować kolegom. Może warto gdzieś rozwinąć ten temat, bo jak widać nie wszystko jest tutaj proste i oczywiste.

  7. #27

    Domyślnie

    @koesh
    W takim razie mam jedno pytanie.
    Jeżeli mamy D850 z matrycą BSI i D500 z matrycą "normalną", obydwie o praktycznie identycznej ilości pikseli, to dlaczego, te puszki pod względem rozdzielczości wypadają praktycznie identycznie?(a nawet z lekką przewagą D500)
    D500: https://www.optyczne.pl/343.4-Test_a...%9B%C4%87.html
    D850: https://www.optyczne.pl/381.4-Test_a...%9B%C4%87.html

  8. #28

    Domyślnie

    @Zelber, niejednokrotnie testy optycznych były podważane wiarygodności... Jeśli jakieś inne źródła potwierdzają te domysły, to realność tych testów wzrasta...

  9. #29
    ksh
    Gość

    Domyślnie

    Cytat Zamieszczone przez Zelber Zobacz posta
    @koesh
    W takim razie mam jedno pytanie.
    Jeżeli mamy D850 z matrycą BSI i D500 z matrycą "normalną", obydwie o praktycznie identycznej ilości pikseli, to dlaczego, te puszki pod względem rozdzielczości wypadają praktycznie identycznie?(a nawet z lekką przewagą D500)
    D500: https://www.optyczne.pl/343.4-Test_a...%9B%C4%87.html
    D850: https://www.optyczne.pl/381.4-Test_a...%9B%C4%87.html
    W tym przypadku ograniczeniem jest użyta optyka przez co matryca w D850 została sprowadzona do poziomu dobrych matryc 20-24Mpix, przypuszczam że z dobrymi obiektywami sigma art wyniki byłyby bardzo odmienne.

  10. #30

    Domyślnie

    Z ostrzejszym obiektywem D500 także uzyskałby wyższe wyniki... i wracamy do punktu wyjścia.

Strona 3 z 4 PierwszyPierwszy 1234 OstatniOstatni

Podobne wątki

  1. Czy można samemu zbadać rozdzielczość zdjęć z obiektywu?
    By dong in forum Obiektywy - bagnet F (lustrzankowy)
    Odpowiedzi: 3
    Ostatni post / autor: 10-04-2009, 13:16
  2. Rozdzielczość N 35-70 f/2.8
    By dejnekas in forum Obiektywy 24-75mm
    Odpowiedzi: 15
    Ostatni post / autor: 08-04-2009, 16:13
  3. rozdzielczosc NEF w d50
    By nabassu in forum Nikon - D40-D90 i D3000-D7500
    Odpowiedzi: 13
    Ostatni post / autor: 17-01-2007, 13:40
  4. Rozdzielczość matrycy D200
    By Anonymous in forum Nikon - D100-D850, Df
    Odpowiedzi: 28
    Ostatni post / autor: 05-11-2005, 10:43
  5. Rozdzielczosc
    By rradzio in forum Nikon - D40-D90 i D3000-D7500
    Odpowiedzi: 7
    Ostatni post / autor: 18-09-2005, 12:18

Uprawnienia umieszczania postów

  • Nie możesz zakładać nowych tematów
  • Nie możesz pisać wiadomości
  • Nie możesz dodawać załączników
  • Nie możesz edytować swoich postów
  •