Close

Strona 2 z 4 PierwszyPierwszy 1234 OstatniOstatni
Pokaż wyniki od 11 do 20 z 36
  1. #11

    Domyślnie

    O szczegółowości moim amatorskim zdaniem nie będzie decydowała ilość pikseli tylko gęstość, a co za tym idzie ilość px na cal czy tam centymetr. Dla tej samej generacji sprzętu przy 12 mpx i np 300 dpi vs 48 mpx i 300 dpi, dla odbitki A4 szczegółowość będzie chyba identyczna
    Sony A7III + SY AF 35 1.4 + SY AF 85 1.4 + S 135 1.8 A

  2. #12
    ksh
    Gość

    Domyślnie

    Ale przecież przy tej samej powierzchni matrycy to ilość pikseli generuje dpi, czyli jakby nie przeliczać więcej pikseli da zawsze więcej szczegółów, które są wynikiem większej ilości informacji jakie ta matryca jest w stanie "złapać", oczywiście jeśli zakładamy że optyka nie przeszkodzi.
    Do tej pory zwiększanie ilości pikseli nie przekładało się równo na ilość szczegółów co by można wnioskować z samych wyliczeń, widać to zwłaszcza w sensorach canona.
    Dopiero matryce BSI potrafią na tak mocno upakowanej matrycy wyłapać odpowiednio dużo żeby ta ilość pikseli przekładała się na ilość szczegółów, jakby D850 miał matryce w tej samej technologii co D810 to była by katastrofa.

  3. #13
    Super Moderator Konto PREMIUM Awatar Jacek_Z
    Dołączył
    11 2005
    Miasto
    Bydgoszcz
    Posty
    32 751

    Domyślnie

    Technologia BSI nie ma wiele.wspolnego z iloscia detalu. Zdecydowanie wiecej ma do gadania filtr AA dolnoprzepustowy (lub brak).
    Zelber i notdot napisali OK, a te rysunki pokazuja najlepiej o co chodzi.
    Moje systemy: Nikon F i Z, Hasselblad, Leica, Pentax, Rolleiflex, FKD Zenity, Praktiki, ruskie dalmierze i około 30 szkiełek.

  4. #14

    Domyślnie

    Rzecz dla mnie jest oczywista. Weź kartkę w kratkę i zrób na niej rysunek tak by każdy kwadrat (piksel) był zamalowany lub nie.
    Następnie zrób rysunek ale tak by pikselowi odpowiadały 4 kwadraty.

    Teraz porównaj ile szczegółów możesz oddać na kartce tej samej wielkości (matrycy) mając mniejsze piksele, a ile mając większe. To takie rozwinięcie tego co napisał/narysował @Zelber.

  5. #15
    ksh
    Gość

    Domyślnie

    Cytat Zamieszczone przez Jacek_Z Zobacz posta
    Technologia BSI nie ma wiele.wspolnego z iloscia detalu. Zdecydowanie wiecej ma do gadania filtr AA dolnoprzepustowy (lub brak).
    Zelber i notdot napisali OK, a te rysunki pokazuja najlepiej o co chodzi.
    Ma znaczenie dlatego że na mocno upakowanej matrycy zwiększa się ilość miejsca, które nie "odbiera" informacji jak i zwiększa ilość negatywnych zakłóceń, na yt ktoś to fajnie zobrazował porównaniem dużej szklanki z wodą i zastąpienie jej kilkoma kieliszkami, dopiero wstawienie w matrycy BSI soczewek nad każdym pikselem spowodowało że straty zostały zmniejszone, a straty znowu zobrazować można nakładając na zdjęcie siatkę, która przysłania część informacji, zwykła matryca mocno upakowana ma nitki tej siatki grube, jest tych "martwych" pól więcej niż w matrycy mało upakowanej, w matrycy BSI dzięki zastosowaniu soczewek siatka ta zmniejszona jest bardzo co powoduje że informacji dociera więcej do pikseli.

    ( Odwrotną sytuacja do tego jest porównanie TV 1080p 32" z np 64" z zachowaniem odległości gdzie na tym 32" przestało się widzieć siatkę między pikselami, jak popatrzymy na 64" to zaczynamy widzieć nie tylko piksele ale i siatkę między nimi. )
    Ostatnio edytowane przez ksh ; 18-11-2017 o 21:04

  6. #16

    Domyślnie

    @Zelber i @notdot wyczerpaliście temat. O dziwo, nie wiem czemu, nie brałem tego pod uwagę. Dzięki za wyjaśnienia.
    Co do filtrów czy BSI- nie to było moim pytaniem. Dla mnie temat wyjaśniony w 100%.

  7. #17
    Super Moderator Konto PREMIUM Awatar Jacek_Z
    Dołączył
    11 2005
    Miasto
    Bydgoszcz
    Posty
    32 751

    Domyślnie

    Cytat Zamieszczone przez koesh Zobacz posta
    Ma znaczenie dlatego że na mocno upakowanej matrycy zwiększa się ilość miejsca, które nie "odbiera" informacji jak i zwiększa ilość negatywnych zakłóceń, na yt ktoś to fajnie zobrazował porównaniem dużej szklanki z wodą i zastąpienie jej kilkoma kieliszkami, dopiero wstawienie w matrycy BSI soczewek nad każdym pikselem spowodowało że straty zostały zmniejszone, a straty znowu zobrazować można nakładając na zdjęcie siatkę, która przysłania część informacji, zwykła matryca mocno upakowana ma nitki tej siatki grube, jest tych "martwych" pól więcej niż w matrycy mało upakowanej, w matrycy BSI dzięki zastosowaniu soczewek siatka ta zmniejszona jest bardzo co powoduje że informacji dociera więcej do pikseli.
    Nie. Zmniejszenie martwych powierzchni pomiędzy pikselami nie zwiększa ilości detalu. Powoduje wyłapywanie większej ilości fotonów padających na matrycę, przez co daną czułośc osiąga się bez większego wzmocnienia sygnału. Mogę się zgodzić, że większe wyzyskanie tego co pada na matryce BSI to w efekcie mniejsze szumy, a mniejsze szumy to więcej detalu. Ale tu nie rozmawiamy o tym przypadku, załóżmy, że czułość matrycy jest najniższa.
    Zrobiłem rysunek, to chyba będzie jaśniej:
    Kliknij obrazek, aby uzyskać większą wersję

Nazwa:	matryca.jpg
Wyświetleń:	18
Rozmiar:	286,7 KB
ID:	1260
    rząd 1 - to to co fotografujemy
    rząd 2 - fotocele zbierające światło, o różnych kształtach i powierzchni. A - sensor BSI, B, C, D - sensory mniejsze niż BSI, wkoło nich to co się marnuje na odprowadzenie sygnału.
    rząd 3 - to co wynikowo otrzymujemy w pliku (mamy na zdjęciu)

    Ważny jest ten rząd 2 - załóżmy, że w kolumnie A jest sensor typu BSI, B - jakiś tam tradycyjny, C - wymyśliłem sobie okrągły sensor, D - wymyśliłem pięciokąty. Fuji miało sześciokątne sensory i to dwóch bardzo różnych rozmiarów, które sklejał (dając dużą DR). Sensor nie musi być prostokątny czy kwadratowy.
    Piksel (rząd 3) nie ma kształtu czy powierzchni. Ma parametry R, G, B. Narysowałem go jednak jakby miał rozmiar, w dodatku taki, jak to co odwzorowuje (rząd 1). Istotne jest to, że piksel ten będzie miał takie same parametry w przypadku rejestrowania go przez celę A jak i B, C czy D. Po prostu będzie to (opisany na 8 bitach) R=1, G=126, B = 255 (przypadek, sprawdziłem pipetą w PS jaką wartość ma ten niebieski).
    Zakładam sytuację idealną, czyli nie uwzględniam szumu, nie uwzględniam filtra AA, ale także i optyki, wad tejże (optyka ma tu dość zasadnicze znaczenie) czy dyfrakcji albo i długości fali światła. No ale mówimy o wpływie piksela BSI, a nie o obrazie jako takim, na który wpływa nie tylko matryca, ale i obiektyw.
    Ostatnio edytowane przez Jacek_Z ; 19-11-2017 o 00:35
    Moje systemy: Nikon F i Z, Hasselblad, Leica, Pentax, Rolleiflex, FKD Zenity, Praktiki, ruskie dalmierze i około 30 szkiełek.

  8. #18
    ksh
    Gość

    Domyślnie

    Ale musisz brać pod uwagę budowę sensora, który nie odbiera światła z powierzchni tylko światło przechodzi głębiej, dlatego przykład szklanki i kieliszków gdzie istotą w tym obrazowym porównaniu są ich denka, w matrycy BSI przesunięte jest to bliżej powierzchni przez co nie ma strat tak dużych, a straty te to każda ścianka pojedynczego piksela i powiększanie się tej "siatki" przysłaniającej powierzchnię.

    Na tej grafice widać to dokładnie i nie przekłada się to tylko na ilość światła czyli zmniejszanie szumów ale i na szczegółach ponieważ matryca BSI jest "pełniejsza" i dociera do niej więcej informacji, zwykłą matryca marnuje sporo informacji.



    Jest tu też zobrazowane o co chodzi ogólnie z rozdzielczością, więcej pikseli = więcej szczegółów ale i więcej "martwych" przestrzeni gdzie tracimy informacje o całym obrazie co możemy zaobserwować w matrycy takiej jak w D810 czy w canonie i innych mocno upakowanych matrycach, lekarstwem na to jest BSI ale i nowe technologie nad jakimi pracuje sony, nikon czy ricoh.
    Ostatnio edytowane przez ksh ; 19-11-2017 o 14:15

  9. #19

    Domyślnie

    @koesh
    Mieszasz dwie rzeczy ze sobą nie związane.
    @Jacek_Z prawie(bo jest to w pełni prawdziwe, ale tylko dla matrycy Foveon, gdzie jeden "piksel" jest w stanie zarejestrować 3 składowe RGB) dobrze to opisał. W "klasycznej" matrycy z filtrem bayera jeden piksel nijak nie zarejestruje pełnej informacji o kolorze.

  10. #20

    Domyślnie

    Cały ten wątek wygląda na prowokację? Bo jak można wątpić, że 40 jest większe od 10?

    Zastanawiać się można, co najwyżej dlaczego obraz z matrycy 36Mpix po zresamplowaniu do 12 Mpix ma więcej detalu niż prosto z matrycy 12 Mpix.
    Z6II + N 17-28/2.8, N 28-75/2.8, N 70-180/2.8, N 24-200, T 70-300Z, N 40/2.0, V 85/1.8.
    D750/800 + T 17-35, N 24-70/2.8, N 28/1.8G, N 50/1.8G, S 135/1.8 Art.

    było D70, D40, D60, D80, D90, D700, D7000, D7100, D600, D750, D7200, D7500, Z5.

    moje pstryki, na fejsie, instagram

Strona 2 z 4 PierwszyPierwszy 1234 OstatniOstatni

Podobne wątki

  1. Czy można samemu zbadać rozdzielczość zdjęć z obiektywu?
    By dong in forum Obiektywy - bagnet F (lustrzankowy)
    Odpowiedzi: 3
    Ostatni post / autor: 10-04-2009, 13:16
  2. Rozdzielczość N 35-70 f/2.8
    By dejnekas in forum Obiektywy 24-75mm
    Odpowiedzi: 15
    Ostatni post / autor: 08-04-2009, 16:13
  3. rozdzielczosc NEF w d50
    By nabassu in forum Nikon - D40-D90 i D3000-D7500
    Odpowiedzi: 13
    Ostatni post / autor: 17-01-2007, 13:40
  4. Rozdzielczość matrycy D200
    By Anonymous in forum Nikon - D100-D850, Df
    Odpowiedzi: 28
    Ostatni post / autor: 05-11-2005, 10:43
  5. Rozdzielczosc
    By rradzio in forum Nikon - D40-D90 i D3000-D7500
    Odpowiedzi: 7
    Ostatni post / autor: 18-09-2005, 12:18

Uprawnienia umieszczania postów

  • Nie możesz zakładać nowych tematów
  • Nie możesz pisać wiadomości
  • Nie możesz dodawać załączników
  • Nie możesz edytować swoich postów
  •