Close

Strona 1 z 4 123 ... OstatniOstatni
Pokaż wyniki od 1 do 10 z 36
  1. #1

    Domyślnie Rozdzielczość matrycy a szczegółowość zdjęć

    Jakiś czas temu zacząłem się zastanawiać jak jest z tą szczegółowością zdjęć... tzn czemu czterokrotnie mniejszy piksel miałby rejestrować więcej szczegółów? Oczywiście zakładamy, że mamy odpowiednią ku temu optykę. Dla mnie, tak na logikę, piksel jest pikselem, i uchwyci to co mieści się w jego obrębie. Także czterokrotnie większy powinien zarejestrować to samo, co cztery o tej samej łącznie powierzchni. Ale nie znam się, dlatego pytam. Liczę szczególnie na odpowiedzi od @Jacek_Z czy @Pawel Pawlak czy @TOP67.
    Dla zobrazowania wielkości piksela- przykład taki bo najłatwiejszy:

    Ostatnio edytowane przez nikoniarz ; 18-11-2017 o 12:27

  2. #2
    ksh
    Gość

    Domyślnie

    Na tym co obrazowo pokazujesz już widać że zakładana powierzchnia na dużej matryca otrzymuje w przybliżeniu 4x więcej informacji, jeśli tylko optyka i warunki pozwolą to to masz teoretycznie z tych informacji o zarejestrowanym obrazie więcej szczegółów.
    Oczywiście cała walka z dużymi matryca ociera się o problemy fizyki i natury światła, dlatego pojawiają się takie nowości jak matryce BSI, które pozwalają na zmniejszenie wad matryc mocno upakowanych.
    Ktoś tam gdzieś wyliczał że przyrost na zwykłych matrycach nie jest równy ilości pikseli, na matrycach BSI jest to gigantycznie poprawione ale to dopiero początki tej technologii i tu nikon z sony mają za sobą duże pierwsze kroki.

  3. #3

    Domyślnie

    Cytat Zamieszczone przez koesh Zobacz posta
    Na tym co obrazowo pokazujesz już widać że zakładana powierzchnia na dużej matryca otrzymuje w przybliżeniu 4x więcej informacji.
    Wg mnie otrzymuje tyle samo, bo tyle samo wpada przez obiektyw. Więc skąd założenie, że 4x więcej? Skoro matryca na identyczną powierzchnię, to jakim cudem może zarejestrować więcej informacji? Albo inaczej- czemu czterokrotnie mniejszy piksel rejestruje więcej albo nawet tyle samo?
    Ostatnio edytowane przez nikoniarz ; 18-11-2017 o 14:28

  4. #4

    Domyślnie

    im więcej pikseli tym na więcej części dane są rozdzielone, detal nie rozkłada się na np. 10 pikseli a na 40. rozdzielczość.

  5. #5

    Domyślnie

    Cytat Zamieszczone przez jurkarol Zobacz posta
    im więcej pikseli tym na więcej części dane są rozdzielone, detal nie rozkłada się na np. 10 pikseli a na 40. rozdzielczość.
    A jak to się ma do tego, że im mniejszy piksel tym gorsza jakość? Bo teoretycznie 4-krotnie większy piksel powinien zarejestrować to samo co 4 mniejsze.

  6. #6

    Domyślnie

    Cytat Zamieszczone przez nikoniarz Zobacz posta
    A jak to się ma do tego, że im mniejszy piksel tym gorsza jakość?
    Utrata jakości zawsze będzie mniejsza niż zysk na rozdzielczości.


    Cytat Zamieszczone przez nikoniarz Zobacz posta
    Bo teoretycznie 4-krotnie większy piksel powinien zarejestrować to samo co 4 mniejsze.
    To może w takim razie produkować matryce z jednym pikselem? Bo przecież wg takiej logiki, skoro 1 piksel zarejestruje to samo co 4, to taki sam jeden zastąpi również np. 24 miliony.
    ['O]

  7. #7

    Domyślnie

    Cytat Zamieszczone przez ecml Zobacz posta
    To może w takim razie produkować matryce z jednym pikselem? Bo przecież wg takiej logiki, skoro 1 piksel zarejestruje to samo co 4, to taki sam jeden zastąpi również np. 24 miliony.
    Brałem tą skrajność pod uwagę. Ale jak napisałem- nie znam się, dlatego pytam. Ale nijak nie pomogłeś

  8. #8

    Domyślnie

    @nikoniarz
    Załóżmy teoretyczny przypadek w którym:
    1.) Mamy monochromatyczną matrycę pozbawioną filtru bayera.
    2.) Mamy idealnie ostry obiektyw nie ograniczany dyfrakcją.
    3.) Fotografujemy pionowe linie, które na matrycy będą wielkości dokładnie 1 piksela z matrycy 48 Mpix:
    Kliknij obrazek, aby uzyskać większą wersję

Nazwa:	dfsfs.jpg
Wyświetleń:	185
Rozmiar:	31,9 KB
ID:	1233

    Na matrycy 48 Mpix zarejestrujemy biało-czarne linie, na matrycy 12 Mpix jednolitą, szarą masę(bo to co na matrycy 48 Mpix rejestrowały nam 4 piksele tutaj się uśredni).

  9. #9

    Domyślnie

    @Zelber, to już jest jakiś argument który mnie przekonuje. Tylko zastanawia mnie czy powyższy przykład nie jest na tyle skrajny, by miał sens tylko i wyłącznie w tym konkretnym przypadku.

  10. #10

    Domyślnie

    Nie wiem to się wypowiem
    ja to widzę tak
    czyli po lewej jeden piksel zarejestruje 12,5% żółtego - reszta czarna - czyli da do procesora informację o prawie czarnym kolorze
    po prawej 3 piksele dadzą znać o kolorze czarnym, jeden 50/50 czarny i żółty czyli procesor dostaje więcej informacji z tych 4 pikseli
    oczywiście to samo co do kolorów odnosi się do ekstrapolacji krawędzi, z racji tego, że to nie jest analog a cyfra więc każde łuki i krzywe są przekształcane na ileś tam "schodków", czym więcej schodków tym "gładsza" krawędź
    możliwe, że się nie znam a monitor mam słaby

Strona 1 z 4 123 ... OstatniOstatni

Podobne wątki

  1. Czy można samemu zbadać rozdzielczość zdjęć z obiektywu?
    By dong in forum Obiektywy - bagnet F (lustrzankowy)
    Odpowiedzi: 3
    Ostatni post / autor: 10-04-2009, 13:16
  2. Rozdzielczość N 35-70 f/2.8
    By dejnekas in forum Obiektywy 24-75mm
    Odpowiedzi: 15
    Ostatni post / autor: 08-04-2009, 16:13
  3. rozdzielczosc NEF w d50
    By nabassu in forum Nikon - D40-D90 i D3000-D7500
    Odpowiedzi: 13
    Ostatni post / autor: 17-01-2007, 13:40
  4. Rozdzielczość matrycy D200
    By Anonymous in forum Nikon - D100-D850, Df
    Odpowiedzi: 28
    Ostatni post / autor: 05-11-2005, 10:43
  5. Rozdzielczosc
    By rradzio in forum Nikon - D40-D90 i D3000-D7500
    Odpowiedzi: 7
    Ostatni post / autor: 18-09-2005, 12:18

Uprawnienia umieszczania postów

  • Nie możesz zakładać nowych tematów
  • Nie możesz pisać wiadomości
  • Nie możesz dodawać załączników
  • Nie możesz edytować swoich postów
  •