PDA

Zobacz pełną wersję : wyostrzanie fotek - jak ocenić obiektywnie ?



PawelR
05-04-2006, 10:39
Mam prośbę aby jakiś spec od foto-oprogramowania wypowiedział się w kwestii różnego wyświetlania fotek w różnych programach/przeglądarkach...

szczegóły w wątku:

http://forum.nikon.org.pl/viewtopic.php?t=22139

chodzi mi zwłaszcza o porównanie wyostrzenia tej samej foty, wyświetlanej w przeglądarce internetowej i systemowej (XP) przeglądarce obrazów - z czego wynika aż tak duża różnica i jak ocenić obiektywnie poziom wyostrzenia foty ?

z góry dzięki za pomoc
Paweł R.

stig
05-04-2006, 12:07
Wyglad zdjec nie powinien sie roznic od siebie w zadnym z programow (oprocz oczywiscie kolorow (kwestia mozliwosci poprawnego uzywania Color Management przez rozne aplikacje)). Podstawowa zasada jest tylko wyswietlenie ich w skali 1:1 (czyli tak, zeby jeden piksel obrazu odpowiadal 1 pikselowi monitora).

PawelR
05-04-2006, 13:10
Wyglad zdjec nie powinien sie roznic od siebie w zadnym z programow

hmm, a oglądałeś załączony przeze mnie zrzut ekranu gdzie w dwóch oknach i tej samej skali wyświetlania foty diametralnie róźnią się ostrością ?
P.

bombel
05-04-2006, 13:31
Podstawowa zasada jest tylko wyswietlenie ich w skali 1:1 (czyli tak, zeby jeden piksel obrazu odpowiadal 1 pikselowi monitora).

A zachowałeś to co wyżej?

Tłumacząc na tzw. chłopski rozum: różne programy różnie sobie radzą z wyświetlaniem skalowanych zdjęć. Program staje przed bolesnym problemem pokazania całego zdjęcia (o długości powiedzmy 3000 px) w okienku o długości np. 500 px - musi coś z tym fantem począć. Bierze i skaluje.

I tutaj dochodzimy do clou programu i jednocześnie zagwozdki - jedne przeglądarki robią to (skalują) bardziej gładko, inne bardziej 'szortsko', w dodatku widzę, że zależy to od stopnia przeskalowania. Prosty przykład w PSie: skale o stopniu okrągłym (50%, 25%, 12,5%) są gładsze niż skale o stopniu 'nieokrągłym' (66,66%, 33,33%). Ta właśnie 'szorstkość' lub 'gładkość' (z braku lepszych słów) powoduje różnice w wyświetlaniu, co gorsza powoduje też praktyczną niemożność poprawnej oceny ostrzenia.

Czasem różne przeglądarki grafiki dają możliwość wyboru sposobu wyświetlania nie tylko miniturek, ale i obrazka zasadniczego; stąd te wszystkie 'display better (but slower)'. Ale to wcale problemu nie rozwiązuje, a nawet wręcz przeciwnie: więcej różnych mechanizmów - więcej różnych sposobów wyświetlania.

Zauważ, że przeglądarki internetowe (a jest ich kilka na rynku + kilkanaście niszowych) też robią to, o czym wyżej. Są różne i mają różne mechanizmy wyświetlania. Dlatego zamiast zamieszczać duże obrazki (które przeglądarka musi skalować, żeby zmieścić na ekranie) - lepiej samemu zrobić to pod PSem i zamieścić takie, żeby nie potrzeba było skalować - wtedy pixel zdjęcia = pixelowi ekranu i problem skalowania znika.

A odpowiedź na Twoje pytanie jak ostrzyć jest śmiesznie prosta: według uznania. :)

stig
05-04-2006, 14:09
Wyglad zdjec nie powinien sie roznic od siebie w zadnym z programow

hmm, a oglądałeś załączony przeze mnie zrzut ekranu gdzie w dwóch oknach i tej samej skali wyświetlania foty diametralnie róźnią się ostrością ?
P.
Nie. Nie ogladalem, bo nie chcialo mi sie czytac calego watku, zeby odniesc sie do tego o co pytasz w tym watku. Trzeba bylo podac link do konkretnego zrzutu.
Zajrzalem tam teraz. I powiem Ci jedno -- juz po raz ktorys wrzucasz zdjecia w ponad normatywnych dla internetu wielkosciach. W tym momencie ImagesHack poprostu skaluje podglad Twoich zdjec. I nie korzysta z takich algorytmow resamplingu jak np. aplikacje graficzne, tylko stosuje (prawdopodobnie) zwykle skalowanie jakie np. umozliwia przegladarka z poziomu HTMLa. Stad taki paskudny efekt. Wystarczy, ze roznica miedzy oryginalem a tym co pokaze okno ImagesHack (po "przeskalowaniu" Twojego zdjecia)bedzie raptem kilka procent -- a efekt bedzie widoczny.
Jedyne rozwiazanie -- zacznij przygotowywac swoje zdjecia w normalnych (przyjetych w internecie rozmiarach), miast pokazywac pliki w wielkosciach potrzebnych tylko do wykonania odbitek.

Jacek_Z
05-04-2006, 14:16
a jak ustosunkujecie sie do tego gdy monitor jest duży, zdjęcie małe i nie przeskalowuje?
monitory CRT maja najczęściej 72 dpi, LCD moze miec np 90 dpi.
Czy to tylko kwestia wielkości obrazka na monitorze, czy tez wpłynie na subiektywny odbiór ostrości zdjęcia jeśli ktoś zapisał obrazek na 72 dpi a ogląda na LCD ?

bombel
06-04-2006, 00:50
Poeksperymentuj! :)

Poza tym, monitory (nawet te bardzo duże w calach) nie mają więcej niż 1600 pixeli na długość, więc nie są powalająco duże jak na zdjęcia z dzisuejszych aparatów. Mowa oczywiście o monitorach 4:3.

Dla rzetelnej oceny zresztą, nie jest istotne, jaką rozdzielczość ma obrazek, jeśli tylko oglądamy go w takim powiększeniu/pomniejszeniu, żeby 1 pixel obrazka = 1 pixelowi monitora; a to można osiągnąć zawsze, dla zdjęć w różnych rozdzielczościach i dla różnych monitorów.

Co do drugiego pytania (czy rozdzielczość wpływa na odbiór zdjęcia na monitorze) - oczywiście nie. Rozdzielczość jest pewną logiczną formułką mówiącą, jak duże ma być zdjęcie na kartce, wydrukowane. Zresztą zrób eksperyment: weź jedno zdjęcie, zrób mu rozdzielczość 300 dpi, zduplikuj go, zmień mu rozdzielczość na inną dowolnie odległą (30 dpi lub 4678 dpi), byle bez resamplowania - i spróbuj znaleźć różnice.

Jest natomiast problem inny - porównam to do dźwięku. W 'organoleptycznym' sprawdzaniu głośników (komfort, wrażenia dźwiękowe, ogólny odsłuch, itp) na ogół dźwięk głośniejszy odbierany jest jako lepszy - w pewnych granicach oczywiście. Myślę, że podobnie jest z obrazkami - duży, mieszczący się komfortowo na ekranie, przyzwoity w jakości wyda się pewnie lepszym niż maluteńki ogryzek gdzieś w boku - nawet, jeśli obiektywnie byłoby odwrotnie.

JK
06-04-2006, 10:13
Panowie, tu chodzi o prezentację zdjęcia na monitorze i algorytmy, które to robią. Zazwyczaj zdjęcie jest dużo większe niż liczba pikseli możliwych do wyświetlenia na monitorze. Jacek_Z dobrze pisze o rozdzielczościach monitorów, są one takie w rzeczywistości. A bombel pisze, że dla monitora rozdzielczość zdjęcia jest "formułką logiczną", a to nie do końca prawda - zdjęcie jest zawsze wyświetlane w rozdzielczości monitora. Z tym wyświetlaniem jest tak. Jeśli obraz jest wyświetlany w trybie 100% lub 1:1 (te formy są stosowane zamiennie), to problemu nie ma. Każdy piksel zdjęcia odpowiada jednemu pikselowi monitora (a tak naprawdę - karty graficznej). Oprogramowanie do wyświetlania zdjęcia nie ma tu nic do roboty, a obraz jest wyświetlany praktycznie tak jak został zapisany. Oprogramowanie, i zastosowane w nim algorytmy, stają się ważne wtedy, gdy mamy dowolny inny przypadek 50%, 33%, ale również 200%, czy 400%.

Jeśli ten procent jest mniejszy niz 100% to oprogramowanie musi w jakiś sposób zastąpić kilka, kilkanaście lub kilkadziesiąt pikseli pobranych ze zdjęcia jednym pikselem możliwym do wyświetlenia na monitorze. I tu zaczynają się schody. Każdy programista ma swoje pomysły na to "uśrednianie". Algorytmy te można z grubsza przyrównać do algorytmów pomiaru światła w aparacie: matrycowy, centralnie ważony, czy punktowy. Może więc to być średnia arytmetyczna wszystkich pikseli, które maja być zastąpione jednym pikselem do wyświetlenia, może to być średnia ważona, może to być jeden piksel ze środka tego obszaru i jeszcze dziesiątki innych pomysłów. W efekcie, każdy program może jeden konkretny piksel na monitorze obliczyć i wyświetlić inaczej, a zdjęcie składa się przecież z dużej liczby takich różnie obliczonych pikseli. To jest główna przyczyna różnic w kolorach, kontrastach, wyostrzeniu, rozmyciu, itp.

Jeśli procent jest większy niż 100% to mamy inny przypadek. Jeden piksel pobrany ze zdjęcia jest wyświetlany za pomocą kilku, kilkunastu lub kilkudziesięciu pikseli monitora. Większość programów idzie tu po najmniejszej linii oporu i wyświetla jednolite kwadraty o odpowiedniej wielkości. Są jednak takie agorytmy, które analizując piksele sąsiednie potrafią wyświetlać obraz inaczej - symulując łagodne przejścia pomiędzy sąsiednimi pikselami. Wydaje się wówczas, że obraz ma lepszą jakość, ale jego parametry takie jak kolory, kontrasty, itp również mogą ulegać zmianom.

Co więcej, ten sam program może wyświetlać to samo zdjęcie nieco inaczej pod względem kolorystyki, kontrastu i wyostrzenia, w zależności od stopnia powiększenia tego zdjęcia. Algorytmy wyświetlania są zazwyczaj projektowane, jako algorytmy strumieniowe. One nie zajmują się obrazem jako całością, ale niewielkimi zbiorami pikseli, które są kolejno pobierane z pliku, w którym zapisane jest zdjęcie, następnie są przetwarzane (lokalnie) i wysyłane do urządzenia, jakim jest karta graficzna i monitor. Jest to również jedna z przyczyn klasyfikowania programów jako lepszych i gorszych. Może być tak, że dwa programy praktycznie nie różnią się zestawem funkcji, a wynik ich działań na zdjęciu jest prawie identyczny, ale różnią się algorytmem wyświetlania zdjęcia na monitorze i w efekcie jeden ma samych zwolenników, a drugi przeciwników.

Trochę dużo, ale może to coś komuś wyjaśni.

Jacek_Z
06-04-2006, 22:02
dziękuję. JK - wiedziałem, że przy przeskalowywaniu zaczynają się "schody" i nie chodzi mi to o ząbki na łukach :) objaśniłes mi precyzyjniej czemu.
pytałem o subiektywne sprawy - i tu objasnienie bombla porównujące to do muzyki musi mi wystarczyć. Czyli jest to jednak subiektywne - nie daje się " wrażenia naukowo" wytłumaczyć. Myślałem, że może tak.