PDA

Zobacz pełną wersję : Geforce 7300Gt i D-Sub...



DjPhatt
01-12-2007, 16:25
Witam.Czy ktoś miał okazje testować jakiej jakości obraz generuje ta karta na wyjściu D-Sub? Planuje kupić do obróbki zdjęć monitorek Dell p1130 i tak myśle czy dobrze zaświeci z ta karta.... Obecnie jade na lcd przez DVI i nawet zdjęć nie moge podrasowac tylko archiwizuje prosto z puchy.

david555
01-12-2007, 16:58
Generalnie nie polecam.
Co prawda mam podobną zainstalowaną w laptopie, ale moim zdaniem lepiej zastosować inną np. MATROX-a, albo przynajmniej ATI.

malita
01-12-2007, 20:37
Hej

Mój setup to :
Geforce 7300 GT
Dell 2407WFP
podpięte oczywiście przez DVI i nie widzę żadnych problemów, co widzę u siebie to samo zobaczę u innych.

najt
05-12-2007, 13:03
ja testuje cały czas gf 7600gs na d-subie i nie mam problemów :) aktualnie sprzedaje karte, jakbyś szukał :) na agp8x, palita sonic :) jakbyś chcial cos wiecej wiedzieć to na PW zapraszam :)

Peter
05-12-2007, 13:17
Witam.Czy ktoś miał okazje testować jakiej jakości obraz generuje ta karta na wyjściu D-Sub? Planuje kupić do obróbki zdjęć monitorek Dell p1130 i tak myśle czy dobrze zaświeci z ta karta.... Obecnie jade na lcd przez DVI i nawet zdjęć nie moge podrasowac tylko archiwizuje prosto z puchy.

Jak zostało powiedziane, tylko Matrox lub porządne ATI (zaczynając od X1950) z uwagi np. na 10-bitowe przetwarzanie na kanał koloru.
A z Dell p1130 ostrożnie. Zdarzały się trefne egzemplarze na Allegro. Problemy opisane na elektroda.pl

Tom01
05-12-2007, 13:53
Witam.Czy ktoś miał okazje testować jakiej jakości obraz generuje ta karta na wyjściu D-Sub?

GeForce 7300GT to procesor graficzny (GPU). Nie ma nic wspólnego z jakością sygnału na złączu analogowym. To zależy od producenta karty i jej jakości.

Peter
06-12-2007, 11:27
GeForce 7300GT to procesor graficzny (GPU). Nie ma nic wspólnego z jakością sygnału na złączu analogowym. To zależy od producenta karty i jej jakości.

Ma dużo wspólnego :) Wystarczy poszukać w sieci schemty blokowe budowy kart graficznych z opisem.
Jest coś co nazywa się RAMDAC, osobna rzecz to filtry wyjściowe montowane przez tzw. "firmy" ...
Przy okazji z RAMDAC'iem związana jest tabela koloru wykorzystywana przez kartę do obliczeń i konwersji.
Jeśli jest 10-bitowe przetwarzanie na kanał RGB to jest większa precyzja i głębia koloru.
Więc używanie Geforce do zdjęć jest nieporozumieniem. Widać to gołym okiem. Tu żadna magiczna kalibracja nic nie da. Jeśli coś ma na wyjściu fatalną jakość sygnału to urządzenie końcowe tego nie poprawi. Można tylko uśredniać - jak ktoś lubi półśrodki i kompromisy. Tylko wtedy nie ma "wysiwyg" :)
Z innej beczki (porzykład).
Jeśli otworzymy plik RAW w PS jako 16 bit/kanał to różni się wyglądem od 8 bit/kanał na tej samej karcie i monitorze (przynajmniej ja tak mam) - taka dygresja.

Tom01
06-12-2007, 12:17
Ma dużo wspólnego :) Wystarczy poszukać w sieci schemty blokowe budowy kart graficznych z opisem. Jest coś co nazywa się RAMDAC,

Wszystkie współczesne karty graficzne mają taką samą budowę funkcjonalną.


osobna rzecz to filtry wyjściowe montowane przez tzw. "firmy" ...

I tu jest głównie pies pogrzebany jeśli chodzi o analog.


Przy okazji z RAMDAC'iem związana jest tabela koloru wykorzystywana przez kartę do obliczeń i konwersji. Jeśli jest 10-bitowe przetwarzanie na kanał RGB to jest większa precyzja i głębia koloru.

Na interfejsie analogowym przetwornik D/A zawsze pracuje z rozpiętością 10 bitową. Da się to udowodnić na każdej karcie. Na interfejsie cyfrowym opis jest 8 bitowy i taki jest przekazany do transmitera. Niezależnie od głębokości koloru w PS, do wyświetlenia idzie zawsze degradacja do 8 bitów i to jeszcze przed kartą. Większa precyzja w PS służy wyłącznie mniejszej utracie informacji przy przekształceniach.


Więc używanie Geforce do zdjęć jest nieporozumieniem. Widać to gołym okiem. Tu żadna magiczna kalibracja nic nie da.

Nie potwierdzam tej opinii. Sądzę raczej, że niepochlebne opinie karty z układem GeForce zbierają dlatego, że istnieje na rynku ich znacznie więcej rodzajów, szczególnie kiepskich. Jak wspomniałem wcześniej, w zastosowaniach zawodowych wykorzystuje sie różne karty i nie ma specjalnych różnic jakościowych w dół, przez zastosowanie GPU nVidii. Przykłady EVGA, Hercules (nie ten tajwański), 3DLabs, PNY. Uogólnienia z rynku masowego nie są miarodajne.


Z innej beczki (porzykład).
Jeśli otworzymy plik RAW w PS jako 16 bit/kanał to różni się wyglądem od 8 bit/kanał na tej samej karcie i monitorze (przynajmniej ja tak mam) - taka dygresja.

To akurat nie ma żadnego związku z jakością Pana karty.

Peter
06-12-2007, 12:59
Wszystkie współczesne karty graficzne mają taką samą budowę funkcjonalną.

To nieprawda. Nie jest to możliwe choćby z uwagi na prawo patentowe, jeśli firma opatentuje jakieś rozwiązanie to inna nie może z tego korzystać (chyba, że kupi licencję). Dotyczy to również innych dziedzin życia.



I tu jest głównie pies pogrzebany jeśli chodzi o analog.

Nie głównie, tylko między innymi.


Na interfejsie analogowym przetwornik D/A zawsze pracuje z rozpiętością 10 bitową. Da się to udowodnić na każdej karcie. Na interfejsie cyfrowym opis jest 8 bitowy i taki jest przekazany do transmitera. Niezależnie od głębokości koloru w PS, do wyświetlenia idzie zawsze degradacja do 8 bitów i to jeszcze przed kartą. Większa precyzja w PS służy wyłącznie mniejszej utracie informacji przy przekształceniach.

Chodzi o całościową pracę, nie tylko DAC. Tu pierwszy był Matrox, Drugie ATI. Radzę poczytać specyfikację kart.

Nie potwierdzam tej opinii. Sądzę raczej, że niepochlebne opinie karty z układem GeForce zbierają dlatego, że istnieje na rynku ich znacznie więcej rodzajów, szczególnie kiepskich. Jak wspomniałem wcześniej, w zastosowaniach zawodowych wykorzystuje sie różne karty i nie ma specjalnych różnic jakościowych w dół, przez zastosowanie GPU nVidii. Przykłady EVGA, Hercules (nie ten tajwański), 3DLabs, PNY. Uogólnienia z rynku masowego nie są miarodajne.

A ja potwierdzam, nie ma karty, która by dawała lepszy obraz niż Matrox. Drugie w kolejności niektóre modele ATI (np. od Sapphire).

To akurat nie ma żadnego związku z jakością Pana karty.

To była dygresja przykładowa. Obraz 16 bit/kanał jest bardziej precyzyjny nawet na ubogiej karcie i monitorze.
Częściowo też ma związek. Przy włączonym Gigacolor w Matrox obraz jest lepszy, to widać i nie ma potrzeby pisać pracy doktorskiej na ten temat. Jeśli są nowatorskie, przydatne rozwiązania to warto z nich korzystać.
Zresztą na jakich kartach były zawsze testowane monitory (zwłaszcza CRT) ? Przecież nie na GF.

Tom01
06-12-2007, 13:27
Przecież nie na GF.

Powiela Pan obiegowe stereotypy, skorelowane z własnymi doświadczeniami dotyczącymi prawdopodobnie kart słabej jakości. Proszę przedstawić obiektywne (pomiarowe) dowody na stawiane tezy.

PS. A co do budowy blokowej, proszę choćby dla przykładu sprawdzić jak wygląda np radio (to łatwy i wdzęczny temat), i odnieść to do budowy kilku tysięcy różnych marek dostępnych na rynku.

david555
06-12-2007, 13:33
Szkoda bić pianę, bo najważniejsze dla użytkownika są jego subiektywne odczucia, a nie techniczny bełkot.
I jeśli ktoś mówi, że na MATROX-ie, czy ATI obraz jest subiektywnie lepszy, to jest i kropka.;)

Tom01
06-12-2007, 13:38
Szkoda bić pianę, bo najważniejsze dla użytkownika są jego subiektywne odczucia, a nie techniczny bełkot.
I jeśli ktoś mówi, że na MATROX-ie, czy ATI obraz jest subiektywnie lepszy, to jest i kropka.;)

W dziedzinie tanich kart:
Martox: 100% pewności, że będzie ok. ATI: spory udział na rynku mają firmy wcześniej związane z macierzystą firmą ATI, np Sapphire. Dzięki temu obiegowa opinia jest dobra. nVidia: rynek zawalony różnej jakości produktem, przeważnie kiepskim.

W dziedzinie kart zawodowych:
Nie ma znaczenia producent GPU.

david555
06-12-2007, 13:48
W dziedzinie kart zawodowych:
Nie ma znaczenia producent GPU.

I z tym poglądem bym polemizował, bo kanadyjski MATROX ma spośród wymienionych producentów największe doświadczenie w wytwarzaniu kart do zastosowań profesjonalnych.
Kogo bym nie spytał, to opinia o tym producencie jest jednaka.

Peter
06-12-2007, 13:50
W dziedzinie tanich kart:
Martox: 100% pewności, że będzie ok. ATI: spory udział na rynku mają firmy wcześniej związane z macierzystą firmą ATI, np Sapphire. Dzięki temu obiegowa opinia jest dobra. nVidia: rynek zawalony różnej jakości produktem, przeważnie kiepskim.

W dziedzinie kart zawodowych:
Nie ma znaczenia producent GPU.

No właśnie. A przecież nikt z forumowiczów nie będzie kupował kart za kilkadziesiąt tys. PLN :)
Zresztą do zdjęć to mu się nie przyda (np. IBM robi jakieś takie cuda - w Komputroniku takich nie ma).
I może warto zakończyć dyskusję :)

Tom01
06-12-2007, 13:54
I z tym poglądem bym polemizował, bo kanadyjski MATROX ma spośród wymienionych producentów największe doświadczenie w wytwarzaniu kart do zastosowań profesjonalnych.
Kogo bym nie spytał, to opinia o tym producencie jest jednaka.

Polemizować zawsze można, jednak pomiar mówi co innego. Coś jak smak piwa z butelki i puszki. Większość smakoszy twierdzi, że szkło to szkło, ale jeśli ukryć z czego się nalewa, to trafianie z rozpoznaniem po smaku wynosi 50% :-).

Co do dopracowania sterowników, Matrox nie ma sobie równych. Z tym się zgodzę.

Peter
06-12-2007, 14:02
I z tym poglądem bym polemizował, bo kanadyjski MATROX ma spośród wymienionych producentów największe doświadczenie w wytwarzaniu kart do zastosowań profesjonalnych.
Kogo bym nie spytał, to opinia o tym producencie jest jednaka.

Fakt, z tym, że w Polsce trudno niektórych ludzi przekonać. A wynika to też z tego, że Matrox nie jest jakimś potentatem wydającym fortunę na kampanie reklamowe. A firma solidna od lat. Wiem bo nawet ostatnio mi "strzelił" mój egzemplarz (chyba trochę było mojej winy - nie wiem) i uznali gwarancję oraz wymienili na nową.
Przyszła DHL'em z kraju pt. Irlandia (tam jest centrum serwisowe na Europę). Takie sprawy też warto brać pod uwagę przy wyborze karty. Ja tam jestem zadowolony, używam produktów Matroxa od 1999 r. Może w grach nie ma powalającego fps. Natomiast jakość obrazu to już wizytówka. Kto zna ten wie.
ATI też jest niezłe. A od modelu X1950 już 10-bitowe czego nie ma nawet GF8800.

Peter
06-12-2007, 14:07
Polemizować zawsze można, jednak pomiar mówi co innego. Coś jak smak piwa z butelki i puszki. Większość smakoszy twierdzi, że szkło to szkło, ale jeśli ukryć z czego się nalewa, to trafianie z rozpoznaniem po smaku wynosi 50% :-).

Co do dopracowania sterowników, Matrox nie ma sobie równych. Z tym się zgodzę.

Pomiary można znaleźć w sieci. Są to "przedruki" pomiarów opublikowanych wraz z premierą Parhelii.
Porównanie, w którym Matrox ośmieszył Nvidię próbującą przedstawiać swoje prdukty jako PRO.
I może już zakończmy...

Ksiaze
06-06-2008, 06:42
Więc używanie Geforce do zdjęć jest nieporozumieniem. Widać to gołym okiem. Tu żadna magiczna kalibracja nic nie da.

Nie potwierdzam tej opinii. Sądzę raczej, że niepochlebne opinie karty z układem GeForce zbierają dlatego, że istnieje na rynku ich znacznie więcej rodzajów, szczególnie kiepskich. Jak wspomniałem wcześniej, w zastosowaniach zawodowych wykorzystuje sie różne karty i nie ma specjalnych różnic jakościowych w dół, przez zastosowanie GPU nVidii. Przykłady EVGA, Hercules (nie ten tajwański), 3DLabs, PNY. Uogólnienia z rynku masowego nie są miarodajne.

Zgadzam sie calkowicie z kolega. Jakis czas temu, kiedy skladalem komputer, szukalem odpowiedniej karty do obrobki zdjec, polecono mi wlasnie te karte - Geforce 7300Gt, a jednym z argumentow bylo to, ze Apple montuje te karty w Macach. Poza tym nie ma jakichs wiekszych roznic.