home
products
contribute
download
documentation
forum
Home
Forums
New posts
Search forums
What's new
New posts
All posts
Latest activity
Members
Registered members
Current visitors
Donate
Log in
Register
What's new
Search
Search
Search titles only
By:
New posts
Search forums
Search titles only
By:
Menu
Log in
Register
Navigation
Install the app
Install
More options
Contact us
Close Menu
Forums
Language specific support
Deutsches MediaPortal Forum
Allgemein
MediaPortal Café
[VERGLEICH] ATi HD5450 vs. Nvidia GF520
Contact us
RSS
JavaScript is disabled. For a better experience, please enable JavaScript in your browser before proceeding.
You are using an out of date browser. It may not display this or other websites correctly.
You should upgrade or use an
alternative browser
.
Reply to thread
Message
<blockquote data-quote="FloMann" data-source="post: 803303" data-attributes="member: 66772"><p><strong>AW: [VERGLEICH] ATi HD5450 vs. Nvidia GF520</strong></p><p></p><p>Bei Graka Tests und Bildvergleiche sollte man </p><p>a) erstmal gleiche Ausgangsbedingungen der Graka einstellungen schaffen</p><p></p><p>Das heißt erstmal alles an default mäßig angeschaltetes Postprocessing der Graka abschalten, Ati hat hier so ziemlich </p><p>alles an was geht per default, was aber im detail von der verbauten Karte abhängt. Gerade die default hohe </p><p>Rauschünterdrückung matscht gerne mal. Das zählt aber für alles für wie, NR,EE ( HD6xxx Mosquito NR, Deblocking)</p><p>Dyn.Kontrast und weitere Farbblabla Processings. Nvidia ist da was default angeht etwas zurückhaltender unter</p><p>XP war nie was spezielles an und unter Win7 zumindest mit der kleinen 200er Serie der Dyn.Kontrast per Default.</p><p>Was sich da bei Win7 sonst noch so tut auch mit anderen Serien entzieht sich meiner kenntniss.</p><p></p><p>b) Die Ausgabe des PC auf den Monitor/Tv anpassen, in der Regel ist das aus dem PC RGB im vollen bereich 0-255</p><p>des Tonwertumfanges. Da Video aber ein begrenzten Tonwertumfang aufweißt, muss dieser noch auf 0-255 gespreitzt werden,</p><p>(was bei z.b NV im Treiber noch gewählt werden muss, bei Ati früher auch aber seit einer bestimmten zeit und Treiber, genau weiß ich es nicht mehr wird zumindest bei anschluss und erkennen meines TV automatisch auf spreizen des Tonwertumfanges gewählt)erst dann (und wenn dein TV für annahme für vollen Tonwertumfang eingestellt ist wovon ich ausgehe da sonst die</p><p>ganze Desktop Ausgabe nicht passt) stimmt die basis. </p><p></p><p></p><p></p><p>Dann sollte man auch mit gleichem Testmaterial für die verschiedenen Situationen(Film/Video, mischmaterial, usw..) beide </p><p>vergleichen und macht sich ggf. Screenies. </p><p></p><p>Was die Codecs angeht, wenn in DXVA fähigen Codecs die HW funkt. korrekt implementiert ist und fehlerfrei läuft dann ist da auch </p><p>kein unterschied unter den Codecs zu sehen, macht einfach 1:1 Bildvergleiche von "exact" den selben stellen und ihr werded</p><p>sehen, ihr seht nix. </p><p>Hw übergreifend NV-> ATi gibt es diese natürlich da sich deren implementierungen für Deinterlacing, Scalling, Chromaupsampling, Farbraumkonvertierungen sich etwas unterscheiden. In der Regel(ohne das sich mal wieder nen Treiber fehler oder sonst was einschlich) ist aber auch der unterschied, unter abschaltung zusätzliche PP effekte im treiber, so gering das auch hier quasi nur ein 1:1 vergleich mit bildstarren und Pixelpeeping hilft </p><p></p><p>Ich habe HW aus allen Lagern und diese auch mit Testmaterialen exact verglichen, nicht nach gut düngen und gefühlen,</p><p>Mit dem sehen ists wie mit dem höhren, besonders gut bleibt das bei keinem im kopf um hier wirklich unterschiede </p><p>ausmachen zu können abseits von Voodoo/suggestion und einbildung, daher direkt vergleich das geht in der regel nur Zeitgleich (meinetwegen noch sehr sehr sehr zeitnah) und sei es mit Bildern. </p><p></p><p></p><p>Auch mit dem freien Cuda Decoder wird das bild nicht automatisch besser, ehrlichgesagt weiß ich nicht was ihr da groß anders sehen wollt??? Der decodiert und gut ist, auch wenn er noch ChromaUpsammpling machen und sonst was, allgemein bei SW decodern.. Wenn mir jetzt noch jemand weißmachen will ob er bei der dct/idct unterschiede </p><p>sieht ob reference Float oder nen einfacheres Integer na dann, wohlmöglich gar noch in bewegung.. </p><p>ebenso das Chromaupsampling, es geht natürlich besser als das was die Graka selbst macht, aber auch hier was </p><p>unter normalen bedingungen groß unterschiede ausmachen??? zumal dann die Graka nur in bestimmten formaten (meist </p><p>4:2:0) noch ihr HW Deinterlacing macht (eventuell noch bei 4:2:2 dat hab ich aber jetzt nicht im kopf) bei anderen </p><p>sachen jedenfalls nicht (4:4:4 oder Transf. -> RGB). Dann verliert man gar noch das HW Deint der Graka, da kommt aktuell auch noch keine SW lösung ran ergo wirds hier dann schlechter wenn man mit dem oft üblichen default Blending der SW </p><p>Decodern leben darf... </p><p>Ich verstehe ja wenn man die Cuda oder andere SW bassierende Codecs gerne nutzt, gerade auch wegen der Format unterstützung</p><p>(DXVA je nach IHV hat hier und da grenzen bei der Decodierung) die auchmal besser luppen kann als mit DXVA über </p><p>Graka. Aber wegen der Bildquali??? Da rate ich jedem mal das ganze "richtig" zeitnah und das notfalls mit Bildmaterial </p><p>der "exacten" stellen im Testfile anraten, so und dann veranstaltet mal bilder pixelpeeping. Das ganze dann auch erstmal unter gleichen bedingungen. Bis auf ein paar eingefleischte bin ich mir ziemlich sicher das überwiegend eingesehen wird </p><p>das die unterschiede eher maginal sind. vor allem in anbetracht das man beim TV eher ja entspannt zu schaut bei seinen bestimmten gegebenheiten (TV größe/ Abstand) und ja im alltag kein peeping veranstalltet, so verlieren die maginalen unterschiede imo noch mehr an bedeutung. Bei mir sinds aktuell nur 32" auf 2,5m, da geht einiges unter meine wahrnehmungsgrenze was ich beim suchen sehe und nervt...</p><p>Die weit aus größere wahrnehmbaren unterschiede sind die (oft schwankend bis ins teils grottige) ausgangsmaterialen die </p><p>wie gerne mal geboten bekommen. </p><p></p><p></p><p>Das ganze Graka Postprocessing kommt dann als letztes, auch hier kann ich ohne weiteres verstehen wenn jemand</p><p>Atis oder NV implementierung vorzieht das ist auch geschmackssache...</p></blockquote><p></p>
[QUOTE="FloMann, post: 803303, member: 66772"] [b]AW: [VERGLEICH] ATi HD5450 vs. Nvidia GF520[/b] Bei Graka Tests und Bildvergleiche sollte man a) erstmal gleiche Ausgangsbedingungen der Graka einstellungen schaffen Das heißt erstmal alles an default mäßig angeschaltetes Postprocessing der Graka abschalten, Ati hat hier so ziemlich alles an was geht per default, was aber im detail von der verbauten Karte abhängt. Gerade die default hohe Rauschünterdrückung matscht gerne mal. Das zählt aber für alles für wie, NR,EE ( HD6xxx Mosquito NR, Deblocking) Dyn.Kontrast und weitere Farbblabla Processings. Nvidia ist da was default angeht etwas zurückhaltender unter XP war nie was spezielles an und unter Win7 zumindest mit der kleinen 200er Serie der Dyn.Kontrast per Default. Was sich da bei Win7 sonst noch so tut auch mit anderen Serien entzieht sich meiner kenntniss. b) Die Ausgabe des PC auf den Monitor/Tv anpassen, in der Regel ist das aus dem PC RGB im vollen bereich 0-255 des Tonwertumfanges. Da Video aber ein begrenzten Tonwertumfang aufweißt, muss dieser noch auf 0-255 gespreitzt werden, (was bei z.b NV im Treiber noch gewählt werden muss, bei Ati früher auch aber seit einer bestimmten zeit und Treiber, genau weiß ich es nicht mehr wird zumindest bei anschluss und erkennen meines TV automatisch auf spreizen des Tonwertumfanges gewählt)erst dann (und wenn dein TV für annahme für vollen Tonwertumfang eingestellt ist wovon ich ausgehe da sonst die ganze Desktop Ausgabe nicht passt) stimmt die basis. Dann sollte man auch mit gleichem Testmaterial für die verschiedenen Situationen(Film/Video, mischmaterial, usw..) beide vergleichen und macht sich ggf. Screenies. Was die Codecs angeht, wenn in DXVA fähigen Codecs die HW funkt. korrekt implementiert ist und fehlerfrei läuft dann ist da auch kein unterschied unter den Codecs zu sehen, macht einfach 1:1 Bildvergleiche von "exact" den selben stellen und ihr werded sehen, ihr seht nix. Hw übergreifend NV-> ATi gibt es diese natürlich da sich deren implementierungen für Deinterlacing, Scalling, Chromaupsampling, Farbraumkonvertierungen sich etwas unterscheiden. In der Regel(ohne das sich mal wieder nen Treiber fehler oder sonst was einschlich) ist aber auch der unterschied, unter abschaltung zusätzliche PP effekte im treiber, so gering das auch hier quasi nur ein 1:1 vergleich mit bildstarren und Pixelpeeping hilft Ich habe HW aus allen Lagern und diese auch mit Testmaterialen exact verglichen, nicht nach gut düngen und gefühlen, Mit dem sehen ists wie mit dem höhren, besonders gut bleibt das bei keinem im kopf um hier wirklich unterschiede ausmachen zu können abseits von Voodoo/suggestion und einbildung, daher direkt vergleich das geht in der regel nur Zeitgleich (meinetwegen noch sehr sehr sehr zeitnah) und sei es mit Bildern. Auch mit dem freien Cuda Decoder wird das bild nicht automatisch besser, ehrlichgesagt weiß ich nicht was ihr da groß anders sehen wollt??? Der decodiert und gut ist, auch wenn er noch ChromaUpsammpling machen und sonst was, allgemein bei SW decodern.. Wenn mir jetzt noch jemand weißmachen will ob er bei der dct/idct unterschiede sieht ob reference Float oder nen einfacheres Integer na dann, wohlmöglich gar noch in bewegung.. ebenso das Chromaupsampling, es geht natürlich besser als das was die Graka selbst macht, aber auch hier was unter normalen bedingungen groß unterschiede ausmachen??? zumal dann die Graka nur in bestimmten formaten (meist 4:2:0) noch ihr HW Deinterlacing macht (eventuell noch bei 4:2:2 dat hab ich aber jetzt nicht im kopf) bei anderen sachen jedenfalls nicht (4:4:4 oder Transf. -> RGB). Dann verliert man gar noch das HW Deint der Graka, da kommt aktuell auch noch keine SW lösung ran ergo wirds hier dann schlechter wenn man mit dem oft üblichen default Blending der SW Decodern leben darf... Ich verstehe ja wenn man die Cuda oder andere SW bassierende Codecs gerne nutzt, gerade auch wegen der Format unterstützung (DXVA je nach IHV hat hier und da grenzen bei der Decodierung) die auchmal besser luppen kann als mit DXVA über Graka. Aber wegen der Bildquali??? Da rate ich jedem mal das ganze "richtig" zeitnah und das notfalls mit Bildmaterial der "exacten" stellen im Testfile anraten, so und dann veranstaltet mal bilder pixelpeeping. Das ganze dann auch erstmal unter gleichen bedingungen. Bis auf ein paar eingefleischte bin ich mir ziemlich sicher das überwiegend eingesehen wird das die unterschiede eher maginal sind. vor allem in anbetracht das man beim TV eher ja entspannt zu schaut bei seinen bestimmten gegebenheiten (TV größe/ Abstand) und ja im alltag kein peeping veranstalltet, so verlieren die maginalen unterschiede imo noch mehr an bedeutung. Bei mir sinds aktuell nur 32" auf 2,5m, da geht einiges unter meine wahrnehmungsgrenze was ich beim suchen sehe und nervt... Die weit aus größere wahrnehmbaren unterschiede sind die (oft schwankend bis ins teils grottige) ausgangsmaterialen die wie gerne mal geboten bekommen. Das ganze Graka Postprocessing kommt dann als letztes, auch hier kann ich ohne weiteres verstehen wenn jemand Atis oder NV implementierung vorzieht das ist auch geschmackssache... [/QUOTE]
Insert quotes…
Verification
Post reply
Forums
Language specific support
Deutsches MediaPortal Forum
Allgemein
MediaPortal Café
[VERGLEICH] ATi HD5450 vs. Nvidia GF520
Contact us
RSS
Top
Bottom