ATI HD 4200 austauschen gegen ? (1 Viewer)

noxx2

Portal Pro
September 10, 2007
1,951
40
Home Country
Germany Germany
Hallo.

Ich würde gerne meinen PC etwas aufrüsten, damit er etwa mehr Power bei
Full-HD Filmen hat.

Dachte da an eine CUDA Karte, zb GT430. Wollte max 50€ reinstecken.

Frage daher: Lohnt sich das, oder rausgeschmissenes Geld?

GRuss
 

toga67

Portal Pro
October 15, 2010
181
11
Home Country
Germany Germany
Meiner Meinung nach sind die Besten HTPC Karten die passiven Versionen einer GT 430 oder HD 6570. Alle Karten die leistungsschwächer sind machen keinen Sinn.
 

noxx2

Portal Pro
September 10, 2007
1,951
40
Home Country
Germany Germany
Hat Cuda einen Vorteil gegenüber Karten ohne (ATI) ?

Gruss
 

toga67

Portal Pro
October 15, 2010
181
11
Home Country
Germany Germany
Meiner Meinung nach hat CUDA nur Vorteile beim konvertieren von Videos, da es einige Konvertierungsprogramme gibt die zuätzlich die Grafikarte (CUDA) zu konvertieren mitbenutzen. Bei Live TV oder Blu-Ray schauen gibt es keinen Vorteil.
Jetzt werde hier sicherlich einige sagen, dass der LAV Videodekoder mit CUDA ein super Bild macht. Ich kann das nicht nachvollziehen und sehe Qualitativ keinerlei Unterschiede zwischen dem MS-Codec oder Cyberlink oder LAV. Außerdem verbraucht LAV mit CUDA mehr Strom, da CUDA immer mit voller GPU Last läuft. Bei den Codecs die DXVA nutzen taktet die Grafikkarte herunter (stromersparnis), da dafür keine 100% GPU Leistung gebraucht wird.
Es gibt halt Leute die schwören auf NVIDIA und andere auf ATI. Ich habe momentan eine GT 430 drin. In einem andern PC aber eine HD 6570. ich finde beide Karten ok.
 

Lehmden

Retired Team Member
  • Premium Supporter
  • December 17, 2010
    12,577
    3,964
    Lehmden
    Home Country
    Germany Germany
    Hi.
    Cuda ist weniger anspruchsvoll als DXVA, was das Video Material angeht. Also bei nicht 100%igen Videos, wo DXVA den Dienst bereits verweigert spielt Cuda noch mit. Unempfindlicher ist nur noch die Software Verarbeitung (also über die CPU). Die Mär vom erhöhten Stromverbrauch habe ich von einigen wenigen Leuten immer wieder gehört. Tatsächlich ist da nichts dran. Egal ob DXVA oder Cuda, die Karte verbraucht so viel Strom, wie für die Operation benötigt wird, fertig. Frag mal den Entwickler von LAVF (der sich wirklich mit diesen Geschichten auskennt), was er von DXVA im Vergleich zu Cuda hält...

    Es ist obendrein so, das man mit NVidia problemlos DXVA verwenden kann, mit ATI aber kein CUDA. Vorteile bei der Bildqualität sieht man mit LAVF (der übrigens sein einigen Versionen volle DXVA Unterstützung bietet) auch vorrangig bei SD Material, nicht bei HD oder BluRay. Bei h264 sind die Unterschiede in der Bildqualität tatsächlich marginal.. Hier kommt es eher darauf an, wie "geschmeidig" das Video läuft. Und das ist von System zu System sehr unterschiedlich. Da muss (kann) man Finetunig betreiben, wobei einem eine CUDA Karte einfach mehr Möglichkeiten bietet als andere... Hier oft ist hier sogar der MS Codec am besten, der ja grundsätzlich im System vorhanden ist (Win7 als selbstverständlich vorausgesetzt).

    Viel schlimmer als DXVA vs CUDA sind aber die grausigen ATI Treiber, die einen schier zu NVidia "nötigen".
     

    diskeeper

    Portal Pro
    January 5, 2007
    6,109
    421
    Dortmund
    Home Country
    Germany Germany
    Hallo.

    Ich würde gerne meinen PC etwas aufrüsten, damit er etwa mehr Power bei
    Full-HD Filmen hat.

    Dachte da an eine CUDA Karte, zb GT430. Wollte max 50€ reinstecken.

    Frage daher: Lohnt sich das, oder rausgeschmissenes Geld?

    GRuss

    also aus meiner sicht, rausgeschmissen geld, meine 4200 läuft immer besser,
    auch vom lavf bin ich immer mehr begeistert, obwohl ich eigentlich immer von pdvd überzeugt war.
    das alles betrifft in erster linie sdtv, bei hdtv sind unterschiede in der bilqualität praktisch nicht erkennbar,
    sowohl bei den codecs, als auch zwischen meiner hd4200 und der hd5850.
     

    toga67

    Portal Pro
    October 15, 2010
    181
    11
    Home Country
    Germany Germany
    Ich möchte hier weder für ATI noch NVIDIA sprechen. Ich möchte auch nichts gegen den LAV sagen. Ich finde es toll, dass es einen Open Source Video Decoder gibt.
    Tatsache ist aber trotzdem, dass der LAV mit eingeschaltetem CUDA (bzw. CUVID wie es da heißt) defenitiv mehr Strom verbraucht. Das bestätigt auch der Entwickler. Leider kann er nur nichts dagegen machen, da das eben CUDA bedingt ist. So wie ich ihn verstanden habe läuft halt der CUDA Code immer mit "Vollgas", das bedeutet die Grafikarte taktet nicht herunter (P0 Mode). Bei DXVA ist das anders. Die GT 430 hat 3 unterschiedliche Taktarten. Nämlich P0, P8 und P12. P0 bedeutet dabei 100% Leistung also maximale Taktfrequenz => mehr Stromverbrauch. Bei DXVA läuft die Karte im P8 Modus was bedeutet, dass der Takt reduziert wird, da es für die Video dekodierung vollkommen ausreicht. Man kann das leicht mit dem Tool GPU-Z überprüfen. Einfach Mediaportal im Fenster starten und Live-TV anmachen und dann das Tool starten. Da sieht man dann schön, dass die GPU bei DXVA heruntertaktet. Bei LAV mit CUDA eben nicht.
    Aber egal. Man kann ja den LAV auch mit DXVA betreiben. Man hat alle Optionen. CUDA schadet sicher nicht. Mir bringt es aber auch nichts beim Live-TV oder Video schauen.
     

    MrCrabs

    Portal Pro
    January 21, 2010
    884
    129
    Braunschweig
    Home Country
    Germany Germany
    Ich hab auch meine HD4200 für schlechte Bilder verantwortlich gemacht, aber seitdem ich W7 mit LAVF nutze hat sich das als Mythos herausgestellt. Nun sieht alles gut aus und LiveTV ist wesentlich artefaktunempfindlicher.
     

    noxx2

    Portal Pro
    September 10, 2007
    1,951
    40
    Home Country
    Germany Germany
    Nun, das lass ich die HD4200 drin.
     

    Users who are viewing this thread


    Write your reply...
    Top Bottom