AMD A6 3500 und PowerDVD10 welcher Codec? (1 Viewer)

Scheibes

Portal Pro
June 14, 2012
817
71
39
Home Country
Germany Germany
Hallo zusammen,

seit ein paar Tagen läuft mein HTPC wie am schnürchen, nun wollt ich mich mal mit dem ganzen Codec Zeugs beschäftigen. Bis jetzt hab ich das ganze nach dieser Anleitung (Link) eingestellt.

Ist das für mein System die beste Wahl?

Wie in der Überschrift beschrieben, nutze ich die interne Grafik von der CPU und kann auch vom PowerDVD10 den Codec auswählen. Das Plugin "LAV Filter" ist bei mir ebenfalls installiert.

Brauch ich noch irgendwelche Codecs? Und wo stell ich welche Codecs ein?

Wenn einem langweilig ist, kann er mir vielleicht auch im groben die Unterschiede erklären, da ich in dem Thema noch komplett neu bin. :)


Gruß
Scheibes
 

dlarge500

Extension Designer
  • Premium Supporter
  • May 21, 2009
    1,491
    400
    44
    NRW
    Home Country
    Germany Germany
    ich selber habe den A8 3850 und nutze komplett nur die LAV Filter, aber zum TV schauen kannst du auch problemlos die Cyberlink Codecs nehmen wobei die 10er schon sehr veraltet sind.

    Die Unterschiede sind einfach die das es unterschiedliche Codecs und Splitter sind die in einem Paket vereint wurden.
     

    dlarge500

    Extension Designer
  • Premium Supporter
  • May 21, 2009
    1,491
    400
    44
    NRW
    Home Country
    Germany Germany
    ich persöhnlich fand den PowerDVD Codec für TV immer etwas besser im Bild aber ich hatte sonst immer ffdshow mit ein paar postprocessing Filter am laufen.

    Seit es die LAVFilter gibt seh ich keinen Unterschied mehr und benutze seitdem diese.:)
     

    Scheibes

    Portal Pro
    June 14, 2012
    817
    71
    39
    Home Country
    Germany Germany
    In der Anleitung die ich oben verlinkt habe wird aber bei AMD Grafik davon abgeraten die LAV zu verwenden. Diese sollte man als NVIDIA Nutzer verwenden.
     

    este22

    MP Donator
  • Premium Supporter
  • February 13, 2007
    1,753
    120
    Home Country
    Austria Austria
    wahrscheinlich hat zur zeit der erstellung der anleitung der lav noch kein dxva unterstützt. das kann er noch nicht so lange. funktioniert jetzt aber eigentlich problemlos. du musst nur im lav dxva native einstellen.
     

    dlarge500

    Extension Designer
  • Premium Supporter
  • May 21, 2009
    1,491
    400
    44
    NRW
    Home Country
    Germany Germany
    jup wie este22 es schon geschrieben hat, es gibt keine probs mehr mit ATI und dxva.
     

    este22

    MP Donator
  • Premium Supporter
  • February 13, 2007
    1,753
    120
    Home Country
    Austria Austria
    das ist leider das problem an solchen anleitungen. nach ein paar tagen können sie schon wieder alt sein :(
     

    Lehmden

    Retired Team Member
  • Premium Supporter
  • December 17, 2010
    12,554
    3,936
    Lehmden
    Home Country
    Germany Germany
    Hi.
    LAVF hat inzwischen ja 4 Hardware- Decoder dabei. So findet jeder etwas "passendes". DXVA geht eigentlich immer, zumindest bei GPU, die nicht aus der Steinzeit sind. Quick Sync hat man nur bei Intel und CUVID nur bei NVidia zur Verfügung. LAVF lässt einen aber "falsche" Decoder erst gar nicht aktivieren...
    Was im jeweiligen Fall am besten arbeitet kann (und muss) man ausprobieren...
    Ich hab in meinem Tut den Beitrag gerade noch mal editiert um darauf genauer hin zu weisen.
     

    Users who are viewing this thread

    Top Bottom