Bildqualität SD-TV verbessern von gut nach spitze ??? (1 Viewer)

cruse

MP Donator
  • Premium Supporter
  • November 7, 2007
    166
    41
    Home Country
    Germany Germany
    Ich habe den Kathreins mal hinterhergelesen, so wie ich das verstanden habe betreiben sie je nach Userwunsch upscaling für SDTV. Das scheint bei Dir ja der Fall zu sein und erklärt die Resultate.

    Scaling kannst Du wie gesagt über ffdshow ergänzen. Ich habe dazu anno dazumal mal was geschrieben, bin aber inzwischen ganz simpel mit LAV für alles glücklich.

    Outdated Guide
     

    dermario75

    Portal Pro
    February 21, 2007
    50
    11
    Home Country
    Germany Germany
    Ich denke mal deine Grafikkarte hat für Post Processing und VA Deinterlacing nicht genug Dampf, daher die schlechte Bildqualität.

    Blaubarts Käsescheibentest :) (VA Deinterlacing) gehört bei mir schon seit Jahren zu den Test Videos.
    http://www.avsforum.com/t/1157287/h...ctor-adaptive-deinterlacing-others-icl-ticker
    solltest du dir mal runter laden.

    Achte auch auf das 576i SD Test Video - die Brille sollte wirklich schön glatt und nicht pixelig sein.

    Sollte deine Grafikkarte also nur die schlechteren deinterlacing Modi beherrschen - dann entweder nach ner Neuen ausschau halten oder halt die hier schon erwähnten Software Deinterlacer benutzen (die schönen sind aber sehr CPU hungrig) das würde ich heutzutage für meinen HTPC nicht machen wollen :)

    Also: Vector Adaptiv Deinterlace einstellen und wenn möglich im Media Portal als Video Renderer EVR.
     

    Prinz

    Portal Pro
    September 24, 2004
    179
    4
    Home Country
    Germany Germany
    Ich muß wohl noch ein wenig beschreiben, was an dem HTPC SD-TV Bild schlecht ist. Es geht mir nicht um Farb- oder Kontrastwerte. Das Bild ist - im Gegensatz zu dem Kathrein - unscharf und teilweise pixelig. Das Kathrein-Bild ähnelt mehr dem HD-Bild des HTPC und sieht höher aufgelöst aus, bzw. das HTPC Bild sieht niedriger aufgelöst aus.

    Das kann daher kommen, dass im Falle des HTPC mehrfach skaliert werden muss.

    Hier daher folgende Fragen:
    Ist die Auflösung der Grafikkarte genauso eingestellt, wie das Display Pixel hat?

    Wenn nein, erfordert das vom Fernseher schon mal eine Umrechnung und das ist dann schon eine Quelle der Unschärfe.

    Dann hat in der Regel gerade SD-Material nicht die Auflösung der Grafikkarte, also dürfte hier ein zweites mal umgerechnet werden, das ist dann die zweite Quelle der Unschärfe.


    Im Fall vom Receiver gibt es immer nur eine einzige Umrechnung. Der Receiver schickt das Bild in SD-Auflösung an das TV. Das rechnet dann einmal diese SD-Auflösung in seine Pixel-Auflöung um. Folge: schärferes Bild gerade bei SD.


    Hier gibt es 2 theoretische Abhilfen:

    1. Die Auflösung der HTPC-Graikkarte muss identisch mit der Pixelauflösung des TVs sein. Leider lassen nicht alle bzw. nur wenige TVs das nur überhaupt zu. Auch muss diese Auflösung von der Grafikkarte angeboten werden.

    2. Den HTPC müsste man bei SD-Wiedergabe auch in SD-Auflösung umschalten, das ist aber - soviel ich weiß - mit MP nicht so ohne weiteres möglich.

    Im ersten Fall wird die Umrechnung im TV vermieden, im 2. Fall im HTPC, wobei hier immer noch das Deinterlacing im HTPC ausgeführt werden muss, was auch immer noch ein Verlust mit sich bringt.


    Keiner der beiden Wege sind in der Regel möglich. Im SD-Mode wird ein Receiver daher meist ein besseres Bild liefern. Ausgaben in Grafikkarten kann man sich daher sparen, es sei denn man kann hier den 1. Fall erreichen.

    Gruß
    Prinz
     
    Last edited:

    Andreas Schneider

    Portal Pro
    August 6, 2012
    90
    5
    51
    Home Country
    Germany Germany
    Hallo zusammen!
    Vielen Dank erstmal für alle Hinweise. Habe nacheinander alles umgesetzt und Erfolg gehabt. Die Einstellungen am LAV Decoder haben durchaus etwas gebracht, die entscheidende Einstellung ist allerdings das VA-Deinterlacing gewesen. Das an der Grafikkarte einzustellen ist etwas tricky, daher habe ich dies und alle anderen Einstellungen nochmal zusammenfassend aufgeführt.

    Ich hatte noch keine Gelegenheit einen ausführlichen Vergleich zwischen Kathrein Receiver und HTPC Bildqualität zu machen. Ich werde das nachholen sobald es zeitlich geht.Ich kann aber sagen, dass mich die HTPC Qualität jetzt begeistert und ich sehr zufrieden bin. Ist bei anderen Grafikkarten das VA-Deinterlacing in den Standardeinstellungen an? Dann kann ich verstehen, dass alle mit ihrem Bild zufrieden sind.

    LAV Decoder
    DXVA2 native
    random dithering
    yadiv deinterlacing
    Farbraum Full Range 0-255

    Mediaportal
    als Video Renderer EVR

    TV-Gerät
    Bildverbesserer am TV alle aus

    Grafikkarte
    Auflösung von Grafikkarte und Display gleich eingestellt (1920*1080)
    Bildwiederholfrequenz 50Hz
    Vector Adaptiv Deinterlace

    Vector Adaptiv Deinterlace an der ATI 6540
    In den Standardeinstellungen der Grafikkarte ist eine Optio "Glatte Videowiedergabe erzwingen" aktiviert. Dadurch werden verschiedene Bildverbesserer mit Defaultwerten aktiviert. Gleichzeitig kann man beim Deinterlacing nur noch zwischen Bob und Wave auswählen.
    ==> "Glatte Videowiedergabe erzwingen" muss deaktiviert werden. Dann kann man alle Bildverbesserer deaktivieren. Und dann kann man endlich beim Deinterlacing auch "Vector Adaptiv Deinterlace" auswählen. Und dann klappt's auch mit dem Bild!
     
    Last edited:

    xetic

    MP Donator
  • Premium Supporter
  • November 29, 2010
    2,917
    143
    Bonn/Alfter
    Home Country
    Germany Germany
    Habe wir auch Tipps für nvidia Grafikkarten? Da hab ich irgendwie nicht viel in den Treibereinstellungen gefunden
     

    cruse

    MP Donator
  • Premium Supporter
  • November 7, 2007
    166
    41
    Home Country
    Germany Germany
    Andreas, vielleicht wars auch schon der Haken bei Yadif der Dir die Steigerung gebracht hat. Yadif ist ein Software Deinterlacer, während VA von der Hardware kommt. Beide können allerdings nicht gleichzeitig aktiv werden, ich vermute LAV/Yadif trumpft grade VA.
     

    diskeeper

    Portal Pro
    January 5, 2007
    6,109
    421
    Dortmund
    Home Country
    Germany Germany
    Vector Adaptiv Deinterlace an der ATI 6540
    In den Standardeinstellungen der Grafikkarte ist eine Optio "Glatte Videowiedergabe erzwingen" aktiviert. Dadurch werden verschiedene Bildverbesserer mit Defaultwerten aktiviert. Gleichzeitig kann man beim Deinterlacing nur noch zwischen Bob und Wave auswählen.
    ==> "Glatte Videowiedergabe erzwingen" muss deaktiviert werden. Dann kann man alle Bildverbesserer deaktivieren. Und dann kann man endlich beim Deinterlacing auch "Vector Adaptiv Deinterlace" auswählen. Und dann klappt's auch mit dem Bild!

    also bei meiner hd 4200 spielt es keine rolle, ob da das glatte video... an ist, oder nicht,
    va-deint. ließ sich immer einstellen.
    ohne glatte video... läuft allerdings 1080i nur noch mit starkem ruckeln.
    soweit ich das gelesen habe wird, mit dem einschalten, das postprocessing der gk unterdrückt,
    so das dann auch 1080i flüssig läuft.
     

    Users who are viewing this thread

    Top Bottom