Doch, mit DXVA hast du einen geringeren Stromverbrauch. Wenn beide Varianten gleich gut laufen sollte man immer DXVA vorziehen.Und auf einer NVidia Karte kann DXVA nie Vorteile gegenüber CUDA bringen.
Der MS codec hat keine CUDA Implementierung.Sowohl der LAVF als auch der MS oder CoreAVC müssen CUDA nutzen, wenn nicht irgendwas gewaltig vermurkst ist.
LAV CUVID Decoder sollte da stehen.. auch bei den Stats in shift+1.
Nein, nicht mehr. Seitdem CUVID in LAV Video Filter integriert ist, steht überall nur noch LAV Video Decoder....LAV CUVID Decoder sollte da stehen.. auch bei den Stats in shift+1.
DXVA läuft bei NVidia immer über CUDA. Ist dann nur nicht die Native, sondern die generische Implementation. CUDA- Unterstützung ist im Treiber integriert und übernimmt alles, was via DXVA oder CUDA kommt und gibt es an die GPU weiter. Bei einer nativen CUDA Anwendung (wie LAV CUVID) werden die direkten Befehle benutzt, also der kürzest mögliche Weg genommen. Sonst werden die generischen Windows Befehle (DXVA ist eine Microsoft Geschichte) genommen und umgesetzt. Quasi so wie Assembler und C...Doch, mit DXVA hast du einen geringeren Stromverbrauch. Wenn beide Varianten gleich gut laufen sollte man immer DXVA vorziehen.
Nein, das passt schon so. Auwählen kannst du den nur in der LAV Video Configuration (was du ja laut Screenshot schon gemacht hast).LAV CUVID Decoder sollte da stehen.. auch bei den Stats in shift+1.
Muss der auch in der Config auszuwählen sein ??
Da hab' ich nämlich auch nur stehen : LAV Video Decoder
mike
Nein, tut es nicht! Sorry Lehmden, aber du hast hier im Thread schon so viel Missinformation verbreitet...DXVA läuft bei NVidia immer über CUDA.
Lehmden, ich glaube du missverstehst komplett was CUDA überhaupt ist... oder generell wie all diese Sachen funktionieren.CUDA- Unterstützung ist im Treiber integriert und übernimmt alles, was via DXVA oder CUDA kommt und gibt es an die GPU weiter. Bei einer nativen CUDA Anwendung (wie LAV CUVID) werden die direkten Befehle benutzt, also der kürzest mögliche Weg genommen. Sonst werden die generischen Windows Befehle (DXVA ist eine Microsoft Geschichte) genommen und umgesetzt. Quasi so wie Assembler und C...
Im Video Fall wird also bei einem DXVA Codec der Befehl zum decodieren des Frames mit DXVA Befehlen ans System (Treiber) gegeben. Diese setzen die DXVA Befehle in CUDA Befehle um und geben sie an die GPU weiter. Das kann nicht so effektiv sein wie eine direkte Kette. Bei anderen GPU, die "nur" DXVA unterstützen wird es im Prinzip genau so gemacht. Auch hier setzen die Treiber die DXVA Befehle in GPU- eigene um. Das muss ja auch so sein, da DXVA Hardware- unabhängig ist. Sonst müssten Intel und ATI GPU nativ die selben Befehlssätze haben, was mit 100% Sicherheit nicht der Fall ist. Zumindest bei ATI gibt es ja auch eine ähnliche Geschichte wie CUDA, allerdings grausig dokumentiert und schlecht implementiert. Deswegen hat sich bisher noch niemand daran gemacht, dafür unabhängige Anwendungen (sowas wie CUVID für ATI) zu schreiben.
Hi.
Dann musst du mal sehen, ob irgendwas im Treiber falsch eingestellt ist.