home
products
contribute
download
documentation
forum
Home
Forums
New posts
Search forums
What's new
New posts
All posts
Latest activity
Members
Registered members
Current visitors
Donate
Log in
Register
What's new
Search
Search
Search titles only
By:
New posts
Search forums
Search titles only
By:
Menu
Log in
Register
Navigation
Install the app
Install
More options
Contact us
Close Menu
Forums
Language specific support
Deutsches MediaPortal Forum
Hard- und Software rund um den HTPC
Hardware
Mainboards/CPU/RAM
LLano: AMD A6 3650+MSI A75MA-G55
Contact us
RSS
JavaScript is disabled. For a better experience, please enable JavaScript in your browser before proceeding.
You are using an out of date browser. It may not display this or other websites correctly.
You should upgrade or use an
alternative browser
.
Reply to thread
Message
<blockquote data-quote="Lehmden" data-source="post: 780802" data-attributes="member: 109222"><p><strong>AW: LLano: AMD A6 3650+MSI A75MA-G55</strong></p><p></p><p>Hi.</p><p>Ich hab andere Quellen für die Daten gehabt und hab deswegen noch mal bei Intel selbst nachgesehen. Der L hat wirklich nur 2 Kerne, da ist also bei der Quelle, die ich zuerst hatte, was durcheinander geraten, sorry. 4 Kerne hat der 1220 ohne L. Der wiederum verbraucht zu viel Strom. Nur, die Taktfrequenz von 2,2 ist im Normalmodus. der 1220L läuft aber mit 3,4 GHz im Turbno Modus, ohne mehr als 20 Watt zu verbrauchen (TDP ist absolute Obergrenze auch im Turbo Modus). Deswegen kann man den Wert ansetzen, Der Turbo kommt ja genau dann zum Einsatz, wenn er gebraucht wird. Sonst blubbert die CPU halt im Leerlauf vor sich hin, dann mit nur ein paar hundert MHz und vielleicht 2 oder 3 Watt Stromverbrauch. Steht auch so bei Intel selbst. Deswegen ist der 1220L immer noch absoluter Top Favorit bezogen auf Leistung pro Watt atm.</p><p></p><p>Eine integrierte Grafik ist immer eingeschränkt, allein schon deswegen, weil man sie im Zweifel bei neuen Entwicklungen nicht wechseln kann. Deswegen ist eine diskrete Grafik immer die bessere Wahl und alles andere in meinen Augen nur ein Notbehelf. Standard HTPC Sachen, dafür reicht die Grafikleistung eines E-350 oder I3 locker aus. Selbst der ION1 Chip langt da schon. Meine ersten eigenen Erfahrungen mit HDTV- ähnlichem Material auf dem PC sind mit einer Radeon 7000 entstanden. Die war weit, weit schwächer als der ION Chipsatz und ich konnte trotzdem ohne Schwierigkeiten sehen. Allerdings damals noch ohne DXVA/CUDA, also mit ziemlich hoher CPU Last. Insgesamt ging es ohne DXVA sowieso deutlich unkomplizierter, nur eben nicht mit zu schwachbrüstigen Prozessoren. </p><p></p><p>Wenn man etwas optimieren oder spezielle Optionen, wie eben z.B. die GPU-interne Aufarbeitung des Video Signals (für mich der Königsweg und die einzig logische Entwicklung für die Zukunft) nutzen will, ist man mit einer integrierten Grafikeinheit angeschmiert. Ich halte die Entwicklung, das es fast nur noch CPU mit integrierter GPU gibt für extrem bedauerlich und äußerst unschön. Denn, auch wenn es uns anders verkauft wird, wir müssen stets die GPU sowohl bei der Anschaffung als auch den Strom für den Betrieb bezahlen, obwohl wir sie nicht gebrauchen oder haben wollen. Es ist völlig OK, das es solche CPUs gibt. Aber nur noch, nein Danke.</p><p></p><p>Das ändert alles übrigens gar nichts daran, das ich 65 Watt TDP als kleinsten Wert einer in 2011 erstmalig eingeführten CPU Serie für armselig halte, egal ob mit oder ohne GPU. Mindestens ein 35 Watt Exemplar wäre als absolutes Minimum und Gegenpart zum i3 2100T Pflicht gewesen. Besser etwas, was diesen Wert deutlich unterschreitet. Intel schafft es immer, einen besonders sparsamen Vertreter in der Serie zu haben, bei AMD geht das scheinbar nicht...</p><p></p><p>Ich wollte eigentlich mein nächstes System auf einem A6 aufbauen. Aber einen 65 Watt Prozessor kaufe ich ganz sicher nicht mehr. Das hab ich vor 5 Jahren gemacht (so alt ist meine aktuelle CPU, die hat 2 Kerne, 2,2 Ghz 65 Watt TDP), aber doch nicht mehr heute. Wird es also wieder Intel, wenn sich da nicht noch was entscheidendes tut.</p><p></p><p>In den nächsten paar Jahren wird sich der Strompreis vermutlich weit mehr als verdoppeln, da die Energie- Unternehmen ihre Gelddruckmaschinen (sprich AKW) ja jetzt langsam doch abstellen müssen. Es kommt in naher Zukunft (eigentlich auch heute schon) auf jedes Watt an. Ich habe keine Lust, in ein paar Jahren sagen zu müssen: "Oh, ich hab diese Woche schon 4 Stunden Ferngesehen, mehr darf ich nicht, da sonst meine Stromrechnung mal wieder die Miete übersteigt". Und ich baue mir meine Rechner nicht für 6 Monate, sondern für 6 Jahre. Natürlich wird zwischendurch die eine oder andere Komponente aktualisiert, aber das Grundsystem läuft in der Regel (sofern nichts kaputt geht) für 6-7 Jahre Minimum. Und wenn ich mir vorstelle, bei einem (gar nicht so abwegigen) KWH Preis von 1 € noch mit einem System herum zu machen, das unter Last 150 Watt verballert, wird mir ganz anders. Die "1" vor der "50" muss unbedingt weg, und das unter Volllast. Mein nächstes neues System wird, trotz min. 2 Tuner mit Sicherheit bei Volllast deutlich weniger als 50 Watt verbrauchen, das steht fest. Ich kaufe mir doch nicht den absolut sparsamsten Kühlschrank, den es auf dem deutschen Markt gibt, um das dort Eingesparte am PC wieder zu verprassen.</p><p></p><p>Ein Low Budget System würde ich aktuell auf dem AMD E-450 aufbauen und die integrierte GPU nutzen. Idealerweise mit einem Board, was ein späteres Aufrüsten ermöglicht, also einen PCIe X16 Steckplatz hat. Ein Midrange System auf dem Pentium G620T unter kompletter Ignorierung der integrierten GPU mit einer NVidia GT 430 Grafik (entspricht ganz grob dem, was ich aktuell habe) und ein High Budget System auf dem Xeon 1220L mit einer GT 540... Wobei das Midrange System den größten Stromverbrauch hat. E-450 18 Watt TDP, G620T 35 Watt TDP, 1220L 20 Watt TDP. Allerdings ist der G620T 100€ günstiger als der 1220L. Das ist ein gewichtiges Argument pro G620T. Nur leider gibt es in dieser Klasse noch keine 20 Watt CPU. Wird höchste Zeit.</p></blockquote><p></p>
[QUOTE="Lehmden, post: 780802, member: 109222"] [b]AW: LLano: AMD A6 3650+MSI A75MA-G55[/b] Hi. Ich hab andere Quellen für die Daten gehabt und hab deswegen noch mal bei Intel selbst nachgesehen. Der L hat wirklich nur 2 Kerne, da ist also bei der Quelle, die ich zuerst hatte, was durcheinander geraten, sorry. 4 Kerne hat der 1220 ohne L. Der wiederum verbraucht zu viel Strom. Nur, die Taktfrequenz von 2,2 ist im Normalmodus. der 1220L läuft aber mit 3,4 GHz im Turbno Modus, ohne mehr als 20 Watt zu verbrauchen (TDP ist absolute Obergrenze auch im Turbo Modus). Deswegen kann man den Wert ansetzen, Der Turbo kommt ja genau dann zum Einsatz, wenn er gebraucht wird. Sonst blubbert die CPU halt im Leerlauf vor sich hin, dann mit nur ein paar hundert MHz und vielleicht 2 oder 3 Watt Stromverbrauch. Steht auch so bei Intel selbst. Deswegen ist der 1220L immer noch absoluter Top Favorit bezogen auf Leistung pro Watt atm. Eine integrierte Grafik ist immer eingeschränkt, allein schon deswegen, weil man sie im Zweifel bei neuen Entwicklungen nicht wechseln kann. Deswegen ist eine diskrete Grafik immer die bessere Wahl und alles andere in meinen Augen nur ein Notbehelf. Standard HTPC Sachen, dafür reicht die Grafikleistung eines E-350 oder I3 locker aus. Selbst der ION1 Chip langt da schon. Meine ersten eigenen Erfahrungen mit HDTV- ähnlichem Material auf dem PC sind mit einer Radeon 7000 entstanden. Die war weit, weit schwächer als der ION Chipsatz und ich konnte trotzdem ohne Schwierigkeiten sehen. Allerdings damals noch ohne DXVA/CUDA, also mit ziemlich hoher CPU Last. Insgesamt ging es ohne DXVA sowieso deutlich unkomplizierter, nur eben nicht mit zu schwachbrüstigen Prozessoren. Wenn man etwas optimieren oder spezielle Optionen, wie eben z.B. die GPU-interne Aufarbeitung des Video Signals (für mich der Königsweg und die einzig logische Entwicklung für die Zukunft) nutzen will, ist man mit einer integrierten Grafikeinheit angeschmiert. Ich halte die Entwicklung, das es fast nur noch CPU mit integrierter GPU gibt für extrem bedauerlich und äußerst unschön. Denn, auch wenn es uns anders verkauft wird, wir müssen stets die GPU sowohl bei der Anschaffung als auch den Strom für den Betrieb bezahlen, obwohl wir sie nicht gebrauchen oder haben wollen. Es ist völlig OK, das es solche CPUs gibt. Aber nur noch, nein Danke. Das ändert alles übrigens gar nichts daran, das ich 65 Watt TDP als kleinsten Wert einer in 2011 erstmalig eingeführten CPU Serie für armselig halte, egal ob mit oder ohne GPU. Mindestens ein 35 Watt Exemplar wäre als absolutes Minimum und Gegenpart zum i3 2100T Pflicht gewesen. Besser etwas, was diesen Wert deutlich unterschreitet. Intel schafft es immer, einen besonders sparsamen Vertreter in der Serie zu haben, bei AMD geht das scheinbar nicht... Ich wollte eigentlich mein nächstes System auf einem A6 aufbauen. Aber einen 65 Watt Prozessor kaufe ich ganz sicher nicht mehr. Das hab ich vor 5 Jahren gemacht (so alt ist meine aktuelle CPU, die hat 2 Kerne, 2,2 Ghz 65 Watt TDP), aber doch nicht mehr heute. Wird es also wieder Intel, wenn sich da nicht noch was entscheidendes tut. In den nächsten paar Jahren wird sich der Strompreis vermutlich weit mehr als verdoppeln, da die Energie- Unternehmen ihre Gelddruckmaschinen (sprich AKW) ja jetzt langsam doch abstellen müssen. Es kommt in naher Zukunft (eigentlich auch heute schon) auf jedes Watt an. Ich habe keine Lust, in ein paar Jahren sagen zu müssen: "Oh, ich hab diese Woche schon 4 Stunden Ferngesehen, mehr darf ich nicht, da sonst meine Stromrechnung mal wieder die Miete übersteigt". Und ich baue mir meine Rechner nicht für 6 Monate, sondern für 6 Jahre. Natürlich wird zwischendurch die eine oder andere Komponente aktualisiert, aber das Grundsystem läuft in der Regel (sofern nichts kaputt geht) für 6-7 Jahre Minimum. Und wenn ich mir vorstelle, bei einem (gar nicht so abwegigen) KWH Preis von 1 € noch mit einem System herum zu machen, das unter Last 150 Watt verballert, wird mir ganz anders. Die "1" vor der "50" muss unbedingt weg, und das unter Volllast. Mein nächstes neues System wird, trotz min. 2 Tuner mit Sicherheit bei Volllast deutlich weniger als 50 Watt verbrauchen, das steht fest. Ich kaufe mir doch nicht den absolut sparsamsten Kühlschrank, den es auf dem deutschen Markt gibt, um das dort Eingesparte am PC wieder zu verprassen. Ein Low Budget System würde ich aktuell auf dem AMD E-450 aufbauen und die integrierte GPU nutzen. Idealerweise mit einem Board, was ein späteres Aufrüsten ermöglicht, also einen PCIe X16 Steckplatz hat. Ein Midrange System auf dem Pentium G620T unter kompletter Ignorierung der integrierten GPU mit einer NVidia GT 430 Grafik (entspricht ganz grob dem, was ich aktuell habe) und ein High Budget System auf dem Xeon 1220L mit einer GT 540... Wobei das Midrange System den größten Stromverbrauch hat. E-450 18 Watt TDP, G620T 35 Watt TDP, 1220L 20 Watt TDP. Allerdings ist der G620T 100€ günstiger als der 1220L. Das ist ein gewichtiges Argument pro G620T. Nur leider gibt es in dieser Klasse noch keine 20 Watt CPU. Wird höchste Zeit. [/QUOTE]
Insert quotes…
Verification
Post reply
Forums
Language specific support
Deutsches MediaPortal Forum
Hard- und Software rund um den HTPC
Hardware
Mainboards/CPU/RAM
LLano: AMD A6 3650+MSI A75MA-G55
Contact us
RSS
Top
Bottom