Sie sind nicht angemeldet.

  • Anmelden

Lieber Besucher, herzlich willkommen bei: MastersForum. Falls dies Ihr erster Besuch auf dieser Seite ist, lesen Sie sich bitte die Hilfe durch. Dort wird Ihnen die Bedienung dieser Seite näher erläutert. Darüber hinaus sollten Sie sich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutzen Sie das Registrierungsformular, um sich zu registrieren oder informieren Sie sich ausführlich über den Registrierungsvorgang. Falls Sie sich bereits zu einem früheren Zeitpunkt registriert haben, können Sie sich hier anmelden.

1

11.01.2006, 11:06

Grakafrage

Huhu,

bin auf der Suche nach einer billigen Graka:

Anforderungen:

-PASSIV gekühlt
-DX9-Compatibel
-DVI-Ausgang
- Leistung >= GF2MX400 32 MB Ram (32Bit)

Ich lebe zZ mit der oben genannten Graka und habe damit keine Probleme. Mir geht es einzig und allein um den DVI-Ausgang, den meine jetzige Graka nicht hat. DX9 sollte aus Prinzip gehen, weil es state of the art ist. Andererseits: Ich spiele Civ4 (dx9) ebenso mit der oben genannten Graka. Natürlich nicht beste Settings aber es reicht mir locker.

Ich mag keine 100€ ausgeben, da ich kein neues Board kaufen will. Neuer PC kommt evtl Mitte des Jahres und dann halt "richtige" Graka mit PCIe.

Folgede Grafikkarten kommen in Betracht:
alle mit 128 MB Ram:
- GeForce 6200 64Bit 49€
- GeForce FX 5500 128Bit 59€
- GeForce FX 5500 64Bit 54€
- GeForce FX 5200 128Bit 49€
- GeForce FX 5200 64Bit 39€

ATI-Karten kommen mir nicht in den PC.

Frage:

Die 5500 mit 128 Bit ist teuerer als die 6200er mit 64 Bit. Die 5200er mit 128 bit ist ebensoteuer wie der 6200er mit 64 Bit. Was ist "mehr Wert". Der modernere Chipsatz oder dei Busbreite? Macht es überhaupt viel aus?

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »kOa_Borgg« (11.01.2006, 11:08)


2

11.01.2006, 11:24

Wenn schon solch eine Seuche, dann die 6200er.

5500 = 5200 = 2Renderpipes
6200 = 4 Renderpipes.

Eine Geforce5xxx Karte kann DX9 DARSTELLEN, aber beschleunigen können erst die 6xxx/7xxx Karten ;)

3

11.01.2006, 11:28

Zitat

Original von SenF_Ratbo
Wenn schon solch eine Seuche, dann die 6200er.

Wieso Seuche? Wegen low-cost oder wegen nvidia?

Zitat

Original von SenF_Ratbo
5500 = 5200 = 2Renderpipes
6200 = 4 Renderpipes.

Aha. Das is ja schonmal eine interessante Aussage...

Zitat

Original von SenF_Ratbo
Eine Geforce5xxx Karte kann DX9 DARSTELLEN, aber beschleunigen können erst die 6xxx/7xxx Karten ;)

Also darstellen kann wie gesagt sogar meine alte GF2MX400... Oder ist dieser Unterschied zwischen "Darstellen" und "Beschleunigen" eine subjektive Bewertung der Leistung deinerseits? Es steht da bei alternate bei beiden was von DX9. Und ich sehe da keinen Unterschied in deren Formulierungen.

4

11.01.2006, 11:39

Jo, wegen LowCost.

Eine GF2MX400 (DX7.0/2Renderpipes) kanns gottseidank net darstellen, daher ist die auch schneller. :D

Die 5200er schafft es in sachen Lahmarschigkeit eine GF2MX400 zu toppen.
Zudem noch eine Würze Bugs und fertig ist der Frust :D

Die 6200 ist trotz 64Bit Speicherinterface noch am attraktivsten, da helfen die 4 Renderpipes mehr als ein besseres Speicherinterface.

5

11.01.2006, 11:48

Zitat

Original von SenF_Ratbo
Jo, wegen LowCost.

Eine GF2MX400 (DX7.0/2Renderpipes) kanns gottseidank net darstellen, daher ist die auch schneller. :D

Sehr interessant. D.h diese olle Kamelle ignoriert die DX9-Dinger einfach und ist dadurch schneller? Geil. :D

Zitat

Original von SenF_Ratbo
Die 5200er schafft es in sachen Lahmarschigkeit eine GF2MX400 zu toppen.
Zudem noch eine Würze Bugs und fertig ist der Frust :D

Die 6200 ist trotz 64Bit Speicherinterface noch am attraktivsten, da helfen die 4 Renderpipes mehr als ein besseres Speicherinterface.

Nungut. Ist mit 59€+Versand natürlich auch am teuersten. Eigentlich war so 50€ meine Schmerzgrenze. Kann man die 5xxx nicht so einstellen, dass sie die DX9 dinger auch ignoriert, wie die alte GF2MX400?

edit: was ist eigentlich mit dieser GF-MX4000 ?

Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von »kOa_Borgg« (11.01.2006, 11:49)


6

11.01.2006, 11:54

Dann kauf doch net bei der Apotheke :P

http://www.geizhals.at/deutschland/a153770.html

Die MX4000 ist noch brutaler, eine Bezeichnung die auf mehr als MX400 schliessen lässt aber mit einem 32Bit Speicherinterface schon probleme mit der 2D-Darstellung bekommt :D

€: Die FX5200 wird von den Games als DX9.0 Karte benutzt, d.H. etliche Funktionen die die Karte in Hardware umgesetzt werden kann, werden umgesetzt. Selbst das herunterdrehen von Optionen bringt sehr wenig.
Zudem ist die 5200er nicht nur in DX9.0 lahm, das geht durch und durch.
Die ganze 5xxx Serie ist eine komplette Fehlgeburt seitens nvidia.

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »SenF_Ratbo« (11.01.2006, 12:00)


7

11.01.2006, 11:59

Na nu ma langsam:

1) haben Grakas ja nur garkeine geschwindigkeits Probleme bei 2D. Und schon garnicht bei DVI-Ausgang.

2) die MX4000 gibts als 64Bit.

3) die hat DX8.1. D.h. sie würde diesen DX9kram ebenso ignorieren. :) Dann weiche ich alledings von der Eingangsbedingung (DX9) ab. Aber wenn das ur nach hinten los geht seh ich da auch keinen Sinn drin.

zu geizhals: ja so viel billiger wirds auch net werden. 5€... toll

edit: huch 15 € unterschied? wa? *grübel* :D

Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von »kOa_Borgg« (11.01.2006, 12:00)


8

11.01.2006, 12:07

Bleib doch einfach bei der mx400

Der rest hat wenig hand und fuss ^^
Bei dx9 gehen die karten so derbe in die knie das dus eh im menü ausstellst wenns möglich ist :D

9

11.01.2006, 12:13

würd ich auch. aber die hat halt keine DVI ausgang. :(

10

11.01.2006, 14:16

Du brauchst doch eigentlich nur nen Adapter Stecker der den alten VGA ausgang mit dem DVI vom Monitor verbindet

Hast zwar nen leicht schlechteres Bild ( angeblich ich habs hier mal ausprobiert und keinen unterschied gesehen ) aber ansonnsten


Frau Edit

:D sry hab mich vertan .. Den Stecker den ich meine iss wenn der TFT nen VGA hat und GraKa nur DVI

Gibts das nicht auch andersrum ? mal schauen ^^


Herr Edit

http://www.lindy.com/de/productfolder/04/41223/index.php

Nehm doch sowas ^^
Vielleicht gibts den noch irgendwo günstiger dann passts schon :)

Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von »_JoD_Dragon« (11.01.2006, 14:22)


11

11.01.2006, 14:30

Mir ging es schon um die Bildqualität. Mein Moni hat beide Eingänge. Aber wenn ich zwischen 2 PC hin und her stecke, oder ein anderes OS (Linux) boote muss ich jedes mal neu justieren. Abgesehen davon kriegt mein Moni bei Linux irgendwie das Synch nicht so richtig hin. In irgend einer Ecke bleibt es immer leicht schwammig. Dachte erübrigt sich mit DVI dann.

12

11.01.2006, 14:35

Das ganze zu einem netten Preis + die Ungewissheit, das der TFT überhaupt die Analog-Signale am DVI Port beschaltet hat ;)

13

11.01.2006, 16:09

was du meinen damit? Das isn DVI-I kein DVI-D