Zum Inhalt springen

GTX 1080 / 1070


RogerMalone
 Teilen

Empfohlene Beiträge

  • Antworten 205
  • Erstellt
  • Letzte Antwort

Top-Benutzer in diesem Thema

Top-Benutzer in diesem Thema

Veröffentlichte Bilder

ick wes nich ...

auf hairworks und co. könnte ich notfalls noch verzichten. aber physix ist ja mittlerweile in jedem regentropen/lensflare/nebelschwaden/blumentöpfchenwasumkippt fest mit in die engines eingebaut. 

ich bin so aus der AMD nummer raus, das ich gar nicht weiss was mit den ganzen effekten passiert wenn man AMD hat. macht die cpu das  ? fallen die ganz weg ? beides könnte ggf. doof sein.

ich kauf auf der anderen seiten aber zum verrecken keine 500eu graka (die nach 2 jahren eh wieder ersetzt werden muss).

 

Bearbeitet von LaRokka
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 3 Minuten schrieb Firefoxer:

Jo so wie es aussieht, muss ich auch wieder zurück zur AMD.

 

 

 

ATM alles überteuert... :((((

 

Du hast anscheinen Insiderinfos die wir noch nicht haben? Wie sind denn so die 490x und 500x?

vor 2 Minuten schrieb LaRokka:

ick wes nich ...

auf hairworks und co. könnte ich notfalls noch verzichten. aber physix ist ja mittlerweile in jedem regentropen/lensflare/nebelschwaden/blumentöpfchenwasumkippt fest mit in die engines eingebaut. 

ich bin so aus der AMD nummer raus, das ich gar nicht weiss was mit den ganzen effekten passiert wenn man AMD hat. macht die cpu das  ? fallen die ganz weg ? beides könnte ggf. doof sein.

ich kauf auf der anderen seiten aber zum verrecken keine 500eu graka (die nach 2 jahren eh wieder ersetzt werden muss).

 

Na solange die CPU noch rumdümpelt kann die das Physx auch übernehmen, DX12 wird die CPU aber mehr unter Last nehmen, auf der anderen Seite sind interessante 12-16 Kerner in AMDs Pipeling. Derziet alles ungewiss bis AMD die Karten auf den Tisch haut.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Gast Firefoxer

Naja „PhysicX“ ist eig. so eine Sache (Habe ich spiele, die „PhysicX“ Supportet). ?

 

Zwingend ist sie nicht meiner Meinung. Aber, wenn man ungern auf die anderen NVIDIA Features verzichten möchte, kann ich gut verstehen, auch wenn ich „Shadowplay“ etc. nicht gerne weggeben möchte ^^

Link zu diesem Kommentar
Auf anderen Seiten teilen

Gast Firefoxer

@Rasczak " Du hast anscheinen Insiderinfos die wir noch nicht haben? Wie sind denn so die 490x und 500x? "

Nope.

Für die kommenden AMD Karten, bin ich leider zu wenig informiert. :(

Aber ich hoffe, das AMD wieder vom Preisleistung jer, wie immer günstiger wird gegen über die NVIDIA Karten.

(auch wenn sie 10% langsamer wird gegenüber der Konkurrenz Karten.) würde ich es mir trotzdem kaufen. :P

Link zu diesem Kommentar
Auf anderen Seiten teilen

Okay.

Also weisst Du noch nicht was AMD in der Hinterhand hält. Du würdest aber AMD kaufen weil Intel so teuer ist. Auch wenn Leistung/€ derzeit klar bei Intel liegt.

Und selbst wenn AMD 10% unter NVIDIA liegt was Leistung/€ würdest Du AMD kaufen. Was potentiert wird durch die fehlenden Features. (Grade Physix z.B.)

Macht das noch für wen Anderes total keinen Sinn?

Link zu diesem Kommentar
Auf anderen Seiten teilen

Gast Firefoxer

Ja, habe seit der „FX 9590“ nicht mehr vieles gehört, Außer Gerüchte, das neue FX Bulldozer varianten rauskommen werden, in Laufe des Jahres. Seitdem her ist eine Weile her...

Ob das mit 10% wirklich stimmen wird weiß ich selber nicht, das war nur meine persönliche Meinung. Aber da AMD seit langem meistens vom Leistung her im Rückstand war gegenüber die NVIDIA Karten, denke ich das es vlt. auch so enden wird (Ich weiß es nicht) aber auf jeden Fall lass ich mich da überraschen, auch über die Gerüchte über die neuen AMD Prozessoren.

Wäre meiner Meinung mal Zeit, Intel zu versohlen. ;)

Link zu diesem Kommentar
Auf anderen Seiten teilen

Neue Bulldozer? Ich glaube das will keiner auf der Welt, inkl. AMD.

FX9590 ? Du es klingelt. Ah es ist das Jahr 2013. Es sagt es will seine Prozessorarchitekturwitze zurück. Seltsam das.

Bei ca 20% Marktanteil MUSS AMD dieses Jahr mal was Gutes liefern oder wir haben ein Intel-Monopol.

 

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Diese ganze PhysX, Hairworks, Tingletangle schluppiwuppi Kacke ist schon ein Marketing Meisterwerk von NVIDIA.

Mittlerweile wirds bei so ziemlich jedem aktuellen Titel großartig angepriesen, dass das Spiel dieses und jenes NVIDIA Feature unterstützt. So quasi als Qualitätssiegel auf der Packung.

Wird schwer für AMD werden das ein bisschen aufzubrechen, weil sie dafür vermutlich extrem viel Geld in die Hand nehmen müssten. Kostendeckend kann das ja nicht sein 200-300 € Karten auf den Markt zu werfen.

Da seh ichs wie LaRokka, selbst wenn die Leistung bei AMD stimmt wirds schwer NVIDIA die Stammkäufer abzuluchsen.

Ich persönlich würde AMD eine Chance geben, wenn die Leistung stimmt.

Gesendet von meinem PiPBoY

Link zu diesem Kommentar
Auf anderen Seiten teilen

Nuja die Features bringen halt schon einiges. AMD hat da die letzen Jahre einfach gepennt und sich auf roher Leistung ausgeruht. Die geht denen aber grade auch noch flöten, wenn nicht die von mir herbeifanstasierten 490x und 500x kommen :)

Link zu diesem Kommentar
Auf anderen Seiten teilen

Gast Firefoxer
vor 3 Minuten schrieb Rasczak:

Neue Bulldozer? Ich glaube das will keiner auf der Welt, inkl. AMD.

FX9590 ? Du es klingelt. Ah es ist das Jahr 2013. Es sagt es will seine Prozessorarchitekturwitze zurück. Seltsam das.

Bei ca 20% Marktanteil MUSS AMD dieses Jahr mal was Gutes liefern oder wir haben ein Intel-Monopol.

 

 

Darum meinte ich ja, bin zu wenig über AMD informiert.

 (Ob es Bulldozer heißen wird, glaube ich selber nicht daran, wenn schon anders damit‘s verlockender klingt, für die Konsumenten)

Link zu diesem Kommentar
Auf anderen Seiten teilen

Gast Firefoxer

Habe die Infos auch damals aus einer Gerüchte Küche gelesen... und da gab es so eine „Voting Aktion“ von AMD, ich weiß nicht mehr wie die Seite hieß. Ist ja eine Weile her.. :D

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 41 Minuten schrieb MacG:

Also wenn diese Werte so stimmen sollten, muss die 480 schon 50% weniger kosten als die 1070 um die 44% weniger leistung+fehlende features(physx & co.) auszugleichen, damit (für mich zumindest) das Preis/Leistungsverhältniss stimmig wäre.

da verstehst du was falsch. A. wird die 480 vermutlich 200-250 kosten, nach stand heute also tatsächlich knapp die hälfte, was aber erst mal keine rolle spielt weil B. die 480 den markt der 970/980 bzw. einer ggf. zukünftigen 1060 angreift.

alle warten ja darauf ob AMD für den 1070/1080 bereich noch etwas bringt, was die dann kann und was die dann kostet.

wenn man schaut was eine 980 kostet (keine schlechte karte, auch heute nicht) ist die 480 schon ein schnapp. vermutlich sind in den letzen tagen genau deshalb die 980 preise um ~30% gefallen.

 

im high end bereich sitzt nvidia bis dato noch alleine auf dem thron und kann total lustige preise machen. deshalb hoffen alle auf eine größere AMD karte. 

Bearbeitet von LaRokka
Link zu diesem Kommentar
Auf anderen Seiten teilen

Gast Käptn Käffchen

Was sie im Endeffekt kosten wird sehen wir in 2 wochen. Aber ca. 50% von der xx70 sind wohl angepeilt.

Und über den Feature mist bei Nvidia müssen wir uns nicht streiten. Das ist eine Saupolitik. Und sollte jeden aufregen der eine kompetiven Leistungskampf der Hersteller sehen will:)

Und Ende des Jahres kommt ja auch noch vega welcher dann mit dem xx70/80 in den Ring steigt.

Momentan sieht es nach einer Klasse Grafikkarte von amd aus mit dem bewegen p/l.

Gesendet von meinem SM-G388F mit Tapatalk

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 44 Minuten schrieb Käptn Käffchen:

...

Und über den Feature mist bei Nvidia müssen wir uns nicht streiten. Das ist eine Saupolitik.

...

Saupolitik von wem jetzt? Von NVIDIA, die spezielle Recheneinheiten entwickelt und in ihre GPUs gesteckt haben um z.B. die Berechnungen von physikalischen Effekten effizienter durchzuführen oder von AMD die es einfach nicht für nötig hielten ihrem Kontrahenten mit einer ähnlichen Entwicklung Paroli zu bieten?

vor 44 Minuten schrieb Käptn Käffchen:

... sollte jeden aufregen der eine kompetiven Leistungskampf der Hersteller sehen will:)

Ja da kann man sich schon über AMD aufregen, dass sie diesen Leistungskampf einfach nicht aufnehmen. Oder soll NVIDIA jetzt einfach aufhören solche Dinge zu entwickeln damit AMD nicht völlig abgehängt wird?

Bearbeitet von MacG
Link zu diesem Kommentar
Auf anderen Seiten teilen

Gast Käptn Käffchen

"Und über den Feature mist bei Nvidia (- und amd ) müssen wir uns nicht streiten. " Wen Nvidia so innovativ ist warum nutzen sie dann kein asynchronous shader? Scheint ja auch einiges an Vorteilen mit sich zubringen.

Gesendet von meinem SM-G388F mit Tapatalk

Link zu diesem Kommentar
Auf anderen Seiten teilen

Weil angefangen wurde die aktuellen Karten zu entwickeln als es nichtmal Spezifikationen für DX12 gab? Komplette DX12 Features bietet auch AMD noch nicht. Warum lenkst Du nun vom eigentlichen Thema ab? :D

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 15 Stunden schrieb Chefkoch2k:

Man darf nicht vergessen, dass es unter DX12 möglich wird Nvidia und AMD Karten de facto zusammen laufen zu lassen und sich das Spiel dann an beiden GPU's bedient.

Es ist möglich, wenn das Spiel entsprechend darauf ausgelegt ist, das ist keine Funktion von DX12 per se, die automatisch für alle DX12-fähigen Titel gilt.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Stunden schrieb Rasczak:

Und die Karte selber/Treiber muss es unterstützen.... und ich glaube bei zumindest einem der beiden Streithähne in diesem Korb nicht daran das das so schnell kommt.

Wie, Matrox will nich? ^^

 

*gibsdieüberhauptnoch?

Bearbeitet von tdkoe-descander
Link zu diesem Kommentar
Auf anderen Seiten teilen

Deine Meinung

Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Benutzerkonto hast, melde Dich bitte an, um mit Deinem Konto zu schreiben.

Guest
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Nur 75 Emojis sind erlaubt.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

  • Vorschau
 Teilen


×
×
  • Neu erstellen...

Wichtige Information

Um unsere Webseite für Sie optimal zu gestalten und fortlaufend verbessern zu können, verwenden wir Cookies. Durch die weitere Nutzung der Webseite stimmen Sie der Verwendung von Cookies zu. Weitere Informationen zu Cookies erhalten Sie in unserer Datenschutzerklärung.