RX 6xxx(XT) Thread, Lieferbarkeit, Kompatibilität, Leistung
- kaneske
- Erledigt
-
-
Das ist ein Gerücht, denn die W5700 und W5500 sind z.B. Workstation-Karten, die auf RDNA aufbauen.
Workstation Karten vom Preis und Ports her ja, aber der Chip ist identisch zur Consumer Version.
Die RDNA Karten sind Primär für Gaming gemacht nachdem AMD mit GCN als Mischarchitektur zu wenig effizient war, um bei Gamingkarten mit Nvidia ganz vorne zu Konkurrenzieren.
Der Nachfolger von GCN im Compute-Bereich ist ja CDNA, nicht umsonst gibts für den MacPro Vega II MPX Module.
Zitat von Hackbook ProGibt es eine W6700/6800/6900? NEIN! Kommt diese noch? Eher nicht... Ist im iMac eine 5700er oder ähnlich verbaut? JA!
Device IDs für Pro Karten und Screenshots einer solchen sind bereits geleakt, da kommt noch etwas.
-
-
AMD muss neue Workstation Karten veröffentlichen und kann damit vielleicht auch an eine 3090 ran kommen.
Aber die Preise werden solche Karten nicht rechtfertigen, in diesen Zeiten sowieso nicht.
Aber super schön das es jetzt Treiber gibt!
-
So..der AMD Shop wäre dann mal aktuell down. Bin gespannt ob der gleich mir neuem Bestand wieder on geht.
Edit: Shop ist wieder da, aber das einzige was wieder auf Lager ist, sind die großen Ryzens.
Edit2: Und schwupps, sind sie wieder out of stock.
Edit3: Hm...entweder hat der Shop nun dem Andrang nicht mehr standgehalten, oder aber die droppen CPUs und GPUs getrennt. Zumindest ist der Shop jetzt wieder down, dieses Mal allerdings mit einer sauberen Maintenance Meldung.
Edit4: OK, das wars für mich. Dieser Shop ist schon strange. Unter Firefox, wo ich um 17:30Uhr die F5 Taste maltretiert habe, wird mir nun ein "Access denied" angezeigt und zwar wohlgemerkt schon wenn ich nur AMD.COM ansteuere.
Öffne ich einen privaten Tab komme ich auf die Seite, auch auf den Shop, aber dann ist außer dem 5800X alles out of stock.
Nutze ich Safari komme ich auf die Seite und den Shop und dann ist neben dem 5800X auch der 5950X bestellbar, egal ob Desktop oder iOS.
Und nutze ich den Firefox unter iOS, sieht es aus wie mit dem Safari.
-
So..der AMD Shop wäre dann mal aktuell down. Bin gespannt ob der gleich mir neuem Bestand wieder on geht.
Edit: Shop ist wieder da, aber das einzige was wieder auf Lager ist, sind die großen Ryzens.
Edit2: Und schwupps, sind sie wieder out of stock.
Edit3: Hm...entweder hat der Shop nun dem Andrang nicht mehr standgehalten, oder aber die droppen CPUs und GPUs getrennt. Zumindest ist der Shop jetzt wieder down, dieses Mal allerdings mit einer sauberen Maintenance Meldung.
Edit4: OK, das wars für mich. Dieser Shop ist schon strange. Unter Firefox, wo ich um 17:30Uhr die F5 Taste maltretiert habe, wird mir nun ein "Access denied" angezeigt und zwar wohlgemerkt schon wenn ich nur AMD.COM ansteuere.
Öffne ich einen privaten Tab komme ich auf die Seite, auch auf den Shop, aber dann ist außer dem 5800X alles out of stock.
Nutze ich Safari komme ich auf die Seite und den Shop und dann ist neben dem 5800X auch der 5950X bestellbar, egal ob Desktop oder iOS.
Und nutze ich den Firefox unter iOS, sieht es aus wie mit dem Safari.
Hast du einen Link zum AMD Shop?
-
AMD muss neue Workstation Karten veröffentlichen und kann damit vielleicht auch an eine 3090 ran kommen.
Du bist dir aber bewusst, das es von Nvidia auch Pro Karten gibt, nennen sich RTX A4000 16GB, A5000 24GB und A6000 48GB, per NVLink ist es sogar möglich das eine GPU den gesamten RAM (memory pooling) der anderen Karte nutzen kann, so war es bei meinen beiden RTX 5000 Karten auch.
Leider besteht die Möglichkeit nicht, es bei einer RTX 3090 zu nutzen, von daher spiele ich mit dem Gedanken wieder zwei Karten statt einer zu nutzen, die A5000 ist schon sehr interessant.
-
-
-
Beruflich nutze ich ANSYS Discovery die ihre Berechnungen über die GPU / GPUs macht und noch Keyshot, privat erstelle ich für den LS19 Modelle und Maps, auch arbeite ich mit Unreal Engine.
Bei eine Waldlauf- und Landwirtschaftsszene kommt meine 3090 unter natives UHD schon stark an die grenzen max 25 FPS, mit DLSS Plugin ist das ganze sogar ruckelfrei.
Hier kannst du mal ein kleinen Einblick haben wenn ein LS auf der Engine basiert,
[Externes Medium: https://www.youtube.com/watch?v=Ehg4sLxOH1o]und das wenn man eine 3090 zum kotzen bringen will
[Externes Medium: https://www.youtube.com/watch?v=J7_3rpxsSME]Spiele könnten so schön aussehen, wenn die Konsolen nicht so schwach wären und die Spiele Entwickler nicht nur an den Profit denken würden.
DirecX 12 und Vulkan bieten sogar die Möglichkeit Multi GPU Lösung mit unterschiedliche Hersteller, nur wenige Entwickler nutzen das, obwohl es kein großen mehr Aufwand wäre.
Ein Beispiel ist Assassins Creed Valhalla, zwei Jahre Entwicklung und was kommt raus, immer noch die selbe Engine aus 2013 und mehr als verbugt das ganze, von Cyberpunk brauchen wir nicht reden, hatten wir ja schon in einem separaten Thema und nach mehreren GBs von Updates, immer noch Haufen Bugs in dem Game.
-
Interessant. Ja, man wird wohl immer wenn man es herausfordert Technik an die Kotzgrenze bringen können. Aber gerade in deinem Bereich, benötigt man es halt auch und kann nie genug haben. Aber dennoch hat die neue Gen. wohl einen guten Sprung gemacht.
Bzgl. der Konsolen würden das wohl einige anders sehen, da Sie wohl auch einen Sprung gemacht haben. Aber klar in dem Vergleich sind Sie schwach und werden auch immer schwächer als ein PC bleiben. Und da stimme ich dir voll zu. Spieleentwicklung richtet sich an den Massenmarkt und da wo das Geld zu holen ist. Deshalb werden auch viele Schinken immer neu aufgelegt und ausgelutscht, Quantität zählt mehr als Qualität - leider zu oft.
Die Diskussion um zu wenig Vram bei Spielen verstehe ich daher nur Teils. Natürlich schadet mehr nicht, und man könnte denken das man es braucht. Aber schaut man sich den gesamten GPU Markt an, haben die meisten Spieler wohl max. 8GB Vram im Schnitt. Da wird sich auch erstmal nicht viel dran ändern, die nächsten 2 Jahre, da die kommenden Games in Entwicklung gegangen sind als es noch keine 6700 oder 3060 mit 12GB Vram gab. Erst mit heutig startenden Entwicklungen wird darauf wohl eingegangen. Würde man jetzt im kommenden Jahr bereits so viel Vram voraussetzen würde man doch den Großteil des Marktes abschneiden.
CP fand ich vom Gameplay bisher auch nicht so geil und die Grafik schwankt auch finde ich- manche Ecken sehen toll aus, manche 0815.
COD MW die Clean House Szene sah schon nett aus. A plague tale innocence war gut. Freu mich auf Diablo 4 und suche/warte noch auf games die grafisch mal alles aus der RTX3080 rausholen.
Würd mich mal wieder auf ein Game mit schöner Storyline freuen a la Max Payne1 etc. oder ein Half Life1, oder ein neues Tomb Raider. Hier bräuchte es mehr Ports von Konsolen. Wobei Ports Mist sind, besser vom Pc auf Konsole, aber andersrum - verschenkt es meist Potenzial. Bei einigen Entwicklungen hat sich leider einiges negativ geändert oder man empfindet es so. Extrem gehypte Dinge - wie bei CP - ist es meist schon klar, dass es nicht den Erwartungen entsprechen wird.
-
Die Diskussion um zu wenig Vram bei Spielen verstehe ich daher nur Teils. Natürlich schadet mehr nicht, und man könnte denken das man es braucht. Aber schaut man sich den gesamten GPU Markt an, haben die meisten Spieler wohl max. 8GB Vram im Schnitt. Da wird sich auch erstmal nicht viel dran ändern, die nächsten 2 Jahre, da die kommenden Games in Entwicklung gegangen sind als es noch keine 6700 oder 3060 mit 12GB Vram gab. Erst mit heutig startenden Entwicklungen wird darauf wohl eingegangen. Würde man jetzt im kommenden Jahr bereits so viel Vram voraussetzen würde man doch den Großteil des Marktes abschneiden.
Dieses Jahr packt Microsoft noch Direct Storage im Windows aus, was den ganzen Hardwaremarkt verändern wird, Gaming PCs brauchen keine großen RAMs mehr und auch keine dicke CPU mit über 100W TDP und hohe GHz Zahl.
Was man dann nur noch braucht ist eine gute GPU mit viel VRAM und eine schnelle SSD.
Kleine AIOs für CPU werden dann auch immer mehr interessanter, da man sich bloß eine 35 - 65W CPU einbauen braucht, dadurch macht Intels Alder Lake dann richtig Sinn.
Das ganze wird bei Spiele anfangen und bei Anwendungen aufhören.
-
Ja das hatte ich auch im kopf.
Hab ne samsung pcie4 drin in 500gb als sys- und anwendungsplatte. Dann muss ich meine 2tb ssd sata wohl ggfs tauschen.
Die 3080 wirds wohl vram mäßig packen. Wollte auf RT nicht verzichten, da bringt ne 6800XT keinen großen Mehrwert, da auch macOs nicht richtig supported wird.
Oder ich hab glück bei ner 3090FE und kann die 3080FE 1:1 momentan tauschen aber die wäre wohl für mein setup zu groß.
-
BAREFEATS hat eine RX 6900XT mal mit der neuen Beta rennen lassen ... macht sich sehr gut, bügelt auch die VII weg
RX 6900XT, Davinci, Blender, Games, Geekbench...
Blender mit dem AMD ProRenderer Plugin! (den gibst auch für OS X)
-
Sieht super aus!
Allerdings hab ich die 5700XZ schon gegen die VII getestet. Da war die VIIer deutlich überlegen. Dieser Test scheint mir recht abstrus...
-
bekommt man Big Sur 11.4 Beta eigentlich nur mit Developer Account oder gibt es noch einen anderen Weg? Habe nun eine rdna2 Karte bekommen und würde die gerne unter Big Sur nutzen, jedoch jetzt extra dafür meinen Account als Developer einzurichten würde ich gerne vermeiden.
-
SW-HackPro Versuch es mal mit AnyMacOS?
-
Als Developer kommt Du da nur früher dran, da die Public Betas immer ein wenig später kommen. Aber Du kannst Dir letztgenannte installieren:
-
Erdenwind Inc.
danke für den Tipp. Werde ich mir später mal anschauen.
Ist den 11.4 bereits als public beta verfügbar? Hierfür muss man sich ja auch registrieren - ich nehme an eine Abmeldung später vom Public Beta Programm ist ohne weiteres möglich?
-
Sieht super aus!
Allerdings hab ich die 5700XZ schon gegen die VII getestet. Da war die VIIer deutlich überlegen. Dieser Test scheint mir recht abstrus...
Wie immer kommst ja auch auf die Aufgabe / Tasks an wenn du was in DaVinci etc. testet.
Es gibt bestimmt Tasks in FCP, DV wo die VII besser läuft, da Glaube ich schon den Videoprofis
Barefeats stets nur Macs - was teilweise auch zu Unterschieden was RAM SPeed, Cores, etc. angehen kann mit Hackintosh Systemen. Man sieht auch gut die CPU Limitierung beim Blackmagik Metal Test. Beim MacPro 2010 (2010 CMP, 6 Core) limitiert die CPU(+ drumherum) bei gleichen GPUs die Metal FPS auf 60. Beim 2019er MP 12 C sind die gleichen GPUs fast doppelt so schnell!!!
Blackmagic RAW Speed Test - Metal GPU
8K 12:1 bitrate (HIGHER Frames per Second = FASTER)liegt die 5700XT nicht schlecht gegenüber der VII.