RX 6xxx(XT) Thread, Lieferbarkeit, Kompatibilität, Leistung

  • bekommt man Big Sur 11.4 Beta eigentlich nur mit Developer Account oder gibt es noch einen anderen Weg?

    macOS Update Zweig bequem per Terminal wechseln

    LG Chris


    Meine Hardware:

  • bekommt man Big Sur 11.4 Beta eigentlich nur mit Developer Account oder gibt es noch einen anderen Weg? Habe nun eine rdna2 Karte bekommen und würde die gerne unter Big Sur nutzen, jedoch jetzt extra dafür meinen Account als Developer einzurichten würde ich gerne vermeiden.

    Mit diesem Tool kann man leicht switchen: https://github.com/chris1111/Beta-Access-Software-Utility

    HackbookPro 2016: Lenovo Ideapad 510S-14ISK


    HackMini 2018: Intel NUC7i5BNK


    HackPro 2020: Gigabyte Vision G Z490

  • Damit kann man auch ganz einfach den Installer ziehen: softwareupdate --fetch-full-installer --full-installer-version 11.4

    • Apple Mac Studio | M1 Ultra | 64GB RAM | 1TB
    • PowerMac G5 | Dual 2GHz | 8GB RAM | GeForce 6800 Ultra DDL
    • AMD Ryzen 9 3950X | ASUS Strix X570-I Gaming | 64GB DDR4-3600 CL16 RAM | Corsair MP600 M.2 NVMe | Radeon RX 6900 XT | Phanteks Enthoo Evolv Shift | Custom Loop | MacOS 12 | OpenCore
      Ryzen MacPro | EFI | RadeonSensor | Aureal
  • Beim MacPro 2010 (2010 CMP, 6 Core) limitiert die CPU(+ drumherum) bei gleichen GPUs die Metal FPS auf 60. Beim 2019er MP 12 C sind die gleichen GPUs fast doppelt so schnell!!!

    Die Käsereibe hat u.a. noch PCIe 2.0. Auch der Rest ist prähistorisch. :)

    ASUS WS X299 SAGE/10G i9-10980XE • DDR4 64GB • SSD 970 PRO 1TB • Thunderbolt3 Titan Ridge • 2x AMD Radeon VII • BMD DeckLink 4K Extreme 12G

    ASUS PRIME X299-DELUXE i9-9940X • DDR4 64GB • SSD 960 PRO 1TB • Thunderbolt3 Titan Ridge • 2x AMD Radeon RX Vega 64 • BMD Intensity Pro 4K


    Ordnung ist die primitivste Form von Chaos. (Hans-Jürgen Quadbeck-Seeger)

  • Naja, der MacPro 2019 doch net... ;)


    Der nimmt halt nur was Apple hat - keine Hacks zum Vergleich ;)


    Aber das M1 Macbook Pro schon auch - vs MacBook Pro AMD 5600M!

    DaVinci Resolve 17.1 (Universal)

    Playback of Candle Project with Triple Noise Reduction. (HIGHER frames per Second = FASTER)

    M1-vs-16in-MBP-davinci-3nr.png

  • Das Problem an den Barefeats Tests bzw. auch des Candle Benchmarks ist die "prähistorische" Auflösung des Materials/Projekts.


    Über HD mach ich mir schon seit Jahren keine Gedanken. Jetzt haben wir es mit 4x mehr Daten (4k) bis 16x mehr Daten (8k) zu tun. Da ist die Radeon VII sehr schnell im Vorteil.


    Aber: Super, dass endlich Bewegung in den Markt kommt!

    iMacPro 1.1 - MacOS Ventura - Asus Prime X299 Deluxe - i7940x - 64GB DDR4 - 2x Radeon VII - Thunderbolt Titan Ridge + MacBookPro M1 Max

  • Auf der Suche nach dem Candle benchmark bin ich auf diesen hier gestoßen der wohl ähnlich ist bloss für 4K und 6K.

    https://forums.macrumors.com/t…d-rocket-science.2273175/


    Für's benchmarken hab ich den UHD ProRes_LT (3840x2160) im loop laufen lassen und bekam für die RX 6800 folgende Ergebnisse:


    TNR 0: 53

    TNR 1: 46

    TNR 2: 42

    TNR 4: 30

    TNR 5: 25


    Für den 6K clip:


    TNR 0: 47

    TNR 1: 34

    TNR 2: 30

    TNR 4: 22

    TNR 5: 20


    Motion Blur funktioniert leider in der free version nicht.


    Die noden sind wie im Bild zu sehen aktiv und die TNR hab ich an der markierten Stelle gedreht. Ich kenn mich damit noch nicht so richtig aus, hoffe also, dass ich das alles so richtig eingestellt habe. Was mir aufgefallen ist, ist das je höher TNR ist, die GPU Auslastung sinkt.


  • hackmac004

    Das sagt wenig aus. Der Clip mag 6K sein (welcher Codec, welche Framerate), die Timelineauflösung ist? Die Nodes sind zwar aktiv, ich sehe es sind in jedem eine Farbkorrektur, ein Maskierung und ein Blur/Sharpen. Die Maskierung scheint nicht zu greifen, da die Vorschauen der Nodes alle "grau" sind. Somit ist höchst fragwürdig, was da genau passiert – denn wenn per Maske _ALLES_ abgewählt wird und dann aber innerhalb der aktiven Fläche Effekte berechnet werden sollen – na da kann man sich vorstellen, was letztendlich übrig bleibt. Die "Temporal Noise Reduction" sollte aber Node-unabhängig laufen.


    Insgesamt also wenig aus der Praxis …

    ASUS WS X299 SAGE/10G i9-10980XE • DDR4 64GB • SSD 970 PRO 1TB • Thunderbolt3 Titan Ridge • 2x AMD Radeon VII • BMD DeckLink 4K Extreme 12G

    ASUS PRIME X299-DELUXE i9-9940X • DDR4 64GB • SSD 960 PRO 1TB • Thunderbolt3 Titan Ridge • 2x AMD Radeon RX Vega 64 • BMD Intensity Pro 4K


    Ordnung ist die primitivste Form von Chaos. (Hans-Jürgen Quadbeck-Seeger)

  • SW-HackPro
    Du musst Dich nicht wirklich registrieren (und selbst wenn, wo ist das Problem? Kostet ja kein Geld).


    Du meldest Dich mit Deiner normalen Apple ID an, bestätigst die ganzen "ich nutze es nicht auf meinem Produktivsystem, weil ich weiß, dass Betas nukleare Explosionen auslösen können" Meldungen und bekommst dann ein Beta Profil. Das funktioniert nahezu genauso für die macOS, iOS und anderen Public Betas.

    Ab diesem Zeitpunkt läuft dein Gerät auf dem Beta Kanal und bekommt entsprechend Updates angeboten, sobald die rauskommen.


    Ist aber auch alles noch einmal auf der Seite, die ich Dir verlinkt habe beschrieben.


    Und ja, von der 11.4 gibt es bereits Public Betas.


    @Rest

    Diese ganze Diskussion hier macht mich irre. Was soll ich denn nun machen?


    Bisher dachte ich, dass die einzige Karte, die für meine Anwendung schneller (und halbwegs bezahlbar) wäre, die VIIer ist. Also dachte ich mir, dass ich weiterhin die AMD-Seite belagere und sobald es mir gelingt eine 6xxx zu kaufen, ich diese wieder verkaufe um dann an VIIer zu kommen.


    Aber die Ergebnisse, die Ihr nun gerade postet scheinen ja dann doch darauf hinzuweisen, dass die 6xxxer zumindest gegenüber meinen VEGAs einen Vorteil haben könnten. Oder sehe ich das weiterhin falsch? Ich meine, klar, das Speicherinterface ist dünner, aber dafür haben die auch den doppelten Speicher und einen 5nm Chip.

    Some men see things as they are and say 'why?', I dream things that never were and say 'why not?'

  • apfelnico Die clips haben alle eine Framerate von 25. Die eine 4K Variante, mit der ich geteste habe, hat den gleichen codec wie der 6K clip.


    Hier sieht man welche Effekte enthalten sind.


    Wo kann ich sehen wie die Timelineauflösung ist?


    Magst du das Project bei dir mal starten um zu sehen ob das was taugt oder nicht?

    Oder kannst du eins empfehlen was aussagekräftig ist?

  • Hier sieht man welche Effekte enthalten sind.

    Hab ich schon gesehen (Piktogramme am unteren Rand der Nodes) und mich dazu geäussert …


    Wo kann ich sehen wie die Timelineauflösung ist?

    An vielen Stellen. Im "Media Pool" siehst du oben links (von den vieren) die "Timeline" (im Vorschaubild links unten ein "Timelinesymbol"). Auch siehst du, dass diese (einzige) Sequenz auch die derzeit aktive ist (orange Binde links oben). Rechtsklick drauf und du findest weitere wichtige Einträge.

    ASUS WS X299 SAGE/10G i9-10980XE • DDR4 64GB • SSD 970 PRO 1TB • Thunderbolt3 Titan Ridge • 2x AMD Radeon VII • BMD DeckLink 4K Extreme 12G

    ASUS PRIME X299-DELUXE i9-9940X • DDR4 64GB • SSD 960 PRO 1TB • Thunderbolt3 Titan Ridge • 2x AMD Radeon RX Vega 64 • BMD Intensity Pro 4K


    Ordnung ist die primitivste Form von Chaos. (Hans-Jürgen Quadbeck-Seeger)

  • apfelnico Die Timelineauflösung war auf 4k eingestellt. Als ich sie mal auf FullHD und dann wieder auf 4K änderte, erreichte er nur noch 25 FPS. Eigentlich logisch und komisch, dass er vorher mehr FPS anzeigte, obwohl das Ausgansmaterial das ja eigentlich gar nicht hergibt.

  • I have tested a 6900xt of a user in another forum

    Candle benchmark in Davinci resolve classic 66 and 6 nodes produces a speed comparable to my previous Vega 64 in metal


    17 fps (66 nodes)

    21 fps (6 TRN nodes)


    In a job i have done in 8k i cant see any workflow difference with my actual GPU (3090)


    Candel Benchmark is not good with first release (metal/OSX drivers)

    System used AMD 3970x 256 Gb AMD 6900 xt

  • Eigentlich logisch und komisch, dass er vorher mehr FPS anzeigte, obwohl das Ausgansmaterial das ja eigentlich gar nicht hergibt.

    Logisch oder komisch? :)

    Zur Laufzeit, während des Editings, ist es sinnvoll, das zumindest die FPS erreicht werden, die die Timelinesettings vorgeben. Gemeinhin wird damit "Echzeit" bezeichnet. Darüberhinaus ist es nicht unwesentlich, wie schnell bestimmte Arbeitsschritte erfolgen, wie zum Beispiel "tracking". Und die schlussendliche Ausgabe darf dann – wenn nicht vom Nutzer anderweitig limitiert – gern so schnell erfolgen, wie das System in der Lage ist. Das sind dann gern mal 600fps und mehr …

    ASUS WS X299 SAGE/10G i9-10980XE • DDR4 64GB • SSD 970 PRO 1TB • Thunderbolt3 Titan Ridge • 2x AMD Radeon VII • BMD DeckLink 4K Extreme 12G

    ASUS PRIME X299-DELUXE i9-9940X • DDR4 64GB • SSD 960 PRO 1TB • Thunderbolt3 Titan Ridge • 2x AMD Radeon RX Vega 64 • BMD Intensity Pro 4K


    Ordnung ist die primitivste Form von Chaos. (Hans-Jürgen Quadbeck-Seeger)

  • Finde es gut wenn Videoschnitt Profis hier ihre Erfahrung bezüglich GPU Vergeliche bei Videoschnitt Tests einbringen!

    Für non Profis (eher iMovie HD User) ja schwer einzuschätzen.


    Rob (von Barefeats) ist sicher offen und Dankbar für Ratschläge wie zB: das Material und Timeline Auflösung - nach vielen Jahren HD Material als Vergelichswert - nun 4K zu nutzen oder auch evtl. anderen, nachvollziehbaren Test für Davinci zu nutzen.

    Edit: Rob´s (Barefeats) Kontakt

    Comments? Suggestions? Feel free to email me, Rob-ART, Mad Scientist.


    Edit2: Sehe gerade das Rob im Okt. 2020 auch einen anderen DaVinci Test "

    R3D 8K Playback, Using an 8K RED Project called "Pollen," we applied "Better, Medium" Temporal Noise Reduction with 25% Luma, 25% Chroma, 50% Motion, 50% Blend. We rendered noise reduction using Metal." genutzt hat - jedoch mit DaVibci 16.2 .. vielleicht läuft der nicht mit 17.1? . siehe:

    https://barefeats.com/dual-w57…k-of-DaVinci-Resolve.html

    apfelnico: Wäre dieser R3D 8K (und 4K) besser wie der Candle HD als Vergleich für neue, leistungsstarke GPUs?


    EDIT3: Habe mir diesen Test mal angesehen - was Top ist da ist auch der Candle Bench mit gelistet.

    MAn sieht dabei, dass beim Candle Test die Vega II (Vega II = Apple Radeon Pro Vega II (32GB HBM2 memory) gleiche FPS wie die AMD W5700X (Apple Radeon Pro W5700X (16GB GDDR6 memory) um diese GPU ging es in dem Test) erreicht jedoch beim R3D 4K oder 8K deutlich schneller wie die W5700X ist.


    Das meinte apfelnico wahrscheinlich ... woe es im viel und schnellen Speicherdurchsatz ankommt hat HBM2 Memory Vorteile gegenüber GDDR6). Wo dieser Durchsatz weniger wichtig sit wie beim Blender AMD Prorendern , Games und sind die schnelleren Cores der RX 6xxx trotz GDDR6 klar im Vorteil bzw. die VII oder Apples Vega II gleichen die schwächere Core Speed mehr oder weniger durch HMB2 aus.


    PS: Als Videolaie kann ich auch den Blackmagic RWAR Speed Test schwer einschätzen - da steht doch was von 4K und 8 K - was mir klar ist das dieser Test wohl eher syntetisch Videospeed abbildet und nicht workflow mit 4K / 8K material inkl. zig Aufgaben (Nodes?) dabei...

    507375055350.png

    5 Mal editiert, zuletzt von mitchde ()

  • Im Grunde kann kein Test allgemeingültige Aussagen über die Leistungsfähigkeit einer GPU machen.


    Denn es wird ja immer nur ein best. Szenario getestet.


    Die populären Test-Apps im Netz sind für meine Arbeit z.B. völlig nutzlos. Für meine Anwendung (RAW+ProRes Clips in hoher Auflösung) ist die VIIer noch immer spitze. Und die 3090 von NVidia nochmal deutlich stärker.

    Wenn die Mx Prozessoren nicht mind. 10x mehr GPU Leistung bieten, werde ich doch auf WIN umsatteln müssen. :(


    Wir haben im liftgammagain Forum mal Tests entwickelt. Die hatten sich aber nur mäßig verbreitet.

    Der Standard Candle Benchmark mit 4k Auflösung (Clip und Timeline) war da letztlich die populärste Variante.

    iMacPro 1.1 - MacOS Ventura - Asus Prime X299 Deluxe - i7940x - 64GB DDR4 - 2x Radeon VII - Thunderbolt Titan Ridge + MacBookPro M1 Max

  • Da wir ja nun ein paar mehr Besitzer dieser GPUs hier haben:


    Wer hat eine fiepende / rasselnde GPU erwischt und wie macht sich das bemerkbar?


    Bin da sehr an maximalen Details interessiert.


    Umbau auf WaKü, vorher/nachher…

    Eventuelle Abhilfen usw…

  • Meine 6900 XT hat leichtes Coil Whine in gewissen Szenarien (max last), aber nur wenig mehr als die VII in ähnlichen Situationen hatte.


    Da die Karte mit Luftkühler nicht in mein Gehäuse gepasst hat, kann ich dir Unterschied zur WaKü nicht sagen.

    Subjektiv ist es etwas leiser geworden nach dem UV, wahrscheinlich könnte sie mit etwas mehr UV/limitiertem Tackt nochmal etwas leiser werden.

    • Apple Mac Studio | M1 Ultra | 64GB RAM | 1TB
    • PowerMac G5 | Dual 2GHz | 8GB RAM | GeForce 6800 Ultra DDL
    • AMD Ryzen 9 3950X | ASUS Strix X570-I Gaming | 64GB DDR4-3600 CL16 RAM | Corsair MP600 M.2 NVMe | Radeon RX 6900 XT | Phanteks Enthoo Evolv Shift | Custom Loop | MacOS 12 | OpenCore
      Ryzen MacPro | EFI | RadeonSensor | Aureal
  • Ich meine, dass wenn der GPU Takt auf >2300 MHz bei mir gekommen ist, dass dann ein Spulenfiepen zu hören war. Ich habe das allerdings beim Undervolting auf eine maximale Frequenz begrenzt, weshalb ich aktuell nichts höre (auch unter Last).