@onlyWork
Den Test mit 2x 6800 kann man sich glaube ich sparen, da liegst du kostentechnisch fast auf gleicher Höhe und bist leistungstechnisch aktuell bei ca. 180%.
Um schreiben oder kommentieren zu können, benötigst du ein Benutzerkonto.
Du hast schon ein Benutzerkonto? Melde dich hier hier an.
Jetzt anmeldenHier kannst du ein neues Benutzerkonto erstellen.
Neues Benutzerkonto erstellen@onlyWork
Den Test mit 2x 6800 kann man sich glaube ich sparen, da liegst du kostentechnisch fast auf gleicher Höhe und bist leistungstechnisch aktuell bei ca. 180%.
Moin zusammen! Ich habe mir heute Abend mal 5 Std. Zeit genommen und den ultimativen Benchmark für diverse Karten erstellt.
Es lässt einem dann ja doch keine Ruhe und man will ja irgendwie keine 1000,- für 5fps mehr ausgeben.
Hier nun meine gesammelten Erkenntnisse. Bitte beim Teilen auf anderen Seiten hier ins Forum verlinken.
Nach diesem Test wäre die RX 6800 (so man eine für unter 700,- bekommt), die ultimative Empfehlung.
Hier die einzelnen Ergebnisse, die auch bestätigen, dass dieses Board auch mit 3 GPUs (vermutlich auch mit 4 GPUs) verlustfreie Ergebnisse erzielt und je nach Anwendung, dann auch 2 oder mehr GPUs extrem sinnvoll sind.
Mainboard X299 Sage 10G, OC, macOS 11.4
1x RX 6900 XT, GPU at Slot 1, x16
BM RAW Speed Test 8K METAL = 325
Davinci Candle 6 THR = 40fps
Davinci Candle 66 Blur Nodes = 30fps
Geekbench 5 METAL = 184060
Geekbench 5 OpenCL = 125757
Indigo Bench Bedroom = 17160
Indigo Bench Supercar = 37786
LuxMark 3.1 Hotel Lobby = 11173
2x RX 6900 XT, GPUs at Slot 1 and 3, x16, x16
BM RAW Speed Test 8K METAL = 325, 340, 350, 365
Davinci Candle 6 THR = 44fps
Davinci Candle 66 Blur Nodes = 55fps
Geekbench 5 METAL = GPU 1=192972, GPU 3=194405
Geekbench 5 OpenCL = GPU 1=122019, GPU 3=118014
Indigo Bench Bedroom = single 16878, multi 33375
Indigo Bench Supercar = single Single 37609, Multi 74422
LuxMark 3.1 Hotel Lobby = 22723
3x RX 6900 XT, GPUs at Slot 1,3,5, x16, x16, x16
BM RAW Speed Test 8K METAL = 325, 340, 350, 365
Davinci Candle 6 THR = 53fps
Davinci Candle 66 Blur Nodes = 64fps
Geekbench 5 METAL = GPU 1=192972, GPU 3=194405
Geekbench 5 OpenCL = GPU 1=122019, GPU 3=118014
Indigo Bench Bedroom = single 15582, multi 50317
Indigo Bench Supercar = single Single 37664, Multi 110496
LuxMark 3.1 Hotel Lobby = 34379
1x RX 6800, GPU at Slot 1, x16
BM RAW Speed Test 8K METAL = 320
Davinci Candle 6 THR = 35fps
Davinci Candle 66 Blur Nodes = 24fps
Geekbench 5 METAL = 152420
Geekbench 5 OpenCL = 103781
Indigo Bench Bedroom = 14501
Indigo Bench Supercar = 33947
LuxMark 3.1 Hotel Lobby = 9659
1x VEGA 64 Blower, GPU at Slot 1, x16
BM RAW Speed Test 8K METAL = 325
Davinci Candle 6 THR = 21fps
Davinci Candle 66 Blur Nodes = 14fps
Geekbench 5 METAL = 68095
Geekbench 5 OpenCL = 60364
Indigo Bench Bedroom = 5749
Indigo Bench Supercar = 14335
LuxMark 3.1 Hotel Lobby = 4308
Das Black Magic Tool scheint die Last übrigens auf alle Karten zu verteilen, das Ergebnis bleibt grob identisch und sagt nichts über die wirkliche Performance aus. Auch eine alte Vega 64 erzielt einen identischen Score verglichen mit einer 6900 XT.
Wenn ihr Interesse habt kann ich in den nächsten Tagen noch Benchmarks von Radeon VII und RX 5700 XT ergänzen.
Müsste eigentlich klappen. Da beide 16GB Ram haben sollte es auch in Anwendungen keine Probleme geben. Man braucht aber 11.4 damit die neue 6800/6900 erkannt wird.
I forgot to switch back to 6 nodes. Now with 1 card i get same result, updated my previous post. with new results.
3x RX 6900 XT, 64 Nodes: 65 fps
3x RX 6900 XT, 9 Nodes THN: 35 fps
3x RX 6900 XT, 6 Nodes THN: 52 fps
2x RX 6900 XT, 64 Nodes: 55 fps
2x RX 6900 XT, 9 Nodes THN: 29 fps
2x RX 6900 XT, 6 Nodes THN: 42 fps
1x RX 6900 XT, 64 Nodes: 31 fps
1x RX 6900 XT, 9 Nodes THN: 27 fps
1x RX 6900 XT, 6 Nodes THN: 40 fps
So that's not linear but i think for other Davinci related reasons.
Another nice test is a speed change to 25% with Retime Process set to Optical Flow and Motion Estimation set to Speed Warp.
Vielen Dank für die Links! Also 24fps ist kein Problem. Ich hab dann mal die Framerate höher gestellt und schaffe 63.5fps.
Thanks for the link. 24fps is no problem. I set the playback rate a little bit higher and get 63.5fps.
With 6 TRN nodes i get 52 fps and with 9 TRN nodes i get 35 fps.
Please send me a short project and the files and we can compare our systems.
@kavenzmann LuxMark 3.1 läuft bei mir unter 11.4 und lief auch unter Mojave und Catalina.
Verstehe ich irgendwie nicht. Wenn ich in LuxMark nur eine Karte aktiviere, dann macht die 57000 in OCL. Mit 2 aktivierten Karten sollten es 114000 sein und das ist auch so. Rein rechnerisch sollte es bei drei Karten ein Ergebnis von 171000 geben und siehe da, ich bekomme einen Score von 171344 (oder auch mal 172000). Wird das mit Metal nun deutlich anders sein und wenn ja, warum ist das so?
Was ich nicht verstehe, warum machen alle 3 Karten bei Geekbench einen ähnlichen Score?
GPU1 sitzt in Slot 1 (per Riser), GPU 2 sitzt in Slot 3 und GPU 3 in Slot 7 (per Riser). In Slot 2 steck eine Thunderbolt 2 Karte (x4) und in Slot 6 ein Decklink mini Monitor 4K (x4).
Zusammen wären das ja schon 56 Lanes. Dazu dann noch der ganze interne Kram, zusammen bestimmt 80 Lanes.
Ich bin extrem happy mit meinem Setup. Die Kiste ist extrem stabil (6 davon im Einsatz), Dual 10G läuft mega fix mit einer Synology, dazu 1x Avid HDX Karte, Thunderbolt 3, 1x BM Decklink, 3x GPU und alles in einem System, dazu noch 128GB Ram, keinen Absturz seit Wochen, da werde ich bestimmt nicht auf AMD wechseln um meine 3. GPU mit 16 Lanes angebunden zu wissen. Aber vielen Dank für deine Anregungen, mal gucken wie sich macOS in den nächsten Jahren entwickelt und wohin die Reise mit Apples M1/ M2 oder was auch immer dann geht.
Unter Vollast zu die Kiste 1.2 KW, das ist natürlich nicht mehr zeitgemäß, da muss sich was ändern.
@walter77 das ist mir bekannt das diese MB vier mal x16 kann und wenn ich mir so das Blockdiagramm anschaue es ist egal ob deine CPU 44 oder 48 Lanes hat, da beide PLX 8747 Chips eh nur mit jeweils 16 Lanes an die CPU angebunden sind, die Chips selber können zwar 48 Lanes aber die CPU wird in deinem Fall immer der Flaschenhals sein.
So mit hast du zwei GPUs mit x8 und eine mit x16 solange kein weiterer Slot noch belegt ist, daher fand ich auch die Werte bei Luxmark ziemlich niedrig für drei GPUs mit 80 CUs, weil meine zwei RTX A5000 machen ja schon 160000 Punkte und wenn man die Luxmark Top liste anschaut zwei 3090 schaffen locker 180000 Punkte, da zeigen sich die wenigen Lanes zur CPU.
Unterm Strick sind es ja eh nur synthetische Benchmarks. In der Praxis kann ich eine komplexe Timeline mit 2 Karten nicht flüssig abspielen, aber mit 3 Karten läuft es problemlos, da ist es mir egal, ob die nun mit X16, X16, X8 angebunden sind oder was auch immer. Ich kann aber spaßeshalber mal in einem neuen System, in dem eine10980XE steckt gucken, ob die 4 Lanes bei diesem Board einen Unterschied in den Benchmarks machen, bin gespannt und werde hier das Ergebnis in den nächsten Tagen posten.
@walter77 Ich habe da mal eine Frage wozu braucht man eigentlich drei RX 6900 XT im System und vor allem bei einer CPU die nur 44 Lanes PCIe Anbindung hat?
Eine deiner GPUs ist nur mit 8 Lanes angebunden, bei Spiele mag es nicht ins Gewicht fallen aber bei Anwendungen merkt man es schon.
Hast doch bestimmt bald vor ein Update auf ein 48 Lane CPU noch zu machen oder etwa nicht?
Weil man in Davinci Resolve möglichst viele GPUs braucht, aber auch die Adobe Suite nutzt mehrere GPUs. Und check mal hier die Specs das ASUS SAGE 10G bzgl. X16 Anbindung:
Erweiterungsschächte
7 x PCIe 3.0 x16 (single x16 or dual x16/x16 or triple x16/x16/x16 or quad x16/x16/x16/x16 or seven x16/x8/x8/x8/x8/x8/x8)
Hammer, das klingt ja super, vielen Dank für die Info. Ich bin da gerade nicht im Thema, da meine Kiste Dank DSM2 und diesem Forum wunderbar läuft.
Ich hoffe auch, dass die preise sinken (speziell rtx 30). Nein, die rx 6900xt läuft auch im hackintosh.
Mit Hardwareunterstüzung?
Das finden einige vielleicht provokant, es gibt wahrscheinlich genug Leute hier, die gerne eine stärkere gpu hätten. Und diese sind sicherlich nicht glücklich, wenn jemand schreibt, wie gut er gpus verkaufen könnte...
Äh, aber Spaß verstehen die hoffentlich schon. Ich liebe die Radeon VII und hoffe, dass es irgendwann endlich Miningkarten gibt und die Preise wieder realistisch werden. Vermutlich werden es die letzten Karten sein, die noch im Hackintosh laufen werden.
Auch wenn es nur ein Zahlendreher war, die Solaranlage ist schon bestellt, dann komme ich eventuell in die richtige Richtung.
Mining habe ich mal probiert, aber da hätte ich viel zu viel Angst, dass mir die Karten abrauchen. Aktuell liegen die Radeon VII bei unglaublichen 1800,- im Mittel. Ich habe letztes Jahr 580,- gezahlt, hätte ich das gewusst...
Ich lese euere Beiträge und Erfahrungen mit großem Interesse. Aktuell habe ich einen Hack auf Basis des X299 Sage 10G mit 128 GB, I9 9980XE und 3x Radeon VII im Einsatz. Das Ding ist wirklich fix, aber wenn ein neuer, vergleichbarer und bezahlbarer Mac Pro mit 64 Kernen für irgendwas um die 8000,- auf den Markt kommt, dann wechsle ich auch. Meine Kiste zieht beim Rendern in Davinci locker 1200 Watt, bei 0.3 Cent pro KW rechnet sich das dann auch irgendwann.
Es ist alles genau nach dem Guide von DSM2 gemacht und läuft ja auch absolut perfekt und rund. Ich dachte nur es wäre cool die Bootgeschwindigkeit zu erhöhen, bei WIndows sind es knapp 15 Sekunden. Gibt es sowas wie ein Logfile wo steht, was er in der Zeit gerade tut und worauf er wartet?
Hab jetzt mal Catalina (10.15.7) installiert und nun bootet die Kiste so wie sie soll und es läuft alles extrem rund. Vielen Dank an diese coole Community.
Es ist alles genau nach dem Guide von DSM2 gemacht und läuft ja auch absolut perfekt und rund. Ich dachte nur es wäre cool die Bootgeschwindigkeit zu erhöhen, bei WIndows sind es knapp 15 Sekunden. Gibt es sowas wie ein Logfile wo steht, was er in der Zeit gerade tut und worauf er wartet?