Ein Videoschnitt-Monster - 12 Kern CPU / Dual GPU / 64GB RAM & mehr

  • Gute Wahl! Zumal du ja erst anfängst.
    Mehr als ausreichend für Videoschnitt mit Adobe...

  • derpuma:
    ich wollte das nicht als Kaufkriterium anbringen.
    Mir wäre aber ein 860W-Netzteil zu schwach, wenn z.B. nur CPU und GraKa's im Peak schon annähernd die Leistung brauchen.
    MMn sollten bei so ner "Höllenmaschine" alle Komponenten ausreichend dimensioniert sein.
    Auch würd ich mir überlegen, die GraKa's eben in die WaKü reinzunehmen.
    So mein Gedanke.
    Grüße

    Sehen ist nicht nur Augensache

    Coffee Lake Hack Prime Z390-A, i9-9900K,64GB, RX5700 XT

    (real-)Mac's: iMac27", MacPro 5,1 12Core

  • Wasserkühlung ist nur dann notwendig, wenn die Dinger übertaktet werden.
    Geht unter OSD soweit ich weiß eher sowieso nicht.
    Die 780er zB von ASUS ist sehr leise und wird auch nicht extrem warm!
    Netzteil darf natürlich potenter Ausfallen...

  • Bei Wasserkühlungen liegt der Vorteil darin, dass man große passive Radiatoren verwenden kann, was vor allem den Geräuschpegel senkt.
    Aber auch schon 120er Lüfter, die man hinter die internen Radiatoren setzen kann, sind angenehmer als die Gebläse der Karten selbst.


    Allerdings kosten vernünftige Wasserkühlsysteme richtig viel Geld. Dazu gehört auch eine Steuerung, die Alarm schlägt, wenn das Wasser aufhört zu zirkulieren.
    Ach ja, noch etwas. Ich habe hier gelesen, dass "die 9xx NVIDIAs eben nicht unter Adobe laufen" ... Da frage ich mich: Wie kann denn so etwas sein?
    Da kauft sich jemand eine moderne Grafik-Karte und damit lassen sich dann Adobe-Produkte nicht verwenden?!?
    Ist es nicht eher so, dass Adobe diese Karten einfach noch nicht selbst gelistet hat, diese aber dennoch nutzbar sind? So etwas wie CUDA ist ja immerhin ein definierter Standard.

    ASUS ProArt Z790-Creator WIFI Mainboard
    Intel i9 14900KF CPU, wassergekühlt
    AMD RX 6900 XT Referenz-Layout, wassergekühlt
    1x EIZO CG2730, 1x EIZO CG2700S
    128GB Corsair Vengeance DDR5 5600Mhz
    1x SSD Samsung 860 Evo 500GB mit Sequoia 15.1.1
    1x Sabrent M.2 NVMe SSD 1TB
    Areca 1223-8I mit Raid 1 4TB

    Prodigy Cube - externe Soundkarte
    Magic Keyboard und Magic Mouse


    MacBook Pro 15" late 2013 Retina
    MacBook Pro 15" mid 2015 Retina
    MacBook 6.1


    Lenovo D10 Board mit 2x Xeon X5470, und 32GB DDR2 Ram u. AMD HD 5870 Grafik

    Einmal editiert, zuletzt von Werner_01 ()

  • Mit 35 dB im Idle und knapp 50 dB unter Last finde ich, kann man doch gut Leben.
    Hört man kaum wenn das Gehäuse zu ist!
    Zumal der Aufwand für ne gescheit verlegte Wasserkühlung enorm hoch ist. Neben dem Preis...
    Ich hatte vor ein paar Jahren auch mal ne Wasserkühlung an einem XEON und sozusagen ROHRBRUCH!
    Never ever again... Käm für mich nicht mehr in Frage...

  • Rohrbruch?
    Was war passiert?

    ASUS ProArt Z790-Creator WIFI Mainboard
    Intel i9 14900KF CPU, wassergekühlt
    AMD RX 6900 XT Referenz-Layout, wassergekühlt
    1x EIZO CG2730, 1x EIZO CG2700S
    128GB Corsair Vengeance DDR5 5600Mhz
    1x SSD Samsung 860 Evo 500GB mit Sequoia 15.1.1
    1x Sabrent M.2 NVMe SSD 1TB
    Areca 1223-8I mit Raid 1 4TB

    Prodigy Cube - externe Soundkarte
    Magic Keyboard und Magic Mouse


    MacBook Pro 15" late 2013 Retina
    MacBook Pro 15" mid 2015 Retina
    MacBook 6.1


    Lenovo D10 Board mit 2x Xeon X5470, und 32GB DDR2 Ram u. AMD HD 5870 Grafik

  • das wäre mir viel viel zu laut ! *böserfinger*


    meiner ist nicht mal unter last so laut wie deiner im idle

  • Aha, 35bB zu laut? :-)
    :ironie:
    Wenn ich am Schreibtisch sitze und nix höre, dann ist das für mich leise genug!
    35dB liegt irgendwo zwischen der Lautstärke in nem Schlafzimmer bei Nacht und ner ruhigen Bücherei... :P




    Und deine bringt GTX 760 bringt ja auch nur ca. 1/4 der Leistung... :oops: also irgendwo klar, dass ein Traktor mit mächtig Drehmoment auch lauter ist als ein Golf... Oder?


    wolfgang
    Was passiert ist, na Dichtung war defekt und die ganze grüne Soße lief übers Mainboard. Damals knapp 1500,- Euro für den Elektroschrotthändler...

  • Nimm doch gleich mehr GPUs, bringt mehr als soviel Geld für CPUs auzugeben imho.



    Ich hab hier jeweils 6 GPU´s pro Mainboard am laufen, AMD allerdings unter Linux (Läuft auch mit Windows - ich habe aber keine Ahnung wieviele GPUs OSX unterstützt, eigentlich müssten auch 6 oder mehr laufen):




    Ja - ich sollte mal saubermachen aber ist halt Arbeitsbereich ;) Und ja von korrekter Verkabelung und so halte ich auch nicht viel. Und ja rechts daneben ist eine Klimaanlage, 24 GPU´s machen erzeugen viel Abwärme wenn sie alle laufen.

  • Wohl eher ein kleines Mining Setup oder zum Rendern benutzt?
    Wenn ja, in einem Pool?

  • Ja ursprünglich war das zum minen gedacht.


    Ich hab damit später diverse andere GPGPU Sachen getestet, password hashing verteilt auf die 4 rigs als Cluster und auch ein Blender Cycler Cluster - wobei die AMD Catalyst treiber da nicht richtig unterstützt werden, also würde ich zu Nvidia greifen falls ich sowas für´s GPU rendering speziel bauen wollte.

  • Hier beißt sich der Hund in den Schwanz ;)


    OSX hat es nicht so mit MultiGPU Unterstützung sprich man kann zwar mehrere Grafikkarten einbauen aber OSX betrachtet diese eben auch als solche eben jede für sich. Pooling ist rein vom System her nicht vorgesehen. Ob nun also eine Software aus den verbauten GPU´s einen Nutzen ziehen kann liegt hier in der Hand der Software Hersteller und da glaube ich kaum, das sich hier jemand die Mühe macht das vorbei an den Mechanismen die das OS bietet zu realisieren. Selbst der Late2013 MacPro mit seinen 2 GPU´s bricht diese Beschränkung nicht auf und betrachtet beide als komplett von einander unabhängige Karten....

  • Das spielt keine Rolle für GPGPU Anwendungen, ich habe auf meinem Linux system schließlich auch keine Crossfire Brücken installiert, die Karten sind alles einzelne Karten, die Software verteilt die Berechnungen an die Karten einzeln, jede halbwegsgescheite Software kriegt das hin - ist normal Standart bei OpenCL/CUDA.


    Blender z.b. schiebt zu jeder Graffikarte bestimmte Teile zur Berechnung, die werden dann wieder zurück zum CPU geschickt wenn die fertig sind und dieser Verteilt dann neue Daten an die GPUs.


    Adobe Premiere CC unterstützt Multi GPU´s, auch gemischt AMD mit NVIDIA + Intel interner Karte, bei anderer Adobe Software weiss ich es nicht, nie getestet.

  • Zur schwierigen Frage, "was taugen Nvidia Quattro Karten?" habe ich bei Tomshardware einen guten Vergleich gefunden (bitte nach "Rendern, Rechnen, Präsentieren: Nvidia GeForce Titan X vs. Nvidia Quadro M6000" suchen). Dort werden diverse CG-Programme mit beiden Karten verglichen und man sieht deutlich, dass sich Nvidia richtig viel Geld für ein par Treiberoptimierungen für "professionelle" Programme zahlen lässt. Wenn ma weiß, dass seine Anwendung auch gut mit Consumer-Karten läuft, gibt es wenig Gründe, ein kleinesVermögen auszugeben.


    Zum Thema Kühlung: Ich hatte das Glück, vor ein paar Wochen eine GTX 780 mit 6GB mit einem Morpheus-Kühler von Raijintek gebraucht zu bekommen. Dies läuft mit 2 Noiseblocker-Lüftern (konstant über das Motherboard betrieben) auch bei Redner-Dauerlast unhörbar - benötigt allerdings 4-5 Slots.


    Übertakten wurde noch weiter oben erwähnt: Hierzu gibt es die Tools Kepler/Maxwell Tools Tweaker, mit denen (in mühevoller Kleinarbeit ?( ) die unter Windows ermittelten OC-Werte verewigt werden können. Bei meiner GTX 780 mit dem Riesenkühler habe ich noch OC-Potenzial, leider noch nicht das erforderliche Wissen...

    Workstation: Gigabyte GA-Z77X-UD5H - i7-3770K @ 4,4GHz - GTX 760 - 16 GB - Apple BT/Wlan-Karte - Bios 16j - Mojave
    Server: Gigabyte GA-Z68MX-UD2H-B3 - I5-2500K - GTX 780 6GB - 1
    6 GB - Bios U1E - Apple BT/Wlan-Karte - Mojave, OS X Server

    MacBookAir 2012, i7, Mojave

  • Zitat

    ich hab allerdings keines der X99 mit Thunderbold gefunden


    Haben alle Thunderbolt AIC. Add-In Card dazu kostet etwa 50 und funktioniert bestens.

    lG Ernst
    Gehäuse: Nanoxia Deep Silence 5 | Netzteil: Corsair HX750i | Mainboard: Gigabyte GA-X99-UD7 WIFI | CPU: Intel Xeon E5-1650 v3, 6x 3.50GHz | CPU-Kühler: Noctua NH-D14 | RAM: ADATA XPG Z1 32GB | Grafikkarte: Gigabyte GeForce GTX 750 TI, 2GB GDDR5 | 2x Samsung SSD 840 EVO 250GB (OS X/Windows), 1x Samsung SSD 850 PRO 1TB | Pioneer BDR-S09XLT (Blu-ray/DVD-Brenner) | Internes RAID: Areca ARC-1222 plus 6x Western Digital RE4, je 2TB

  • Kannst du das mal näher beschreiben mit den AICs? Was bedeutet funktioniert bestens? Läuft out of the box ohne Probleme, heißt die Karten sind Hotplugfähig und Laufwerke werden erkannt wenn man diese erst im Betrieb einstöpselt? Welche Geschwindigkeiten bieten die Karten? Hast du selbst eine verbaut und im Betrieb?
    Dürfte ja dann bei deinem Board dabei gewesen sein.

  • Würde mich auch interessieren welche Geschwindigkeiten ein Thunderbolt PCI Adapter packt. Ich denke ich probier's auf jeden fall mal mit den zwei Grafikkarten, zumal ich in meinem gemieteten Büro eine Stromflatrate habe und auf den Verbrauch gar nicht achten muss. Nicht der klügste Move des Vermieters aber mir soll's recht sein.

    BOARD: Gigabyte X99 UD5 WIFI | CPU : i7 5820k | RAM: 64GB DDR4 | GPU: Gigabyte GTX 980 Ti G1 6GB | Netzteil: Be Quiet Dark Power Pro 10 750 Watt | 500GB SSD

  • Zitat

    Dies läuft mit 2 Noiseblocker-Lüftern (konstant über das Motherboard betrieben) auch bei Redner-Dauerlast unhörbar - benötigt allerdings 4-5 Slots.



    Du kannst Riser Kabel nutzen um die besser zu platzieren, falls du mehr als eine Karte einbauen willst.


    Sowas:

  • Hi,



    meinst du das die 8 Kerne die 4k Raw files nativ schaffen? Ich hab hier 10+10 Kerne per HT und es geht grade so in Redcine-X. Falls du in Davinci Farbkorrektur machst, bringen dir zusätzliche Grafikkarten etwas. Sonst, wie schon beschrieben, eher nicht. Wenn du deinen Hack fertig hast, gib mal bescheid.


    Falls du noch nicht bestellt hast überlege mal folgendes:
    Mit einem dual Board hast du später noch die Möglichkeit eine zweite CPU einzubauen:


    1. wenn sie billiger wurde, und/oder
    2. wenn du mehr Power brauchst


    Ich baue ein ähnliches Setup inkl Thunderbolt AIC mit einem Supermicro Board, das ist halt leider auch etwas teurer.

    ASUS Prime X299 Deluxe | i7-7820X 8-Core | Vega 64 8GB | 64GB 2400Mhz | 3x1 TB SSD Raid-0 | 10.13.6 (17G8030) | Clover: 5090

  • @drnoodle


    In Adobe Premiere und After Effects bringen dir die zusätzlichen Kerne in der CPU fast nichts, wenn die GPU das Steuer übernimmt!
    Ebenso wird das Hyperthreading massiv überbewertet und bringt kaum mehr Leistung.


    In DaVinci ebenso... Daher ist die Investition in eine weitere Grafikkarte immer besser, als die Investiton in RAM, oder eine CPU mit mehr Cores...
    Deine 10+10 Kerne HT erreichen im Videorendern weniger als 1% der Geschwindigkeit einer Nvidia GTX 780.
    Dort rendern immerhin 2304 CUDA Kerne!


    Du hast doch eine GTX770! Benutzt du die eigentlich überhaupt zum Rendern? Die ist doch schon enorm schnell!


    Als Beispiel:
    Meine 4 Core CPU mit 4,2GHz rechnet am Teddybears After Effects Benchmark knappe 2!!!! Tage.
    Meine alte GTX 285 brauchte mit 240 Cuda Kernen fast 90 Minuten.
    Meine alte GTX 650 Ti mit 768 Cuda Kernen ca. 22 Minuten.
    Mit meiner neuen NVIDIA GTX 780 die ich jetzt seit Gestern im Rechner habe (heute gebencht) benötige ich 3:42min!

    Gruß,
    derpuma

    Einmal editiert, zuletzt von derpuma ()