Kommt überhaupt noch ein nvidia web driver?

  • Irgendwie schade die ganze Situtation.

    Die GT 1030 half size dekodiert unter Windows 10 selbst auf meiner alten Core2Duo Möhre problemlos HEVC DVB-T2. Zudem verbrät sie irre wenig Strom.


    Gibt es ein AMD Modell mit ähnlichen Eigenschaften?

  • Du wolltest etwas mit ähnlichen Eigenschaften Kollege!


    A) Nirgends war die Rede von Preisen.

    B) Hast du hier eine Native Lösung.


    Du solltest dich freuen das man dir versucht zu helfen, anstatt hier pampig zu werden!

    2 Mal editiert, zuletzt von DSM2 ()

  • Sorry, Dein Vorschlag traf halt nur auf OOB und nicht auf die restlichen hier wichtigen Kriterien zu.

    Ähnliche Eigenschaften meint Stromverbrauch, Leistung, Einbaugröße und ja zu guter letzt Preis.
    Ich konkretisiere nochmal, weil ich mir tatsächlich einen brauchbaren Gegenspieler von AMD wünschte, ihn jedoch nirgends finden konnte.

    Die RX 550 scheint ja wohl nicht zu gehen, zumal da der Stromverbrauch ein Hindernis ist.

  • Wem Stromverbrauch wichtig ist der sollte nicht zu AMD greifen. Ich sehe das aber als einen Unsinnssgrund, keine Karte ist Dauerhaft in Volllast, und im IDLE vor allem mit mehreren Monitoren sind die AMD Karten sogar sparsamer.


    Derzeit kann man es im Großen so sagen:

    Wer OS X Mojave mit allen Features nutzen möchte kommt an AMD nicht vorbei!

    Workstation:

    Threadripper 3990x - Gigabyte TRX40 AORUS XTREME - 256GB DDR4 3200 MHz RAM - 2x RTX 3090 FE


    Notebook:

    Acer ConceptD 7 Ezel - I7 10875h - 32GB DDR4 - RTX 2080 S

    Dell XPS 15 - I7 10750h - 64GB DDR4 - GTX 1650ti

    Dell XPS 17 - I9 10885h - 64GB DDR4 - RTX 2060 Max-Q


    Handy:

    iPhone 12 Pro Max

  • Blöde Frage.. Kann man den NVidia und AMD Karten auf einem Mainboard haben und sinnvoll einsetzen?

    Die Forensoftware müßte bei bestimmten Schlüsselwörtern den Rechner formatieren!
    (oder einen Taser in der Tastatur auslösen!!!)

  • Soweit ich weiss, geht das, also jeweils eine AMD- und eine NVIDIA-Karte. Ist halt eine Einstellungssache unter Windows (und ggf. macOS).

    Hardware:

    • Hackintosh: A4-H20 | B760-I Gaming | RADEON 6900 XT | i7 14700k | 32GB DDR5
    • Windows 11: NR200P | B760-I Gaming | MSI 4090 RTX | i9 12900k | 32GB DDR5
    • Monitor: LG C1 48 OLED
  • Nvidia und AMD in einem System das geht, im Windows sehr einfach unter Mojave muss man, dann die Nvidia deaktivieren per SSDT oder Clover, wie das geht, vielleicht wissen es andere.

  • Schon mal vielen Dank für eure Antworten..


    Ich überlege echt zu meiner 1070 noch eine AMD Karte ins Gehäuse zu Ballern um Mojave zu haben.

    Die Forensoftware müßte bei bestimmten Schlüsselwörtern den Rechner formatieren!
    (oder einen Taser in der Tastatur auslösen!!!)

  • Warum dann nicht gleich die 1070 gegen eine Vega 64 tauschen? Mit Verkauf der 1070 dürfte das kaum einen Preisunterschied zu einer zusätzlichen RX machen.

    iHack: Ryzen 5 1600, GA-AB350M-D3H, Sapphire RX570 4GB, 32GB DDR4-3200, 250GB NVMe SSD + 512GB SSD + 1TB HDD, OC, macOS 12.0.1, Manjaro Linux


    alter iHack: i3-4330, GA-H81M-HD3, Sapphire RX460 4GB -> RX560 BIOS, 8GB DDR3-1600, 128GB SSD, 250GB HDD, OC, macOS 12.0.1, Manjaro Linux


    ThinkPad T410: i5-520M, Nvidia NVS3100M, 4GB DDR3-1066, 120GB SSD, 250GB HDD, Clover, macOS 10.14.6


    Bastlerware: Acer Aspire 7741G: i5-430M, ATI HD 5650 1GB; 4GB DDR3-1066; 250GB HDD, Clover, macOS 10.13.6, 1.5 von 2 SATA-Ports defekt...


    Originals: MacBook Pro 15 Late 2013 (macOS 12.0.1), iPhone X 64GB (iOS 15.1)

  • Ich habe es getestet zu meiner RTX 2080Ti noch eine RX580 einzubauen. Es funktioniert.

    In macOS wird die RTX einfach nicht erkannt und unter Windows kann man beide Karten nutze.


    Über Stromverbrauch und so habe ich nicht nachgedacht. Wollte es auch mit der Vega 64 testen, allerdings scheiterte das an zu wenig Platz, da die Kühler beider Karten, einfach zu groß waren.

    Das ist auch das Haupt Problem was ich mit dem Setup habe, die Karten sind so eng zusammen, dass die obere Karte kaum noch Luft bekommt und nicht richtig kühlen kann. Man könnte eine Custom Wasserkühlung verbauen, oder per Riser Kabel eine Karte anders einbauen, da überlege ich noch rum.....


    Nachteil: die Karten laufen bei meiner Plattform nur noch mit 8x PciE Lanes. In wie weit das die Performance beeinflusst habe ich nicht gemessen. Vom Gefühl her leidet Geschwindigkeit der RTX ein wenig in Spielen unter Windows, ist aber in 4k immer noch schneller als eine Vega64.


    Bei einer 1070 würde ich aber einfach zu einer Vega64 wechseln. damit hast du unter Windows so ziemlich die gleiche Leistung in Spielen (oder auch mehr, je nach Spiel) und sie läuft in macOS.


    Hatte auch überlegt 2 Vegas zu verbauen, allerdings sind die meisten Spiele einfach nicht auf 2 Karten optimiert und deswegen ist es dann die RTX geworden für 4k Gaming. Crossfire und SLI sind leider tot, meinen Recherchen nach.


    Hatte dazu auch einen Thread hier, allerdings auch nicht mehr weiter geschrieben in letzter Zeit, wegen Umzug und so: 2 Grafikkarten im Hack. EIne NVIDIA und eine AMD VEGA? kann das funktionieren?


    Nutze das Setup im Moment auch nicht wegen der Kühlprobleme

  • Community Bot

    Hat das Label Erledigt hinzugefügt
  • Nun darf man sich wohl endgültig von Nvidia auf macOS verabschieden. Es wurde nun bekannt gegeben, dass macOS künftig vom Cuda Treiber nicht mehr unterstützt wird:

    Zitat

    CUDA 10.2 (Toolkit and NVIDIA driver) is the last release to support macOS for developing and running CUDA applications. Support for macOS will not be available starting with the next release of CUDA.

    https://docs.nvidia.com/cuda/c…-release-notes/index.html


    Ein Grafiktreiber wird unter diesen Umständen sicherlich auch nicht mehr kommen. Seitens Nvidia eine riesige Unverschämtheit wie ich finde. Immerhin hätte man da schon vor einem Jahr klipp und klar sagen können was Sache ist statt den Kunden noch mit Sätzen wie "wir arbeiten an einem Treiber für macOS" noch Hoffnungen zu machen.


    Der Treiber Support für High-Sierra wird dann wohl auch demnächst eingestellt werden. Schade eigentlich.

  • Auch wenn ich es mit Nvidia ähnlich sehe, sind es doch paar unterschiedliche Schuhe – CUDA und Treiber. CUDA ist quasi tot, da hilft auch kein neues CUDA. Die Faxen machen die Softwarehersteller nicht mehr mit (wieder CUDA integrieren). Unter macOS ist Metal angesagt. Sehr richtig also, CUDA zu beerdigen. Alte Installationen laufen, neue ergeben auf neuen Plattformen mit neuer Software keinen Sinn.

    Treiber für Nvidia-Karten müssten sich also unter Metal mit AMD vergleichen. Sehr fair, aber kann da nun Nvidia wirklich etwas reißen? Ich denke eher, bevor es peinlich wird, packen die da gar nix mehr aus.

    ASUS WS X299 SAGE/10G i9-10980XE • DDR4 64GB • SSD 970 PRO 1TB • Thunderbolt3 Titan Ridge • 2x AMD Radeon VII • BMD DeckLink 4K Extreme 12G

    ASUS PRIME X299-DELUXE i9-9940X • DDR4 64GB • SSD 960 PRO 1TB • Thunderbolt3 Titan Ridge • 2x AMD Radeon RX Vega 64 • BMD Intensity Pro 4K


    Ordnung ist die primitivste Form von Chaos. (Hans-Jürgen Quadbeck-Seeger)

  • rubenszy Bitte erkläre, was der Sinn von CUDA ist.

    Hacken ⛏️⛏️
    Haken ✔️

    .

    anscheinend: es sieht so aus als ob, und wird wohl stimmen

    scheinbar: es sieht so aus als ob, stimmt aber nicht

  • CUDA ist keine Ersatzschnittstelle, weder ersetzt es Metal noch OpenCL, es ist eine Erweiterung um Last von der CPU auf die GPU zu verteilen.

    Bei Bild und Video Bearbeitung hat CUDA noch nie was gebracht und macht auch keinen Sinn es da einzusetzen.

    CUDA unterstütze nur Blur bei Photoshop bis 2017 nichts anderes.

    CUDA braucht man eher für Wissenschaftliche und mathematische Berechnung z.B. Strömungsanalysen, Schwerkraft- und Windberechnungen aller CFD.

    CUDA wurde für macOS eingestellt, weil es keine Software mehr gibt unter macOS die noch CUDA benutzt, die letzte Software war Siemens NX PLM.

    Nvidia sollte mal seine Seite aktualisieren welche Hersteller noch CUDA benutzen aber da wird die Liste richtig klein und übersichtlich.


    So mal ein kleines Beispiel, Test Verschleiß Analyse in Zeit gemessen,

    CPU 3900X: 12Std

    Vega 64: 3.20 Std

    Vega 64 + CPU 2.15 Std

    1 x GTX 1070 ti 1.50 Std mit CUDA

    CPU + 2x1070Ti 48 Min mit CUDA

    Einmal editiert, zuletzt von rubenszy ()