Kommt überhaupt noch ein nvidia web driver?

  • Naja er will ja schon spielen, darum geht es ihm ja gerade. Ist eine Frage der Prioritäten, ich wäre bereit wenn die Alternative kein / altes macOS ist die Regler ein paar Pixel vom rechten Anschlag weg zu schieben, aber ich bin auch zu 95% in macOS unterwegs und zocke kaum, und wenn dann reicht dafür auch ne RX560.

    Wobei sich der Post schon so liest als ob man mit AMD nicht zocken könnte, was ja nunmal definitiv nicht stimmt. Und nicht nutzbar ist macOS ja auch nicht, nur halt kein Mojave.

    iHack: Ryzen 5 1600, GA-AB350M-D3H, Sapphire RX570 4GB, 32GB DDR4-3200, 250GB NVMe SSD + 512GB SSD + 1TB HDD, OC, macOS 12.0.1, Manjaro Linux


    alter iHack: i3-4330, GA-H81M-HD3, Sapphire RX460 4GB -> RX560 BIOS, 8GB DDR3-1600, 128GB SSD, 250GB HDD, OC, macOS 12.0.1, Manjaro Linux


    ThinkPad T410: i5-520M, Nvidia NVS3100M, 4GB DDR3-1066, 120GB SSD, 250GB HDD, Clover, macOS 10.14.6


    Bastlerware: Acer Aspire 7741G: i5-430M, ATI HD 5650 1GB; 4GB DDR3-1066; 250GB HDD, Clover, macOS 10.13.6, 1.5 von 2 SATA-Ports defekt...


    Originals: MacBook Pro 15 Late 2013 (macOS 12.0.1), iPhone X 64GB (iOS 15.1)

  • razor will aber noch vernünftig Spielen UHD Gaming mit einer Vega, AC Origins ist das beste Beispiel, Vega 64 30-40 FPS und 1080TI 55-65 FPS bei UHD.

    Was ich immer lustig finde ist, seit dem Mojave raus ist wird HS hingestellt wie die böse verbugte Stiefschwester und nur Mojave ist gut der Rest ist es nicht.

    Obwohl es für den Rest die passenden Treiber gibt und bei Mojave lediglich der Dark Mode für manche interessant ist.

    Einmal editiert, zuletzt von rubenszy ()

  • Kommt ganz drauf an was du machst, wenn man für die Systeme entwickelt sollte man immer auf der aktuellsten Version sein.

    In wenigen Wochen kommt 10.14.4 raus, wenn Apple seiner Linie treu bleibt wird Mojave dann Voraussetzung für Xcode, kurz darauf wahrscheinlich auch für FCP.

    UHD ist natürlich ein Argument, und wenn macOS eh nur z.B. 20% der Nutzungszeit ausmacht würde ich es mir auch zweimal überlegen. Wie gesagt, Prioritäten...

    iHack: Ryzen 5 1600, GA-AB350M-D3H, Sapphire RX570 4GB, 32GB DDR4-3200, 250GB NVMe SSD + 512GB SSD + 1TB HDD, OC, macOS 12.0.1, Manjaro Linux


    alter iHack: i3-4330, GA-H81M-HD3, Sapphire RX460 4GB -> RX560 BIOS, 8GB DDR3-1600, 128GB SSD, 250GB HDD, OC, macOS 12.0.1, Manjaro Linux


    ThinkPad T410: i5-520M, Nvidia NVS3100M, 4GB DDR3-1066, 120GB SSD, 250GB HDD, Clover, macOS 10.14.6


    Bastlerware: Acer Aspire 7741G: i5-430M, ATI HD 5650 1GB; 4GB DDR3-1066; 250GB HDD, Clover, macOS 10.13.6, 1.5 von 2 SATA-Ports defekt...


    Originals: MacBook Pro 15 Late 2013 (macOS 12.0.1), iPhone X 64GB (iOS 15.1)

  • Ich verstehe ehrlich gesagt auch nicht, warum man ständig die Vega mit der 1080TI vergleichen will.

    Wenn man es ganz genau nimmt, dann wurde die Vega 64 als Konkurrenz zur 1080 gebaut, in Sachen Performance kommt das auch hin.


    Davon abgesehen liegen die Stärken der Vega Karten ganz klar im Compute Bereich und nicht im Gaming,

    sobald es um OpenCL geht, kann ihr eine Titan XP nicht das Wasser reichen!


    Beispiel: 2x Vega VS. 2x Titan XP





    Wenn man den Vergleich mit der VII macht, dann übertrifft nur die Nvidia Tesla P100 die Performance in OpenCL und wir reden hier wohlgemerkt von einer 6500€ Karte!


    Einmal editiert, zuletzt von DSM2 ()

  • Weil dieser User eine 1080 Ti benutzt, alle weiten Post gar keinen Sinn ergeben, wenn man noch eine Vega 64 mit einer 1080 Ti Karte vergleichen will in Bezug auf Gaming.

  • Meine Aussage bezog sich im Allgemeinen darauf, da hier ständig irgendwelche vergleiche zwischen Vega64 vs. 1080 TI gemacht werden.

  • Ich verstehe die Problematik auch nicht, wie DSM2 schon richtig erwähnt hat ist die Vega 64 eine Konkurrenzkarte der 1080er...


    Zu dem 2x Vega 64 wohl wenn das Spiel Multi GPU unterstützt, wie z.B. die Far Cry Serie ab 5 aufwärts enorm dadurch profitieren wenn 2 Karten verbaut sind.


    Dann komme ich z.B. in 4K UHD mit allem auf Maximum in den Bereich der 80-90 FPS bei New Dawn, was sehr gut ist.


    Ich kann mich nicht beschweren und daher: Volle OS X Unterstützung, heftige Leistung und auch wenn von Crossfire oder Multi GPU Support abhängig: enorme Leistung bei 2 Karten dieser Art.

    Stromverbrauch hin oder her, aber die ganzen Nvidia Karten user, die auf SLI setzen leiden den selben Schmerz, wenn es um Spiele ohne Multi GPU Support geht.


    Ob man sich dann nun die RTX Technologie geben will oder nicht, ist jedem selber überlassen. Jedenfalls bei den momentanen Preisen der Vega Karten kann man 2 Karten für den Preis einer 1080Ti oder 2080 kaufen und hat im besten Fall mehr Spieleleistung.

    Computing sogar enorm viel mehr.


    razor

  • Far Cry Serie ist kein Maßstab für GPU Performance, bloß weil die Landschaft hübsch aussieht, das ist noch das billigste was die GPU redern muss.

    Anspruchsvoller ist da mal



    Mit zwei Veag 64 erreicht man nicht die Doppelte Performance aller 72 FPS sonder nicht mehr als 45 - 50 FPS.

    Man hat aber weit aus mehr ausgegeben


    AMD


    2xVega 64 = ca. 800 €

    1xNetzteil 1000W = ca. 150 €

    2xTDP 300W x 6 STD Spielzeit pro Tag x Strompreis 0,25 x 365 Tage = ca. 330 €


    1280 €


    Nvidia


    1xRTX 2080 = ca. 600 €

    1xNetzteil 600W = 70 - 80 €

    1xTDP 220W x 6 STD Spielzeit pro Tag x Strompreis 0,25 x 365 Tage = ca. 120 €


    800


    Ersparnis 480 €, dafür kann man sich einen anständigen CPU kaufen.


    Eine Gebrauchte 4 Monate alte 1080Ti mit Gewehrleitung und Abtrittserklärung, kostet bei Kleinanzeigen 500 - 600 €


    Läuft sogar sehr gut unter High Sierra.

  • Ich habe 4K Gaming mit zwei Karten ausgiebig getestet, rein aus Interesse und ich kam nie unter 60 FPS, mit meinen Wassergekühlten Vega 64,

    ganz egal was ich gezockt habe und das ganze auch ohne die Karten zu Übertakten, alle GPU Settings dabei auf Max.


    Desweiteren wollen wir mal bei Fakten bleiben... 3D Mark sagt dir sicherlich was... Ist zu dem die Einheitlichste Testumgebung bei Spiel Benchmarks, da eben nicht auf bestimmte Karten optimiert.


    Eine 1080 TI macht ohne Overclocking um die 11.xxx Punkte in TimeSpy, das habe ich selbst getestet und ziehe mir die Werte nicht an den Haaren herbei.

    2x Vega 64 machen ohne Overclocking um die 13.xxx Punkte in TimeSpy, Wassergekühlt und gut übertaktet geht da noch deutlich mehr!





    Für den Preis von 550-600 € kriege ich gebraucht 2x Vega 64 Luftgekühlt.

    Klar, der Stromverbrauch ist und bleibt höher, wollte aber auch niemand bestreiten.


    EDIT: Beinahe das wichtigste vergessen : Nvidia 2080 - schau mal unten Kollege.


  • Glaube ich eher weniger das du 60 FPS bei Max Einstellung und UHD in Assassin's Creed Origin oder Assassins Creed Odyssey mit einem Crossfire Verbund erreicht hast, da diese Spiele nicht für Multi GPU gemacht worden sind.

    Vielleicht in der Wüste oder auf hoher See, wenn die Karte nicht viel zu tun hatte.

    Wen interessiert schon TimeSpy physikalische Benchmarks, was bringt dir einen hohen Score aber in spielen kackt die Karte aber mal richtig ab.

  • Assassin's Creed habe ich nicht getestet aber dafür 10 Titel insgesamt alle auf max und in keinem FPS unter 60 bei 4K.


    Hast du nicht eben noch kaneske erzählt er soll das ganze nicht auf ein Game ausmachen ?

    Warum tust du es dann jetzt plötzlich selbst ?

    Hast du zwei Vega 64 getestet das du hier behauptungen aufstellst, die weder Hand noch Fuß haben ?


    Zum Thema Benchmarks, besonders bezogen auf 3D Mark, da wir ja von Gaming Performance sprechen.

    Das ist der beste Performance Vergleich der übrigens in der Scene gilt!

    Welcher wohlgemerkt auch Weltrecorde beeinhaltet... Aber ja wenn interessieren schon neutrale Benchmarks, die Performance wiederspiegeln, ohne uneinvorgenommen zu sein. Hast Recht...


    Nun sollte aber auch gut sein mit offtopic!

    Der Thread heißt nicht welche ist die bessere Karte für MacOS sondern Kommt überhaupt noch ein nvidia web driver.

  • Assassins Creed Origins kann doch nichtmal Multi GPU?! Meine zweite Vega bleibt in dem Game auf Standby, egal mit welchem Profil. Warum wird das hier also ständig angeführt?


    Hier läuft Origins jedenfalls ohne Limits auf 1440p mit mindestens(!) 80fps mit voll aufgedrehten Einstellungen. Man muss halt die Karte ordentlich konfigurieren, bei mir aktuell leichtes Overclocking (1672MHz) mit ausgereiztem Undervolting (1018mV) und HBM Takt auf 1050MHz. Im täglichen Einsatz locke ich auf 60fps damit ich Ruhe habe (meine Vegas sind Luftgekühlt). Der Stromverbrauch liegt dann so bei 180 - 210 Watt.


    Also ich für meinen Teil bin mit der Vega 64 beim Gaming super zufrieden. :)

  • Es geht nicht um ein Spiel, es sind einige gerade wenn es um Polygonzahl geht in Spiele da kannst die AMD Karten vergessen.

    Für Mathematische Berechnungen, dafür kann man die AMD Karten nehmen, nicht umsonst wurden sie durch Mining so beliebt.

    Ja hatte schon eine Vega 64 und für meine Zwecke sind die Unbrauchbar, gerade wenn es um Rendern geht.


    @CMMChris hast du dir die Texte vor deinem überhaupt mal richtig durchgelesen, keinen interessiert 1440p es geht um UHD.

  • Genau so sieht es aus. Die Vega Karten sind echt tolle Karten gerade für produktives Arbeiten. Dieses ewige vergleichen mit Karten welche nur in Spielen beste Werte abliefern ist nur bedingt sinnvoll. Auch muss man betonen, dass NVIDIA seinen Vorsprung in manchen Anwendung nur darum hat weil diese seit Jahren mit den Entwicklern zusammen arbeiten und dementsprechend Software auf NVIDIA Hardware optimiert ist. Ich war mit meinen Vegas zufrieden und bin es auch mit meiner Vega VII. (Nur OS X muss noch damit laufen)


    Unterm Strich ist das Gesamtpaket und auch die Hardware sehr gut. Wer weiß ob Vega noch Leistungspotential hat welches derzeit noch brach liegt.

    Workstation:

    Threadripper 3990x - Gigabyte TRX40 AORUS XTREME - 256GB DDR4 3200 MHz RAM - 2x RTX 3090 FE


    Notebook:

    Acer ConceptD 7 Ezel - I7 10875h - 32GB DDR4 - RTX 2080 S

    Dell XPS 15 - I7 10750h - 64GB DDR4 - GTX 1650ti

    Dell XPS 17 - I9 10885h - 64GB DDR4 - RTX 2060 Max-Q


    Handy:

    iPhone 12 Pro Max

  • Davon abgesehen liegen ihre stärken ganz klar im Compute Bereich und nicht im Gaming, sobald es um OpenCL geht, können ihr sogar zwei Titan XP nicht das Wasser reichen!

    Hier hast du dich aber vergaloppiert. Laut deinen Screenshots erreichen zwei TitanXp knapp 56.000 – und ebenfalls ZWEI Vega64 erreichen zusammen etwas über 66.000, was ich auch mit meiner Mühle bestätigen kann. Somit können zwei TitanXp locker einer Vega64 das Wasser reichen. Darüber hinaus ist aber eine Vega64 zumindest in dieser Disziplin einer TitanXp überlegen, die neue Radeon7 geht hier noch mal deutlich ab. Inwiefern dass für das mittlerweile mehr gewichtige Metal unter realen Bedingungen zugute kommt, bin ich sehr gespannt.

    ASUS WS X299 SAGE/10G i9-10980XE • DDR4 64GB • SSD 970 PRO 1TB • Thunderbolt3 Titan Ridge • 2x AMD Radeon VII • BMD DeckLink 4K Extreme 12G

    ASUS PRIME X299-DELUXE i9-9940X • DDR4 64GB • SSD 960 PRO 1TB • Thunderbolt3 Titan Ridge • 2x AMD Radeon RX Vega 64 • BMD Intensity Pro 4K


    Ordnung ist die primitivste Form von Chaos. (Hans-Jürgen Quadbeck-Seeger)

  • Das ist dann eine Treiberfrage. Aber Metal ist wie OpenCL nur eine Api. Da die Vegas in den macs zum Einsatz kommen kannst du sicher sein das die Vegas, inkl Vega VII da sehr gut performen wird.

    Workstation:

    Threadripper 3990x - Gigabyte TRX40 AORUS XTREME - 256GB DDR4 3200 MHz RAM - 2x RTX 3090 FE


    Notebook:

    Acer ConceptD 7 Ezel - I7 10875h - 32GB DDR4 - RTX 2080 S

    Dell XPS 15 - I7 10750h - 64GB DDR4 - GTX 1650ti

    Dell XPS 17 - I9 10885h - 64GB DDR4 - RTX 2060 Max-Q


    Handy:

    iPhone 12 Pro Max

    Einmal editiert, zuletzt von Romsky ()

  • Ich verstehe Grad nicht ganz was du meinst apfelnico


    Was ich mit meiner Aussage meinte ist, dass 2 Vega 64 deutlich stärker sind als zwei Titan Xp in Bezug auf OpenCL, was man ja auch auf den Screenshots sieht.

    Das ganze sieht auch in den anderen OpenCL Tests nicht besser für die Titan Xp aus.

    Einmal editiert, zuletzt von DSM2 ()

  • Habe ich auch nicht in Abrede gestellt, dass zwei Vega64 stärker sind, als zwei TitanXp. So wie eben auch eine Vega64 stärker ist als eine TitanXp.


    Du schriebst aber, dass zwei TitanXp einer Vega64 nicht das Wasser reichen könne. Und das ist nun (leider) falsch. Sicher hast du das anders gemeint, die Screenshots beweisen es ja auch, aber es steht eben anders da.

    ASUS WS X299 SAGE/10G i9-10980XE • DDR4 64GB • SSD 970 PRO 1TB • Thunderbolt3 Titan Ridge • 2x AMD Radeon VII • BMD DeckLink 4K Extreme 12G

    ASUS PRIME X299-DELUXE i9-9940X • DDR4 64GB • SSD 960 PRO 1TB • Thunderbolt3 Titan Ridge • 2x AMD Radeon RX Vega 64 • BMD Intensity Pro 4K


    Ordnung ist die primitivste Form von Chaos. (Hans-Jürgen Quadbeck-Seeger)