Beiträge von Smallersen

    Meine Asus Dual RX 580 hat im normalen Betrieb eine Temperatur von 50 - 53 Grad. Leider ist es so, dass die Lüfter bei 50 Grad noch nicht laufen aber bei 53 Grad schon. Gehen also ständig an und aus.
    Lieber wäre mir, wenn die Lüfter ständig laufen würden, d.h. die Grenztemperatur deutlich tiefer wäre.


    Ich habe schon viel recherchiert aber noch keine für mich praktikable Lösung gefunden. DSDT kriege ich nicht hin als Lösung. Eine andere Idee jemand?


    Außerdem: Man kann ja in Windows das Lüfterverhalten von Grafikkarten ändern mit verschiedenen Tools.
    Ich habe momentan kein Windows zum probieren installiert, deshalb die Frage: bleiben Einstellungen erhalten, also werden die ins VBios geschrieben oder wirken diese Änderungen nur unter Windows`?

    Hi Mork,
    ich versuche den AMD9xxxControllerPatcher ans Laufen zu bringen - scheint die Performance in meinem System zu verbessern.


    Allerdings läuft After Effects dann nicht mehr, siehe Fehlermeldung.

    Irgendeine Ahnung woran das liegen könnte? Ich verwende Deine AMD9xxxControllerPatcher Datei, die scheint für Rx 580 ausgelegt zu sein. Ich habe mit Whatevergreen und Radeondeinit experimentiert, im Prinzip überall das selbe.

    Es gibt aber auch diese Meldung:

    Zitat

    Die RX-400-Grafikkarten krankten an einer verhältnismäßig hohen Leistungsaufnahme im Leerlauf, wenn mehrere Monitore angeschlossen und/oder Videoinhalte wiedergegeben wurden. ....Ein Update zur Verbesserung der Leistungsaufnahme haben die "alten" RX-480/470-Karten nie erhalten, dafür gibt es eine Lösung bei den 500er-Modellen: Im BIOS ist ein dritter Speicher-Power-State hinterlegt, der einen Zwischenschritt zu den zwei bisherigen Taktstufen darstellt und die Leistungsaufnahme laut AMD deutlich verringern kann.


    http://www.pcgameshardware.de/…eview-Benchmarks-1225896/


    Es scheint nur halbherzig umgesetzt zu sein bzw. funktioniert einfach nicht mit der Zwischenstufe.

    Hi griven,


    vielen Dank - das ist tatsächlich die Erklärung, wenn auch keine gute. Meine Monitore haben 2560 und 1920 Pixel.


    Das ist dann wirklich ein Problem der Architektur der Karte, wobei es pervers ist das ein 1920er Monitor einzeln genauso viel verbraucht wie ein 2560er Monitor, in der Kombination dann aber das mehr als 3fache.


    Jedenfalls brauche ich nicht weiter zu suchen - dass Apple dieses Problem treibermäßig löst oder verbessert ist nicht zu erwarten. Da bräuchte es ein vielleicht ein Firmwareupdate der Karte.


    Ich habe andere Testberichte über die RX 580 gefunden, das Problem ist dort nicht behoben. Das ist ein wirklich krasser Designfehler!

    Merkwürdigerweise braucht die Karte mit einem Monitor nur um die 10 Watt - egal ob DVI, DP oder HDMI. Mit zwei Monitoren braucht sie ca 34 Watt, egal in welcher Kombination der Ausgänge, hab alles getestet.


    Dazu kommt, dass sogar "tote" angeschlossene Kabel diesen höheren Stromverbrauch verursachen. Mit nur einem Monitor sowohl in DVI als auch in DP oder HDMI gesteckt geht der Stromverbrauch auch auf 34 Watt - der Monitor kann aber natürlich nur einen Eingang anzeigen. Die Grafikkarte hat also an dem zweiten Kabel nichts zu tun und braucht trotzdem mehr als 3x soviel Strom wie nur mit einem Kabel.


    Mich würde interessieren ob jemand anderes ähnliches bei seiner RX 580 beobachten kann.

    Idle ist im Prinzip sofort, wenn man die Maus nicht bewegt oder gerade nichts gerechnet wird - also ständig.


    Ich habe momentan einen Strommesser am Computer. Bei Inaktivität rauscht der Verbrauch bei mir in ein paar Sekunden auf ca. 112 Watt runter - beim 3D Rendern können das schon mal 350 Watt sein - Speedsteps funktionieren also super. Bei der NVIDIA 1060 ging der Verbrauch da aber auf 88 Watt. Eigentlich soll die RX 580 nur 4 Watt mehr verbrauchen in Idle. Ob Apple so schlecht optimiert?

    Mich stören halt noch die 35 Watt Stromverbrauch der Karte in Idle mit zwei Monitoren. Lt. Spezifikationen sollten das z.B. unter Windows 12 Watt sein. Eine NVIDIA 1060 verbraucht jedenfalls 25 Watt weniger in meinem System. Ansonsten läuft die RX 580 gut.

    AGP enabled steht bei Mac-F60DEB81FF30ACF6 auch sowohl in GFX1 als auch GFX2. Das mit dem Framebuffer hab ich immer noch nicht kapiert, ob der in dem Zusammmenhang nicht eine Rolle spielen kann.


    Ansonsten habe ich gerade gelesen, dass der neue iMac wohl eine 580ger Karte haben soll. Keine Ahnung, ob das die Situation verbessert, ist aber bestimmt nicht ungünstig bei den nächsten System Updates.

    Ich war zu blöd: Bei mir steht auch LCD, taucht ohne AGPM Filter in der IOREG dann auf.


    Es gibt 5 ATY, AMD. Radeon... Einträge in der IOREG. Die ersten beiden sind für DP, dann 2 für HDMI, dann 1x DVI. Merkwürdigerweise taucht der AGPM Eintrag nur beim ersten DP-Eintrag auf, für alle andernen Einträge nicht. Kannst Du Dir das erklären?



    Ich habe mal beide Monitore auf DP gesteckt, so dass einer der LCD auf dem ersten DP-Eintrag auftaucht. Ändert nichts, weiterhin hat nur der erste Port in der IOREG einen AGPM Eintrag, nichts in der Konsole, keine Änderung beim Stromverbrauch.



    Insofern wird man, falls man ein Mac Modell ohne AMD (das sind die die GFX0/1 haben und dann mit AGDCEnabled beginnen.


    Was meinst Du mit "mit AGDCEnabled beginnen"? Kann man das irgendwo einstellen?
    "in der .plist seines Mac Modells" Wo ist das denn zu finden?

    "AppleGraphicsPowerManagement.kext ist aktiv." - zuständig für die iGPU und GFX.
    Yep, aber das bedeutet erstmal gar nix wenn die bei kextstat als geladen und im IOREG bei GFX auftaucht.
    Man kann einen key LogControl einfügen und auf 1 setzen. (Dieser Key kommt bei einigen MacModellen schon vor, aber immer auf 0 gesetzt - sprich aus)


    Hi mitchde,


    wow - das ist interessant. Ich habe bei meiner Hardware Mac-F60DEB81FF30ACF6 die LogControl eingesetzt, auch nichts in der Konsole - wenn ich nichts falsch gemacht habe.


    Im IORGEG sieht AGPM so aus, unter Framebuffer eingerückt:



    Dort steht im Framebuffer-Eintrag: Display:NONE. Kann das Problem irgendwas mit dem Frambuffer zu tun haben, muss das eine andere Definition sein? Ich habe keine Ahnung von der Materie, aber vielleicht fällt ja einem Spezialisten ein wie man das Powermanagement für AMD Karten ans Laufen bringt. Sollte doch möglich sein, oder?

    Hm - AppleGraphicsPowerManagement.kext ist aktiv.


    Ich habe noch etwas weiter geforscht: Wenn man nur einen Monitor im DVI stecken hat, braucht das System ca. 90 Watt, also die RX 580 alleine ca. 10 Watt, super. Mit einer zweiten Karte in einem der Display-Ports geht der Verbrauch auf 114 Watt. Leider hat mein NEC keinen HDMI Anschluss, so dass ich nicht testen kann ob das ein Display-Port Problem ist. Ca. 25 Watt Mehrverbrauch der Karte für einen zweiten Monitor ist jedenfalls viel.


    RadeonDeInit oder Whatevergreen nehmen sich nichts im Verbrauch - habe ich getestet. Ein spezielles SSDT für die 580 als dritte Variante habe ich noch nicht mit zwei Monitoren ans Laufen gebracht.


    Könnte irgendwas eine Anpassung vom Framebuffer irgendwas ändern? Hab ich mich noch nicht mit beschäftigt, soll ja eigentlich automatisch richtig zugeordnet werden mit RadeonDeInit.

    Hallo,


    meine neue Asus Dual RX 580 läuft super nur mit der Einstellung RadeonDeInit "Yes". Das Einzige ist der Stromverbrauch.
    Die RX 580 verbraucht im Idle ca. 30 Watt (!) mehr als eine NVIDIA 1060, die ich testweise eingesetzt hatte. Das sollten maximal 10 Watt mehr sein.


    Kann man den Stromverbrauch optimieren, z.B. durch eine SSDT? Mit Pike R. Alpha's Skript habe ich eine neue SSDT erstellt, das beeinflusst vermutlich nur Prozessor und Speicher.


    Die Karte wird als AMD R9 xxx erkannt, vielleicht liegt es daran.


    Eine funktionierende SSDT für die RX 580 habe ich noch nicht gefunden. Würde das zusammen mit dem RadeonDeInit oder Whatevergreen oder nur mit dem SSDT funktionieren, braucht man dann noch Patches usw.?


    Das ist ja alles sehr frisch und alles in Veränderung momentan, mit OS X 13.2 kann sich alles wieder ändern. Vielleicht hat ja jemand aktuell eine Idee.

    Geht bei mir auch nicht in Firefox. Sogar nicht bei einem neu angelegten User und leerem Profil.
    Das ist die einzige Seite seit Äonen, die mein Firefox nicht anzeigen kann. Irgendwas ist bei euch noch im argen...


    Webseiten sollten m.E. maximal kompatibel sein, vor allem auch wenn es um Leute geht, die mit verschiedenen Systemversionen rummachen, oder?
    Kriegt ihr sicher hin...

    Wenn man einen wirklich schnellen Mac haben will, viele Kerne und auch schnell in Einzelkernanwendungen, kommt man um einen Hackintosh nicht herum. Das wird sich vielleicht mit dem angekündigten neuen Mac Pro ändern, der aber vermutlich ein vielfaches eines gleich schnellen Hackintoshs kosten wird.


    Außerdem will ich alles in einer Kiste haben - ich brauche viele Festplatten, z.B. auch ein DVD Laufwerk - nicht wie ein IMac oder den letzten Mac Pro mit ewig vielen Kisten drumherum.

    Hallo Sunraid,


    klar, Lightroom war noch nie richtig schnell - ich bin ein alter Lighroom-Hase, habe damit bestimmt. 200.000 Bilder entwickelt. Grafikbeschleunigung ist immer an, klar. Lange her, dass ich so viele Beachballs in Lightroom gesehen habe wie mit der 1060ger.


    Das gesamte Zusammenspiel zumindest dieser 1060 EVGA mit Treibern, System und natürlich der Anwendungs-Software bringt einfach die Leistung nicht auf die Straße. Das betriffet ja nicht nur Adobe Software, sondern auch andere Programme. Das liegt m.E. ziemlich sicher nicht an NVIDIA, sondern an Apple und dann auch an Adobe.


    Die Karten, die treiberlos im System laufen, 600 Serie, scheinen jedenfalls ihre Leistung zu 100% zu bringen. 10 Watte weniger Idle-Verbrauch war schön, rechnet sich aber nicht. Deshalb geht die 1060ger zurück. Danke für eure Beiträge.


    Vermutlich müsste es eine 1080 Ti sein um einen Unterschied zu merken, finde ich aber momentan deutlich zu teuer.


    Interessant: Bei Tony (darf man ja aus irgendwelchen Gründen hie nicht verlinken) gibt es unter dem Titel "My experience on AMD vs NVIDIA vs Intel" einen frischen Thread, wo Besitzer von 1070, 1060 und 1050 Ti Ähnliches beklagen und zu AMD wechseln. Deren NVIDIA-Karten laufen auch nicht rund.


    " Little glitches here and there and also Final Cut was a nightmare. Really slow UI, cannot render 3D text, just to name a few problems."


    AMD zu probieren scheint eine Option zu sein...


    Update: Ich habe jetzt eine Asus Dual RX580 8GB.
    Wow, was ein Unterschied. Eine NVIDIA 1060 und wahrscheinlich auch eine 1070 kann man dagegen vergessen.


    Lightroom: Schnell wie nie. Sogar ein HVEC Stream läuft nebenher ruckelfrei auf dem zweiten Monitor.
    PTGUI rendern: Der Hammer, 6 Sekunden gegenüber 11 Sekunden mit der 1060 6GB und meinem Testprojekt
    EyeTV ruckelt zum ersten Mal seit Wechsel zu DVBT2 nicht mehr
    After Effekts verblüffenderweise trotz fehlendem Cuda wird der Preview meines 1080ger Testprojekts ein gutes Stück schneller als mit der 1060ger erstellt, läuft in Echtzeit.
    Keinerlei Ruckeln mehr in Firefox. Auch VR Panoramen lassen sich absolut flüssig drehen. Es ist immer möglich, einen ruckelfreien Stream parallel auf dem zweiten Monitor abzuspielen, wow.
    Alles andere was ich getestet habe schnell und flüssig und problemlos.


    Vor allem dass das Adobe Zeug profitiert hatte ich nicht unbedingt erwartet. Cinebench und Geekbench der RX560 sind auch schneller als bei der 1060ger, das war klar, ist aber für den Alltagseinsatz uninteressant.


    Durch das neue RadeonDeInit = YES ist die Einbindung absolut problemlos, nur dieser Eintrag in Clover ist nötig. Die Apple Treiben sind einfach optimal.

    Vielleicht ist es natürlich einfach Zufall dass Cinebench bei meinem System so ziemlich genau die Verhältnisse zwischen 3 Grafikkarten wiedergibt - immer noch für die von mir aufgeführte Grafikbearbeitung, Video, Finder usw., also alles jenseits von Spielen und Cuda. Das ein Vergleich von System zu System keine Aussagekraft hat ist klar. Geekbench hat bei mir jedenfalls bei Real Life Performance keinerlei Aussagekraft.


    Das speziell die Arbeit mit Lightroom, das explizit auf GPU Unterstützung setzt, so uberhaupt nicht schneller läuft, eher träger - ständig Beachball was bei der 660 Ti die Ausnahme ist - ist schon sehr merkwürdig. Auch PTGUI ist ja kaum schneller.


    Die Pascal Treiber scheinen zumindest für die 1060 sehr schlecht zum System zu passen oder was anderes ist noch falsch.

    Hi Ralf,


    im NVIDiA Driver Manager wird Web Driver als aktiver Treiber angezeigt. Die Karte läuft mit x16.
    Lt. Systembericht/Erweiterungen aktiv GPU betreffend:
    Cuda, GeForceWeb, NVDAGP100HalWeb, NVDAResmanWeb
    Nicht aktiv merkwürdigerweise NVDAStartupWeb
    Ich vermute also schon dass die Web Treiber aktiv sind.


    Hier doch die Benchmarks:
    Benchmarks 660 Ti 3GB
    Geekbench 4.2, OpenCL 50900, Metal 63200, Cuda 70000, Cinebench 133


    Benchmarks 1060 6GB
    Geekbench 4.2, OpenCL 108900, Metal 123800, Cuda 136600, Cinebench 131


    Von den doppelten Geekbench Werten merkt man absolut nichts, nada. Geekbench scheinen nur für Spiele aussagekräftig.


    Der Cinebench gibt am besten das Every-Day Verhalten wieder (im selben System bewertet), die Karten nehmen sich nichts, wie gesagt läuft die 660 Ti insgesamt runder.
    Ich habe übrigens noch eine 1050 Ti, die einen Cinebench von 105 erreicht im selben System. Auch das entspricht in etwa den (teils gefühlten) Performance-Verhältnissen bei Every-Day.


    Gibt es denn eine Möglichkeit mehr aus der 1060 rauszukitzeln? Irgendwelche SSDT-Schrauben?

    Hallo Ralf,


    was die Performance jenseits von Spielen angeht scheint mir kein Benchmark wirklich aussagekräftig. Cuda Cores sind eine Marke, aber es gibt ja nur ein wenige Programme die das unterstützen. Cinebench OpenGL Werte im gleichen System haben vermutlich schon eine gewisse Aussagekraft beim Vergleich.


    Was ich erstaunlich finde, ist dass die 1060 gegen die 5 Jahre ältere 660 TI im Hackintosh eher abschmiert.


    Deshalb die Frage mal so: Gibt es eine Grafikkarte, die in allen Anwendungsbereichen Finder, Video, z.B. auch Photoshop, Lightroom usw. eine Beschleunigung erzeugt oder kaufen alle die teuren Karten nur um zu spielen?


    Außerdem: Kann man die Grafikperformance irgendwie optimieren, SSDT o.ä.?