Wenn Secure Boot an sein sollte, dürfte er eigentlich Clover gar nicht booten, soweit ich weiß, ist Clover nämlich nicht für Secure Boot signiert.
Boote den installer mal im Verbose mode (-v), da erkennt man dann schon mehr, woran es hängen könnte.
Um schreiben oder kommentieren zu können, benötigst du ein Benutzerkonto.
Du hast schon ein Benutzerkonto? Melde dich hier hier an.
Jetzt anmeldenHier kannst du ein neues Benutzerkonto erstellen.
Neues Benutzerkonto erstellenWenn Secure Boot an sein sollte, dürfte er eigentlich Clover gar nicht booten, soweit ich weiß, ist Clover nämlich nicht für Secure Boot signiert.
Boote den installer mal im Verbose mode (-v), da erkennt man dann schon mehr, woran es hängen könnte.
Da müsstest du den -uia_exclude_hs Eintrag bei den Bootargumenten rausnehmen.
Ich denke aber, es ist zielführender, wenn du mal verschiedene OSXAptioFix ausprobierst.
Da hängt es eher in dieser Bootphase.
Wenn du das wie beim letztem mal gemacht hast, hast du eventuell den Windows Bootloader gelöscht, da der genau in dem EFI/Microsoft Ordner drin ist.
Bei jeglichen Dualboot Systemen empfiehlt es sich, das Windows nur dann zu installieren, wenn man alle anderen Speichermedien (bis auf das Installationsmedium) getrennt hat. Das Windows nistet sich gerne mal in vorhandene EFI Partitionen and und zerschießt dann die Bootloader.
Probier erst noch mal einen anderen USB-Anschluss aus, am besten den direkt neben dem jetzigen. In der config ist die Hälfte der USB2 Anschlüsse deaktiviert.
Wenn es danach immer noch nicht klappt, musst du verschieden AptioFixes ausprobieren.
Coretemp und HWMonitor lesen beide den Verbrauch der CPU aus. Sowohl gesamt als auch bestimmten Funktionsteilen zugeordnet. Wollte dir nur zeigen, man kann durchaus einen Verbrauch höher TDP erzeugen, wenn man es denn will.
Da die TDP sich auf den Gesamtverbrauch der CPU bezieht, überschreite ich die da mal so um fast 50%.Und es spielt auch keine Rolle was für ein Kühler da verbaut ist, der Verbrauch wird durch die CPU erzeugt und die Kühlung kümmert sich nur um das Temperatur einhalten. Die CPU weiß ja nicht was für Kühlung draufsitzt.
Ich wäre da an deiner Stelle vorsichtig, anderen Leuten Halbwissen vorzuwerfen
Direkter Download ohne AppStore ist jetzt auch möglich https://www.maxon.net/de/support/downloads
Und hier die Scores vom i5 8500:
Multi-Core 2080
Single-Core 407
Sah für mich erst bisschen niedrig aus, aber mit dem i7 8700K nachgetestet mit 6 Threads und höherem Takt und der Score passt.
Nimm doch erstmal den passenden Clover Ordner von hier: Install-Stick für diverse System-Varianten (High Sierra 10.13.6 und Mojave 10.14)
Beim jetzigen muss das was mit AptioFix sein, wenn der an der Stelle hängenbleibt.
Im Geekbench werden nur Modelle ohne F angezeigt, entweder hat Geekbench die Erkennung nicht richtig implementiert oder es sind wirklich CPUs mit IGPU verbaut.
Na dann erklär mir mal die annähernd 100W Verbrauch unter Volllast bei 65W TDP in dem Screenshot.
Die TDP gibt nur den von Intel spezifizierten und empfohlenen maximalen Durchschnittsverbrauch bei Basistakt. Sprich wenn man den Turbo abstellst, sollte die CPU im Schnitt so viel wie die TDP verbrauchen und der Kühler muss dementsprechend eine Kühlkapazität in Höhe der TDP "wegtragen" können.
Ist der Turbo an, darf die CPU laut Intel-Spezifikation für X Sekunden die TDP überschreiten und muss dann auf die TDP zurückfallen. Das kann je nach Lasttyp auf der CPU dazu führen, dass der Turbotakt nicht mehr gehalten wird.
Bei Selbstbau-PCs wird diese Spezifikation entsprechend von den Boardherstellern gerne mal ausgehebelt und der Turbotakt wird dauerhaft gehalten, was mit Verbrauch über TDP einhergehen kann. Nicht umsonst gab es beim 8700K und 9900K Diskussionen zur Testsystematik bezüglich TDP und MCE und Verbrauch>TDP.
Also nein, eine bessere Kühlung verbessert nicht die TDP, da diese einen Verbrauch angibt und eine Kühlung den auch nicht anpassen kann. Sie kann aber helfen, dass die CPU länger den Turbotakt halten kann, wenn das Mainboard entsprechende Reserven freigibt, da die CPU nicht überhitzt und entsprechend gedrosselt wird.
Hier noch zwei Artikel für dich zum Lesen:
CPU-Leistungsaufnahme: Was „TDP“ bei AMD und Intel aktuell bedeutet
Why Intel Processors Draw More Power Than Expected: TDP and Turbo Explained
Das Script sollte dir 3 Versionen anbieten. Da dann 18E2034 wählen und den Container mit dem Installer mounten.
Wenn du das SMBIOS wechseln willst, erstmal von allen Apple Diensten abmelden auf dem Rechner.
Dann das neue SMBIOS mit einem Stick oder zweiter config.plist testen.
Booten tut das Gerät auch mit dem "normalen" 10.14.4 Build. Habe ich beim umstellen getestet.
Danach mit https://github.com/munki/macad…er/installinstallmacos.py den passenden neuen Build laden und dann einfach die Version installieren.
Sorry aber das ist Quark dass eine gute Kühlung die Wärmeabgabe der CPU signifikant verringert.
Zuerst einmal hängt die Leistungsaufnahme von mehreren Faktoren ab. Mit die Wichtigstens sind anliegende Spannung und die laufende Last.
Gerade über den Punkt Last kann man den Verbrauch einer CPU sehr gut in die Höhe treiben.
Nehmen wir mal als Beispiel Prime95. Konkret hab ich jetzt auf die schnelle nur die Werte vom 8700K, aber auf dem 8500 zeigt sich ein ähnliches Verhalten was den Lasttyp angeht. Bei beiden CPUs ist auf dem Board die Leistungsaufnahme uneingeschränkt (>4000W), d.h. der Turbo-Takt kann unbegrenzte Zeit lang anliegen.
Auf einer alten Prime95 Version ohne AVX krieg ich bei FFT 8k inplace eine Leistungsaufnahme von 140W hin. Nehm ich jedoch FFT 4096K inplace, hab ich nur noch 130W Leistungsaufnahme auf dem Package.
Benutze ich eine neuere Prime95 Version mit AVX Instruktionen, so komme ich bei FFT 8K inplace auf 180W. Bei FFT 4096K inplace sind es jedoch nur noch 150W.
Man siehe, es kommt auf die angelegte Rechenlast an, was die Leistungsaufnahme angeht.
Ähnlich beim i5 8500. Den kann ich beim alten Prime unter den 65W TDP betreiben. Lege ich jedoch eine entsprechende AVX Last über Prime an, so kann ich die CPU gen 100W treiben, und das bei deutlichen Undervolting. Dabei spielt es keine Rolle, ob da der Intel boxed Lüfter drauf ist oder einer von Noctua, der Verbrauch ist sehr ähnlich, gerade wenn man CPU unter Stock Settings betreibt.
Ich hab mich da an der Signatur orientiert. Wenn die RX560 die GT1030 ersetzen soll, dann müsste es sich um das GA-Z68AP-D3 handeln.
Aber ja etwas verwirrend wenn da 5 Systeme in der Sig stehen und dann nirgends erwähnt wird, um welches es genau geht.
P.S. Das GA-H61M-D2-B3 hat übrigens kein richtiges UEFI. Das ist irgendein Gigabyte Quark und eigentlich ein BIOS. Hab das Board zu Hause.
Welche Mainboard Revision ist es denn? Für 2.0 gibt es ein UEFI BIOS, mit welcher man dann eine RX funktionieren sollte.
Hab mir mal den 18E2034 Build der 10.14.4 geladen und mit dem iMac19,1 SMBIOS ausprobiert.
Läuft hier bestens und positiver Nebeneffekt den ich bermekt habe, die connectorless UHD630 wird auch nicht mehr im Systembericht angezeigt, wie in der 10.14.5 Beta auch.
Kurz Glaubensfrage:
FakeSMC oder VirtualSMCSMBios ein 14,2 ?
Ich hatte das Board mal am laufen, bis es sich zerlegt hat.
SMBIOS hatte ich mit AMD 15,1 drin. DSDT kann man sich auch gut zurecht patchen, es gibt/gab eine entsprechende Patchliste für das Board, wenn ich mich recht erinnere.
https://github.com/AMD-OSX/AMD…115f2f9e7ff36fb32854e6dd8
In der Ansicht sieht man, welche Patches dazugekommen sind, falls jemand nur seine config anpassen will.
Du musst noch eine CPU für das X79 Board holen?
Falls ja, würde ich eher auf den i5 mit dem setzen.
In dem solltest du das ganze mit der GTX760 betreiben, die Kepler Karten waren in den Ivy Bridge iMacs verbaut.
Optimus funktioniert leider so nicht auf einem Hackintosh wie unter Windows. Es läuft nur die integrierte Intel GPU.
Die Geräte wurden wohl schon ausgeliefert, es gibt schon erste Hand-Ons und Unpacking Videos. Der Build für die neuen iMacs ist auch schon raus und sogar von den Apple Servern ladbar. Build ist macOS 10.14.4 (Build 18E2034).
Oder man geht auf die 10.14.5 Beta, wo die Unterstützung garantiert drin ist.
Wobei bei dem 8-Kern Modell wohl der 9900K verbaut wurde, es sei denn, die Erkennung bei Geekbench ist falsch.