Waaaaaas al6042 darf 2 Nachrichten nacheinander schreiben? Ich will auch
Cinebench
-
- Erledigt
- user-michi
-
-
War bestimmt ein versehen....
@user-michi Korrekt... werde es auch gleich im obigen Post ändern, damit nicht alle so verwirrt werden, wie ich es gerade bin!
-
Hat funktioniert. Die Werte haben sich etwas verbessert. Leider komme ich nicht an die hier gezeigten ran.
Naja ist dann wohl so... -
-
-
Das kann aber tatsächlich am Xeon liegen.
Die i-Serien CPUs unterstützt die externen Grafikkarten wohl besser als die Server-Prozessoren der Xeon-Serie...
Letztere sind wphl nicht für viele FPS gedacht... -
@derHackfan, stimmt nicht ganz, der E3-1230 v3 hat im Turbo Modus auch bis zu 3,7 GHz!
Könnte es nicht auch am Bootloader liegen? Bis auf @biggasnake, der vergleichbare Werte mit Clover hat, haben alle anderen, wo der Wert deutlich höher ist Ozmosis im Einsatz. Ich meine, das der Bootloader einen erheblichen Einfluß auf die verbaute Hardware (insbesondere der Grafikkarte) hat!
-
Der Bootloader hat direkt nichts mit der Geschwindigkeit der GK zu tun haben.
Zu dem Zeitpunkt zu dem Cinebench läuft ist der Bootloader schon lange im Bett.Es wäre theoretisch denkbar, dass man durch eine DSDT eine Änderung der Performance herbeiführt. Aber das hätte dann auch nichts mit dem Bootloader sondern mit der DSDT zu tun.
Das gleiche gilt für irgendwelche verwendeten Treiber, aber beide Installationsarten verwenden den Web Driver.Betrachtungen zu Cinebench und der Vergleichbarkeit von Werten
Auf meinem Rechner liefert Cinebench mit einem 5GHz 6700k und einer 980TI, 151fps und 1101cb - manchmal ein "Bisserl" mehr.
Bei 4GHz sind es nur noch 129fps und 886cb
D.h. 25% mehr Takt resultieren in 17% mehr fps und 24% mehr cb
Bei 4,5 GHz liegen die Werte in der Mitte.
Ein Verändern der PCIE Übertragungsrate liefert Änderungen im Rahmen der Messgenauigkeit. Was bedeutet eine falsche BIOS/DSDT Einstellung bezüglich des PCIE Busses hätte eine zu vernachlässigende Wirkung.
Wenn ich mich recht erinnere brachte ein Ändern des GPU Taktes um 10% etwa 5 (von 145 auf 150) Punkte bei FPS also rund 3%.Schaut man sich das Verhältnis von cb zu fps Wert an, kommt man bei 4GHz auf 6,9 bei 5GHz auf 7,3. Dies ist nur ein Vergleichswert, dessen absoluter Wert keine Bedeutung hat, Aber man kann sagen; je niederiger der Wert, desto relevanter bzw. stärker ist die Leistung der GK im Vergleich zur CPU. Deshalb ist der Wert bei schwachen CPUs kleiner, das hier die GK relativ gesehen schneller ist. Ist Alles in Ordnung und der Wert trotzdem hoch, ist es Zeit für eine neue GK.
Aus den Messwerten lässt sich schließen, dass die CPU rund 70% der Arbeit macht und die GPU nur 30%. (Dies gilt nur für diese GK und CPU bei den angegebenen Frequenzen)
Daraus kann man folgern, dass ein Wechsel zu einer anderen GK gar nicht so viel bringen sollte.Im cb Test sollte man in einem bis auf die GK identischen System sowieso etwa den gleichen Wert erwarten, da der PCIE Bus der Bottleneck ist. Der fps Test wäre der interessantere.
Also die 980TI gegen eine 970 getauscht.
Und siehe da - die Ergebnisse für fps und cb sind im Rahmen der Messgenauigkeit identisch zu denen mit der 980TI.Warum also so viel mehr Geld für die 980TI bezahlen ?
Aufschluss gibt ein echter OpenGL Test wie Heaven. Der liefert 2840 Punkte für die 980TI, aber nur 2078 Punkte für die 970.
Was folgt daraus ?
Cinebench ist für die Beurteilung der OpenGL Leistung einer GK - zumindest auf dem Mac - ungeeignet. Ab einer bestimmten Geschwindigkeit der GK ist in Cinebench fast nur noch die CPU für den fps Wert relevant, für den cb Wert ist die CPU eh allein verantwortlich.Zu @user-michis Benchmarkwerten
6xxx Systeme liegen in den 6ern und 7ern
4xxx Systeme in den 8ern.Das von Michi als Referenz herangezogene Systeme von @Fantomas erzielte 101fps bei 877cb, ein cb/fps Verhältnis von 8,68. Die Werte sind im Bereich des Normalen was die CPU/GK Kombi angeht,
Michis System hingegen hat 61 fps bei 566cb, das ist ein cb/fps Verhältnis von 9,11. Ein Wert von 9 ist vergleichsweise schlecht, besonders wenn man den geringen cb Wert betrachtet.
Ein CB Wert von 566 kommt mir für 4 Kerne wenig vor. Um die 700 Punkte hätte ich schon erwartet.
Kannst du mal ein Geekbench 3.0 laufen lassen und posten welche Werte du für Single und Multi bekommst ?
Das würde darüber Aufschluss geben, ob der Prozessor mit der korrekten Geschwindigkeit läuft. Die Werte sollten etwa bei 3000 und 11000 liegen.Ist das so, würde sich der Test mit einer anderen GK lohnen.
Auch könnte man das BIOS nach falschen Einstellungen durchforsten, die zu einer Reduzierung der Datenübertragungsrate führen.
Steckt die Karte in einem PCIEx16 Slot ? -
Ich bin ja fast erschlagen von deiner umfassenden Antwort hier im Thread.
-
-
-
Ja laut Geekbench sollte das passen. Komisch nur, dass Cinebench im Verhältnis so wenig anzeigt.
-
I use and test again on my Clover and again on Ozmosis and this is my results:
Clover EFIOzmosis 167X-MASS
-
Die Performance in Geekbench ist ok.
Also liegt es vermutlich am OpenGL Treiber, dem mobo oder der GK liegen.
Am mobo scheint man nicht viel PCIE mäßig einstellen zu können.
Es gibt PEG slot configuration unter den Miscellaneous Settings vermutlich auf Auto oder Gen3 ?
und
Host/PCIe Clock Frequency unter Advanced Frequency Settings auf ?Es fehlt einfach an Infos, um irgendwelche Rückschlüsse zu ziehen.
Has du Windows installiert und kannst dort einmal Cinebench laufen lassen ?
Kannst du eine andere Grafikkarte ausprobieren damit man abschätzen kann ob nur diese GK in deinem System langsam ist ?
Oder alternativ die GK mal in einem anderen System testen. -
Hier wurde auch schon mal beschrieben, das Asus sein eigenes Ding macht mit dem Grafikrom! Unser Mod @MacGrummel hat sich, glaube ich, mal dazu geäußert!
-
Die PEG Slot configuration steht auf Gen 3.
Host Clock Frequency habe ich nicht gefunden.Windows habe ich nicht installiert und leider kann ich die GK auch nirgends anders testen.
-
Wie hast du denn Clover für die Grafikkarte eingerichtet? Z.B. die NVIDIA Injection?
Schau mal diesen Leitfaden hier: https://clover-wiki.zetam.org/Configuration/Graphics -
Ich habe hier gar nichts eingestellt.
Boot:
nvda_drv=1 -
Ich wollte auf folgendes hinaus. Ich habe ja, wie schon geschrieben, Ozmosis als Bootloader. In Ozmosis ist die NVidia Injection auf "On" gestellt! So wie es aussieht ist sie bei dir auf "No" gestellt! Du kannst aber im Clover Bootmenü auch Bootargumente ändern.
Schau dir das hier mal an, besonders das Graphics Injector menu! Dort kannst du explizit für einen Boot mal die Injection einschalten! Falls der Bildschirm dann dunkel bleibt, ist es nicht weiter schlimm, beim nächsten Boot ist alles beim alten! Kommst du allerdings auch mit eingeschalteter Injection in Mac OS X, kannst du dann ja nochmals Cinebench laufen lassen und vergleichen!
Hier der Link: http://www.macbreaker.com/2015…ions-clover-unibeast.html -
Ich kann das gerne mal über Clover testen. Bin mir aber sicher, dass das nichts bringt.
Genau mit diesem Befehl habe ich mir mein "altes" System zerschossen, weil ich das
über das Terminal eingegeben habe.Hier ein Auszug aus dem Wiki:
Enables graphics injection, which is necessary for a working system. It is only advised to disable it, if you do not know a better method. Some video cards, for instance Nvidia GTX 6xx or AMD Radeon HD 6xxx do not require injection and it will automatically be disabled without user interaction. At least it is enough to reach the desktop.Ich bin mir fast sicher, dass das nichts bringt. Werde es aber mal testen.