Skalierte Auflösungen an UHD Monitor führen zu gigantischer Auflösung für Grafikkarte.

  • Hallo zusammen, es vergeht scheinbar kein Abend an dem es nichts zu verbessern gibt.


    Mir ist aufgefallen, dass bei meiner RAW-Entwicklung in DxO die Berechnung der Anzeige, pro Bild, sehr lange dauert. Ich wunderte mich schon, da der jetzige Rechner, leistungstechnisch einen kleinen iMac Pro frühstückt. Da sollte die Generierung einer RAW Vorschau doch kein Thema sein?!


    Per Zufall habe ich folgendes entdeckt - und nicht verstanden:
    Wenn ich eine skalierte Auflösung verwende, wird die native Auflösung in den Systeminformationen mit einer gigantischen Auflösung angezeigt.



    Wenn die Grafikkarte in diesem Fall jede Vorschau in dieser Auflösung rechnen muss, wäre das eine Erklärung für die Langsamkeit.
    Wenn ich die "sieht aus wie 1080p", oder die "sieht aus wie UHD" nehme, ist in den Systeminformationen die normale Auflösung zu sehen und die Performance ist gut.




    Den Hinweis "Skalierte Auflösungen können Leistung beeinflussen" kenne ich zwar schon lange. Die Auswirkungen dessen, habe ich aber bisher am Mac noch nicht gespürt.


    Ist das ein Einstellungsmöglichkeiten / Treiber / Hackintosh Problem? Oder ist es auch auf dem Mac so?
    =O

    Hardware:

    • "Hacktor" 2018: (iMac 19.1 | ASRock Fatal1ty Z370 | i7 8700K OC: 5GHz | 32GB RAM | Radeon RX 6900 XT
    • LG 38GN950 Monitor
  • 6720x3780 = 25.4 millionen pixel
    5120x2880 (5k) = 14.7 millionen pixel


    das sind gut 70% mehr pixel - das ist schon ganz ordentlich, auch für nen echten mac ^^

  • Bei skalierten Auflösungen welche die UI größer erscheinen lassen, werden die UI und bestimmte Inhalte in einer höheren Auflösung gerendert. Wäre das nicht der Fall, hättest du ein unscharfes oder pixeliges Bild. Dies sollte allerdings keine Auswirkungen auf Medien wie Fotos oder Videos haben, da hier alles unverändert in der Auflösung der Quelle abläuft.

    LG Chris


    Meine Hardware:

  • Das ist leider völlig normal und ist auch einer der Gründe, warum zum Beispiel das erste Retina MacBook Pro massiv gelitten hat wenn man den Monitor mit der höchsten skalierten Auflösung betrieben hat. Man sieht 1920x1200, intern wird aber 3840x2400 ausgegeben. Sieht gut aus, frisst aber Unmengen an Leistung. Mit der Einführung der beschleunigten UI ist es es aber ein wenig besser geworden.


    Es gibt tools, mit denen man den Monitor mit der nativen Auflösung betreiben kann, was zwar um Welten besser für die Leistung ist, jedoch ziemlich unpraktisch, da alles unfassbar klein wird...

    Desktop: z390 Aorus Master - i9 9900KF - 32GB Corsair DDR4 3200Mhz - MSI Vega 64 - 2x 1TB 970 NVMe - cooled by Aqua Computer - macOS 10.14 & Win 10

    MacBook Pro Retina Late 2013 - i7 2,3Ghz - 1TB SSD - Nvidia GT 750M

  • Danke für die Antworten! Ich fürchte es ist normal Ich denke mal das wird einer der Gründe sein, dass Apple auf 5k und nicht auf 4k gesetzt hat bei 27". So hat man die "sieht aus wie 2560x1440 Auflösung als genaue Hälfte von 5120x2880.
    So bekommt man eine Skalierung ohne Leistungseinbuße. Denn, auch bei mir ist die genau halbgroße Seitenpixelanzahl 1920 px, ja genau die Hälfte der nativen Auflösung.


    Folglich kann macOS, ohne Leistungseinbuße, nur in der nativen- ODER der halben nativen Auflösung (skaliert) betrieben werden. Denn in beiden Fällen läuft die Berechnung der Oberfläche weiter auf nativer Auflösung (UHD).


    (Siehe Screenshot 2 und 3 im Ursprungspost)

    Hardware:

    • "Hacktor" 2018: (iMac 19.1 | ASRock Fatal1ty Z370 | i7 8700K OC: 5GHz | 32GB RAM | Radeon RX 6900 XT
    • LG 38GN950 Monitor