Beiträge von mhaeuser

    ChatGTP kann nicht anders als aus diesen oder jenen Quellen zu schöpfen, hat aber kein Bewußtsein, das es erlaubt, abstrakt zu denken, um mögliche Ungereimtheiten zu "durchschauen".

    Ich denke auch, dass KI eine gewisse Fähigkeit zur Erkennung von Bedeutung nur vortäuscht.

    Ich bin auch immer wieder verblüfft, wenn behauptet wird, ChatGPT hätte auch nur irgendein Level von logischem "Denken" (auch in diesem Thread). Man muss da nicht denken oder philosophieren, es reicht ein Blick in das Konzept LLM - statistische Zusammenhänge zwischen Worten, fertig. Ein LLM hat kein Konzept von Konzepten oder von Abstraktion. Mit genug "statistischer Tiefe" kann es das durchaus vortäuschen, mehr aber auch nicht. Man mag jetzt philosophieren "ja gut, aber, wenn die Tiefe beliebig groß wird, wo ist der Unterschied?", aber da reicht schon ein Sprachwechsel mit anderen Trainingsdaten und schon hat das Ding mehrere Gesichter.


    Jedes Mal, wenn ich versuche, dieses fragwürdige Stück Marketinggranate zu nutzen, werde ich angelogen. Nicht mal simpelste Anweisungen wie "such das erste Paper zu Thema XY" bekommt es hin. Bei Suchmaschinen kann ich einfach das Thema eingeben und aufsteigend nach dem Datum sortieren oder das Datum nach vorne limitieren. ChatGPT beharrt drauf, die erste Publikation zu "constant-time programming" ist aus dem Jahre 2019, obwohl einiges zu ctgrind aus dem Jahre 2010 stammt.


    Ein Freund nutzt regelmäßig ChatGPT, um C++ und verwandte Konzepte zu lernen und ich muss ihm ab und zu dann die ChatGPT-Aussagen wieder abtrainieren und das ganze korrekt aufrollen. Abseits von Boilerplate-Code und "schreib' den Text im Stile 'Politiker' um" finde ich beim besten Willen keinen seriösen Anwendungsfall für dieses Tool, egal wie oft ich nach den ewigen Lobeshymnen auch das neue Modell wieder teste.


    Man muss aber auf KI von ChatGPT trennen. LLMs sind zwar für die Öffentlichkeit die Offenbarung Gottes, es gibt aber auch deutlich kompetentere KI je nach Einsatzgebiet.

    Wer ein MDM-Gerät nutzt, sollte generell keine Sicherheitsfunktionen abschalten und am System rumpfuschen wollen. Für OpenCore gibt es einen Kernel-Patch, um FV2 ohne SSV zu nutzen. Auf Apple Silicon müsste man dafür zusätzlich noch Secure Boot aushebeln. Das ist alles nichts Halbes, nichts Ganzes, nicht mal ein Viertel…

    Die politische Komponente dahingestellt - ich möchte nochmals auf technischer Ebene darauf hinweisen, dass im PC-Segment fast einzigartige (nur ChromeOS geht in die Richtung) und sehr gut durchdachte Sicherheitsfeatures, die auch die Zuverlässigkeit und Resilienz des Betriebssystems steigern, auf der wahrscheinlich sichersten Consumer-PC-Plattform der Welt abgeschaltet werden, um ein paar Wörter zu ändern, mit denen man ohnehin nicht allzu lange konfrontiert sein sollte. Das ist kein Windows oder Linux, wo es sich mehr um eine Art Selbstschutz handelt, hier wird echte und effektive Sicherheit ausgehebelt.

    Ein Monitor ist aber ein eigenständiges Gerät, das auch Software ausführen muss (muss natürlich kein ganzes iOS sein, aber naja…). Ein Compute-AddOn ist ein Bestandteil eines integrierten Systems, das bereits geeignete Software hat. Gut, es gibt sepOS, aber das dient der Separierung von Sicherheitszonen, ähnlich zu ME und PSP.


    Beim Kühler muss ich zurückrudern. Ich hatte den deutlich größer in Erinnerung und dachte, er soll so die Lautstärke begrenzen. Der scheint ja aber doch eher kompakt zu sein.


    Für mich ist es das Gesamtbild. Einfach noch einen zweiten, identischen SoC mit eigenem, vollwertigem OS in einen Steckplatz zu stopfen und dann rum-synchronisieren - sorry, sehe ich einfach nicht. Bei sowas wie PCC gibt das Konzept auf einmal viel mehr Sinn, weil man wie beim SEP wahrscheinlich bewusst Trennung zwischen verschiedenen Softwarebereichen will, was bei einem Mac Pro AddOn keinen Sinn ergeben würde, und sich gleichzeitig eventuelle Latenzen wegen Synchronisation erlauben kann.


    Ich gehe aber auch davon aus, dass das Ding inkl. Interface komplett proprietär ist. Lasse mich aber auch gerne überraschen.

    Ich wüsste nicht, warum eine Erweiterungskarte für einen Mac Pro ein XNU xyzOS brauchen sollte - und noch weniger, wie sie auf einem M2 Ultra aufbauen sollte bzgl. Kühlung usw.


    Ja, Resultate zählen. ChatGPT lügt mich in spätestens jeder zweiten Sitzung fatal an und Gemini sagt Leuten in der Google-Suche, sie sollen laut Reddit-Nutzern von der Golden-Gate-Brücke springen. Bzgl. Konkurrenz wäre ich da entspannt.

    Das ist mit Abstand das ausgefeilteste System dieser Art im öffentlichen Raum, das ich kenne und das nicht nur bezogen auf KI. Apple trödelt mal wieder, rennt nur hinterher, … niemand hat ein auch nur ansatzweise vergleichbares System hierzu. Und das ist sicher nicht in wenigen Wochen entstanden.

    PCC war im März letzten Jahres wohl schon in der Implementierungsphase: https://9to5mac.com/2024/06/26…loud-compute-ai-ios-16-4/


    Das sollte die Gerüchte um “alles mit der heißen Nadel zusammengestrickt, weil Craig irgendwann GitHub Copilot benutzt hat” hoffentlich zu Grabe tragen.

    Kalibrieren muss man auch bei Apples Methode, wenn man nicht ab und zu mal auf 0% runter geht. Das Problem entsteht an beiden Extremen. Die harte Limitierung auf 80% beim iPhone 15 lädt aus diesem Grund auch immer mal wieder auf 100%. Vielleicht führe ich irgendwann dafür auch mal eine Funktion ein, aber ich arbeite wirklich sehr viel gedockt.


    Das mit den LEDs wird in der nächsten Version kommen. Einen Screenshot gibt es schon in der README.


    brew habe ich mir angeschaut, ist aber aktuell nicht perfekt sauber umzusetzen: https://github.com/mhaeuser/Battery-Toolkit/issues/12


    Das andere Tool ist eine JS-Anwendung, die kontinuierlich den Ladestand abfragt und bei Bedarf ein externes Tool ohne Sicherheitsdesign ausführt. Und ja, es lädt zur Laufzeit Komponenten nach, die nicht mal strikt versioniert zu sein scheinen. Für mich ist das keine Option.

    griven MS hat da auch keinen Freifahrtschein, nur arbeitet die EU wie gewohnt langsam. Copilot durften sie wie bekannt nicht in Windows integrieren, ohne das ganze zu Modularisieren. Ich würde Apple auch nicht rein bockiges Verhalten unterstellen, obwohl das auf jeden Fall mitschwingen wird. Ihnen droht aktuell schon eine Strafe, weil sie wahrscheinlich in Bezug auf Sideloading die DMA nicht voll erfüllen. Jetzt noch zu riskieren, mit neuen Apple-Walled-Garden-Funktionen da einen draufzusetzen, wo die Konkurrenz ohnehin auch einen Klotz am Bein hat, muss wohl auch nicht sein. Warten wir mal ab.


    Pillenflitzer Klingt nach dem üblichen blinden Rumgerate von Pseudoexperten.

    iki


    1. Solange das Gerät nicht im Ruhezustand ist, wenn geladen wird, funktioniert alles, insb. eingesteckt Zuklappen. Während des Ladevorgangs wird der Ruhezustand deaktiviert und am Ende des Ladevorgangs wird das Laden des Akkus komplett deaktiviert, heißt egal ob Ruhezustand oder nicht, die 80% werden gehalten.

    Anders sieht es aus, wenn das Gerät schon im Ruhezustand ist, wenn es an den Strom gehangen wird - dann ist es etwas eine Glücksfrage, ob Battery Toolkit den Ruhezustand schnell genug deaktiviert bekommt, bevor er (wieder) vom Betriebssystem ausgelöst wird. Das lässt sich m.W. nicht umgehen. Ich hatte damit bisher aber keine Probleme und bei jedem zugeklappten Einstecken wurden die 80% eingehalten.


    2. Da verwechselst du glaube ich zwei Dinge. Bei den alten Akkus war es für die Akkugesundheit wichtig, immer vollständig zu be- und entladen wegen des Memoryeffekts. Bei den neuen LI-Akkus ist in der Tat das Gegenteil der Fall - es gibt wahrscheinlich auch einen Memoryeffekt (die Sachlage ist da etwas schwammig), aber die Effekte an den Extremen sind definitiv deutlich schädlicher.

    Die Kalibrierung dient nicht der Akkugesundheit, sondern dem Auslesen des Ladestands. Dieser ist nicht sehr einfach zu bestimmen und die "Heuristik" können mit der Zeit deutlich vom realen Stand abweichen. Deswegen geht man von 100% zu 0% zu 100%, damit die Extremen und die exakte Position dazwischen für die Heuristik wieder genauer definiert sind. Dafür gehrt theoretisch etwas (aber vernachlässigter wenig) Akkugesundheit flöten.

    byebye123 Ja, die Öffentlichkeit hinter’s Licht zu führen, indem man öffentliche Warnungen und Aufrufe zum Entwicklungsstopp von KI absetzt, um dann das eigene KI-Startup zu starten (ahem, WIR machen das ja jetzt RICHTIG), werde ich wahrscheinlich nicht schaffen. Dafür fehlen mir das Geld und die Selbstversessenheit.


    Dass meine Meinung polarisiert, war mir schon klar. Dass keine einzige Reaktion auf meine inhaltlichen Punkte und seine offensichtlichen Falsch- und “Verwirrtaussagen” eingeht, kann einen aber schon wundern.


    Möchtest du den einzigen Schluss noch ausbuchstabieren?

    Dieser Blogpost ist glaube ich untergegangen, ich habe ihn jedenfalls erst jetzt gefunden: https://security.apple.com/blog/private-cloud-compute/


    Das ist mit Abstand das ausgefeilteste System dieser Art im öffentlichen Raum, das ich kenne und das nicht nur bezogen auf KI. Apple trödelt mal wieder, rennt nur hinterher, … niemand hat ein auch nur ansatzweise vergleichbares System hierzu. Und das ist sicher nicht in wenigen Wochen entstanden.

    Wer hat denn jemals die Meinung vertreten, OpenAI sei vertrauenswürdig? Weder wundert mich dieser Schritt (obwohl voreilige Schlüsse auch hier wieder FUD sind), noch ändert der irgendwas an meiner Haltung. Apple macht immer noch vieles, wenn nicht alles, richtig, packt OpenAI fast schon in eine Sandbox und vermeidet es idR gänzlich. ChatGPT werde ich so oder so nie ernsthaft benutzen.

    CMMChris Bzgl. OpenAI, genau richtig. Bzgl. Elon Musk, da sehe ich bald schon wieder einen abgesplitterten Thread. Beschäftigt habe ich mich mit ihm leider zu Genüge, danke. Er ist eine (langzeit-)kostenoptimierende Trial&Error-Maschine und Trial&Error liegt eben auch mal richtig. Immer komplett falsch liegen wäre auch eine besondere Gabe. Nahezu sämtliche Äußerungen in meinen Fachgebieten (Softwaresicherheit, -zuverlässigkeit, -konformität, …) sind kurzsichtig oder komplett inkohärent. Das reicht von technischen Entscheidungen rund um Twitter bis zu Tesla Self-Driving. So voll der Mund bzgl. der Qualität der Software und Fortschritten dort sind, so weit sind sie vom State-of-the-Art von angepassten eingebetteten Systemen in Kombination mit formaler Verifikation entfernt. Die Priorität liegt da eher beim AMD-Gaming-PC auf dem schlecht positionierten Touchscreen ohne Haptik. Als Bonus kann ein Absturz des Infotainments auch gleich Funktionen wie die Blinker mitnehmen - bei seriösen Unternehmen unvorstellbar. Listen an geplatzten Versprechen und Roadmaps kann man relativ einfach googeln.


    Kollegen aus der Fahrzeugindustrie sind ebenfalls wenig begeistert. Vision-only ist wie der Edelstahl auf seinen Mist gewachsen und seine Erklärungen zeugen davon, dass er weder Kameras noch LiDARs richtig versteht. Ein fachfremder Kollege wollte letztens vage in Richtung “aber technischer Fortschritt regelt schon” gehen, bis einer aus’m R&D dann auf die intrinsischen (also unmöglich vermeidbaren) Nachteile von Kameras hingewiesen hat. Allein der angesprochene Kommentar mit dem Faradayschen Käfig zeigt doch schon von einer Mischung aus Manipulation und technischer Ignoranz. Das alles würde mich auch nicht so krass stören, würde er keinen “Elon Musk baut Rakete”, “Elon Musk baut E-Auto”, “Elon Musk baut Twitter” Kult aufziehen. Nein, Elon Musk baut gar nichts, Elon Musk leitet Teams, mit denen er baut oder die autonom bauen. Und, wenn man seine Eingriffe in deren Prozesse erwähnt, sollte man nicht die Glücksgriffe rauspicken, sondern sie mit den Fehlentscheidungen in Relation setzen. Das alles hat mit Autismus nichts zu tun.


    Ach ja, theoretische Informatik versteht er auch nicht: https://x.com/elonmusk/status/1743747172795810051

    ozw00d Dann habe ich dich etwas falsch verstanden, sorry!


    Mieze Es wird immer wieder betont, das stimmt nicht, die Erleichterungen durch die Technik schaffen Raum für kniffligere Probleme. Das trifft auch zu - in gefühlt 5 % der Fälle. Was mit den anderen 95 % ist, konnte mir bisher keiner sagen. In der Unilehre fällt das Niveau kontinuierlich ab. 2018 - 2020 hatte ich immer Übungsgruppen, in denen ich auch mal spontan Transferfragen stellen konnte. Heute ist es mit Glück mal so mal so.


    Aber es ist nicht nur die Technik. In der Grundschulbildung haben die es mittlerweile teils aufgegeben, in der 2. Klasse Aufgabenstellungen zu formulieren, weil viele sie eh nicht lesen und verstehen können. Dann muss ich mir die erst mal aus den richtig schlechten Beispielen zusammenreimen und nach Legenden für deren wirre Symbole suchen. Den Drittklässlern muss ich dann jedes Mal als erstes, immer wieder aufs Neue, erklären, dass sie die Aufgabenstellung lesen müssen. Das sind sie nach 2 Jahren Beispiele reverse engineeren nicht gewohnt. Außerdem hat jeder Lehrer sein goldenes Hilfsmittel, das zu verwenden ist. Und ist ein Kind nach 2 Jahren immer noch verwirrt, was der Rechenschieber macht und man benutzt stattdessen die Finger oder auch mal den Kopf, flattert die Mahnung aus dem Rotstift auf den Tisch. Naja, ok.

    ozw00d Der Punkt mit "aber Einstein und Oppenheimer auch" erinnert mich sehr an eine kurze Diskussion mit einem Kollegen, in der ich mich über ChatGPT ausgelassen habe und dann das Standardargument "aber damals waren 600 KByte RAM genug und das Internet sollte sich nicht durchsetzen". Ich gebe mir immer sehr viel Mühe, Themen in der Tiefe zu behandeln und, wenn man möchte, dass man alles hinterfragen soll, dann soll man das bitte auch wirklich tun. Oberflächliche Parallelen zu ziehen ist kein Hinterfragen. Man kann auch direkt beliebig viele Parallelen zu Steve Jobs ziehen, der auch technisch gänzlich unbegabt und vor allem ein Marketinggenie war - aber im Gegensatz zu Elon Musk hat er sich auch genauso präsentiert. Er hat seinen Teams oberflächliche Vorgaben zur Benutzererfahrung (eine seiner Stärken) gemacht und bei technischen Fragen immer an seine Ingenieure verwiesen, auch in öffentlichen Diskussionen. Elon Musk stellt sich als Ingenieur hin und mischt sich in technische Entscheidungen ein, obwohl es für Fachleute offensichtlich ist, dass er nicht einmal grundlegende Kompetenzen in den Gebieten besitzt. Das geht weit über "mit ihm ist nicht gut Kirschenessen" oder plumpes "mein Bauchgefühl sagt mir, seine Ideen sind dumm" hinaus.


    Ein analoger Punkt gilt für die Verschwörungstheorien, da sollte ich vielleicht auch nochmal qualitativ unterscheiden. Im ersten Schritt ist das ja "nur" eine Theorie, dass eine oder mehrere Parteien im Geheimen zum Nachteil Dritter arbeiten. Zynisch und überspitzt(!) gesagt, wenn du mir eine Verschwörungstheorie gibst, die mit "Die Amerikaner haben..." anfängt, würde ich eher zustimmen als ablehnen. Was die schon alles so angestellt haben, ist kaum zu glauben. Die Verschwörungstheorien von Elon Musk sind aber unfundiert, inkohärent, ideologisch und in sich selbst wieder narzisstisch. Er verbreitet, was ihm hilft, nicht mehr und nicht weniger.


    Auch, wenn das wie Off-Topic (tut mir Leid! :) ) aussieht, drösel' ich das nicht auf, weil Elon Musk mich besonders interessiert, sondern, weil ich nicht möchte, dass er für irgendetwas hier als ernstzunehmende Quelle angeführt wird.

    ozw00d

    3. Jein, es gibt lokale Modelle, aber die sind bei weitem nicht so potent wie die serverseitigen. Apple hat erst vor wenigen Wochen ein Paper veröffentlicht, wie sie praktisch Paging von großen Modellen erreichen wollen, also, dass sukzessiv und effizient das Nötigste von der SSD in den RAM geladen und bei Bedarf wieder entladen wird. Da wird es noch einige Zeit brauchen, bis etwas vom Kaliber ChatGPT mit 8 GB RAM vernünftig läuft.


    4. Mit genug Geld hat man immer Mittel und Wege, nicht dumm zu wirken - im Zweifel hat man “alles erreicht” und “der Erfolg gibt einem Recht”. Eines der größten sozialen Netzwerke zu kaufen, komplett in den Boden zu fahren und dort dann abstruse Verschwörungstheorien zu teilen, wissenschaftliche Pioniere des scheinbar eigenen Erfolges anzugreifen und mit Lügen und Memes den Markt zu manipulieren, das kann sich nicht jeder erlauben. Mal ganz abgesehen davon, dass Apple das (wie zu erwarten) ausgeklügeltste System bzgl. Datenschutz vorgestellt hat, ist doch wohl vollkommen klar, dass ChatGPT nicht permanent im Hintergrund läuft - das wäre nicht nur eine Datenschutzkatastrophe, sondern auch ein Belastungstest für den Akku. Und der gute Herr droht dennoch damit, iPhones in einen Faradayschen Käfig zu stecken - wozu? Weil aggregiert Daten später zu senden besser ist, als sie in Echtzeit zu verschicken? Seine geistigen Ergüsse sind Hypetrains und Katastrophenbeschwörungen für ein Publikum ohne Sachverständnis und Willen, sich länger als 5 Minuten mit einem Thema auseinanderzusetzen - sprich Investoren. Hier geht es nicht um Datenschutz, sondern darum, die Konkurrenz zu schwächen.

    karacho Ja, zum Glück. Ich meinte aber allgemein, wie es mit selbst lernenden Systemen weitergeht, da nach GDPR/DSGVO allein die Speicherung mancher Daten ohne entsprechende Bestimmungen nicht rechtmäßig ist, selbst lokal und verschlüsselt. Es gibt aktuell leider kaum Konzepte, zwischen (nicht) speicherbaren Daten zu unterscheiden.