Eines der wenigen Musicals, welche mich LIVE noch interessieren:
[Externes Medium: https://youtu.be/6YwFvmnbj3E?feature=shared]
Um schreiben oder kommentieren zu können, benötigst du ein Benutzerkonto.
Du hast schon ein Benutzerkonto? Melde dich hier hier an.
Jetzt anmeldenHier kannst du ein neues Benutzerkonto erstellen.
Neues Benutzerkonto erstellenEines der wenigen Musicals, welche mich LIVE noch interessieren:
sudo rm -rf <target>
Für sudo verwendest Du das gleiche PW wie beim login
-rf steht für rekursiv und force - also ohne Nachfrage, ohne wenn und aber
<target> ist die Datei oder das Verzeichnis
falls sie danach immer noch nicht verschwindibus ist:
sudo chflags -R 0 <target>
Es gibt spezielle flags, welche man setzen kann um zB Dateien auch gegen root (sich selbst) zu schützen.
-R rekursiv
0 - um alle flags zurückzusetzen.
und dann nochmal mit rm -rf :p
Wow, Danke für Dein "performance-update".
Das hätte ich nicht erwartet/gedacht, daß der M2pro da "so nah" mitspielen kann.
Für die Zocker fehlt dann nur noch das Raytracing - da bin ich schonmal gespannt, was die nächste M-Generation mitbringt, das iPhone15pro/max hat in seinem neuem Bionic ja Hardware-Raytracing eingebaut.
Mit solchen Mitteilungen wächst dann doch die Neugier auf die nächsten neuen Produkte!
Die hat Apple nicht nur in der Schublade, sondern bereits fertig. Der A17 Pro beinhaltet Raytracing Funktionalitäten und wenn man den Bildern Glauben schenken darf, sind diese sogar recht ordentlich. Ein M3 sollte diese daher vermutlich genauso, oder gar besser mitbringen.
Recht hast Du:
"Auf iPhone 15 Pro und iPhone 15 Pro Max liefert Capcom Hardware-basiertes Raytracing und nutzt auch die verbesserten GPU-Kerne im A17-SoC. "Resident Evil 4 Remake" ist ein frischer Aufguss von "Resident Evil 4" aus dem Jahr 2005."
- Quelle-
Guckux
Manchem meiner Vorredner kann ich mich uneingeschränkt anschließen - wie zB daß jene, welche am lautesten kritisieren, zu denen gehören dürften, welche sich in den 90igern eine SGI Workstation mit Software für rund ne halbe million hingestellt haben (naja, nicht ganz, Workstation 40,000 Mark, Grafikkarte 80,000 und Software für >40,000 Mark). Das ist aber nichtmal ne Promille der "Gesamtkundschaft".
Mir bekannt ist - möglicherweise einer der wichtigsten Gründe - daß Apple riesige Probleme hatte mit den intel-Protzes bei der Skylake Generation (und dürfte danach nicht besser geworden sein), als sie etwa soviele interne Bugs an intel reported haben, wie deren interne Entwicklungsabteilung. Dergleichen "frisst" massiv an Resourcen.
Mit nvidia als Unternehmen hatten sie wohl auch Kooperationsprobleme, sonst wären in den letzten Jahren nicht vollständig auf AMD gewechselt - bei dem Gebaren von nvidia alleine mit der Presse (NDA und so) durchaus nachvollziehbar.
Weitere Interpretation: Das ging denen soooo auf den Senkel, daß sie "von anderen abhängig machenden Müll" entsagen und alles "inHouse" produzieren.
Das hat den Vorteil, daß man agiler agieren kann und Resourcen einspart (Gewinnmaximierung) und für sich Optimierung im Gesamtkonzept.
Beispiel Laptop Bereich: Ich sehe immer mehr x86/amd64 basierende Laptops, welche verlötetes Ram haben, selten vielleicht mal dazu einen frei bestückbaren Speicherslot. Speicherausbau >32GB war schon immer rar, und wird immer rarer.
Die Weiterentwicklung von Prozessoren wie auch Betriebssystem wird immer aufwendiger und komplexer und somit teurer. SUN/Oracle hat vor einiger Zeit bereits das Ende der SPARC-Prozessoren angekündigt, für Solaris gilt Anfang der 2030er das "Ende" (Oracle hat letztes Jahrzehnt bereits die Hälfte aller Entwickler in dem Bereich gekündigt). Bei HP sollte Anfang dieses Jahrtausend der Itanium ihren PA-Risc ablösen, dann kamen doch nachmal Nachfolger (letzter 2005) - weil Itanium nicht die Erwartungen erfüllt(e).
Mich würde nicht wundern, wenn Apple bereits Enticklungspläne hinsichtlich Raytracing-Technologie in der Schublade hat - mit Sonoma wird bereits im Betriebssystem der "gaming mode" gepusht, AAA-Titel kommen vermehrt (Resident Evil 4 Remake, Stray, Death Stranding und Assasin Creed Mirage angekündigt).
Die Ungeduld mancher hier - respektive auch die harsche Kritik an Apple, kann ich nicht nachvollziehen.
Und nein, ich glaube nicht, daß der M3 einen großen performance Sprung machen wird, siehe vorgenannt, Enwicklungskosten etc... (nicht umsonst gehört der mainframe zu den teuersten, aber "fehlerfreiesten" Kisten )
Die Prognose würde mich auch interessieren.
Und was der MacPro mehr hat als der Studio? Ad hoc würde mir nur eines einfallen: schnellere Anbindung von viel großem Speicherplatz (und damit erschöpft es sich auch schon - selbst als ehemaliger Q950/PPC Fan und 10 Jahres Anwender desselbigen )
Um den Akku eures iPhones so lange wie möglich bei maximaler Kapazität zu halten, lasst die Akkuladung möglichst nie unter 20% kommen & ladet das iPhone jeden Abend auf. Selbst wenn es noch 50% oder mehr hat. So etwas wie den "Memory Effekt" von früher gibt es schon lange nicht mehr. Es ist für Lebensdauer moderner Akku sehr schädlich sie häufig zu komplett zu entladen. Das reduziert dann schnell die Maximalkapazität. Hingegen hat das häufige aufladen wiederum kaum Einfluss auf die Akku Gesundheit.
Gerade nochmal drüber gestolpert...
Ich stimme Dir zu, 20% oder weniger ist schlecht für den Akku (pauschal, wobei ich mir die Frage stelle, ob hier nicht sogar von den Herstellern "restriktiv" vorgegangen wird).
Der Memory-Effekt ist bei Akkus auf Lithium Basis (egal ob LiIo, LiFe oder LiPo), wie auch bei eneloops "nicht mehr vorhanden" - im Gegensatz zu den alten klassischen NiCd.
Dem "häufigen" Aufladen möchte ich widersprechen. JEDER Ladevorgang ist das Anstossen eines chemischen Prozesses und diese Anzahl ist "begrenzt" - man spricht bei Li-basierenden von rund 1000-1500 als Leitzahl. Dabei spielt es keine Rolle, ob von 20 auf 23 oder 46 auf 71 oder 20 auf 100 Prozent geladen wird.
Tiefenentladung ist das tödlichste was man Li-Akkus antun kann, im Gegensatz zu NiCd ist das regenerierbar!
Mein iPhone SE 1.Gen (2016) habe ich bis vor wenigen Wochen in Nutzung gehabt, zuletzt sagte es mir, es wären noch 71% Akku-Kapazität vorhanden (hat jeden Tag mindestens einmal geladen werden müssen) und hatte zuletzt über 2,500 Ladezyklen hinter sich. Geladen habe ich immer erst bei höchsten 25% oder weniger und immer voll (was auch nicht empfohlen wird).
Wichtig auch: Kälte tut den Akku ebenfalls nicht gut!
1756 erstmalig dokumentiert, konnte aber im 20. JH nur 2mal "dokumentiert" werden, steht auf der roten Liste...
Letzte Woche eine Gottesanbeterin im Vorgarten meiner Vermieter entdeckt - nur weil sie gerade das Hinterteil einer Hummel verspeiste - da "wackelte" etwas. Scheint aber "angezählt" gewesen zu sein, vor 2 Tagen leider gestorben, ein Tag zuvor noch fotografieren können! Jetzt die nächste entdeckt (noch kein Foto - auf der Suche
)...
[Offtopic]
Was mir dazu einfällt:
2 Planeten treffen sich, meint der eine zum anderen:
Du, ich habe homo sapiens!
Meint der andere:
Stör Dich nicht dran, geht auch wieder vorbei!
Ein Adapter ist eine Sache weil mit wenig Aufwand billig zu produzieren hier lohnen dann auch kleine Chargen und auch Fenvi hat ja eine Lücke gefunden (sind am langen Ende ja auch "Apple BRCM Chips")
Ja, trivial dürfte die Sache nicht sein, habe erst aktuell nen Artikel gelesen, in dem "unser Legacy Patchmeister" dosdude1 es fertig gebracht hat, die 512GB SSD im macMini M2 gegen eine 2TB "auszutauschen". Das "Sahnehübchen" ist dann die eigene Firmware (mit den BRCM wahrscheinlich nicht anders). Ich "befürchte" Apple vernagelt das alles, wo es geht und noch a bisserl mehr...
Ihr habt mich irritiert - mir waren Kleinkrafträder - zu welchem die Simson S51 gehört - als "unlimitierte" Klasse bekannt, begrenzt durch die ccm. Eine "Geschwindigkeitsbegrenzung" gab es nicht - jetzt habe ich in Wikipedia erfahren dürfen, daß der Begriff Kleinkraftrad eine sehr bewegte Geschichte hinter sich hat...
Find'ich schön, daß man hier im Forum breitflächig zum Lernen angeregt wird!
geringe Leistung hat Nio82 ' CPU beileibe nicht.
Er wird, bei seiner Hardware, wie bei jeder Virtualisierungslösung, mind. ein paar Prozentpunkte weniger Leistung haben, als nativ (ohne Hypervisor-layer).
Das Hypervisor davon leben, viele virtuelle zu versorgen und eine Mischkalkulation von ungenutzten Ressourcen an andere abzugeben ist deren primärer Sinn. Ich kenne "keine" Server, welche 24/7 mit zB >80% Last fahren...
Als Spielerei um es einfach mal auszuprobieren, ist es allemal gut.
Das größte Manko sehe ich noch im Bereich memory, 16GB ist so in etwa das Minimum für nen Hypervisor, außer man betreibt 2-4GB linux Systeme
Ich fand das damals in den 90igern "neckisch", als ich das erste mal VMware unter FreeBSD ausprobierte - damals mit einer Windows 98SE Virtualisierung, damals wurde mir erst bewußt, wie lahm das filesystem bei M$ ist, so schnell hat die virtualisierte Umgebung unter FreeBSD (UFS-filesystem) nativ nirgends gebootet!
Guckux HackMac1
Risiken? Welche Risiken?
Das erste Risiko, welches Du eingehst, ist IT-Technik zu benutzen, die Krönung dessen ist dann iOT.
Differenzierter betrachtet, gibt es Meinungen, welche "kommerzielle" Herstellerprodukte befürworten (Bug-fixing, support). Hier an erster Stelle M$ (Millionen Fliegen können sich nicht irren), in den letzten Jahren häufen sich deren eklatante Sicherheitsprobleme, zu letzt bei dem Exchange Problem, ganz aktuell Azure365, wo eine chinesische Hackertruppe einen "Generalschlüssel" in die Finger bekam.
(Und wir wissen ja alle, wenn man ein kompromittiertes System betreibt, ist der einzig sichere Säuberungsweg ein kompletter Neu-Aufbau, aber sonst und darüber als solches hüllt M$ sein Schweigemäntelchen).
Ich bin aber auch recht überzeugt, daß es Apple mit MacOS oder - so es noch existent wäre - IBM mit OS/2, es nicht anders machen würden.
Die Software, angefangen beim Betriebsystem, über die Applikationen, werden immer komplexer und somit fehleranfälliger und sicherheitskritischer.
Ich arbeite seit >30 Jahren mit OpenSource. In solch einer langen Zeit gibt es immer wieder mal Produkte, welche auch nach langjähriger Pflege, eingestampft werden. Ist bei den kommerziellen aber auch nicht anders.
Sicherheitslecks gibt es auch hier immer wieder - und über Macports und Homebrew mag es möglich sein, sich auch mal codeveränderte Software auf den Rechner holen zu können. Die 30 Jahre haben aber auch gezeigt, daß die OpenSource Entwickler eine ganz andere Ethik haben, sie veröffentlichen idR ohne Kompromisse schnellstmöglichst entsprechende Kenntnisse über Lecks wie auch ein wesentlich schnelleres Fixing der Lecks. Ich habe hier den Eindruck, daß dergleichen Probleme, sei es security, wie auch Bugs, an ihrer "Ehre" kratzt.
Schönes Beispiel ist hier auch unser Sascha_77 , meist dauert es nur wenige Stunden (gefühlt Minuten), bis die Probleme gefixt sind - abgesehen von einem Support, von welchem sich die "Großen" eine Scheibe abschneiden könnten. DAS ist in meinen Augen "the way of OpenSource" - anders kenne ich es nicht.
So, jetzt nochmal meine Frage vom Anfang:
Welche Risiken meinst Du?
Neues "Spielzeug" günstig geschossen - die "Wiederherstellung" aus dem macOS Backup wollte im ersten Anlauf nicht, dann via iPhone <-> iPhone Übertragung angeschoben, bot gleich an, die SIM-Karte als e-Sim umzusetzen, jetzt meint er seit 2 Minuten, daß er noch 13min brauche... jetzt darf mein altes SE (1. Gen) in Rente...
Guckux Nio82
Ich zolle Dir hiermit meinen Respekt, welche Arbeit Du da auf Dich genommen hast um etwas wiederzubeleben!
WoW - aber mal so richtig !WOW!
Guckux netsrot39
Freut mich, daß Dir die EFI geholfen hat...
Daß der 8200er kein UEFI hat, bin ich mir noch nicht sicher - die Installation als solches funktioniert aber nur über Legacy-part...
Da der Rechner nicht bei mir steht, kann ich jetzt nicht unbedingt so damit "spielen" - der 2te im Keller hat leider ein defektes Netzteil.
Angedacht ist aber, daß Teil im Keller zum Laufen zu kriegen und eine OpenCore Config dafür zu erstellen sobald ich die entsprechende Muse dazu habe...
Tja - bei mir leben in der Regel die Rechner immer rund 10 Jahre, bis sie in "Rente" gehen.
1990 mein Macintosh SE, bereits 1994 von einem Q950 abgelöst, aufgerüstet mit einer PPC601 via PDS-Slot - lebte bis Anfang des 21. Jahrhunderts.
Da ich von Anfang an zu Hause auf "Heterogenität" Wert legte, wurde 1995 bereits ein FreeBSD Server mit AppleTalk-Server (netatalk) und SMB aufgebaut.
Die 0er Jahre nach 2000 waren bestimmt von FreeBSD, begeleitet von MacBook G4 15" und PowerMacintosh G4 und Windoof.
Es gab immer Original Apple Mac-Hardware hier, meist etwas älter (der 950er war ne Ausnahme).
Seit 2 Jahren ist M$ Windows privat verbannt - ich vermisse es nicht (außer das dort verfügbare Audials ) seit gut einem Jahr noch ein MB Pro M1-Max 16", von welchem ich erwarte, daß es mir lange Jahre dienlich sein wird. Meine Frau arbeitet noch an einem MB Pro 6,1 und ist glücklich damit.
Die letzten 30 Jahre haben mir gezeigt, daß Aufrüstungen zwar möglich sind, aber seltenst sich aus Preis-/Leistungssicht lohnen - außer man bekommt die Bauteile (zB Ram) geschenkt. Prozessor-technisch ist eine Aufrüstung idR aller Fälle verbunden mit neuem Board und sinnvollerweise auch neuem (besserem/schnellerem) Ram.
Massenspeicher findet sich im Server, sinnvollerweise, da dann von allen Familienmitgliedern nutzbar. Das 1Gbit Netzwerk tut seine Dienste seit 10 Jahren und ein mehr sehe ich auch da noch nicht :p
Der Hackintosh (seit 2018) ist und war für mich mehr eine "Spielerei" der Machbarkeit und gab mir auch Einblick in das System, welches auf reine Anwenderebene eher unsichtbar geblieben wäre. (Dank an die ein oder andere Ausführung der aktiven Forumsmitglieder)
Der "PC" auf intel-Basis war immer nur eine Bastelecke, außer für mein Server-Betriebssystem.
Die Erweiterbarkeit von einem Arbeitsplatzrechner sehe ich als 2trangig an, man kauft sich heute, was man heute braucht und wenn es mehr benötigt, kommt entsprechend eine Komplettaktualisierung (Austausch).
In den 30 Jahren habe ich bestimmt eine Eigentumswohnung für Computer-Schotter ausgegeben (Aufrüstungen), sehe das aber "pragmatisch", ich habe gelernt und entsprechend als Ausbildungsgeld...