Weihnachten 2017: Kernel-Entwickler arbeiten durch. Neujahr 2018 ebenso. Der Grund: eklatante Hardwarefehler in Computerprozessoren, dem Gehirn unserer PCs. Die Wissenschaftler taufen diese „Meltdown“ und „Spectre“, „Kernschmelze“ und „Schreckgespenst“.
Sommer 2020. Inzwischen sind wir in Monat #32 nach Bekanntwerden dieser Hardwarelücken. Was der aktuelle Stand?
Folgender:
SUMMARY: CVE-2017-5753, CVE-2017-5715, CVE-2017-5754, CVE-2018-3640, CVE-2018-3639, CVE-2018-3615, CVE-2018-3620, CVE-2018-3646, CVE-2018-12126, CVE-2018-12130, CVE-2018-12127, CVE-2019-11091, CVE-2019-11135, CVE-2018-12207
Oben: Zusammenfassung aktueller CPU-Lücken des Tools spectre-meltdown-checker, Stand August 2020
Aus drei Lücken (CVE-2017-5753, CVE-2017-5715, CVE-2017-5754) wurden 14. In Worten: Vierzehn.
Selbst AMD scheint auch 2020 nicht in der Lage zu sein Prozessoren zu bauen, die alle Fehler ausschließen können.
Unterziehe ich meinen neuesten AMD-Prozessor, den 4800HS, einem Test mit dem kostenlosen OpenSource-Tool spectre-meltdown-checker, wird klar, dass besonders ein Bug hardwaretechnisch bisher unmöglich zu beseitigen scheint.
Es ist jener mit den Kennungen CVE-2017-5753 aka ‚Spectre Variant 1, bounds check bypass‘, CVE-2017-5715 aka ‚Spectre Variant 2, branch target injection‘ und CVE-2018-3639 aka ‚Variant 4, speculative store bypass‘, bekannt als „Spectre“, das „Schreckgespenst“.
Ohne die pausenlose Arbeit zum Jahreswechsel 2017/2018 der weltweiten Entwickler-Community, wären selbst AMD-CPUs des Jahres 2020 hier verwundbar. Die gelisteten drei Varianten von Spectre sind ledliglich softwareseitig gepatcht und damit seit über 2,5 Jahren auf keinem aktuelleren Stand als damals.
Mir ist das zu lange. Als Entwickler, wie als Anwender.
Von 14 Hardwarefehlern sind 11 aus der Welt und drei nach wie vor vorhanden. Willkommen in der neuen Realität der 78,57%-PC-Hardware für 100% hardverdientes Geld! Was ein Scheißdreck.
Whoa! KDE macht offenbar in Ultrabooks:
Direkt der Slimbook-Website entnommen
Und die Dinger sehen auch noch hardwaretechnisch supersexy aus! Passend zur Desktopumgebung! 🙂
Mit 899€ auch zu einem sehr humanen Preis, wie ich finde: dafür erhält man ein 14“-HD-IPS-LED-Display mit leistungsstarkem AMD Ryzen 4800H-Prozessor (8 Kerne, 16 Threads, integrierte Radeon-Grafikkarte mit 1,43 T(!)FLOPS), der erst im Januar auf der CES öffentlich vorgestellt wurde (hier nochmal der Bericht). Eine bisschen mickrige 250GB-SSD, sowie 8GB RAM ebenso.
Wer will, kann über den Onlineshop das Setup jedoch noch nach Belieben (oder was der eigene Geldbeutel hergibt) aufstocken. Im Kurzbesuch konnte ich bis zu 64GB RAM und eine 2TB Samsung-SSD ohne Probleme finden, siehe: https://slimbook.es/en/store/slimbook-kde/kde-slimbook-14-comprar.
Das Geilste aber ist natürlich: KDE Neon vorinstalliert!
Die auf Debian bzw. Ubuntu LTS basierende Linux-Distribution gilt als bleeding edge und liefert immer das Neueste und Feinste von KDE frei Haus. Und das noch gar nicht lange: sie ist erst vier Jahre alt, wurde 2016 ins Leben gerufen. Aktuell ist sie mit Platz 11 locker in den TOP20 von distrowatch.com zu finden. Sehr populär also.
Wem 14“ zu klein sind, kein Problem: für nur 30€ mehr erhält man das 15“-Modell.
Fazit: hardwaretechnisch und von Betriebssystemseite erste Sahne und wenn die Verarbeitung nur halb so geil ist, wie sie aussieht, für mich ein Anwärter auf das Gadget des Jahres!
Schon extremst geil und wirklich heftigst eye candy plus cyberpunk:
eDEX-UI ist ein Terminalemulator, wie man ihn von PC-Interfaces aus Scifi-Filmen wie „Tron“ und „Alien“ kennt. Er läuft auf allen gängigen Plattformen, Linux bevorzugt, aber auch Mac oder sogar Windows mit wenigen Einschränkungen.
Das Programm aus der Zukunft ist frei hier erhältlich: https://github.com/GitSquared/edex-ui.
Nach der Installation erwartet einen ein Echtzeitmonitor für CPU, RAM, Swap und laufende Prozesse, sowie das Netzwerk. Für Touchscreens liefert er eine entsprechende Tastatur mit, die sich bei Nichtbedarf auch ausblenden lässt. In jedem Interface ist ein Verzeichnis-Browser eingebaut. Und: natürlich enthält er immer auch die entsprechende Konsole zum Arbeiten oder Experimentieren.
Das Customising kann man selbst übernehmen, braucht dafür allerdings das Wiki. Das sind schon erweiterte Konfigurationen, die man hier durchführen muss, nicht jeder kennt sich beispielsweise mit CSS-Injections aus.
Wer möchte, kann sich auch zum Konsolen-Skin entsprechende Sounds einblenden lassen.
Oben zu sehen ist der Skin neofetch mit eDEX-UI 2.2 und dem Standard-„Tron“-Thema. Ein Stückchen weiter unten das Thema „interstellar“ mit den geöffneten Grafikeinstellungen der Applikation.
Fettestes Projekt, absolute Empfehlung! Viel Spaß beim Ausprobieren!
Erst im Januar hatte AMD auf der CES in Las Vegas der Welt die neue 4000er-Serie seiner leistungsstarken Ryzen-Prozessoren vorgestellt. Unter anderem auch den 4800H(S), der in einem 14-Zoll-Exzellenz-Gaming-Notebook von ASUS präsentiert wurde, die sechs Monate das Exklusivrecht für die Veröffentlichung dieser CPUs halten sollten.
Das passte ganz gut in meine eigenen Hardwareplanungen, hatte ich mir doch seit 2011 keinen Rechner mehr gegönnt. Und die Thematik mit Meltdown und Spectre machte ab 2018 ja alles nur noch viel schlimmer und ätzender. Es war mal wieder allerhöchste Zeit, Intel so richtig in den A**** zu treten!
Die Notebook-Prozessoren von AMD spielen mittlerweile in einer eigenen Liga. Kein Vergleich mehr zu meiner letzten AMD-Hardware aus 2005, damals war der Turion64 „ultramodern“ und 64bit war d-e-r heiße Scheiß, die CPUs aber wie immer von AMD im Notebook viel zu laut und viel zu warm.
Die Hardware, die ich seit letzter Woche nun mein Eigen nennen darf, gilt aktuell als beste Laptop-CPU der Welt, neben dem 4900er-Modell, der Ryzen 7 4800HS.
Wie es der Zufall so wollte bin ich seit 2018 im CPU-Benchmarking-Territorium unterwegs, zumindest in meiner Freizeit. Was lag da also näher, als sich den Prozessor mal mit dem Tool HPL (High Performance Linpack) vorzunehmen, der Benchmark-Suite, mit der auch die TOP500-Liste der Supercomputer seit Jahren gebenchmarkt wird? Eben!
Gesagt, getan, Freitag Abend drei Stunden Arbeit investiert und das Ergebnis meiner Maschine kann sich doch durchaus sehen lassen, wie ich finde:
================================================================================
HPLinpack 2.2 — High-Performance Linpack benchmark — February 24, 2016
Written by A. Petitet and R. Clint Whaley, Innovative Computing Laboratory, UTK
Modified by Piotr Luszczek, Innovative Computing Laboratory, UTK
Modified by Julien Langou, University of Colorado Denver
================================================================================An explanation of the input/output parameters follows:
T/V : Wall time / encoded variant.
N : The order of the coefficient matrix A.
NB : The partitioning blocking factor.
P : The number of process rows.
Q : The number of process columns.
Time : Time in seconds to solve the linear system.
Gflops : Rate of execution for solving the linear system.The following parameter values will be used:
N : 13920
NB : 240
PMAP : Row-major process mapping
P : 1
Q : 2
PFACT : Right
NBMIN : 4
NDIV : 2
RFACT : Right
BCAST : 2ring
DEPTH : 1
SWAP : Spread-roll (long)
L1 : transposed form
U : transposed form
EQUIL : yes
ALIGN : 8 double precision words——————————————————————————–
– The matrix A is randomly generated for each test.
– The following scaled residual check will be computed:
||Ax-b||_oo / ( eps * ( || x ||_oo * || A ||_oo + || b ||_oo ) * N )
– The relative machine precision (eps) is taken to be 1.110223e-16
– Computational tests pass if scaled residuals are less than 16.0================================================================================
T/V N NB P Q Time Gflops
——————————————————————————–
WR12R2R4 13920 240 1 2 7.23 2.486e+02
HPL_pdgesv() start time Fri Jul 10 23:17:19 2020HPL_pdgesv() end time Fri Jul 10 23:17:26 2020
——————————————————————————–
||Ax-b||_oo/(eps*(||A||_oo*||x||_oo+||b||_oo)*N)= 0.0046572 …… PASSED
================================================================================Finished 1 tests with the following results:
1 tests completed and passed residual checks,
0 tests completed and failed residual checks,
0 tests skipped because of illegal input values.
——————————————————————————–End of Tests.
================================================================================
Wie zu erwarten war schneidet das 8-Kerne-AMD-Biest formidabel ab, das Endergebnis des etwas über 7 Sekunden dauernden und alle acht Kerne ausnutzenden Tests ging voll auf den L3-Cache, der hier zwei Mal vorhanden ist und je 4MB beträgt: 248,6 GFLOPS!
I <3 it! Selbst nur im Akkumodus und vom Stromnetz getrennt kam der Prozessor noch auf 210,4 GFLOPS.
Ich kann mir nicht helfen, aber ich habe selten so eine krasse, alleinige CPU-Leistung von einem meiner Heimgeräte gesehen. Gut, die PS3 war auch noch gut dabei, bis heute übrigens, obwohl die Hardware aus 2007/2008 stammt. Der Ryzen 7 4800HS ist also die zweite CPU in meinem Haushalt, die über 200 GFLOPS mit HPL erreicht. Hut ab, AMD, gerne mehr davon!
Solche Benchmarks selbst durchzuführen, v.a. unter Linux, ist eine Kunst, die selbst mich als Berufsinformatiker immer wieder vor Herausforderungen stellt. Man merkt das schon sehr gut bei der Recherche zu dem Thema, wo nie Tools gelistet sind, die außerhalb der Intel-Welt ein Ergbnis in (G)FLOPS liefern. Wie kompliziert das hier war und wie man den Test erfolgreich durchführt, bei noch viel komplizierterer Vorkonfiguration, erläutere ich gerne mal in einem anderen Beitrag. Stay tuned! 😉
Was Unterstützung für Linux betrifft, so ist Canon aus Japan beileibe kein A****loch-Hersteller: für meinen Drucker TR 8550 aus 2017/2018 gibt es wenigstens Treiber für Debian Linux und RPM-basierte wie z.B. Fedora. Wenngleich die seit Ende 2017 auch nie mehr einem Update unterzogen wurden…
Wie Canon in den 80ern Populärkultur wurde: dank „Akira“!
Nur was mit Arch oder auf Arch basierenden Derivaten? Viel Spaß mit der Installation über den Sourcecode!
Nee, das funktioniert nicht. Ehrlich jetzt.
Ich hatte noch ein funktionierendes Setup auf einem anderen Linux-Rechner, aber selbst meine manuell kopierten Dateien (cmdtocanonij2
, cmdtocanonij3
, rastertocanonij
) nach /usr/lib/cups/filter/
brachten das Mistding nicht ans Laufen. Ich bekam beim Druckversuch einer Testseite nur immer wieder die Meldung „Filter failed“.
In einer Onlinerecherche kam irgendwo (ich spare mir Links, keine Zeit, hier auch unnötig), das bedeute „eine Vielzahl von Fehlern“, ich solle debuggen.
Nee, das funktioniert heute nicht. Nicht heute. Und morgen auch nicht. Und auch nicht irgendwann nächstes Jahr.
Phew, was tun?
Wir werden pervers! Aber so richtig! Wir konvertieren das erhältliche *.deb-Paket in eine Arch-Installationsdatei, die pacman dann essen muss! Völlig egal, ob es funktioniert oder nicht danach! Muhahahaha!
Das Tool, das dies erledigt, nennt sich debtap und ist über offizielle Quellen nicht erhältlich, man muss das inoffizielle AUR anzapfen. Doch selbst dann läuft es nicht einfach von selbst, man muss indizieren lassen, aber wie das alles genau geht steht hier, denn den Link share ich gerne weiter: https://ostechnix.com/convert-deb-packages-arch-linux-packages/.
Der Befehl, der die Konvertierung durchführt, lautet schließlich so:
debtap cnijfilter2_5.50-1_amd64.deb
Der hat wahrscheinlich eine halbe Ewigkeit Gültigkeit, denn der Treiber wird von Canon für Pinguinnutzer ja eh nie geupdatet.
Man kann übrigens die Fragen, die sich hier stellen, nach Belieben ausfüllen, das ist nicht wichtig. Heraus kommt eine cnijfilter2-5.50-1-x86_64.pkg.tar.zst
, die man nur noch mit sudo pacman -U
installieren muss. DONE!
Gestern, nach 22:00, end-lich funktioniert’s!
Gut, bei mir schlug die Installation erst einmal fehl, denn meine manuell kopierten Dateien waren ja noch da, worüber sich pacman beschwert hat. Doch nach dem Löschen dieser war dann eine Installation ohne Fehlermeldung möglich. Danke debtap, danke pacman, danke TCP/IP!
Mit diesem Tutorial wollte ich mehrere Dinge auf einmal zeigen:
1) die erfolgreiche Installation des Druckers TR 8550 von Canon unter Arch Linux bzw. einem der vielen Derivate
2) dass eine manuelle Installation fehl schlägt (verschwendete Lebenszeit!)
3) was das Tool debtap ist und warum wir hier pervers werden müssen
4) warum Versuch manchmal kluch macht
5) get it running or die tryin‘!
Wenn diese Exkursion in die Tiefen der Linux-Druckertreiber-Höllen bei euch auch zum Erfolg geführt hat, klickt doch auf einen der Buttons und spendet bitte! KTHXBYE! <3
Linux-Distributionen für die PlayStation 3 sind sehr rar, was zum einen an der von Wenigen benutzten CPU-Architektur ppc64 liegt; für mich bis heute unverständlich, gehört diese Architektur doch mit zu den modernsten und jüngsten überhaupt. Mit Red Ribbon GNU Linux lag uns bis Mitte 2018 dennoch eine inoffizielle Debian-Distribution vor, die man bis hoch zur Version 8.11 aktuell halten konnte. Danach waren Updates, nicht einmal Sicherheitsupdates, mehr möglich, da ppc von den Debian-Paketquellen-Maintainern nicht unterstützt wurde. Sonst hätte man damit noch locker bis zum 30. Juni diesen Jahres arbeiten können.
Dieser Umstand bzw. diese Not führt mich als PS3-Linux-Entwickler immer mal wieder zu den verschiedensten Ecken des Web, wo ich Fragen stelle und mich umhöre, ob wir nicht doch einen Workaround finden können zwischenzeitlich. Und siehe da: im letzten Monat wurde ich bei reddit fündig, wo jemand kurzerhand eine PS3-Distribution basierend auf Alpine Linux zusammengestellt hat:
https://github.com/fasif/AlpinePPC64.
Alpine Linux kannte ich bis dato gar nicht, Distrowatch liefert mir anschließend allerlei Informationen wie dass es aus Norwegen stammt, regulär oft auf Routern und Telefoniesystemen zum Einsatz kommt, und auch wie das Logo ausschaut:
Das Geilste aber ist der Kernel, mit dem diese PS3-Distribution läuft: hier wurde mein eigener 3.15.10er aus Ende 2018 dafür benutzt! 😀
Alle meine PS3-Kernels werden auf der PS3 selbst gebaut. Die Hardware braucht für das Kompilieren dafür oft mehrere Stunden. Im Zuge des Spectre-Meltdown-Desasters 2018, das so ziemlich alle OoOE-CPUs betraf und dazu zählt nun mal auch der Cell-Prozessor, hat dazu geführt, dass ich auch versucht habe 4er-Kernels zu bauen (siehe hier). Es scheiterte am Ende jedoch immer wieder an zu alten IBM-Patches. Die zu aktualisieren fiel mir schwer, kannte ich nämlich die Syntax nicht und begegnet sind mir solche Patches bis 2018 auch nie. Am Ende fehlten nicht viele (Link zur Übersicht), für etwaige Hilfe und Fehlersuche stellte ich auch *.rej-Dateien zur Verfügung. Allein, mir ist bis heute nicht bekannt, dass die Patches irgendwo aktualisiert zur Verfügung stünden, um einen lauffähigen 4.x.x-Kernel für eine CFW-PS3 zu bauen. Wäre mir das damals gelungen, diese neue PS3-Linux-Distribution weiter oben hätte dann einen aktuelleren Kernel als 3.15.10 gehabt. Immerhin ist mein Kernel aber neuer als der 3.12.6er, der mit Red Ribbon ausgeliefert wird und auch nie einem Update unterzogen wurde in der Lebensspanne der Distribution.
Es ist wie es ist und eigentlich habe ich auch mal wieder Lust mich am Kompilieren eines 5.x.x-Kernel für die PS3 zu versuchen. Allein, mir fehlt nach wie vor die Zeit dazu.
Trotzdem, es ist schön zu sehen, dass geleistete Arbeit für F/OSS auch von anderen verwertet wird, verwertet werden kann. Das ist einer der riesengroßen Vorteile der OpenSource-Bewegung und eine Leistung, auf die wir nicht umsonst sehr stolz sind.
Die PS3 mit ihrer besonderen und wertvollen Architektur aus den Jahren 2007/2008 ist nicht die einzige Hardware, die auf diese Weise weiter am Leben gehalten werden kann und generationenübergreifend für weitere Faszination und spannende Coding-Projekte sorgen wird. Eine nagelneue Linux-Distribution aus dem Nirgendwo ist schon eine Hammermeldung, wie ich finde.
Heute läuft der letzte Tag von versendeten Arbeitspaketen an unsere SETI@home-Clients.
Mein lokaler Client möchte sich deshalb heute persönlich verabschieden, inklusive wohl historischem Zeitstempel:
(Klicken zum Vergrößern, 6MB-Originaldatei)
Mit der Einstellung des Projekts stirbt auch eine gewisse Menschheitshoffnung. Liegt ja leider mit den aktuellen globalen Entwicklungen der letzten 20 Jahre sehr hart im Trend.
Ich bin gespannt, wann und welche Ergebnisse uns das Projekt liefern wird. Sehr wahrscheinlich werden wir direkt über die Projekt-Website informiert werden, https://setiathome.berkeley.edu/. Ich denke jedoch nicht, dass wir hier allzu viel erwarten sollten. Hätte es all die Jahre etwas wirklich Interessantes zu berichten gegeben, es hätte sich schwerlich verheimlichen lassen können.
Danke für die Möglichkeit zu diesem einzigartigen Projekt beitragen zu können und alles Gute! Es war mein erstes und ältestes Distributed Computing-Projekt und zählte fast 18 Jahre.
Im Normalfall bin ich kein großer Liebhaber von Laptops unter einer Displaygröße von 15“, doch für das ASUS ROG Zephyrus G14 kann ich gleich mehrere Ausnahmen auf einmal machen:
Zum einen bin ich CPU-N3rd sondergleichen und auch schon jahrelanger „Fanboy“ der Underdog-CPU-Schmiede AMD. Einen entsprechenden 80×15-Button aus Anno dazumal findet sich noch heute deswegen in meiner Sidebar. Und erst am 23. Dezember, also kurz vor Weihnachten, geisterte die Meldung durch das Web, Veröffentlichungen erster Laptops mit AMDs Ryzen 4xxx-er-Prozessorserie stünden kurz bevor, sowohl von ASUS, als auch HP. Die passenden Links lieferte ein spanischer Onlinehändler und machte diese Gerüchte dann „wahr“. Was fehlten, waren Fotos entsprechender Hardware. Komischerweise sind die Links heute auch nicht mehr erhältlich.
Im Zuge der Konsumentenmesse CES in Las Vegas hat zumindest ASUS das Geheimnis dann gelüftet. Deren subtiles Meisterwerk ist ein Laptop-Powerhouse im 14“-Format, das in zwei Farben ab dem 2. Quartal für ca. 1.299€-1.499€ erhältlich sein soll.
Was zuallererst dabei auffällt ist der ungewöhnliche Laptop-Deckel (siehe oben): es gibt nämlich ein Modell extra für G33ks, das 1.200(!) programmierbare(!) Mini-LEDs auf der Außenhülle mitbringt! Die Möglichkeiten zur Visualisierung scheinen hier unbegrenzt, auf der Messe selbst konnten sich schon diverse Hacker austoben, man findet viele Fotos wenn man in Suchmaschinen die Bildsuche anwirft und nach „AniMe Matrix“ sucht – so heißt dieses Feature nämlich offiziell im Sprech des Herstellers aus Taiwan.
Von der Optik wieder weg zum eigentlichen Novum: das leistungsfähige Maschinengehirn wird ein AMD Ryzen 4800H sein. Nicht nur die Typbezeichnung wurde inzwischen konkretisiert, diese SoC („SystemOnAChip“) bringt diesmal acht Zen2-Kerne mit. Höchste Taktung wird bei schönen 4,2GHz liegen. Pro Kern. Gepaart mit der zuletzt Anfang 2018 in die Schlagzeilen geratenen „Hyperthreading“-Technologie (Meltdown und Spectre und Konsorten, wir erinnern uns), stehen dem Betriebssystem hier also satte 16 Threads zur Verfügung. Und das bei nur 45W Leistungsaufnahme, möglichgemacht durch eine 7nm-Herstellungstechnologie, u.a. Weitere Daten zur CPU findet man direkt bei AMD oder z.B. Notebookcheck.
Ich selbst wäre hier bereits bedient gewesen.
Auch mache ich mir nichts aus den mitgelieferten Grafikeinheiten dieser SoCs.
Doch eine weitere Eigenart dieses Modells ist, dass man in einem G15 z.B. nicht finden wird: die Nvidia GeForce RTX 2060 Max-Q.
Jep, richtig gelesen: ASUS ist einer der wenigen Hersteller weltweit, der Highendgrafikkarten von Nvidia in AMD-Laptops verbaut (leider). Ich war schon immer großer Fan und auch Anwender dieser Kombo, weil Linux halt und Treibergedönsen; wissen schon. Für mich ist solche exotische Hardware daher sehr, sehr, sehr sehr attraktiv…
Diese Leistung wird hier einmalig sein. Selbst der 15“-Bruder wird prozessor- und grafikkartenseitig diesem Gerät hier unterlegen sein, zumindest auf dem Papier. Ob das merklich in der Praxis etwas ausmachen wird, darüber kann man bereits streiten und wird das auch erst herausfinden können, wenn beide Notebooks ausgiebig kurz vor dem 2. Quartal zur Verfügung stehen und getestet werden können.
Wer das G14 noch etwas detaillierter als lebendes Objekt sehen will, dem empfehle ich auch hier die Fotos von Notebookcheck: https://notebookcheck.com/Asus-ROG-Zephyrus-G14-Das-leistungsstaerkste-14-Zoll-Gaming-Notebook-der-Welt.449298.0.html. Die meisten anderen Quellen liefern nämlich lediglich Standardbildmaterial, z.B. von ASUS-Webseiten. Ist jedoch verständlich, schließlich hat nicht jedes Onlinemedium zum Thema Gadgets die Ressourcen mal schnell nach Las Vegas für Gadget-Pr0n zu fliegen. Schade eigentlich.
Ob das Teil seinen Platz in meine h4x0r-Stuben finden wird steht in den Sternen. Für die angebotene Leistung ist der Preis nicht mal „zu hoch“, aber doch ordentlich für einen kommerziell wenig erfolgreichen Indie-Autoren wie mich. Da bräuchte ich schon zigtausende Flattr-Spenden, das wird nicht funktionieren. Zudem ärgert mich irgendwie immer noch die 14“-Zoll-Displaygröße. Ich kann nichts dafür, ich bin fast so groß wie ein Zollstock, das sähe bei mir wie Kinderspielzeug aus!11 Witzig finde ich auch, dass mir diese AniMe Matrix nicht mehr aus dem Kopf geht – was ich damit alles programmieren könnte! Und wie viel Zeit es verschwenden würde!1 Und wie sinnlos es sein würde!11 Und wie unwichtig auf lange Sicht!111 Muhahaha! Ach, wir dummen Männer: sabbern und hecheln und träumen von PC-Hardware statt vom anderen, attraktiven, natürlich perfekten Geschlecht! Zum Glück, phew, war ich in der Vergangenheit so schlau und habe diese Art von Porno zum Beruf gemacht, haha! 😀
Oben: Zerstörte Intel-CPU, CCBYSA porras
Es gibt Artikel zu Linux, da schüttelst du als IT-Experte einfach nur noch den Kopf.
Oder auch mehrfach.
Alleine auch schon, wo die Fragestellung dazu herkommen soll.
Hier ist mal wieder so einer: „HOWTO make Linux run blazing fast (again) on Intel CPUs“.
Nichts davon, was hier an „Workarounds“ beschrieben wird, sollte man machen, weder auf einem Arbeitsplatz-PC, noch auf einem persönlichen.
Da reißen sich ein Jahr lang Entwickler weltweit den Allerwertesten auf, damit Meltdown, Spectre & Co. in den Griff bekommen wird, und dann sowas.
Der Artikel hier beschreibt, wie man jegliche Sicherheitsschranke ausschaltet, die ab Januar 2018 im Linux-Betriebssystem-Kern implementiert wurde. Das ist einfach nur eklig.
An Insider-Wissen spart der Artikel hingegen nicht.
So steht hier, dass man bei allen Kerneln vor Version 5.1.13 auf insgesamt 8 neue Sicherheits-Features kam (noibrs noibpb nopti nospectre_v2 nospectre_v1 l1tf=off nospec_store_bypass_disable no_stf_barrier mds=off). Ab Kernel 5.3.6 waren es schon 10 (nopti, kpti=0, nobp=0, nospectre_v1, nospectre_v2, spectre_v2_user=off, spec_store_bypass_disable=off, ssbd=force-off, l1tf=off, mds=off). Wie immer bei meinen Artikeln zu diesem Thema: hardwareseitig ist auch damit rein gar nichts gepatcht. Lediglich das eigene Betriebssystem bleibt sicher.
Ferner liefert der Artikel auch einen Vergleich der „Performance-Einbußen“, die sich mittlerweile leichter erstellen lassen als noch vor knapp zwei Jahren. Ergebnis: solange „SMT“ (simultanes Multithreading) aktiv bleibt, die eigentliche Wurzel des Problems (Marketingidiotensprech „Hyperthreading“), wird man diese weder sehen, noch spüren können. Schaltet man das Problem hingegen komplett aus, wozu beispielsweise Google vor wenigen Monaten riet, sind die Einbußen im Schnitt bei 10-15% Leistung. Das kann sich, je nach genutzter Anwendung, durchaus beim Arbeiten/Spielen bemerkbar machen.
Warum ich dem Artikel am Ende doch dankbar war, lag an zweierlei Gründen: man kann die Inhalte auch wundervoll als Satire lesen und sich daran erfreuen. Und es spricht Bände, überhaupt über die gegenwärtige IT-Situation, dass er überhaupt existiert (und sogar noch heute aktuell gehalten wird, das letzte Update war am 15.10.).
Wutroter Androide, CCBY Giochi Android Iphone
In der Welt des Smartphone-Betriebssystems Android passiert mittlerweile sehr, sehr viel Schmu.
Auf der einen Seite kann man das als „Normalität“ abtun, schließlich wollen alle Hersteller am besten jedes Jahr ihren Kunden neue Geräte andrehen. Da geht schon mal die eine oder andere wichtige Sorgfalt unter. Doch dass ich als Entwickler und nicht als bloßer Konsument mal davon betroffen sein würde, bei einem Produkt von Google, das war mir neu.
2019 war alles anders. Ich darf nämlich offiziell mit „meiner“ Entwicklungsumgebung „Eclipse“ gar nicht mehr für Android coden.
Der Laden ist dicht, bumms aus vorbei für uns reine Java-Entwickler. Wer für Android programmieren will, der muss zwingend „Android Studio“ nutzen, eine auf der russischen Entwicklungsumgebung „IntelliJ“ basierende „offizielle Entwicklungsumgebung“.
Ich habe letzte Woche dennoch meine ersten Apps zumindest mal auf Android 9 (Pie) aktualisieren können.
Ja, mit Eclipse.
Eclipse warf seit fast zwei Jahren dauernd irgendwelche anderen bescheuerten Fehler, was man aber gewohnt ist. Jetzt war letzte Woche aber auch ein Feiertag und ich konnte mich des Problems zeitlich und nervlich endlich einmal annehmen.
Die Fehlermeldung zum Einstieg war wundervoll nichtssagend, Error type 3 Error: Activity class {MainActivity} does not exist
. Gibt man diesen String in, klar, Google, ein, landet man wie üblich auf massenhaft Seiten von „Stack Overflow“ und wühlt sich da durch. Als ich das beseitigt hatte kam aber schon wieder ein anderes Problem auf: ERROR: This AVD's configuration is missing a kernel file! Please ensure the file "kernel-qemu" is in the same location as your system image
. Kennt ihr so Situationen, wo ihr verflucht, was ihr beruflich gelernt habt!? Hier ist eine!
Also wieder Google. Erster Beitrag: Using Android 8 and 9 emulators without Android Studio von Andrés Zsögön. Zwar kenne ich diesen Typen nicht, doch er hat meinen Arsch gerettet.
Hier lädt man einfach zwei ZIP-Dateien runter und ballert die Dateien über das spackende „Android SDK“ drüber. Wer möchte, der kann auch aktuellere ZIPs hier finden: https://stackoverflow.com/questions/43685301/how-can-i-install-the-gui-android-sdk-manager-without-installing-android-studio/51429889#51429889.
Nach dem Update sieht das Hauptfenster des Android SDK Manager in Eclipse dann etwa so aus:
Was man hier gut (oder weniger gut) sehen kann:
* es gibt nach wie vor keinerlei Images von Android 10 („not compatible with Linux“), die ich über diese ZIPs auf den PC spielen kann, um (meine) Apps zu testen, ergo Update auf Android 10 von mir nicht möglich
* ohne diese ZIPs von oben wären ab API 27, also Android 8, keine Einträge „System Images“ vorhanden
* das selbe gilt für Android 9
Man sollte Updates hier grundlegend nicht mehr durchführen, auch wenn diese unten rechts angezeigt werden, da sonst Eclipse wie auch der Android SDK Manager durcheinander kommen. Ein Update der eigenen erstellten Apps von Android 7 (Nougat) auf eine höhere Version ist nicht mehr grundsätzlich möglich!
Ich finde das, gelinde gesagt, eine Riesensauerei.
Als ich den Beruf erlernte haben wir noch C, C++ und (ganz wenig) Java gelernt, schön plattformunabhängig. Heute lernen viele nur noch C#, und damit sich von Beginn an in die Abhängigkeit von Microsoft zu begeben. DAS hier ist genau das Selbe in grün, nur von Seiten des „Big G“! Solch brachialer Schwachsinn zwingt Leute dazu Berufe zu wechseln! Ein Angriff auf unsere wertvolle Lebenszeit, wie ich finde.
Ich habe gar keinen Bock mehr auf diese Scheiße.
Jüngst flog eine meiner der kostenlosen(!) Apps sogar aus dem Google Play Store, wegen dem „Einbinden von Spenden-Buttons“. Andere, wie Cam Scanner, sind jahrelang erhältlich und hinterher kommt raus, dass die Zeit haben durften, Trojaner auf 100(!) Millionen(!) Geräten zu installieren. Willkommen in der schönen neuen Welt der Mountain-View-Unverhältnismäßigkeiten! Klar bin ich wütend auf die, aber scheißwütend!
Joa. Sehen wir es skandinavisch: was soll’s. There goes the freedom of free software development.
tl;dr: Ab Android 7 kann man als „Eclipse“-Entwickler eigenentwickelte Apps nicht mehr mit dem Android SDK auf neuere Versionen updaten, damit auch nicht 64bit-fähig machen, und Google ist das neue Microsoft.
Mein persönliches „Supertool des Jahres“ nennt sich Redshift:
Das Werkzeug „passt die Farbtemperatur des Bildschirms der Umgebung an“, wie es so schön in der offiziellen Beschreibung heißt.
Der Effekt ist dabei der selbe und sehr effektiv, wie man ihn eben von moderneren Smartphones und Tablets, sowie Custom ROMs für diese Geräte her kennt.
Für KDE 5.x sollte man sich unbedingt das sehr nette Plasmoid dazu installieren. Den zweiten Tab der Einrichtung sieht man oben, die Werte könnt ihr getrost übernehmen.
Tatsächlich ist das blaue Licht, das unsere PC-, Laptop- und Smartphones aussenden schädlich für unsere Augen. Die Diskussionen dazu finden immer mal wieder statt, es ist und bleibt ein ongoing Thema. Erst im Juni habe ich drüben bei href.ninja mal wieder einen solchen Artikel zum wissenschaftlichen Stand verlinkt.
Es gibt nicht viel was wir aktiv dafür tun können, außer: weniger vor diesen Bildschirmen hocken. Nur wird das Berufstätigen aus dem IT-Bereich oder ähnlichen Bereichen leider nicht viel bringen. Und das soll ganz sicher keine Entschuldigung sein.
Geht doch mal raus in die Natur und pflanzt einen Baum! Solange es noch Natur und Bäume gibt. Ach ja: und „echtes Licht“. Sonne und Gedönsen…
Entweder habe ich das bisher zu selten gebraucht. Oder ich habe so etwas einfach zu wenig verwendet. Nachfolgend die Matrix mit den 10 häufigsten Fällen, um sich Ausgaben von Linux-Konsolenbefehlen in eine Datei speichern zu lassen:
Standard. Einfach die Ausgabe des Befehls in eine Textdatei umleiten. Es wird keine Ausgabe im Terminal selbst geben. Existiert die Datei, wird diese überschrieben.
Siehe oben, nur dass das erneute Ausführen die Ausgabe der Ursprungsdatei anhängt.
So weit ich das verstehe, werden nur Fehler in die Textdatei geschrieben, ansonsten verhalten wie ganz oben.
Dito, statt überschreiben der Datei werden die Fehlerergebnisse hier jedoch angehängt.
Hier werden Standardausgabe des Befehls plus Standardfehler in die Textdatei geschrieben. Existiert die Datei, wird diese überschrieben.
Ihr ahnt es: statt überschreiben werden beide Ausgaben angehängt.
Wenn ihr beides wollt: Ausgabe in eine Textdatei und eben noch den Output in der Konsole sehen (z.B. zur Kontrolle).
Hier brauchen wir explizit einen Schalter, -a, um statt einem Überschreiben ein Anhängen zu bewirken.
Hier gehen Standardausgabe des Befehls inklusive Standardfehler in die Textdatei. Existiert diese, wird sie überschrieben.
Wie oben, nur eben mit anhängen.
[via]
Sind Grundlagen und ist auch definitiv best practice bei der Fehlersuche und dem Weiterleiten von Fehler- bzw. Statusmeldungen aus dem Konsolenterminal an Dritte.
Allerdings, auch wenn ich das hier mal endlich festhalte: ich werde es a) wieder vergessen und b) mich in den seltensten Fällen dran halten. :-/ Dazu noch Hitzewelle und Atembeschwerden den ganzen Tag; da krisch Plack…
„Dirty Unicorns“ – diese Android-Custom-ROM gehört ohne Zweifel zu den kontroversesten da draußen.
Das lag am Ende an zu vielen Faktoren, meiner bescheidenen Meinung nach aber v.a. wohl an der Eitelkeit des Gründers Alex Cruz aka mazda. Mit dem aktuellen Release zu Android 9.x wird ab dem dritten Quartal 2019 Schluss sein mit dem Projekt.
Schon früh wollte man auf die bestehende XDA-Community, wo man üblicherweise Custom ROMs und Informationen dazu bekommt, keinen Wert legen, sah diese gar als nervig und inkompetent an. Im Streit und ständigen Takedown-Wirrwarr von Beiträgen zu „DU“ zog man daher einen eigenen Konkurrenten hoch, https://devs-base.com/. Downloads, Informationen und auch Bugs sollten fortan nur noch dort gepostet werden, später kam noch ein eigenes JIRA-Projektmanagement-Tool dazu.
Auch OpenGAPPS, das bekannte Paket mit den essentiellen Google-Applikationen wie dem Play Store, wollte man abgelöst wissen und ermunterte die Nutzer anfangs dazu ein anderes zu nutzen. Ich glaube mich daran zu erinnern, dass es sich „BeansGapps“ nannte. Ist schon Jahre her, durchgesetzt hat es sich nie so richtig.
Hier könnte man immer weiter graben und nach all den Jahren weitere Kritik anbringen: etwa die vielen, unnötigen „Memes“ und der harsche, oft beleidigende Umgangston auf Twitter und (dem mittlerweile leider von Google abgeschalteten) Google+, etc., würde aber der ROM selbst damit nicht Genüge tun.
Abseits dieser oberflächlichen, künstlich herbeigeführten „Problemchen“, war bzw. ist „Dirty Unicorns“ eine der am weitesten fortgeschrittenen, feature-reichsten und ausgereiftesten Custom ROMs aller Zeiten!
Umso mehr schmerzt, dass sich Alex Cruz und das Entwickler-Team nach dem Pie-Release auflösen werden, wie er offiziell vor einigen Wochen publizierte. Mehr als ein GitHub-Archiv mit übriggebliebenem Quellcode soll von der ROM als Onlinereferenz nicht mehr übrig bleiben.
Sehen wir es realistisch: eine Custom ROM zu bauen und zu warten erfordert enorm viel Fleiß, Disziplin und technisches Fachwissen über Jahre hinweg, oftmals von mehreren Mitgliedern. Dass hier ein Projekt durchgezogen würde, das irgendwann zu „Ice Cream Sandwich“-Zeiten in 2011 bis 2019 laufen würde, hätte wohl nicht mal mazda selbst für möglich gehalten. Das ist schon ein kleines Wunder, über das die Community, egal wo im Web beheimatet, sehr stolz sein kann.
Ich bin dennoch der Meinung wir verlieren hier einen weiteren krassen Innovationsmotor für Android: „Dirty Unicorns“ geht den selben Weg über den Jordan wie zuvor schon die legendären ROMs AOKP und Paranoid Android.
Die Gründe für das Scheitern sind ebenfalls sehr ähnlich: das Leben hat einen irgendwann mehr im Griff als ein idealistisches Coding-Projekt. Neben dieser Unvereinbarkeit werden entwickelte Features auch zeitweise vom „Großen G“ übernommen, ohne es an die Community zurückzuzahlen, was zu internem Frust führt. Oder Interessen verlagern sich, man will etwas Neues ausprobieren (Alex Cruz spricht von „Twitch“) oder gleich sich selbst.
Welche weiteren Gründe auch immer am Ende für das Schließen herhalten müssen: ein großes Dankeschön an die „DU“-Community für die vielleicht fortschrittlichste Android-Custom-ROM des Planeten Erde! <3
#YouWillBeMissed #StayDirty #NeverClean
Mit seinen erst 30 Jahren ist das WorldWideWeb eine immer noch recht junge, technisch hochentwickelte, revolutionäre Erfindung. In dieser relativ kurzen Zeit haben wir einer spezifischen Bewegung sehr viele reale, kryptographische Errungenschaften zu verdanken: Cypherpunks.
Das WWW war die Plattform, mit der sicherheitsrelevante Gedankengänge und Ideen, die nur einer kleinen Schar elitärer Zirkel zur Verfügung standen, für jeden Nutzer des Web verfügbar sein konnten und sollten.
Ein Abriss.
Es startete mit der asymmetrischen Verschlüsselung von EMails bereits in den 70ern und 80ern des 20. Jahrhunderts. Heute kennt jeder Emailnutzer PGP/OpenGPG und viele Entwickler und Visionäre sind sogar mit eigenen Algorithmen hier verewigt (Beispiel Diffie-Hellman-Schlüsselaustausch-Protokoll, RSA (Rivest-Shamir-Adleman), etc.). Meine eigenen Experimente hier gehen zurück bis ins Jahr 2005 (Beispiel webmaster@net-designz.de und Kennung E01AED3DEEACF9C3) und wurden leider nur sporadisch zum Einsatz gebracht aufgrund legendärer Kommentare meiner Emailpartner wie „zu komplizierte Einrichtung“ oder „privaten Schlüssel verloren“.
1990 gründet sich die Electronic Frontier Foundation (EFF) zur Stärkung und Durchsetzung von „Internet-Bürgerrechten“.
Mit SSH 1.x entstand an der Universität Helsinki Mitte der 90er durch Tatu Ylönen gar ein Standard um den kompletten Netzwerkverkehr zu verschlüsseln. Heute wählt sich jeder z.B. von seinem PC oder Laptop per SSH auf einem scheckkartengroßen Linux-PC, dem „Raspberry Pi“, standardmäßig über die Konsole zur Administration ein.
Zur selben Zeit hatte die legendäre Cypherpunks-Mailing-Liste ca. 700 Abonnenten und wuchs bis Ende 1997 auf ca. 2000. Über diese Liste tauschten sich Aktivisten, Hacker und Interessierte wie John Gilmore und Julian Assange zu Themen wie „privatsphäre-erweiternde Technologien“ und Kryptographie aus.
In den 90ern entsteht ebenso das „Cypherpunk-Manifest“ (A Cypherpunk’s Manifesto). Essentielle Ideen lauten so:
„Privacy is necessary for an open society in the electronic age. … We cannot expect governments, corporations, or other large, faceless organizations to grant us privacy … We must defend our own privacy if we expect to have any. … Cypherpunks write code. We know that someone has to write software to defend privacy, and … we’re going to write it.“ [via]
Der Mainstream greift das Thema im selben Jahrzehnt u.a. durch das „Wired“-Magazin auf.
Der Kampfbegriff „crypto wars“ folgt kurz darauf. Vor allem die US-Regierung versucht mit alliierten Verbündeten in jenem Jahrzehnt die Öffentlichkeit und nicht zur Allianz zugehörige Regierungen davon abzuhalten, elektronische Kryptografie-Technologie zu benutzen, oft mit der Drohung eigener Geheimdienste.
Kryptographie-fähiger Programmiercode fiel bis ins Jahr 2000 gar in die Kategorie einer Waffe und der Export war bis in diese Zeit durch US-Recht verboten.
Bram Cohen entwickelt und veröffentlicht 2001 BitTorrent, ein Datenübertragungsprotokoll auf P2P-Basis für Daten und elektronische Dateien.
2002 entsteht das TOR-Netzwerk, eine OpenSource-Software zur anonymen Kommunikation. Über unzählige Relays entsteht ein komplett neues Netzwerk, das „Dark Web“, mit eigenen TOR-Browsern, Marktplätzen, Wikis, Chat-Systemen.
2006 gründet sich in Island WikiLeaks, eine Enthüllungsplattform des australischen Internetaktivisten Julian Assange. WikiLeaks unterhält nach eigenen Angaben bis 2016 zehn Millionen Dokumente über News-Leaks, Whistleblower- und geheimgehaltene Regierungsinformationen. Motto: „WikiLeaks bringt wichtige Informationen an die Öffentlichkeit. Wir stellen eine sichere, innovative und anonyme Möglichkeit unseren Quellen zur Verfügung Informationen an unsere Journalisten weiterzugeben“. Publikationen geschehen oft roh und komplett unzensiert. Eine Übersicht über acht spektakuläre Leaks, allein bis 2010, findet sich z.B. hier.
2008 wird „Bitcoin“ der Öffentlichkeit durch ein Whitepaper vorgestellt, eine dezentrale Kryptowährung, die staatlichen Konkurrenz machen soll und die bereits in der Betaversion wirklich funktioniert. Bis heute kann jeder Interessierte an der Weiterentwicklung des Quellcodes mitmachen und die Blockchain mitprägen.
2014 bringt der ehemalige NSA-Systemadministrator Edward Snowden durch die unerlaubte Veröffentlichung von internen Dokumenten globale Überwachungsprogramme der NSA ans Licht der Öffentlichkeit. Der zuerst nach Hongkong geflüchtete und mittlerweile in Russland durch das Asylrecht beschützte Computerexperte konnte auf populäre und weltbekannte Nachrichtenmedien wie „The Guardian“, „Washington Post“, „DER SPIEGEL“ und „The New York Times“ für die Veröffentlichungen zählen.
„The Guardian“ war gestern, 11. April 2019, einem sehr düsteren Tag für Cypherpunks und Internetaktivisten wie frei arbeitenden Journalisten weltweit gleichermaßen, auch die erste Quelle, die mir ins Bewusstsein brachte, dass wir uns derzeit in keiner guten, optimistischen und sicheren Zeit der Menschheitsgeschichte befinden:
Hierbei handelt es sich um den Live-Feed von der Verhaftung des Internetaktivisten und WikiLeaks-Gründers Julian Assange.
Auch deutschsprachige Medien wie SPIEGEL ONLINE und heise.de berichteten kurz darauf ebenfalls davon.
Vermutet wird eine geplante und koordinierte Aktion Ecuadors unter Druck der USA und Großbritannien. Dafür spräche auch die krude Aberkennung des Asylstatus, den Julian Assange erst Ende letzten Jahres von der linksgerichteten Vorgängerregierung Lenin Morenos erhalten hatte und die „Einladung“ der britischen Polizei durch den ecuadorianischen Botschafter.
Wie auch immer dieser Fall jetzt ausgehen mag, die Aktion bedeutet nichts Gutes.
Für die Demokratie nicht, und die Freiheit leider auch nicht.
Darüberhinaus waren die Bilder, die gestern publiziert wurden durch ein Video und der aktuelle Zustand Assanges eines Menschen unwürdig. Es ist nicht klar, was dort die letzten Monate vorgefallen sein muss. Ebenfalls unklar ist, was sieben Jahre geschlossene Räume aus einem Internetaktivisten auf englischem Botschaftsterritorium anrichten können.
Stattdessen fragten manche lieber, welches Buch Assange dort in der Hand beim „Abtransport“ hält oder was nun aus der „Embassy Cat“ würde. Geht’s noch!? Wie immer nichts Neues im traurigen Westen.
Die Ironie der Geschichte will es am Ende sogar so, dass das Bilder eines russischen Übertragungsteams waren.
Auch die besten Worte, fand ich, publizierte das russische Außenministerium durch Maria Zakharova bereits um 11:14 Londoner Zeit mit seiner Kritik:
„Die Hand der „Demokratie“ zerdrückt die Kehle der Freiheit.“
Julian, mit diesem Text möchte ich und gizmeo.eu dir danken für wundervolle Jahre der Inspiration, des Mutes, der Intelligenz, und viele, oftmals auch sehr komplizierte Anregungen zu Themen wie Kryptographie, Onlinejournalismus und Webpublishing! Der gestrige Tag hätte nie passieren dürfen. Die Idee von WikiLeaks wird weiterleben. Und Cypherpunk erst recht. Wir. Sind die Zukunft.
„They know we know who they are. They will fall.“ – El-P, ehemals „Company Flow“
(Oben: Image from page 269 of „A treatise on the diseases of the eye“ (1883), CC0, via)
Von (a)sozialen Medien sind die Nutzer es mittlerweile gewohnt, dass dort eingestellte Bilder & Photos zu Marketingzwecken ausgeschlachtet und missbraucht werden. In die selbe Kerbe schlägt auch, was IBM mit selbigen über die Foto-Community flickr.com machte, um seine KI (künstliche Intelligenz) zu trainieren:
„IBM hat fast eine Million Fotos von Flickr verwendet, um eine Gesichtserkennung zu trainieren. Die betroffenen Nutzer hatten dem jedoch nie explizit zugestimmt.“
[via]
Die Vergangenheit, so scheint es, lässt auch „Big Blue“ nicht in Ruhe. Das ist tatsächlich creepy wie zu nationalsozialistischen Hochzeiten.
Mal schauen, ob die knapp 30 Milliarden Euro teure Übernahme des FOSS-Produzenten „Red Hat Linux“ letztes Jahr hier helfen kann. Die Hoffnung stirbt ja bekanntlich zuletzt. Schlimmer geht ja nimmer. Oder? Oder!??