S{o}cial
Gizmeo.eu RSS-Feed c1 auf LinkedIn c1 auf DeviantArt c1 bei YouTube Gizmeo.eu als Android-App
Komm{e}ntare
{A}rchiv

Sie sind momentan im Archiv der Kategorie PC.

Lef{t}overs
GET FIREFOX!
GET THUNDERBIRD!
www . cipha . net

www . cipha . net
Please use an AMD CPU!
cell processor rox, fuck INTEL
KDE - the Ueber-Desktop-Environment!
STOP FACEBOOK!
msn user die!
aol sucks cock!
FUCK MYSPACE!
explicit content
NEIN zu Softwarepatenten
save the net! net-neutrality is important!
Aktion UBERWACH!
Cred{i}ts
Created, Made & Maintained by AETHYX.EU

Archiv für die Kategorie „PC“

der lange weg zu 64bit-cpus

Details der Cell CPU der PS3
Oben: ein Die der Cell-CPU im Detail, Sony/Toshiba/IBM, 2007

Im Jahr 2020 gehört die 64bit-CPU-Architektur zu den meistgenutzten der Welt. Kein Hersteller von Hard- und/oder Software kann sich mehr erlauben, auf x86_64 zu verzichten. Simultan sind andere, alternative Prozessorarchitekturen im Auflösen begriffen oder mittlerweile ganz ausgestorben, wie beispielsweise powerpc. Letztere steckte bis 2005 in sämtlicher Hardware von Apple aus Cupertino, bevor man sich aus wirtschaftlichen Gründen dazu entschied, Intel zu verbauen.

Wie kam es eigentlich dazu, warum brauchte man das? Und warum war der Weg dahin so lange und so beschwerlich?

Dieser Frage widmet sich ein sehr langer und sehr gut ausgeführter Artikel von ACM Queue: https://queue.acm.org/detail.cfm?id=1165766.

Kurz zusammengefasst: die Entwicklung reicht bis in die 60er Jahre des 20. Jahrhunderts. Auch schlechte Programmierung war oft daran Schuld, dass sich der Einsatz solcher Architekturen länger verzögerte als nötig. Und: erst 2003 machte AMD Nägel mit Köpfen und produzierte kommerziell 64bit-CPUs, die man als Normalnutzer ab da in gängiger Hardware fand.

Zeitleiste, inkl. Kommentaren:

1964 IBM S/360: 32-bit, with 24-bit addressing (16 MB total) of real (core) memory.

1968 Algol 68: includes long long.

1970 DEC PDP-11/20: 16-bit, 16-bit addressing (64 KB total). IBM S/370 family: virtual memory, 24-bit addresses, but multiple user address spaces allowed.

1971 IBM 370/145: main memory no longer core, but DRAM, 1 Kbit/chip.

1973 DEC PDP-11/45: separate instruction+data (64 KI + 64 KD); 248 KB maximum real memory. Unix: PDP-11/45, operating system rewritten in C; IP16. C: integer data types: int, char; C on other machines (36-bit Honeywell 6000, IBM 370, others).

1975 Unix: sixth edition, 24-bit maximum file size (16 MB).

1976 DEC PDP-11/70: (64 KI + 64 KD), but larger physical memory (a huge 4 MB). C: short, long added (partly from doing C for XDS Sigma, although long was 64 bits there).

1977 Unix: ported to 32-bit Interdata 8/32. C: unsigned, typedef, union; 32-bit long used to replace int[2] in lseek, tell on 16-bit PDP-11; IP16L32. DEC VAX-11/780: 32-bit, 32-bit addressing (4 GB total, 2 GB per user process). C: PDP-11: I16LP32; VAX (other 32-bitters): ILP32.

1978 Unix: 32V for VAX-11/780; C is ILP32. C: The C Programming Language, Brian Kernighan and Dennis Ritchie (Prentice-Hall). Intel 8086: 16-bit, but with user-visible segmentation.

1979 Motorola MC68000: 32-bit ISA, but 24-bit addressing (e.g., S/360).

1982 C: I16LP32 on MC68000 in Bell Labs Blit terminal. Intel 80286: allows 16 MB of real memory, but restrictions keep most systems at 1 MB.

1983 IBM 370/XA: adds 31-bit mode for user programs; 24-bit mode still supported. C: Unix workstations generally use ILP32, following Unix on VAX systems.

1984 Motorola MC68020: 32-bit; 32- bit addressing. C: Amdahl UTS (32-bit S/370) uses long long, especially for large file pointers. C: Convex (64-bit vector mini-supercomputer) uses long long for 64-bit integers.

1986 Intel: 80386, 32-bit, with support for 8086 mode.

1987 Apple Mac II: MC68020’s 32-bit addressing causes trouble for some MC68000 software.

1988 IBM ESA/370: multiple 31-bit address spaces per user, although complex; 24-bit still there.

1989 ANSI C (“C89”): effort had started in 1983, ANSI X3J11.

1992 SGI: ships first 64-bit micro (MIPS R4000); still running 32-bit operating system. 64-bit C working group: discusses various models (LP64, ILP64, LLP64), with little agreement. DEC: ships 64-bit Alpha systems, running 64-bit operating system; LP64.

1994 SGI: ships IRIX 6 (64/32 operating system; ILP32LL + LP64) on Power Challenge; customers buy 4 GB+ memory, use it. DEC: ships 4 GB+ in DEC 7000 SMPs (may have been slightly earlier).

1995 Sun UltraSPARC: 64/32-bit hardware, 32-bit-only operating system. HAL Computer’s SPARC64: uses ILP64 model for C.
Large file summit: codifies 64-bit interface to files >2 GB, even in 32-bit systems (ILP32LL+LP64). Aspen group: supports LP64 model for C so that Unix vendors are consistent.

1996 HP: announces PA-RISC 2.0, 64-bit.

1997 HP: UP/UX 11.0 is 64/32-bit OS; ILP32LL + LP64. IBM: RS64 PowerPC, AIX 4.3; ILP32LL + LP64.

1998 Sun: 64/32 Solaris 7 released; ILP32LL + LP64.

1999 C: ISO/IEC C (WG14’s “C99”); includes long long, at least 64 bits.

2001 IBM: 64-bit zSeries (S/360 descendant); 24-bit addressing still supported. Intel: 64-bit Itanium.

2002 Microsoft: Windows 64-bit for Itanium.

2003 AMD: 64-bit X86 (now called AMD64).

2004 Intel: 64-bit X86 (called EMT64), compatible with AMD.

2005 Microsoft: Windows XP Professional x64 for X86; LLP64 (or IL32LLP64)

Immer wieder gerne gelesen und äußerst faszinierende Thematik!

1 Star - nope!2 Stars - meh!3 Stars - good!4 Stars - excellent!5 Stars - supercalifragilisticexpialidocious! (Rate me? // Beitrag bewerten?)
Loading...

Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

firefox 75: alte adressleiste wiederherstellen

Einmal im Schaltjahr biegt eine Firefox-Neuerung um die Ecke, mit der ich nichts anfangen kann.

Am 7. April war es mit der Version 75 mal wieder so weit, eine „neue Adressleiste“ wurde implementiert, sieht so aus:

Neue Adressleiste bei Firefox 75

Kann ich nicht nachvollziehen.

Zum einen wirkt das wie eine Art Vergrößerungseffekt, eine Lupe, die ich nicht brauche. Es bricht auch das UI, wie ich finde.

Zum anderen flogen alle meine am meisten aufgerufenen Websites heraus. Also wurde hier irgendwas ohne bei mir nachzufragen zurückgesetzt.

Ohne in den Konfigurationsdateien des Browsers Hand anlegen zu müssen geht es hier nicht weiter, leider.

Also about:config geöffnet und folgende Einstellungen auf false gestellt:

1. browser.urlbar.openViewOnFocus
2. browser.urlbar.update1
3. browser.urlbar.update1.interventions
4. browser.urlbar.update1.searchTips
5. browser.urlbar.update1.view.stripHttps

Danach den Firefox neustarten.

So wie mir ging es wohl vielen Millionen Usern und das fliegt Mozilla gerade in Internetforen und Blogs um die Ohren. Richtig so! Absolutes bad habit!

Denn erstens gilt hier der Leitspruch never change a running system und zweitens will ich wenigstens informiert werden, ob ich diesem Change zustimmen will. Debian fragt mich ab wegen jedem Blödsinn bei jeder Paketänderung. Kann für Mozilla so schwer also nicht sein.

1 Star - nope!2 Stars - meh!3 Stars - good!4 Stars - excellent!5 Stars - supercalifragilisticexpialidocious! (Rate me? // Beitrag bewerten?)
Loading...

Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

happy 10th birthday, gizmeo!

Schwer für mich zu glauben, doch dieses kleine feine Gadget-Internetmedium hier wird diesen Monat tatsächlich bereits 10 Jahre alt…

Was mit einem Export der populärsten Unterkategorie meines cipha.net im April 2010 seinen Anfang nahm, ist über diesen Zeitraum auf mehr als 1.200 Beiträge und knapp 200 Kommentare angewachsen. Die Besucherzahl liegt meist zwischen 250-350 pro Monat bei ca. 300-450 Page Views.

Wie das cipha.net so war auch dieses Weblog als „Mitmachmedium“ gedacht. Noch heute steht auf der internen Mitmach-Seite zum Projekt:

„Mitmachen kann eigentlich jeder, der Gadgets hat.

So ziemlich jeder von uns hat zum Beispiel ein Handy oder einen Rechner und verfügt damit über gewisse Erfahrungen. Das ist als Hintergrund durchaus von Vorteil.

Wenn ihr einsteigen wollt, benutzt dafür bitte das Kontakt-Formular!“ [via]

Allein, irgendwie fand sich außer mir bis heute keiner zusätzlich hier Inhalte bereitzustellen.

Vielleicht ist gizm{e}o einfach „zu klein“? Oder „zu technisch“? Oder „zu underground“? Ich weiß es nicht.

Was ich aber weiß ist, wie die Gadget-Passion bei mir mal angefangen hat. Und so dachte ich mir, aus aktuellem Anlass teile ich einfach mal, wie das damals aussah. So irgendwann um Weihnachten herum, 1994, irgendwo in Westeuropa:

Weihnachten 1994 mit SNES und C64
(Oben: Mein Weihnachtsstolz 1994: SNES mit dem „Super GameBoy“ und der C64, der bis heute im Besitz meines Vaters ist)

Was wir hier sehen, das bin ich mit 12 und mein Weihnachtseinkauf 1994 in Aktion, ein Super Nintendo mit Super GameBoy. Angeschlossen an den zweckentfremdetem Monitor des C64 meines Vaters. Links unter dem Kalender steht noch eine meiner ersten Stereoanlagen(!). Meine Gadget-Anfänge, wenn man so will.

Zwei von diesen Gadgets nutze ich heute noch: aus dem C64 wurde ein Laptop und IT sogar mein Beruf. Aus dem Super Nintendo die PlayStation, in welcher Iteration auch immer. Nur die Stereoanlage, die hat es nicht mehr geschafft. Wie Tapes und CDs als Medien verschwand sie mit anderen Geräten wie Walkmans, Discmans oder Handys dank der digitalen Revolution in der Bedeutungslosigkeit der Gegenwart.

Als das Web in mein Leben trat, irgendwann 1999/2000, mit erster eigener Email-Adresse und erster eigener Domain, war meine Vision immer, Dinge oder Themen zu verbinden, wo meine wirklichen Talente und Stärken lagen. Und daraus für sich selbst stehende, innovative, unabhängige Webmedien zu bauen. Zwar war es zu der Zeit einfach Domains zu registrieren, schwer aber war, diese mit Inhalten zu füllen. Erst im November 2001 konnte ich ein solches Projekt an den Start bringen und rückblickend war das an absolute riot. Es muss mir solch einen Spaß gemacht haben, dass diese Art von „Produkten“ (können, sollen wir sie so nennen?), selbst neun Jahre danach noch von mir mit viel Freude und Hingabe entworfen und veröffentlicht wurden. Zur Uni-Zeit; eigentlich hat man hier genügend zu tun. Un-mög-lich.

Das Adjektiv unmöglich hat mehrere Bedeutungen, nicht alle sind positiv konnotiert:

[1] nicht machbar, undurchführbar
[2] personenbezogen: unduldbar, unentschuldbar, nicht akzeptabel, unpassend
[3] unwahrscheinlich, nicht vorstellbar, seltsam, merkwürdig

Aus unmöglichen Gegebenheiten erwachsen unmögliche Projekte. Gizm{e}o war und ist eines davon. Von mir persönlich, einem unmöglichen Typen aus einer unmöglichen Zeit.

Mögen die nächsten 10-100 Jahre un-mög-lich bleiben!

Alles, alles Gute, gizmeo.eu!

1 Star - nope!2 Stars - meh!3 Stars - good!4 Stars - excellent!5 Stars - supercalifragilisticexpialidocious! (Rate me? // Beitrag bewerten?)
Loading...

Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

kthxbye seti@home

Heute läuft der letzte Tag von versendeten Arbeitspaketen an unsere SETI@home-Clients.

Mein lokaler Client möchte sich deshalb heute persönlich verabschieden, inklusive wohl historischem Zeitstempel:

Mein SetiATHome-Linux-Client am 31.03.20
(Klicken zum Vergrößern, 6MB-Originaldatei)

Mit der Einstellung des Projekts stirbt auch eine gewisse Menschheitshoffnung. Liegt ja leider mit den aktuellen globalen Entwicklungen der letzten 20 Jahre sehr hart im Trend.

Ich bin gespannt, wann und welche Ergebnisse uns das Projekt liefern wird. Sehr wahrscheinlich werden wir direkt über die Projekt-Website informiert werden, https://setiathome.berkeley.edu/. Ich denke jedoch nicht, dass wir hier allzu viel erwarten sollten. Hätte es all die Jahre etwas wirklich Interessantes zu berichten gegeben, es hätte sich schwerlich verheimlichen lassen können.

Danke für die Möglichkeit zu diesem einzigartigen Projekt beitragen zu können und alles Gute! Es war mein erstes und ältestes Distributed Computing-Projekt und zählte fast 18 Jahre.

1 Star - nope!2 Stars - meh!3 Stars - good!4 Stars - excellent!5 Stars - supercalifragilisticexpialidocious! (Rate me? // Beitrag bewerten?)
Loading...

Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

probleme von zeitreisenden

traveling
Traveling, von begemot_dr via flickr.com

Schlechte Nachrichten für alle Zeitreisende oder die, die es noch werden wollen: eine aktuelle Physikstudie fand heraus, wenn sich drei oder mehr Objekte gegenseitig beeinflussen, lässt sich die Zeit bzw. die Geschichte nicht mehr zurückdrehen. Damit sei die Unmöglichkeit der Zeitumkehrung fest in der Natur verankert.

Getestet wurde das Modell im Computer anhand von Schwarzen Löchern. Das Phänomen lässt sich wohl bis auf die atomare Ebene zurückverfolgen. Bedeutet konkret, es spielt offenbar keine Rolle, ob das drei Schwarze Löcher, drei Planeten oder drei Atome sind.

Also Obacht: ab drei oder mehr Personen kennt die Zeitachse naturgegeben nur noch eine Richtung und alles endet im Chaos!11

1 Star - nope!2 Stars - meh!3 Stars - good!4 Stars - excellent!5 Stars - supercalifragilisticexpialidocious! (Rate me? // Beitrag bewerten?)
Loading...

Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

coronamania

Nach knapp vier Wochen multimedialer Coronadauerbefeuerung ist mein an Informationsüberladung eigentlich gewöhntes Gehirn mittlerweile dann auch eingeknickt. Ich persönlich sehe zwar nach wie vor keinerlei Anlass zu Panik, doch leergeräumte Regale in Supermärkten, befremdliche Stille unter Menschenansammlungen wie Parkplätzen, und täglich neue Hiobsbotschaften wie Grenzschließungen in Europa oder Schulschließungen bis mindestens Anfang April fühlen sich für mich mittlerweile an, als sei ich ein NPC (non-playable character) in Plague Inc. Nur leider in Echt.

Schön ist das nicht und eigentlich unnötig. Doch zum Glück bin ich Wissenschaftler von Beruf! Und kann dann doch (sage und schreibe) zwei Projekte gerne weitergeben, was wir so mithelfen in diesem katastrophalen Zustand der Welt und was in den letzten 28 Tagen hängengeblieben ist.

Das erste Projekt ist von der John-Hopkins-Universität, hier ein Screenshot:

Coronavirus, Fallzahlen zum 13.03.20
Coronavirus, Fallzahlen Stand 13.03.20

Die interaktive Karte ist öffentlich in einer Desktop- und Smartphone-Version hier abrufbar: https://www.arcgis.com/apps/opsdashboard/index.html#/bda7594740fd40299423467b48e9ecf6.

Die Karte und die Hintergründe hat man textlich bereits am 28. Februar bei Telepolis vorgestellt. Ich selbst hatte den Link wenige Tage zuvor von einem Arbeitskollegen bekommen.

Das zweite Großprojekt der Wissenschaft, und das freut mich als ITler besonders, der nach wie vor zu Distributed Computing beiträgt mit lokaler Hardware, ist der Fakt, dass weltweit Supercomputer umprogrammiert werden, um einen passenden Impfstoff zu finden. Das ist eben, worum es sich drehen sollte, nicht wie zuvor die Forschung für schmutzige Bomben. Nee, tatsächlich: der Sierra-Supercomputer des Lawrence Livermore National Laboratory zum Beispiel hier macht eben sonst genau das. Darüber nachzudenken würde weh tun, also lassen wir das. Der Supercomputer Summit soll hingegen bereits 8.000 Wirkstoffe durchprobiert haben und 77 erscheinen vielversprechend. Wer früh eine PS3 hatte, der kennt vielleicht noch das Projekt Folding@home: hier einfach mitmachen, denn die Rechenleistung eigener PCs fließt seit wenigen Tagen genau in die selbe forschende Richtung. Aus den VAE, Vereinigten Arabischen Emiraten, hilft der Supercomputer Artemis. Weitere Rechenzentren in Europa, mittlerweile das Epizentrum des Virus in der westlichen Welt nach China, helfen mit. Realistische Zahlen gehen davon aus, dass wir in 12-18 Monaten über einen Impfstoff verfügen werden…

Das war’s!

Ich habe mich bemüht und auch noch mein virtuelles Kurzzeitgedächtnis nach Ergebnissen durchforstet. Mehr fand ich leider nicht. In 28 Tagen. Irgendwie wird mir übel darüber nachzudenken, was die nächsten vier Wochen medial bringen mögen.

1 Star - nope!2 Stars - meh!3 Stars - good!4 Stars - excellent!5 Stars - supercalifragilisticexpialidocious! (Rate me? // Beitrag bewerten?)
Loading...

Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

seti@home macht dicht

Eine gewohnte und beliebte Szenerie auf PCs jeglicher Bauart seit den 90ern des vergangenen Jahrtausends:

Mein SetiATHome-Linux-Client
Oben: Mein SETI@home-Client, Stand März 2020

Das leider viel zu früh IMHO, Ende diesen(!) Monats nämlich, endgültig der Vergangenheit angehören wird:

Google-Screenshot, UC-Berkeley-Ankuendigung, Maerz 2020

Das Projekt SETI@home, jahrelang synonym verwendet für Projekte des verteilten Rechnens, das sich zur Aufgabe gestellt hatte nach außerirdischem Leben zu suchen, stellt den Betrieb ein. T_T

Warum? Offiziell wegen „abnehmenden Erträgen“. Übersetzt: zu wenig Nutzer. Stand Januar waren das noch ca. 104.000 weltweit…

Das Projekt wird abgeschaltet.
Sogar auf unbestimmte Zeit.
Man wolle sich nun der „Auswertung der Ergebnisse widmen“ und die irgendwann auch veröffentlichen.
Das offizielle Statement gibt es auf der Projekt-Homepage: https://setiathome.berkeley.edu.

Man zerstört hier Träume und bricht mit Hoffnungen von Millionen von Erwachsenen und Kindern.
Ich hoffe das ist den Machern bewusst.
Unsere Zeiten hier auf diesem kaputten Planeten werden erneut ein Stück sinnloser.

1 Star - nope!2 Stars - meh!3 Stars - good!4 Stars - excellent!5 Stars - supercalifragilisticexpialidocious! (Rate me? // Beitrag bewerten?)
Loading...

Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

vorschau: asus rog zephyrus g14 mit amd ryzen 7 4800h

Im Normalfall bin ich kein großer Liebhaber von Laptops unter einer Displaygröße von 15“, doch für das ASUS ROG Zephyrus G14 kann ich gleich mehrere Ausnahmen auf einmal machen:

Vorschau: ASUS ROG Zephyrus G14 mit AMD Ryzen 7 4800H

Zum einen bin ich CPU-N3rd sondergleichen und auch schon jahrelanger „Fanboy“ der Underdog-CPU-Schmiede AMD. Einen entsprechenden 80×15-Button aus Anno dazumal findet sich noch heute deswegen in meiner Sidebar. Und erst am 23. Dezember, also kurz vor Weihnachten, geisterte die Meldung durch das Web, Veröffentlichungen erster Laptops mit AMDs Ryzen 4xxx-er-Prozessorserie stünden kurz bevor, sowohl von ASUS, als auch HP. Die passenden Links lieferte ein spanischer Onlinehändler und machte diese Gerüchte dann „wahr“. Was fehlten, waren Fotos entsprechender Hardware. Komischerweise sind die Links heute auch nicht mehr erhältlich.

Im Zuge der Konsumentenmesse CES in Las Vegas hat zumindest ASUS das Geheimnis dann gelüftet. Deren subtiles Meisterwerk ist ein Laptop-Powerhouse im 14“-Format, das in zwei Farben ab dem 2. Quartal für ca. 1.299€-1.499€ erhältlich sein soll.

Was zuallererst dabei auffällt ist der ungewöhnliche Laptop-Deckel (siehe oben): es gibt nämlich ein Modell extra für G33ks, das 1.200(!) programmierbare(!) Mini-LEDs auf der Außenhülle mitbringt! Die Möglichkeiten zur Visualisierung scheinen hier unbegrenzt, auf der Messe selbst konnten sich schon diverse Hacker austoben, man findet viele Fotos wenn man in Suchmaschinen die Bildsuche anwirft und nach „AniMe Matrix“ sucht – so heißt dieses Feature nämlich offiziell im Sprech des Herstellers aus Taiwan.

Von der Optik wieder weg zum eigentlichen Novum: das leistungsfähige Maschinengehirn wird ein AMD Ryzen 4800H sein. Nicht nur die Typbezeichnung wurde inzwischen konkretisiert, diese SoC („SystemOnAChip“) bringt diesmal acht Zen2-Kerne mit. Höchste Taktung wird bei schönen 4,2GHz liegen. Pro Kern. Gepaart mit der zuletzt Anfang 2018 in die Schlagzeilen geratenen „Hyperthreading“-Technologie (Meltdown und Spectre und Konsorten, wir erinnern uns), stehen dem Betriebssystem hier also satte 16 Threads zur Verfügung. Und das bei nur 45W Leistungsaufnahme, möglichgemacht durch eine 7nm-Herstellungstechnologie, u.a. Weitere Daten zur CPU findet man direkt bei AMD oder z.B. Notebookcheck.

Ich selbst wäre hier bereits bedient gewesen.

Auch mache ich mir nichts aus den mitgelieferten Grafikeinheiten dieser SoCs.

Doch eine weitere Eigenart dieses Modells ist, dass man in einem G15 z.B. nicht finden wird: die Nvidia GeForce RTX 2060 Max-Q.

Jep, richtig gelesen: ASUS ist einer der wenigen Hersteller weltweit, der Highendgrafikkarten von Nvidia in AMD-Laptops verbaut (leider). Ich war schon immer großer Fan und auch Anwender dieser Kombo, weil Linux halt und Treibergedönsen; wissen schon. Für mich ist solche exotische Hardware daher sehr, sehr, sehr sehr attraktiv…

Diese Leistung wird hier einmalig sein. Selbst der 15“-Bruder wird prozessor- und grafikkartenseitig diesem Gerät hier unterlegen sein, zumindest auf dem Papier. Ob das merklich in der Praxis etwas ausmachen wird, darüber kann man bereits streiten und wird das auch erst herausfinden können, wenn beide Notebooks ausgiebig kurz vor dem 2. Quartal zur Verfügung stehen und getestet werden können.

Wer das G14 noch etwas detaillierter als lebendes Objekt sehen will, dem empfehle ich auch hier die Fotos von Notebookcheck: https://notebookcheck.com/Asus-ROG-Zephyrus-G14-Das-leistungsstaerkste-14-Zoll-Gaming-Notebook-der-Welt.449298.0.html. Die meisten anderen Quellen liefern nämlich lediglich Standardbildmaterial, z.B. von ASUS-Webseiten. Ist jedoch verständlich, schließlich hat nicht jedes Onlinemedium zum Thema Gadgets die Ressourcen mal schnell nach Las Vegas für Gadget-Pr0n zu fliegen. Schade eigentlich.

Ob das Teil seinen Platz in meine h4x0r-Stuben finden wird steht in den Sternen. Für die angebotene Leistung ist der Preis nicht mal „zu hoch“, aber doch ordentlich für einen kommerziell wenig erfolgreichen Indie-Autoren wie mich. Da bräuchte ich schon zigtausende Flattr-Spenden, das wird nicht funktionieren. Zudem ärgert mich irgendwie immer noch die 14“-Zoll-Displaygröße. Ich kann nichts dafür, ich bin fast so groß wie ein Zollstock, das sähe bei mir wie Kinderspielzeug aus!11 Witzig finde ich auch, dass mir diese AniMe Matrix nicht mehr aus dem Kopf geht – was ich damit alles programmieren könnte! Und wie viel Zeit es verschwenden würde!1 Und wie sinnlos es sein würde!11 Und wie unwichtig auf lange Sicht!111 Muhahaha! Ach, wir dummen Männer: sabbern und hecheln und träumen von PC-Hardware statt vom anderen, attraktiven, natürlich perfekten Geschlecht! Zum Glück, phew, war ich in der Vergangenheit so schlau und habe diese Art von Porno zum Beruf gemacht, haha! 😀

1 Star - nope!2 Stars - meh!3 Stars - good!4 Stars - excellent!5 Stars - supercalifragilisticexpialidocious! (Rate me? // Beitrag bewerten?)
Loading...

Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

quantum! irgendwas!

Google so: „Unsere CPU hier macht irgendwas mit Qubits, wofür ein regulärer Supercomputer 10.000 Jahre gebraucht hätte!“
IBM so: „Pfft, das selbe Experiment simulieren wir euch in 2,5 Tagen!“
Und ich so: „Hmmmm, nehme ich diese Woche SALZ oder ZUCKER zu meinem POPCORN!?“

1 Star - nope!2 Stars - meh!3 Stars - good!4 Stars - excellent!5 Stars - supercalifragilisticexpialidocious! (Rate me? // Beitrag bewerten?)
Loading...

Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

intel: defective by design V

Un martillo y un Pentium
Oben: Zerstörte Intel-CPU, CCBYSA porras

Es gibt Artikel zu Linux, da schüttelst du als IT-Experte einfach nur noch den Kopf.

Oder auch mehrfach.

Alleine auch schon, wo die Fragestellung dazu herkommen soll.

Hier ist mal wieder so einer: „HOWTO make Linux run blazing fast (again) on Intel CPUs“.

Nichts davon, was hier an „Workarounds“ beschrieben wird, sollte man machen, weder auf einem Arbeitsplatz-PC, noch auf einem persönlichen.

Da reißen sich ein Jahr lang Entwickler weltweit den Allerwertesten auf, damit Meltdown, Spectre & Co. in den Griff bekommen wird, und dann sowas.

Der Artikel hier beschreibt, wie man jegliche Sicherheitsschranke ausschaltet, die ab Januar 2018 im Linux-Betriebssystem-Kern implementiert wurde. Das ist einfach nur eklig.

An Insider-Wissen spart der Artikel hingegen nicht.

So steht hier, dass man bei allen Kerneln vor Version 5.1.13 auf insgesamt 8 neue Sicherheits-Features kam (noibrs noibpb nopti nospectre_v2 nospectre_v1 l1tf=off nospec_store_bypass_disable no_stf_barrier mds=off). Ab Kernel 5.3.6 waren es schon 10 (nopti, kpti=0, nobp=0, nospectre_v1, nospectre_v2, spectre_v2_user=off, spec_store_bypass_disable=off, ssbd=force-off, l1tf=off, mds=off). Wie immer bei meinen Artikeln zu diesem Thema: hardwareseitig ist auch damit rein gar nichts gepatcht. Lediglich das eigene Betriebssystem bleibt sicher.

Ferner liefert der Artikel auch einen Vergleich der „Performance-Einbußen“, die sich mittlerweile leichter erstellen lassen als noch vor knapp zwei Jahren. Ergebnis: solange „SMT“ (simultanes Multithreading) aktiv bleibt, die eigentliche Wurzel des Problems (Marketingidiotensprech „Hyperthreading“), wird man diese weder sehen, noch spüren können. Schaltet man das Problem hingegen komplett aus, wozu beispielsweise Google vor wenigen Monaten riet, sind die Einbußen im Schnitt bei 10-15% Leistung. Das kann sich, je nach genutzter Anwendung, durchaus beim Arbeiten/Spielen bemerkbar machen.

Warum ich dem Artikel am Ende doch dankbar war, lag an zweierlei Gründen: man kann die Inhalte auch wundervoll als Satire lesen und sich daran erfreuen. Und es spricht Bände, überhaupt über die gegenwärtige IT-Situation, dass er überhaupt existiert (und sogar noch heute aktuell gehalten wird, das letzte Update war am 15.10.).

1 Star - nope!2 Stars - meh!3 Stars - good!4 Stars - excellent!5 Stars - supercalifragilisticexpialidocious! (1 votes, average: 5,00 out of 5)
Loading...

Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

android sdk: die geschlossene anstalt

I giochi più frustranti di sempre per smartphone Android!!
Wutroter Androide, CCBY Giochi Android Iphone

In der Welt des Smartphone-Betriebssystems Android passiert mittlerweile sehr, sehr viel Schmu.

Auf der einen Seite kann man das als „Normalität“ abtun, schließlich wollen alle Hersteller am besten jedes Jahr ihren Kunden neue Geräte andrehen. Da geht schon mal die eine oder andere wichtige Sorgfalt unter. Doch dass ich als Entwickler und nicht als bloßer Konsument mal davon betroffen sein würde, bei einem Produkt von Google, das war mir neu.

2019 war alles anders. Ich darf nämlich offiziell mit „meiner“ Entwicklungsumgebung „Eclipse“ gar nicht mehr für Android coden.

Der Laden ist dicht, bumms aus vorbei für uns reine Java-Entwickler. Wer für Android programmieren will, der muss zwingend „Android Studio“ nutzen, eine auf der russischen Entwicklungsumgebung „IntelliJ“ basierende „offizielle Entwicklungsumgebung“.

Ich habe letzte Woche dennoch meine ersten Apps zumindest mal auf Android 9 (Pie) aktualisieren können.

Ja, mit Eclipse.

Eclipse warf seit fast zwei Jahren dauernd irgendwelche anderen bescheuerten Fehler, was man aber gewohnt ist. Jetzt war letzte Woche aber auch ein Feiertag und ich konnte mich des Problems zeitlich und nervlich endlich einmal annehmen.

Die Fehlermeldung zum Einstieg war wundervoll nichtssagend, Error type 3 Error: Activity class {MainActivity} does not exist. Gibt man diesen String in, klar, Google, ein, landet man wie üblich auf massenhaft Seiten von „Stack Overflow“ und wühlt sich da durch. Als ich das beseitigt hatte kam aber schon wieder ein anderes Problem auf: ERROR: This AVD's configuration is missing a kernel file! Please ensure the file "kernel-qemu" is in the same location as your system image. Kennt ihr so Situationen, wo ihr verflucht, was ihr beruflich gelernt habt!? Hier ist eine!

Also wieder Google. Erster Beitrag: Using Android 8 and 9 emulators without Android Studio von Andrés Zsögön. Zwar kenne ich diesen Typen nicht, doch er hat meinen Arsch gerettet.

Hier lädt man einfach zwei ZIP-Dateien runter und ballert die Dateien über das spackende „Android SDK“ drüber. Wer möchte, der kann auch aktuellere ZIPs hier finden: https://stackoverflow.com/questions/43685301/how-can-i-install-the-gui-android-sdk-manager-without-installing-android-studio/51429889#51429889.

Nach dem Update sieht das Hauptfenster des Android SDK Manager in Eclipse dann etwa so aus:

Android SDK Manager in Eclipse in der Version 28 ...

Was man hier gut (oder weniger gut) sehen kann:

* es gibt nach wie vor keinerlei Images von Android 10 („not compatible with Linux“), die ich über diese ZIPs auf den PC spielen kann, um (meine) Apps zu testen, ergo Update auf Android 10 von mir nicht möglich
* ohne diese ZIPs von oben wären ab API 27, also Android 8, keine Einträge „System Images“ vorhanden
* das selbe gilt für Android 9

Man sollte Updates hier grundlegend nicht mehr durchführen, auch wenn diese unten rechts angezeigt werden, da sonst Eclipse wie auch der Android SDK Manager durcheinander kommen. Ein Update der eigenen erstellten Apps von Android 7 (Nougat) auf eine höhere Version ist nicht mehr grundsätzlich möglich!

Ich finde das, gelinde gesagt, eine Riesensauerei.

Als ich den Beruf erlernte haben wir noch C, C++ und (ganz wenig) Java gelernt, schön plattformunabhängig. Heute lernen viele nur noch C#, und damit sich von Beginn an in die Abhängigkeit von Microsoft zu begeben. DAS hier ist genau das Selbe in grün, nur von Seiten des „Big G“! Solch brachialer Schwachsinn zwingt Leute dazu Berufe zu wechseln! Ein Angriff auf unsere wertvolle Lebenszeit, wie ich finde.

Ich habe gar keinen Bock mehr auf diese Scheiße.

Jüngst flog eine meiner der kostenlosen(!) Apps sogar aus dem Google Play Store, wegen dem „Einbinden von Spenden-Buttons“. Andere, wie Cam Scanner, sind jahrelang erhältlich und hinterher kommt raus, dass die Zeit haben durften, Trojaner auf 100(!) Millionen(!) Geräten zu installieren. Willkommen in der schönen neuen Welt der Mountain-View-Unverhältnismäßigkeiten! Klar bin ich wütend auf die, aber scheißwütend!

Joa. Sehen wir es skandinavisch: was soll’s. There goes the freedom of free software development.

tl;dr: Ab Android 7 kann man als „Eclipse“-Entwickler eigenentwickelte Apps nicht mehr mit dem Android SDK auf neuere Versionen updaten, damit auch nicht 64bit-fähig machen, und Google ist das neue Microsoft.

1 Star - nope!2 Stars - meh!3 Stars - good!4 Stars - excellent!5 Stars - supercalifragilisticexpialidocious! (1 votes, average: 5,00 out of 5)
Loading...

Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

hier trackt jemand programmiersprachen. aktuell 3521.

Rootkit code
Oben: Beispiel-Code für ein Rootkit, CCBYSA Christiaan Colen

Ich könnte jetzt meckern und sagen „so eine riesige Liste gehört eigentlich in ein Wiki und nicht in ein Online-Repository für Code“.

Doch weder den Satz gab es so, als ich die Liste das erste Mal entdeckte, noch will ich hier mit meinen wenigen Dutzend Kenntnissen von Programmiersprachen hier noch groß irgendwie klug scheißen.

Denn was ein Typ namens codelani hier gemacht hat, ist wahre Leidenschaft und eine reine Sisyphosarbeit: er trackt Programmiersprachen. Mittlerweile besteht seine Liste aus 3.521 davon, letzte Woche waren es noch unter 3.500. Und: er listet zusätzlich nicht nur den Typ der Sprache, sondern auch das Jahr der Veröffentlichung.

Warum macht ein Mensch das? Nun, offiziell weil er mithelfen will, „die nächste großartige Programmiersprache zu bauen“. Inoffziell wahrscheinlich aus diesem einen Grund: weil er es kann! 🙂

Wer denkt, er hätte eine vergessen, schickt ihm eine Email.

Weiterer Cheat Code: wer den jeweiligen Link in der HTML-Übersicht klickt, der findet übrigens auch noch Hintergrundwissen und Code-Schnipsel zur ausgewählten Sprache.

Mehr Leidenschaft für Programmiersprachen geht einfach nicht! Lasst ihn uns King Codelani nennen ab heute!

1 Star - nope!2 Stars - meh!3 Stars - good!4 Stars - excellent!5 Stars - supercalifragilisticexpialidocious! (1 votes, average: 5,00 out of 5)
Loading...

Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

keine leckerlis mehr für androiden

Vergangenheit, Schluss, Aus und Vorbei:

Android cupcakes

Mit der aktuellen Version 10 des Smartphone-Betriebssystems Android aus dem Hause Google ist es nun endgültig vorbei mit Beinamen bestimmter Leckereien bei einer Neuveröffentlichung.

Wir werden uns also damit anfreunden müssen, dass die letzte süße Version uns ewiglich an eine Hollywood-Klamotte zu Stifler’s Mum aus den 90ern erinnern wird, solange es das freie Betriebssystem gibt.

Übrigens: auch die offizielle Schriftart hat sich geändert und somit das Logo der Marke. Es ist schlanker, langweiliger geworden und erinnert nun an 0815-TTF-Schriftarten, die standardmäßig mit 0815-PCs ausgeliefert werden.

Was da los? Eine offizielle Stellungnahme gibt es nicht. Das wäre früher vom „großen G“ anders, offener kommuniziert worden. Schade.

Meine persönliche Vermutung ist, denen war das einfach zu blöd mit Diskussionen und Kritik an Süßigkeiten-Marken (Stichwort Internet-Shitstorms), wie bei Kitkat™ (2013) und Oreo™ (2017) der Fall. Dazu mag auch ich selbst beigetragen haben in der Vergangenheit. Boah, was eine Macht und Reichweite mit 10 Lesern pro Tag!11

Wenn ihr mich nun bitte entschuldigen würdet, es ist Zeit meine eigene Klamottenmarke zu gründen, ich bitch bin leider famous

1 Star - nope!2 Stars - meh!3 Stars - good!4 Stars - excellent!5 Stars - supercalifragilisticexpialidocious! (2 votes, average: 4,50 out of 5)
Loading...

Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

gegen blaues licht hilft das redshift plasmoid

Mein persönliches „Supertool des Jahres“ nennt sich Redshift:

Redshift Plasmoid - gegen schaedliches blaues Licht

Das Werkzeug „passt die Farbtemperatur des Bildschirms der Umgebung an“, wie es so schön in der offiziellen Beschreibung heißt.

Der Effekt ist dabei der selbe und sehr effektiv, wie man ihn eben von moderneren Smartphones und Tablets, sowie Custom ROMs für diese Geräte her kennt.

Für KDE 5.x sollte man sich unbedingt das sehr nette Plasmoid dazu installieren. Den zweiten Tab der Einrichtung sieht man oben, die Werte könnt ihr getrost übernehmen.

Tatsächlich ist das blaue Licht, das unsere PC-, Laptop- und Smartphones aussenden schädlich für unsere Augen. Die Diskussionen dazu finden immer mal wieder statt, es ist und bleibt ein ongoing Thema. Erst im Juni habe ich drüben bei href.ninja mal wieder einen solchen Artikel zum wissenschaftlichen Stand verlinkt.

Es gibt nicht viel was wir aktiv dafür tun können, außer: weniger vor diesen Bildschirmen hocken. Nur wird das Berufstätigen aus dem IT-Bereich oder ähnlichen Bereichen leider nicht viel bringen. Und das soll ganz sicher keine Entschuldigung sein.

Geht doch mal raus in die Natur und pflanzt einen Baum! Solange es noch Natur und Bäume gibt. Ach ja: und „echtes Licht“. Sonne und Gedönsen…

1 Star - nope!2 Stars - meh!3 Stars - good!4 Stars - excellent!5 Stars - supercalifragilisticexpialidocious! (2 votes, average: 5,00 out of 5)
Loading...

Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

linux: konsole direkt in datei

Entweder habe ich das bisher zu selten gebraucht. Oder ich habe so etwas einfach zu wenig verwendet. Nachfolgend die Matrix mit den 10 häufigsten Fällen, um sich Ausgaben von Linux-Konsolenbefehlen in eine Datei speichern zu lassen:

  • befehl > ausgabe.txt

    Standard. Einfach die Ausgabe des Befehls in eine Textdatei umleiten. Es wird keine Ausgabe im Terminal selbst geben. Existiert die Datei, wird diese überschrieben.

  • befehl >> ausgabe.txt

    Siehe oben, nur dass das erneute Ausführen die Ausgabe der Ursprungsdatei anhängt.

  • befehl 2> ausgabe.txt

    So weit ich das verstehe, werden nur Fehler in die Textdatei geschrieben, ansonsten verhalten wie ganz oben.

  • befehl 2>> ausgabe.txt

    Dito, statt überschreiben der Datei werden die Fehlerergebnisse hier jedoch angehängt.

  • befehl &> ausgabe.txt

    Hier werden Standardausgabe des Befehls plus Standardfehler in die Textdatei geschrieben. Existiert die Datei, wird diese überschrieben.

  • befehl &>> ausgabe.txt

    Ihr ahnt es: statt überschreiben werden beide Ausgaben angehängt.

  • befehl | tee ausgabe.txt

    Wenn ihr beides wollt: Ausgabe in eine Textdatei und eben noch den Output in der Konsole sehen (z.B. zur Kontrolle).

  • befehl | tee -a ausgabe.txt

    Hier brauchen wir explizit einen Schalter, -a, um statt einem Überschreiben ein Anhängen zu bewirken.

  • befehl |& tee ausgabe.txt

    Hier gehen Standardausgabe des Befehls inklusive Standardfehler in die Textdatei. Existiert diese, wird sie überschrieben.

  • befehl |& tee -a ausgabe.txt

    Wie oben, nur eben mit anhängen.

[via]

Sind Grundlagen und ist auch definitiv best practice bei der Fehlersuche und dem Weiterleiten von Fehler- bzw. Statusmeldungen aus dem Konsolenterminal an Dritte.

Allerdings, auch wenn ich das hier mal endlich festhalte: ich werde es a) wieder vergessen und b) mich in den seltensten Fällen dran halten. :-/ Dazu noch Hitzewelle und Atembeschwerden den ganzen Tag; da krisch Plack

1 Star - nope!2 Stars - meh!3 Stars - good!4 Stars - excellent!5 Stars - supercalifragilisticexpialidocious! (1 votes, average: 5,00 out of 5)
Loading...

Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^