Eine Handvoll verrückter Russen plant den Windows-Komplett-Ersatz:
Vorbild ist Windows selbst. o.O
Der Name für diese Alternative: ReactOS.
Seit 2004 ist Alex Ionescu der Hauptverantwortliche für die Kernelentwicklung und in dem Video hier bringt er alle Interessierten auf den neuesten Stand. Bisher wurde der Film von über 21.000 Menschen angeschaut.
Wer den Artikel bei Wikipedia durchliest, bemerkt eine sehr bewegte Geschichte, die tatsächlich bis 1996 zurückreicht. Damals war man noch an einem Reverse Engineering von Windows 95 interessiert, was komplett verrückt erscheint heute. ReactOS selbst ist allerdings erst seit 2003 zu haben.
Wer das bereits heute ausprobieren möchte (es sollen ja Windows-Programme schon jetzt zum Teil lauffähig sein), hier die Hauptseite des Projekts: http://reactos.org/de.
Gut, ich will aber das Negative auch nicht unerwähnt lassen:
1) Angesichts bereits erhältlicher echter freier Alternativen ist die Entwicklung eines solchen Betriebssystems unsinnig
2) sollte ReactOS mal durch die Decke gehen, was eher unwahrscheinlich erscheint, werden es sich die Redmonder nicht nehmen lassen auf ihre unvergleichliche Weise dagegen vorzugehen
3) Nicht nur Microsoft wird dann der Feind sein: Adobe, Oracle, SAP und viele weitere Unternehmen mehr profitieren direkt davon, dass sie auf einem geschlossenen Betriebssystem laufen. Sobald man „von unten her“ verfolgen können wird, was deren Programme mit dem Betriebssystem machen (und umgekehrt), wird sich da etwas Dunkles zusammenbrauen
4) ReactOS ist unnötig politisch: Als Dmitri Medwedew 2011 Präsident von Russland war, wurde ihm das Projekt persönlich vorgestellt. Im selben Jahr wurden 100.000 Rubel ausgeschüttet. Und seit 2012 weiß auch der gute Putin davon: Die Präsentation beim Seliger Youth Forum wurde von Marat Karatov durchgeführt
Also im Kern sieht es doch schwer danach aus, dass der ehemalige Ostblock mit Russland zusammen nach einer effektiven Waffe gegen die Dominanz von Windows auf handelsüblichen PCs sucht. Aus Europa stammt immerhin Linux, wir haben so etwas nicht nötig. Und Putin ist auch bekannt dafür, genau solche Richtungen zu verfolgen. Habe ich persönlich kein Problem damit, sollen sie machen, mal schauen wie es ausgeht. Der Sinn davon erschließt sich mir nicht. Die Windows-Architektur zu klonen, mit Werkzeugen von hier und Gedöns von da, erscheint mir nicht wirklich originell.
Ich mache mal ein wenig Werbung in eigener Sache. Ein paar Kollegen, mit denen ich früher in die (Berufs-)Schule gegangen bin, haben eine Unterbrechungsfreie StromVersorgung für den Minirechner Raspberry Pi entwickelt:
Das Projekt selbst wurde aus einer Not heraus geboren, da es wohl diverse SD-Karten zerschossen hat, weil das Teil einfach nicht korrekt herunterfuhr. Die USV verhindert solche Dinge und noch viel mehr, hier steht, was eine USV überhaupt ist.
Die ganze Idee fängt gerade an mächtig durch die Decke zu gehen, was in dem Ausmaß nicht vorhersehbar war. Wenn ihr selbst eine USV erwerben wollt, besucht einfach diese Seite:
Der momentane Preis für die USV ist an eine Aktion gebunden. Momentan kostet sie 23,76€ (Stand heute), ab dem 26. Dezember, dem voraussichtlichen Lieferdatum, dann 29,99€. Auch kann man sich als „Early Adopter“ wohl noch die Farbe der Platine (gelb, blau, rot, grün, etc.) raussuchen.
Wichtig: In dem Video dort ist noch der Prototyp zu sehen. Die fertige Platine steckt man einfach auf den GPIO-Port des Pi, wobei auch die Anschlüsse weiterhin für andere Anwendungen auf diesem Port erhalten bleiben. Sobald es hier Bilder gibt, werde ich die mit einem Update nachreichen.*
Die Überwachungssoftware wird übrigens auch von denen entwickelt werden. CW2. ist im Kern ein Software-Unternehmen mit Schwerpunkt auf Business-Software-Lösungen aus dem Stuttgarter Raum. Das ist deren erstes kommerzielles Hardware-Projekt. Ich bin gespannt, wie das ausgeht und drücke natürlich die Daumen.
*[Update I, 14.11.13]
Seit heute sind auch die Bilder eingefügt, wie ihr oben sehen könnt. Wenn ihr Kontaktdaten braucht, einfach bei mir kurz melden!
Perfekt: Aktenzeichen 26 O 211/13. Darin steht:
„Die Deutsche Telekom darf nach einer Entscheidung des Kölner Landgerichts die Surfgeschwindigkeit bei Pauschaltarifen nicht einschränken. Eine entsprechende Vertragsklausel erklärte das Kölner Landgericht am Mittwoch für unzulässig. Das Urteil betreffe sowohl die ursprünglich angekündigte Drosselung auf 384 Kilobit als auch diejenige auf zwei Megabit pro Sekunde.“ [via]
Danke Köln! Wir von der New-Media-Front dürfen weiterarbeiten. Die alten Säcke wieder mit ihren „Plänen“ für unsere Zukunft. Kommt, geht sterben! Taugt eh nix.
„Be an ally. If you understand and care enough to have read this far, we need your help. To really challenge the surveillance state, you need to teach others what you’ve learned, and explain to them why it’s important“
Also gut. Dann helfe ich der EFF mal das Wort zu verbreiten: https://eff.org/deeplinks/2013/10/ten-steps-against-surveillance.
Schließlich profitiere ich unmittelbar von diesem ganzen NSA-Skandal.
:: prolog
Zum einen erscheinen viele Texte von mir heute wohl in einem etwas anderen Licht. Und obwohl ich mir manchmal selbst wünsche, es wären reine dunkle Fantasien gewesen, bin ich doch ganz froh, dass sich meine schlimmsten Befürchtungen bewahrheitet haben. Es trägt zu meiner Glaubwürdigkeit bei und auch zu meiner Weitsicht. Hätte sich manch einer aus meinem „Freundeskreis“ bzw. „Familie“ lieber mal zu Herzen genommen. Willkommen im Club! Zweitens: Das Interesse an den Themen schlägt sich ganz konkret auch in den Besucherzahlen nieder. Seit den Enthüllungen im Juni sehe ich Zuwachsraten von 70%. Ende nicht in Sicht. Trotzdem bleibt das hier ein kleines Projekt mit dreistelligen Besucherzahlen im unteren Bereich. Mal sehen, wie sich das entwickelt. Nun zu den…
:: tools
In dem Artikel finde ich eine NSA-Präsentation besonders interessant: „TOR stinks“, 23 Folien, via theguardian.com. Darin echauffieren sich die Dienste aus den USA und UK, dass man überhaupt nicht „alle TOR-User jederzeit“ identifizieren könne. Echt schade.
Naja, das führt uns zum allerersten Schritt: Nutzt TOR! Das Browser-Bundle ist schnell entpackt und sofort einsatzbereit. Es frisst aber Ressourcen, eine taugbare PC-Maschine mit entsprechenden Specs ist also von Vorteil.
Zweitens: Email-Verschlüsselung benutzen. In dem Artikel wird natürlich wieder PGP erwähnt. Auch steht da, es sei „tricky to use“. Das lese ich immer wieder, es stimmt aber nicht. Nicht wirklich: Das Einrichten ist tricky. Hat man das gemacht, etwa mit Thunderbird und Enigmail, ist das Benutzen kinderleicht. Es gibt einfach Probleme bei den Nutzern selbst: Entweder die sind zu faul oder zu leichtsinnig oder zu starrsinnig oder wasauchimmer. Auch diese Schlüsselaustauscherei ist ein riesen Problem. Das ist das Einzige, was ich an Cryptopartys gut finde. Die finden oft und gerne zu politischen Zwecken statt. Aber man findet schnell Gleichgesinnte, um Schlüssel austauschen zu können.
Drittens, auch sehr nageliegend: HTTPS Everywhere benutzen. Und VPN (Virtual Private Network), wenn an öffentlichen Plätzen gesurft wird. Besonders VPN ist nicht immer einfach einzurichten auf mobilen Geräten. Viel Spaß hier!
Viertens: Passwort-Management-Software benutzen. Und Passwörter wählen, die _nicht_ zu merken sind. Ist aber ein Extraaufwand und fast untauglich im täglichen Umgang. Selber mal probieren, schadet ja nicht.
Fünftes: Festplatten verschlüsseln, wo es eben geht. Nachträglich fast unmöglich…
:: eigene erfahrungen
Naja, es gibt so viel, was ich im Laufe der Zeit selbst gemacht habe. Ein wichtiger Punkt war, aus der Abhängigkeit von Microsoft auszubrechen. Das war irgendwann Mitte der letzten Dekade und das Ziel wurde mit einer Vehemenz verfolgt, die mir heute unheimlich ist. Es war aber verdammt wichtig. Auch für mich persönlich. Sieht man ja jetzt. Daher ist der erste Schritt immer: Ein offenes Betriebssystem wählen! Eine Übersicht findet man hier ganz oben: http://prism-break.org/#de. Generell muss man sein Linux erst finden. Das dauert, aber eine ausführlichere Übersicht findet sich hier: Distrowatch, sortiert nach Popularität. Übrigens ist BSD natürlich genauso wichtig. Muss jeder selbst wissen.
Das darf aber bei dem PC nicht aufhören. Das sieht man mit den Smartphones: Zwar ist Android ein Produkt von Google, wird aber streng kontrolliert und Mechanismen implementiert, die nicht zum Vorteil der Nutzer sind. Doch es gibt weiterhin AOSP und Cyanogenmod, die, je weiter die Zeit voranschreitet, unverzichtbar sein werden.
Dann gibt es mittlerweile Hardware, die ganz speziell den offenen Charakter würdigt. Die PlayStation 3 war ein wichtiger Schritt in diese Richtung, wenngleich die Möglichkeit Linux auf der Konsole zu installieren durch paranoide Sony-Manager irgendwann gekappt wurde. Es gibt Drucker die von Haus Linux unterstützen, siehe die Liste hier. Und der gute Raspberry Pi aus England darf ebenso nicht fehlen.
Mehr fällt mir selbst gerade fast nicht ein. Denn: Weitere Ideen werden ja weiterhin gesammelt und stehen zur freien Verfügung, http://prism-break.org/#de. Das betrifft soziale Netzwerke, Plattformen für die eigenen Photos, eigene Texte, etc. Manche Dinge wurden seit Sommer auch hier ausführlichst präsentiert.
:: ausblick
Ich habe erst heute morgen wieder einen Text gelesen und das ist beunruhigend. Da muss man sich selbst einen Reim darauf machen und schauen, wie ernst man das nimmt:
1. „Hackers are seen not as mere miscreants, but as dangerous enemies of the fundamental established order of society.“
2. „just the first salvo in the war on general-purpose computing“ -> „buckle your seat belt. Because if I’m right, then this next decade is going to be an awfully bumpy ride“
[via]
Das sieht schwer nach Krieg aus. Problem: Der läuft bestimmt nicht erst seit diesen Sommer. Zeit, dass es endlich ankommt.
1965 postulierte Intel-Gründer Gordon Moore, alle 18 Monate würde sich die Transistoren-Anzahl auf einem Prozessor-Chip verdoppeln. Damit lag er bereits von Anfang an komplett daneben, der Zeitraum musste auf zwei volle Jahre angehoben werden. Sechs Monate sind in der IT-Technik eine Ewigkeit.
Nun wollen es endlich die Gesetze der Physik, verglichen mit der Beobachtung von Moore Gesetze der Natur und damit die einzig wahren, dass dieser Trend einfach nicht mehr aufrechtzuerhalten ist. Transistoren baut man aus Atomen. Je kleiner die werden, um mehr und mehr Atome unterbringen zu können, erreicht man irgendwann, automatisch, den Punkt, wo man schlichtweg auf keine Atome mehr zurückgreifen kann.
Die Lösung: Das menschliche Gehirn.
Dieses ist zwar redundant (deshalb die vielen Neuronen) und verglichen mit einem Computer „langsam“, was die Aktionszeit von Neuronen betrifft. Aber es arbeitet ununterbrochen in parallelen Prozessen und sogar mit unterschiedlichen Regionen des Gehirns zur selben Zeit.
Ein Projekt namens SpiNNaker nimmt sich diese Arbeitsweise nun als Vorbild. Es steht für „Spiking Neural Network Architecture“. Es wird von Steve Furber an der Universität von Manchester geleitet und setzt sich das Ziel mit einer Million(!) ARM-CPUs (ARM ist sehr sparsam und recht leistungsfähig, weshalb die Architektur oft und gerne in Smartphones verbaut wird) den Prozess von parallelen Berechnungen künstlich nachzubilden. ARM-CPUs wurden nicht zufällig gewählt. Sie sind, ebenso wie unsere biologischen Neuronen, nicht die allerschärfsten Super-CPUs. Sie kommen jedoch, findet zumindest Furber, derzeit unseren Neuronen gerade deshalb am nächsten. [via]
Dass es dieses „Gesetz“ von Moore gab hat wohl dazu geführt, dass man sich mit dem Problem erst jetzt auseinandersetzt. Durch die Architektur der CPUs ist die Beobachtung von Moore logisch gewesen und wurde entsprechend automatisch erreicht. Hätte man sich bereits viel früher davon abgewandt, hätten wir heute viel mehr Architekturen und neue CPU-Ansätze, die es so schnell nicht geben wird. Man könnte sogar sagen, sich auf diese Aussage von Intel zu verlassen hat uns in der eigentlichen Entwicklung von CPUs Jahrzehnte zurückgeworfen. Das Los der eigenen Faulheit. Oder eben, in diesem Fall, der Entwickler und Firmen.
Weiterhelfen tut uns das alles heute nichts mehr, es gibt noch viel radikalere Ansätze, einen Ausweg zu finden. Einer ist der Verzicht auf das wertvolle Silizium. An der Universität Stanford rennt bereits ein „Karbon-Nanoröhren-PC„, wenn auch in einer sehr primitiven Version. Diese _könnten_ eine Art Übergang bilden, denn sie sind sehr energieeffizient.
Und dann gibt es natürlich noch die Entwicklung der Quantencomputer, über die auch hier bei Gizmeo gerne berichtet wird. Meiner persönlichen Meinung nach das bisher einzige Konzept, das nicht nur einen Übergang darstellen wird. Ein fähiger Rechner wird uns jedoch die nächsten 20(!) Jahre nicht zur Verfügung stehen. Das hat einen triftigen Grund: Quantenzustände ändern sich, sobald man mit ihnen interagiert. Dieses Problem muss aber gelöst werden, um Superzustände erhalten zu können, die mehr abbilden als diese schnöde 1 und diese ominöse 0.
Das Jahr geht nicht mehr sehr lange. Hier ist einer der wichtigsten Texte aus 2013:
„Are We Puppets in a Wired World?“, Sue Halpern, via nybooks.com.
Lest es oder lasst es bleiben.
Viele Bücher werden in dem Artikel erwähnt:
Evgeny Morozov: „To Save Everything, Click Here: The Folly of Technological Solutionism“, 413 Seiten, bei „PublicAffairs“, 28,99$
Cole Stryker: „Hacking the Future: Privacy, Identity and Anonymity on the Web“, 255 Seiten, bei „Overlook“, 25,95$
John Naughton: „From Gutenberg to Zuckerberg: What You Really Need to Know About the Internet“, 302 Seiten, bei „Quercus“, 24,95$
Eric Siegel: „Predictive Analytics: The Power to Predict Who Will Click, Buy, Lie, or Die“, 302 Seiten, bei „Wiley“, 28$
Viktor Mayer-Schönberger & Kenneth CukierBig Data: „A Revolution That Will Transform How We Live, Work, and Think“, 242 Seiten, bei „Eamon Dolan/Houghton Mifflin Harcourt“, 27$
Alice E. Marwick: „Status Update: Celebrity, Publicity, and Branding in the Social Media Age“, 368 Seiten, bei „Yale University Press“, 27,50$
Terence Craig & Mary E. Ludloff: „Privacy and Big Data: The Players, Regulators and Stakeholders“, 108 Seiten, bei „O’Reilly Media“, via 19,99$
Ich habe den Text von nybooks.com bis zum Ende gelesen und verlinke die deshalb nicht. Kleiner Tipp: Selbst suchen, am besten mit einer anderen Suchmaschine als Google und sie bei einem kleinen Online-Buchhändler kaufen.
Ich wollte zu dem Thema noch etwas rausholen, aber hier geht es für mich nicht mehr weiter.
Meine Recherchen haben ergeben, dass bereits ab Android 4.0.x., also Ice Cream Sandwich, den Herstellern von Smartphones und somit auch den Anwendern die Möglichkeit genommen wurde Apps auf eine SD-Karte zu verschieben.
Um das zu betonen: Das hat ganz alleine Google zu verantworten! Es trifft keinen einzigen Hardware-Hersteller, es trifft nicht die Programmierer von Apps und keinesfalls die Anwender.
Warum ich das bei meinem alten Gerät nicht so schnell bemerkt habe war einfach: Zum Zeitpunkt, als das Neo V 2011 erschien, wurde es mit Gingerbread, Android 2.3.4, ausgeliefert. Die Möglichkeit Ice Cream Sandwich darauf zu installieren war optional. Die Funktion Apps auf SD-Karten zu verschieben blieb zumindest bei dem Gerät erhalten. Auch mit Jelly Bean 4.1.2, was als Custom ROM verfügbar war, war dies möglich. 4.2.2 habe ich mit dem Gerät nicht mal mehr getestet.
Was mich jetzt noch _brennend_ interessieren würde: Wie hat Google das gemacht? Gibt es Verträge? Welche? Warum nimmt man sich hier Apple als Vorbild? Wenn ein US-Amerikaner im Schnitt 85$ pro Monat für mobiles Internet bezahlen muss, wie verhält sich das mit dem Lieblingsargument von Big G, man solle doch die hauseigenen Clouddienste nutzen!? Zur Erinnerung: Die Nexus-Serie hatte zu keiner Zeit einen SD-Kartensteckplatz.
Das mit Samsung ist ebenfalls nicht einfach: Ich habe zwei Kollegen befragt, die die Stock ROM auf dem S3 und dem S3 Mini am Laufen hatten. Auf keinem der Geräte konnten Apps auf die externe SD verschoben werden.
Was darüberhinaus dreist ist, ist der Fakt, dass Google den internen Speicher ebenfalls als sdcard
deklariert. Das ist irreführend und entspricht nicht der Wahrheit. Alle anderen SD-Karten bekommen nämlich die selbe Bezeichnung, nur mit einer Zahl am Ende. Der interne Speicher wird immer als erste „SD-Karte“ genutzt, was er _nicht_ ist, da geht kein Weg daran vorbei. Ebenfalls Schwachsinn ist das als „emulierten Speicher“ zu bezeichnen; es ist und bleibt einfach der Telefonspeicher. Was ist hier das Problem??
Wie gesagt funktionieren spätestens ab Jelly Bean durchgehend ALLE Apps nicht mehr, die früher den Task übernommen haben, Apps und/oder deren Daten auf eine echte SD-Karte zu verschieben. Sie sind obsolet geworden, die Programmierer dürfen einpacken. Wer ein Gerät kauft, das von Haus aus mit Jelly Bean bestückt wurde (heute Standard), der sollte das im Hinterkopf behalten. ES IST NICHT MEHR MÖGLICH. Werdet euch der Konsequenzen dieses Bugs, das als Feature deklariert wurde bewusst. Und: Es wird nicht zurückkommen.
Weitere Workarounds könnt ihr ebenfalls vergessen: Ich hatte über Wochen hinweg die App Link2SD im Einsatz. Die funktioniert auf Stock ROMs nicht, dafür auf Custom ROMs. Außerdem muss ein separater Teil eurer SD-Karte in ext2, ext3 oder ext4 formtiert sein, was zusätzlichen Aufwand erfordert. Ich habe ja gesagt, ich wollte nichts unversucht lassen.
Jedenfalls, inzwischen ist diese App wieder vom Gerät gelöscht. Mehrere Gründe:
1) nur wenige Daten waren auf die SD verschiebbar: Etwa die apk-Datei, diverse Bibliotheken. Der entscheidende Data-Teil, der riesengroß v.a. bei Spielen werden kann, war ebenso wenig verschiebar wie .odd-Dateien
2) beim Update von Apps, die mit Link2SD auf die Karte verschoben wurden, konnten Probleme auftreten, wenn die gestartet wurden. Nur eine Deinstallation behob das vollständig, ein Hin- und Herschieben mit Link2SD hat oft nicht gereicht
3) beim Update der ROM war Link2SD nicht mehr lauffähig. Man musste es komplett neu einrichten. Das geht recht einfach, ist aber nervig und kostet unnötig Zeit & Aufwand, außerdem…
4) …waren hier auch die verschobenen Apps oft nicht mehr lauffähig
Ergo: Ich bin mit dem Thema durch, bewertet das, wie ihr wollt.
Ich finde es eine Frechheit und unterstütze das nicht. Wie gesagt hätte ich gerne die Kontrolle über mein Gerät. Und dass man den internen Speicher als „sdcard“ deklariert ist dummdreist. Das führt systemweit zu allerlei Konflikten, siehe oben. Android wird gerade kaputtgemacht. Und das Schlimme: Google treibt das selbst voran. Ich verstehe das nicht, aber ich verstehe Kelis, wenn sie sagt:
„Yeah, I think about it every day: That’s the American way“ (nas feat. kelis, 2004)
Erst lächeln, kostenlos verteilen, viele Hände schütteln, alle reinziehen und plattmachen. Danach Geld zählen und sich darauf einen runterholen. Das eigentliche Problem ist nicht gelöst. Perfect!
Ist schon hart: In den USA gibt es eine Firma namens BackyardBrains, die an Schulen ein spezielles Kit für „neurowissenschaftliche Zwecke“ verteilt. Dieses Kit nennt sich RoboRoach #12.
Die Schüler statten Kakerlaken mit einem kleinen Rucksack aus. Dafür müssen sie dem Insekt aber erst den Brustkorb durchstechen. Anschließend werden durch dieses „Loch“ Elektroden eingeführt. Die wiederum füttern Antennen, die per Fernsteuerung von einem Smartphone Befehle empfangen und das Insekt schließlich steuern können.
Jedenfalls, es gibt jetzt eine hitzige Debatte ob dieser „Cyborg“ nun ein wichtiges Werkzeug ist, das man im Unterricht anwenden kann, oder ob es die Kinder in Psychopathen verwandelt (sic): „Cyborg Cockroach Sparks Ethics Debate“, via news.sciencemag.org.
Nun ja, die Geschichte der Hirnforschung ist einfach von grausamen Experimenten durchzogen, auch am Menschen. Neu ist dieser Ansatz also nicht, allerdings kann ich die Zweifel verstehen: Es sind schließlich noch Kinder. Deren Gehirn kann sich schnell in falschen Richtungen entwickeln. Und das ist später nur sehr schwer rückgängig zu machen, wenn überhaupt.
Das Thema wird allgemein sehr groß werden die nächsten Jahrzehnte, technisch ist hier immer mehr machbar. Da man Insekten und Tiere aber nicht danach fragen kann, ob sie das mit der Cyborgisierung wirklich wollen, sollte man das alles strikt lassen. Wenn das ein Mensch für sich entscheidet sehe ich keinerlei Probleme. Wenn es Menschen für andere Menschen über deren Willen hinweg entscheiden gehört das verboten. Period.
Yay! Sehr, sehr gut:
Das erste Smartphone mit Firefox OS ist ab nächster Woche in DE-Land erhältlich!
Es wird direkt über Congstar vertrieben, was die doch gleich sympathisch macht:
http://www.congstar.de/firefox-os/.
Hier die technischen Spezifikationen:
3,5“ Display
480x320px Auflösung
1 GHz Qualcomm-Prozessor
512MB Speicher
256MB RAM
Abmessungen: 115 x 62,3 x 12,2 Millimeter
Akku: 1.400 mAh
Wie man sieht sind die etwas bescheiden. Das tat dem ersten Firefox-Smartphone in Spanien allerdings keinen Abbruch: Hier war das Gerät als es vor wenigen Monaten erschien innerhalb kürzester Zeit vergriffen.
Wer also Interesse an einem starken Stück Smartphone-Geschichte hat: Zuschlagen!
P.S.: Es gibt einen Simulator dieses Betriebssystems, wo man sich einen Überblick zu den Funktionen bereits jetzt holen kann: Firefox OS Simulator, 48.8MB Download, Chip.de.
Social Engineering wurde schon von Kevin Mitnick als die erfolgreichste Methode beschrieben sich unerlaubten Zugang zu fremden Computer-Systemen zu verschaffen. Dafür muss man gut labern können, einigermaßen sicher und kompetent in Telefongesprächen wirken und genau wissen, was für ein Ziel man mit dem „Gedanken-Hack“ erreichen will.
Social Engineering wird auch heute noch gerne angewandt, ist sie doch verhältnismäßig unkompliziert, was die benötigte Technik betrifft. Oft reicht schon, wie erwähnt, ein Telefon. Man muss nicht ein Über-Hacker sein, um hacken zu können. Manchmal genügt auch ein vorhandener Pool an Kreativität. Es ist wie Games zocken, nur in der Realität eben. Das, was die weibliche Welt tagtäglich ausführlichst betreibt.
Dass Social Engineering ein Problem ist, das uns im 21. Jahrhundert weiterhin beschäftigen wird, findet nun auch die US Army: Sie will für Unsummen an Dollar ein Computer-System schaffen, das sogar die subtilsten menschlichen Angriffe erkennt und vollautomatisch darauf reagiert. [via]
Wir reden hier von einem astronomischen Budget in Höhe von 48 Millionen. 23,2 Millionen davon stehen Forschern für einen Zeitraum der nächsten fünf Jahre zur Verfügung und zwar an den Universitäten Penn State, California, Davis, Riverside und Indiana. Dieses Programm beinhaltet die Option auf weitere fünf Jahre verlängert zu werden, mit einem zusätzlichen Budget von 25 Millionen.
Da das mit der Finanzierung nun geklärt ist sollten wir uns Gedanken machen, was hier eigentlich erforscht werden soll. Und zwar werden hier explizit „Modelle menschlichen Verhaltens“ entwickelt, die von einem Computersystem gekontert werden sollen; eine harte Aufgabe, da dieses System auch erkennen soll, ob die Manipulation denn von einem Subjekt bewusst so gewollt ist oder nicht. Wie diese Modelle erstellt werden bleibt ein Geheimnis, es klingt jedoch nicht wirklich nach einem koscheren Ansatz.
Wie üblich werden zum Anfüttern nämlich Unmengen an Daten benötigt, aus denen erste Werkzeuge und Kriterien erstellt werden. Wo diese Daten herkommen sollen ist wahrscheinlich fast klar, wer Mitte des Jahres die Geschichte mit der Überwachung von Verizon-Kunden verfolgt hat: „Verizon Breaks Silence on Top-Secret Surveillance of Its Customers“, via wired.com. Telefon-Provider sind ja wohl die offensichtlichste Goldgrube, vielleicht laufen solche Analysen auch schon und erst jetzt macht man das halt mal publik.
Trotz dem vielen Geld und der Einfachheit für die U.S. Army hier an Daten zum Minen zu kommen ist der Erfolg dieses speziellen Projekts ungewiss: Selbst Menschen haben Schwierigkeiten damit andere Menschen zu erkennen, die sich manipulativ oder bewusst böswillig gegenüber einem selbst verhalten. Besonders wenn wie bei einem Telefon das persönliche Gegenüber komplett wegfällt. Das von einem Computersystem zu erwarten könnte sich am Ende als kompletter Schuss in den Ofen herausstellen. Computer besitzen keine Intelligenz. Und es sieht nicht danach aus, als würde sich die nächsten Jahre daran etwas ändern.
Verharmlosen sollte man diese Geschichte trotzdem keinesfalls. Meistens genügen schon Ansätze von Forschungen, um die Ergebnisse irgendwo anders weiterzubetreiben. Dann vielleicht nicht mehr bei einer Armee, sondern der DARPA oder einer sonstigen klandestinen Vereinigung. Vielleicht aber auch bei Facebook. Oder Skype.
Ich bin ein riesen Concept-Art-Fan, aber leider wird das neue Nexus 5 so nicht aussehen:
(oben: Nexus 5-Conceptart von Sph1re)
Hochaktuell ist das Thema dieser Grafik vom März 2013 trotzdem: Samsung will nämlich noch diesen Monat, zumindest im Heimatland Südkorea, ein Smartphone mit „Kurvendisplay“ herausbringen. Yeeha! Das klingt sexy im englischen Original („curved display“), lasst uns nur noch hoffen, dass es entsprechend ausschauen wird.
Das eigentliche Thema dieses Beitrags ist ein anderes: Das offizielle Servicehandbuch über 281(!) Seiten zum LG D82x
(offizielle Typbezeichnung des Nexus 5) ist nämlich, natürlich versehentlich, über die Dokumenten-Upload-Plattform Scribd erhältlich. Pardon: Gewesen.
Besucht man diese Adresse, wird man von der Nachricht begrüßt, dass LG Electronics höchstselbst diese Inhalte hat vom Netz nehmen lassen.
Nun, wie das Web nun mal ist, viel gebracht hat das nichts: Die schematischen Skizzen sind weiterhin über diverse Quellen zugänglich. Die bestätigen eigentlich, was man bereits im Vorfeld auf Bildern sehen konnte.
Wirklich wichtig waren hingegen die Specs. Neben einem 4,95“(?)-Display werden 16/32GB Speicher, 2GB RAM, ein Snapdragon 800 mit 2,3GHz, 8MP-Kamera hinten und 1,3MP(!?)-Kamera vorne, einem mittelmäßigen 2300mAh Akku, dem üblichen internen Sensoren-Gedöns (Gyroskop, etc.), Benachrichtigungs-LED, kabellosem Laden und NFC sehr viele Gizm(e)os mitgeliefert. Der Preis für die 16GB-Version wird, jüngsten Informationen zufolge, bei 299€ liegen.
Vor allem der Akku und die Kamera vorne und hinten machen dieses Gerät zu keinem Highend-Smartphone. NFC ist nicht wirklich neu, Notification-LEDs ebenfalls. Das kabellose Laden ist nett, aber jetzt kein Totschlagargument sich dieses Smartphone zu holen. Darüberhinaus besteht technisch fast keinerlei Unterschied zum G2 von LG.
Insgesamt verhält es sich mit den Nexus-Geräten so: Sie geben meist den Standard vor, was für neue Androidversionen benötigt wird. Wer also bereits ein Highend-Smartphone aus diesem Jahr 2013 hat, der wird mit den folgenden Android-Iterationen keinerlei Probleme bekommen. Mit Kitkat sowieso nicht und wohl auch nicht mit der Version 5. Denn, wenngleich es noch keine Version 5 von Android gibt, das wird auf diesem Gerät laufen müssen. Sonst hätten die Maestros von der Marketingabteilung sich diese Zahl auch sparen können. Für die Displaygröße steht die Fünf nämlich nicht, wie man oben lesen kann.
Fakt bleibt am Ende auch: Google hat mit seinen Nexus-Geräten einen Nerv getroffen. Denn selten gab es so viele Features und so viel gute Hardware für so wenig Geld. Und wenn man sich das Samsung Galaxy, sowie v.a. das Nexus 4 genauer angeschaut hat; das waren Design-Schmuckstücke, die hier sogar einen gewissen Impact hinterlassen konnten.
Wie immer fehlt dem Nexus der Slot für eine externe MicroSD-Speicherkarte. Google hat hier leider auch den übelsten Trend in Android aller Zeiten gesetzt. Indem der Konzern seit Version 4.2 vorschreibt (teilweise auch schon früher, je nach Gerät), dass keine Apps mehr auf die SD-Karte verschoben werden können, will man die Nutzer dazu „ermuntern“ möglichst viele Google-Dienste zu nutzen. Am besten streamt man einfach alles, das ist eine Vision davon. Man macht sich aber hier nicht nur komplett abhängig, sondern schont auch nicht den Geldbeutel. Zudem sind die mobilen Netze in keinster Weise in der Lage alles immer überall zu streamen. Die kommen schon mit begrenzten Pseudo-Flatrates nicht klar. Bisher ist diese Strategie also ein reines Hirngespinst von wem auch immer bei Big G. Und eine Änderung ist nicht in Sicht: 500MB im mobilen Netz zu übertragen kostet den Nutzer in den USA(!) derzeit pro Monat 85$.
Es gibt eine interaktive Karte zu potenziell bewohnbaren Planeten:
http://exoplanets.newscientistapps.com/. [via]
Und das funktioniert so:
Das Kepler-Weltraumteleskop aus 2009 beobachtete einen ganz bestimmten Bereich in der Nähe des Sternbilds Schwan. Bezogen auf den typischen Nachthimmel ist dieses Grid ziemlich klein, es sind dennoch 150.000 Sterne anpeilbar gewesen in den vier Jahren.
Was Kepler dann macht ist recht simpel: Sollte ein Stern einen Trabanten besitzen, macht sich das in in der Leuchtstärke bemerkbar. Nur kurzzeitig nimmt diese ab, aber so, dass Kepler das messen kann. Jedenfalls, anschließend werden auch alle Planeten ausgeschlossen, die mindestens den zweifachen Durchmesser der Erde haben; warum man dies macht ist mir etwas unklar, versucht man hier wohl offiziell Gasplaneten (wie Jupiter) zu exkludieren.
Naja, ab hier bleibt nicht mehr viel übrig als die habitablen Zonen festzustellen. Die menschlichen Messgeräte sind einfach zu schlecht, um sicher zu sagen, ob man auf diesen potenziell lebensfreundlichen Planeten Wasser vorfindet. Oder ähnliche Substanzen, etc.
Es kommt aber noch dicker: das Kepler-Teleskop kann auch nur die direkten Transits beobachten. Kreist eine neue Erde in Form eines anderen Winkels vor einem Stern, sieht Kepler rein gar nichts.
Hier noch ein paar Zahlen & Fakten: Durch das Teleskop wurden 0,28% des Himmels beobachtet. Dabei auch nur in einer Entfernung von maximal 3.000 Lichtjahren, was weniger als 5% der Sterne in diesem Blickfeld ausmacht.
Gibt es denn endlich ein Ergebnis? Nur Hochrechnungen. Würde man die 0,28% hypothetisch auf den gesamten Himmel beziehen, es wären
15-30 Milliarden bewohnbare Planeten.
Immerhin. Wohl alleine in der Milchstraße.
Sollte der Text jetzt etwas negativ rüberkommen, dann liegt das an der verwendeten Technik: Die ist einfach Schrott. Das tut dem Erlebniseffekt am Ende erstaunlicherweise jedoch keinen Abbruch: Die wichtigste Slide ist die mit der Überschrift „the search continues“. Wenn man bedenkt, dass jeder kleine grüne Punkt hier in der Bewegung jede Nacht auf uns herunterstaunen könnte; die Hoffnung stirbt zuletzt. Gesegnet seien jegliche Formen von Intelligenz.
So sieht die Zukunft von Android aus:
Ohne KitKat(R). Ohne dieses korrupte Nestlé. Und sehr wahrscheinlich komplett ohne Google.
Mit dem N1 liefern die Chinesen von Oppo das erste Smartphone standardmäßig mit der Cyanogenmod-ROM aus. Wenn auch in einer stark limitierten Auflage.
Zur Erinnerung: Cyanogenmod ist das Projekt, das Google von Anfang an an den Karren gefahren ist, und 2009 sogar verklagt wurde. Und ganz nebenbei ist das eigentliche Ziel Android komplett opensource zu machen. Das wird nicht einfach, es wird auch nicht gleich morgen sein, aber es wird passieren. Und am Ende wird man sehen müssen, dass es gar nicht anders ging. Und gut war.
Das N1 erscheint im Dezember, ist ein High-End-Smartphone (5,9“, 373ppi, Snapdragon 600 Quad mit 1,7GHz, 2GB RAM, 16/32GB Speicher, 13MP-Kamera) und kostet dann 440€.
Wer bei Android auf 2D-Effekte und auch Schaltflächen abfuhr, der konnte beherzt zur Custom-ROM Paranoid Android greifen. Doch laut den ersten Vorschaubildern von Android 4.4 (Codename: Nestlé Corrupt Corp.) wird dieser Effekt sogar systemweit zu einem Standard:
Muss man nicht gut finden, erinnert eher an den neuen Windows-Anstrich. Da diese 2D-Philosophie allerdings von Google momentan für so ziemlich alles durchgezogen wird, ist es nur konsequent.
Nicht vergessen sollte man: _Vorschau_. Nichts anderes, wer weiß, wo diese Screenshots herkommen. Doch dieser 2D-Hype ist meiner Meinung nach genauso unnötig wie jegliche News zu „Breaking Bad“. Es nervt einfach. Hört auf damit. Traut euch was. Seid nicht langweilig. Und vor allem: For God’s sake, don’t imitate Micro$oft!
Yo. Wer sich wirklich fragt, in was für einer verkackten Welt wir leben, der braucht sich nur bewusst machen, dass die NATOOTAN einen eigenen YouTube-Kanal für ihre Propaganda-Videos hat.
Dort kann man dann jüngst bestaunen, dass in Norwegen ein KFZ-Jammer getestet wird. [via] Später auch für Jetskis, Drohnen, Boote, usw. Grandios.
Natürlich alles nur und ausschließlich zu unserem Besten: Auf deutschen und europäischen Straßen sind tagtäglich Selbstmordattentäter in ihren VWs und Audis unterwegs. Of course.
Ideen legendärer Super-Deppen, dann kommen die Mörder zukünftig eben mit dem Fahrrad. Zudem ist mir jetzt schon klar, dass auch die Herren von der Pozilei solche Jammer bekommen werden. Für den Hacker & Normalverbraucher werden die Teile natürlich verboten, versteht sich von selbst.
Es ist ein Trugschluss zu denken, dass damit die Problematik von Suizidbombern aus der Welt geschafft ist. Das Problem hier ist rein psychologischer Natur, wo bisher weder die Medien, noch die Wissenschaft Anstalten gemacht hätten das zum Besseren zu wenden.
Aber wem erzähle ich das: Die NATO hat bereits in der Vergangenheit sehr viel zum Frieden in der Welt beigetragen, war permanent transparent und hat nur Gutes bewirkt!1 Siehe Gladio, war ja nur lächerliches Paramilitär, das in deren Auftrag Leute ermordet hat. Und schon gar nicht werden dadurch im Ausland wirtschaftliche und strategische Interessen durchgesetzt. Ach komm, leckt mich.
Im Kern ist dieser Jammer eine Erfindung, die niemand braucht. Und sie wird mit ziemlicher Sicherheit _nicht_ zu unserer Sicherheit eingesetzt. Wirklich revolutionär wäre eine Art Interceptor gewesen, der diesen Bombengürtel am Hochgehen hindert. Dann hätte so ein Attentäter auch mit der Titanic anrollen können, es wäre egal gewesen. Stellt euch vor, die statten Drohnen mit diesen Jammern aus. Wo KFZs gestoppt werden können, ist es mit ähnlicher Elektronik auch nicht weit. Ganze Gebiete eleganter offline zu kriegen als mit diesem auffälligen EMP; das ist ein Ziel, das ich denen vollauf zutrauen würde. BNW(O).