Willkommen in 2019, einem weiteren Jahr geistiger Gehirnbehinderung! <3
Auf elektronischem Wege, zumindest.
Obwohl Winter ist wird in der deutchen Nachbarschaft gesägt, gehämmert, Bäume gefällt & Flüssigkristallerzeugnisse geleckt und massiert.
Ich weiß ja nicht, was hier los ist, doch der „technisch weit entwickelte Deutsche“ verträgt auch im ersten Jahr nach dem dümmsten Sommer aller Zeiten leider keine Weiterentwicklung -.- Willkommen im „Digitalneuland!“ TOTAL FTW!
Naja, machen wir uns nichts draus.
Es gibt Androiden, kaputte CPUs, vom Himmel fallende Satelliten zum Ausschlachten und Plattenspieler von Vestax zuhauf.
Frohes Neues Jahr 2019 wünscht gizmeo.eu! Auf unsere liebe Gehirnglotze! ^^
Computer lassen sich nicht verarschen. Kunden lassen sich verarschen.
Die wohl erfolgreichste CPU-Serie aller Zeiten ist die „(Core) i“-Serie von Intel, basierend auf der sogenannten „Nehalem“-CPU-Mikroarchitektur, die die bekannten „Core“-CPUs irgendwann 2010 ablöste.
Ab „i“ passierte etwas ganz Merkwürdiges: Intel versuchte PCs zu verarschen und verkaufte Prozessoren mit nur zwei Kernen, die aber dem Betriebssystem hintenrum vorgaukelten, diese haben vier. Dieses Konzept nannte man im Marketing-Sprech „Hyperthreading“ und es war ein gigantischer kommerzieller Erfolg.
(Defekte Intel-CPU, CC0 Fritzchens Fritz via Flickr)
IT-Experten ist so ein Blödsinn nie zu verkaufen gewesen: wieso sollte ich eine CPU als Quad-Core ansehen, wenn real nur zwei Cores verbaut sind? Was schlägt die Realität hier, Fakten oder Marketing? Die Antwort kann sich jeder selbst geben.
CPU-Design, sowie Herstellung und Verkauf ist ein gigantisches Geschäft. Allerwelts-Ware, die in Massen hergestellt wird, die man sich nicht mehr vorstellen kann und die Unmengen an Ressourcen verschwendet, menschliche wie natürliche. Tatsächlich hat es diese harte Industrie geschafft Prozessoren zu entwickeln, die heute nicht mehr schon nach zwei, sondern erst nach sieben Jahren (oder noch mehr, wenn man Linux nutzt) im Schnitt ausgetauscht werden müssen, weil sich Software so rasant weiterentwickelt, dass keine Hardware länger mithalten kann. Eigentlich ist das ganz gut so. Doch diese Entwicklung hatte einen verdammt hohen Preis.
Die US-amerikanische Mentalität schlägt sich auch auf CPU-Design nieder. Ohne irrsinnig viele US-amerikanische Dollars wird sich kein Hersteller auf dem weltweiten CPU-Markt durchsetzen können. Das hat zu einem gefährlichen Oligopol im CPU-Bereich geführt, wo mittlerweile lediglich drei Hersteller ihre Kämpfe austragen: Intel, AMD und ARM. Selbst „Big Blue“, also IBM, einst eine CPU-Koryphäe und Vorreiter brachial guter und mächtiger CPU-Konzepte, mischt auf diesem Markt nicht mehr mit. Fragt euch mal wieso.
Dieser Markt ist scheiße wahnsinnig, er bringt die düstersten IT-Blüten hervor, es geht überhaupt nicht mehr um Fortschritt oder möglichst viele Konzepte in dem Bereich. Es geht nur noch darum, wie man dem „dummen Konsumenten“ möglichst im Monatstakt eine neuere Version der CPU, die sie/er bereits hat, andrehen kann. Man geht über Leichen dafür, im In- und Ausland. Man spart stolz an der Sicherheit, das wichtigste Kriterium, für nur noch ein Hauptaugenmerk: Speed. Speed. Und nochmal Speed. Koste es was es wolle.
Genau hier kommt „Hyperthreading“ ins Spiel. Die allergrößte und schäbigste Verarsche, seit es CPUs gibt.
Ich spare mir hier wie „Hyperthreading“ genau funktioniert, der Wikipedia-Eintrag ist oben auch bereits verlinkt, doch dieses Konzept, diese gequirlte Werbescheiße aus dem Hause Intel, hat direkt in die CPU-Apokalypse geführt, die vorerst im Januar in „Meltdown“ und „Spectre“ gipfelte.
„Hyperthreading“ ist das Eingeständnis und die Kapitulation gleichermaßen, sich einen Dreck um den wirklichen Fortschritt von Computer-Prozessoren zu scheren getreu nach dem Motto: „wir können zwar derzeit keine Quadcores oder Octacores bauen, weil alles viel zu teuer und würde viel zu lange dauern, wir bauen lieber einen Wrapper(!) und lügen dem Konsumenten ins Gesicht, merkt keine Sau!“
Und bei Intel im sonnigen Santa Clara regnete es ab diesem Zeitpunkt Dollars vom Himmel.
Von einem technischen Standpunkt aus gesehen ist das unter aller Sau.
Es ist shady, durch und durch. Und dürfte von keinem CPU-Hersteller propagiert werden, der seriös in diesem Zukunftsfeld aktiv ist.
Intel hat aber genau das gemacht. Und sie wollten einfach. Nicht. Stoppen.
Mit „Hyperthreading“ startete ein komplett neues Paradigma, es war mehr als eine Idee, und dieses Paradigma bricht CPU-Käufern seit Januar weltweit Genicke und bereitet Betriebssystemherstellern Kopfzerbrechen: OoOE. Out-of-Order-Execution.
Mit OoOE war es endgültig vorbei mit der wahrheitsgemäßen Abarbeitung von Programm-Code.
Die Spekulation wurde hoffähig und verkaufbar gemacht: die CPU „spekuliert“, welche Anweisung als Nächstes kommt, sie ist sich nicht mehr 100% sicher. Man pfeift auf die Sicherheit und holt ein paar Prozentpunkte mehr Speed. Alles wie gehabt. Es war klar, dass dieser grandiose Marketing-Schachzug, der kein technischer war, nur aus einem Hause so konsequent durchgepeitscht werden konnte.
Und das bei dem wichtigsten Hardware-Bauteil unserer Zeit: dem Gehirn der Maschine.
Bei all der panischen (und dennoch gerechtfertigten) Berichterstattung zu „Meltdown“ und „Spectre“ kommt mir immer eine Frage zu kurz: wie ändern wir das jetzt? Wie macht man diesen kapitalen Fehler rückgängig und vertraut doch wieder dem Von-Neumann-Zyklus, kehrt zurück zur klassischen IOE? Die Antwort ist auch leider hier sehr unbefriedigend: wahrscheinlich gar nicht mehr. Weil es schlicht mehr geht.
Für alle, die dennoch ebenso diese Frage interessiert und umtreibt, dem sei folgende Web-Diskussion empfohlen, die seit vor schon fünf Monaten zumeist sachlich geführt wurde: https://news.ycombinator.com/item?id=16070465. Die Ausdauer und der Informationsgehalt verdienen großes Lob, leider ist das zumindest was ich fand textlich und online im letzten halben Jahr, dann auch schon alles gewesen. Und es wurde auch schon lange gar nicht mehr aktualisiert.
Ich persönlich denke, CPUs sind „fertig designt“ und das schon seit Jahrzehnten(!). Echte Quadcores und Octacores und WeißIchsWieVieleCPUsAufEinemDie wären sowieso gekommen. Was Intel hier gemacht hat ist schon wieder so typisch für Intel. Man kann sie zu Recht hassen und verabscheuen dafür. Das bringen wirklich nur die hin. Das ist Wahnsinn. Und eine Lüge gewesen von Beginn an.
Diesen Gehirnschmalz, diese Expertise im Bereich des Verkaufs hätten sie lieber in die wirkliche Entwicklung, den wirklichen technischen Fortschritt von CPUs gesteckt. Doch um so etwas ging es Intel nie.
Intel ist mal wieder so eines der perfektesten Beispiele für unsere Zeit: „was kümmert mich die Substanz, ich will die optisch geilste Bitch auf dem Fotzenmarkt und werde diese mit Dollars zuscheißen, bis sie erstickt, die drecksgeile Sau!“ Gerne könnt ihr mir hier jetzt bitte seitenweise versuchen zu erklären, was das mit Computern zu tun haben soll.
BNW.
Es fühlt sich an wie vor 100 Jahren, doch es war vor „erst“ elf: damals geisterte ein fürchterlicher Marketing-Kackrotz durch den Cyberspace, der sich „Web 2.0“ schimpfte. Unter diesem Schlüsselwort (würde heute „trendig“ #hashtag heißen) sammelten die weltweiten Granden der Inkompetenz & Inkontinenz jene Web-Phänomene, mit denen sie nicht gerechnet hatten in den 90ern des vorherigen Jahrhunderts. Dazu konnten aber schon CSS-Hacks gehören, Webseiten auf Flash(!)-Basis, manchmal auch MySpace/Facebook(!) oder sogar Blogs.
Im Kern war alles Schwachsinn.
Den Begriff gab es eine ganze Weile, sogar „Web 3.0“ kam irgendwann, doch richtig Fahrt aufnehmen konnte das nicht mehr.
Jetzt, mit der Blockchain, passiert aber etwas „Merkwürdiges“, was zwar seit dem NSA-Skandal 2014 vielleicht vorhersehbar war, jedoch nicht 2009 zum Beispiel, als Bitcoin an den Start ging: das Internet steht nämlich technologisch vor der Ablösung
.
Die Zeiten sind endgültig vorbei, seit Jahren schon, wo wir munter „frei“ über http Webseiten in die Welt setzen konnten. Ohne https läuft nichts mehr. Es setzt sich, langsam, wie das eben so ist mit tiefgehenden Veränderungsprozessen, durch, dass wir einander bei elektronischen Medien nicht mehr trauen können, nicht mehr trauen sollten. Nicht nur in Bezug auf das Übertragungsprotokoll aus den 90ern.
Hier kommt jetzt die Blockchain-Technologie ins Spiel, deren Credo von Anfang an lautete: „traue Niemandem!“ („Trust. No. One.“)
Man kann diese als Zahlungsmitteltechnologie einsetzen, wie bei Bitcoin geschehen. Man kann sie aber auch wie z.B. bei Ethereum oder NEO als „Betriebssystem“ einsetzen, um Apps (hießen früher mal „Programme“) darauf aufzubauen, die die Menschheit so noch nicht gesehen hat. Und alles, was man darauf kommuniziert, festlegt, abwickelt, etc., wird verschlüsselt und nie mehr änderbar in einer Blockchain abgelegt.
Als junges Beispiel nehme ich hier mal schnell Japan, die bald wirklich verschlüsselt chatten dürfen: https://the-blockchain-journal.com/2018/04/04/line-japans-largest-chat-platform-is-working-with-blockchain/. Ist ja jetzt nur ein Echtleben-Anwendungsbeispiel.
Die Zeiten für Facebook, WhatsApp, Instagram, Twitter; Vergangenheit! End-lich! Danke, Blockchain! <3 Was halt noch fehlt ist die Interkonnektivität zwischen den verschiedenen Blockchain-Systemen. Aus der Historie des Internet könnte, müsste ja faktisch, eine Art, Achtung, Neologismus, Interblockchain, entstehen.
Bis es so weit ist lassen wir das US-Heimatschutzministerium, Apple und Mark Zuckerberg eben Nackt-Selfies von Minderjährigen in ihren unsicheren Clouds speichern und unsere Bank- und Kommunikationsdaten mitsniffen. Schließlich hat sich darauf die Gesellschaft längst geeinigt, sie wird schon nicht daneben liegen.
Nick Bostrom.
Philosophische Fakultät Oxford.
„Technology Review“, 04/2018.
Mindestens eine der folgenden Hypothesen muss zu 100% wahr sein:
1) „Eine reife Zivilisation muss nur einen winzigen Bruchteil ihrer Computer-Ressourcen einsetzen, um viele Billionen menschliche Gehirne zu simulieren.“
2) „Alle Zivilisationen auf unserem derzeitigen technischen Stand der Entwicklung sterben aus, bevor sie technologisch ausgereift sind.“
3) „Technologisch reife Zivilisationen haben kein Interesse an Ahnensimulationen.“
You decide.
Nur eine letzte Frage stellt sich mir hier: wie lauten die Cheat-Codes!?
Wer 2016 schon schrecklich fand, der bekam 2017 ein Lehrstück über sehr dunkle Stunden der Menschheit. Wenn es außerirdisches Leben gibt, wovon ich in unserem Universum nicht ausgehe, muss es denken, wir waren nie ekliger, dümmer, skrupelloser & verwirrter.
Da waren beispielsweise apokalyptische Geschichten über künstliche Intelligenz von Leuten, die zwar groß waren im Paranoia-Verbreiten, aber kaum Ahnung von der Materie hatten. Es passte perfekt in die Zeit und war eines der Leitthemen des Jahres aus technologischer Sicht.
Ich komme so ein bisschen aus der Schiene und programmiere selbst hobbymäßig damit und kann euch bestätigen, es gibt hier rein gar nichts, das man fürchten muss. PCs sind keine Gehirne, nie gewesen und werden es nie sein. Wer ein bisschen tiefer stochern möchte, der/dem sei wie immer die Tiefe & Schärfe von href.ninja empfohlen.
Dass KI auch positiv sein kann und es eigentlich auch ist, sah man jüngst bei der Entdeckung des Sonnensystems um Kepler 90i: die NASA fand hier zusammen mit Google ein fremdes Planetensystem, das ebenso viele Planeten besitzt wie unseres. Wie geil (und zufällig) ist das bitte!?
Es ist zu finden im Sternbild Draco und 2.500 Lichtjahre von der Erde entfernt. Der untersuchte Planet, Kepler 90i, ist zwar der kleinste der acht entdeckten, aber immer noch 30% größer als unsere Erde. Die Temperatur dort beträgt 420 Grad Celsius.
Der NASA brachte der Start des Weltraumteleskops Kepler 2009 zu wenig, denn wie bei Big Data üblich ist die US-Weltraumbehörde erstickt im gesammelten Datenwust. Um diesen zu bewältigen wandten sie sich dort an die Experten aus diesem Bereich, Google. Die stellten ein Team, das mit Hilfe eines vorher trainierten neuronalen Netzwerks gelernt hatte, wie ein Signal eines weit entfernten Planeten auszusehen hatte. [via] Nur 670 Sterne und deren vorbeidriftende Planeten wurden dafür untersucht. Doch immerhin: das Ergebnis war eine populäre Nachrichtenmeldung, es gibt von uns ein Zwillings-Sonnensystem irgendwo! Nice one!
Mit dieser positiven Grundstimmung entlasse ich euch, liebe Leserinnen & Leser dieses kleinen feinen Online-Technik-Magazin-Gedönsens in die Festtage. Erholt euch gut und schaltet mal ab. Und nicht vergessen: es gibt ein Leben außerhalb von Maschinen!
„None but ourselves can free our minds“
2017 war für Kryptowährungen wohl das verrückteste Jahr. Alleine die älteste Währung, Bitcoin, verteuerte sich innerhalb von nur einem Jahr um das Zehnfache: im Oktober 2016 konnte man eine digitale Münze noch für 500 Euro ergattern.
Steigt der Bitcoin, steigen auch alle anderen Kryptowährungen, die auf dem SHA-256-Algorithmus aufbauen, die sogenannten Altcoins. Auch für die war es ein sehr erfolgreiches Jahr. Vielleicht wird man in 20 Jahren auf 2017 zurückblicken und sagen, Kryptos sind damals erwachsen geworden.
Was ich in diesem Beitrag zeigen will ist, welche Kryptowährungen man bereits heute zu den wertvollsten zählen kann. Dabei wird alleine der Wert eines einzigen Tokens betrachtet. Für eine erste Auflistung möchte ich die Kryptowährungen zeigen, die den Wert von 100€ erreicht oder bereits um ein Vielfaches überstiegen haben. Here we go:
—
1. Bitcoin, 4844€
„Die Mutter aller Kryptowährungen“ taugt im Jahr 2017 kaum noch als Zahlungsmittel. Wer beispielsweise im August Bitcoin im Wert von 1€ transferieren wollte, zahlte dafür bereits 2€ Transaktionsgebühr. Das macht Bitcoin als reines alternatives Zahlungsmittel heute unattraktiv.
Als „digitales Gold“ lässt sich die Währung allerdings nach wie vor betrachten. Durch Brexit und Trump-Wahnsinn wird der Wert weiter steigen. Im Gespräch sind locker fünfstellige Beträge. Ein Ende nicht absehbar. Das macht die Währung, neben ihrem attraktiven Charakter als Geldanlage, aber weiterhin zu einer Waffe gegen die Wirtschaft allgemein. Da können Mega-Banken wie J.P. Morgan Chase noch so Stimmung dagegen machen. Der wahre Feind von Bitcoin wurde schon von Beginn an tief in die DNS der Kryptowährung eingraviert. Das lässt sich, zum Glück, weder ändern noch rückgängig machen.
Ferner sind digitale Bitcoin-Münzen nach wie vor mit speziellen Minern, ASIC-Maschinen, weiterhin selbst produzierbar. Das ist zwar nicht wirtschaftlich und verbraucht viel zu viel Strom (Bsp.: eine 1,1TH-Maschine mit einem 590-Watt-Netzteil kostet pro Monat 119€ Stromkosten bei einem Preis von 0,28€/KWh. Wertverlust/Monat alleine durch Stromkosten: 84€), doch es ist ein cooles und attraktives Hobby und macht auch Spaß. Ferner stützt jeder kleine Miner das Bitcoin-Netzwerk allgemein.
2. Ethereum, 261€
Ethereum gehört mit zur „Champions League“ der Kryptowährungen. Das von Vitalik Buterin gestartete Projekt bietet mit Solidity eine eigene Programmiersprache. Außerdem ist Ethereum im Gegensatz zu Bitcoin turing-complete; allerdings ist weit und breit kein PC zu sehen, der nur auf Ethereum basiert. Das wäre hier nämlich möglich. Und auch wahrscheinlich _die_ Killer-Applikation.
Der Code wird derzeit weiterentwickelt und ein neuer Haupt-Release wartet auch. Mit smart contracts glänzt das System mit einer Art programmierbarem Vertrag als App, die fälschungssicher und ohne Mittelsmann-Schicht funktioniert. Doch auch hier gab es bisher keinen „Killer-Smart-Contract“. Das vielversprechende Projekt The DAO scheiterte letztes Jahr im Oktober komplett, daraus entstand das kontroverse Ethereum Classic. In der Krypto-Szene wird diese Währung wie Bitcoin Cash auch als dreistes Plagiat und Betrug gewertet.
3. Dash, 248€
Dash, auch „Digital Cash“, wird als Anwärter auf den Thron der Kryptos gesehen, die es als erste schafft eine DAO, also eine Dezentrale Autonome Organisation erfolgreich aufrecht zu erhalten. Die Anzahl Apps ist derzeit überschaubar und wenig attraktiv, was hier lockt ist zum einen das selbstständige Betreiben einer „Masternode“ (die jedoch teuer ist), wodurch man massive Stimmrechte erhält. Und zum anderen verfügt Dash über ein IO-System, das es schafft Monat für Monat sein Budget selbstständig(!) zu steigern, wodurch neue Projekte und neue Entwickler finanziert werden können. So etwas gab es meines Wissens noch nicht.
4. Zcash, 196€
Um Zcash rankt sich die eine oder andere Verschwörungstheorie. Im Kern ist es einfach eine Kopie von Bitcoin, selbst die Anzahl von 21 Millionen Tokens ist die selbe. Niemand weiß genau, zu was es gut sein soll. Es gibt Gerüchte, es sei von gewissen Regierungen gesponsert. Was niemanden in der Szene wirklich wundern würde.
5. Byteball Bytes, 177€
Ganz ehrlich: keine Ahnung. Auf Wikipedia in englischer Sprache keinerlei Einträge. Byteball Bytes will ein „smartes Bezahlsystem“ sein. Leider ist das nicht wirklich innovativ. Um die Popularität zu steigern werden immer mal wieder Events organisiert, zuletzt im August, wo Tokens für die verschenkt werden, die Bitcoin-Adressen bereitstellen. Das könnte auch mal nach hinten losgehen für Bitcoin-Fans. Ich persönlich kann mir nicht erklären, wieso der Wert hier so hoch angesetzt ist, zumal man die Währung _nicht_ minen kann. Der Community-Gedanke existiert hier also überhaupt nicht. Vielleicht ist der Mangel ein Phänomen hier: insgesamt sind nicht einmal 600.000 Tokens im Umlauf. Viele finden schon alleine diese Vorstellung attraktiv.
6. BitConnect, 172€
Den Abschluss der Liste macht BitConnect, ein seit Februar 2016 existiertendes „High-yield Investment Program“. Diese Programme sind organisierte Ponzi-Schemes und ergo: schlicht Betrug. Ich würde jedem davon abraten hier zu investieren. Insgesamt gibt es 28 Millionen Einheiten, 7,2 Millionen befinden sich aktuell im Umlauf. BitConnect ist ein sehr gutes Beispiel, dass wir in Bezug auf Kryptowährungen bis auf ein paar Ausnahmen auch noch sehr am Anfang stehen: hätten Leute Ahnung, oder einfach Erfahrung, wäre der Wert nicht so hoch und das Interesse gleich Null. Man soll es aber minen können, also immerhin dachte man bei der Entwicklung doch an eine Community. Wo es genau herkommt, Regierung oder Individuum, weiß selbst die Wikipedia nicht.
—
Dahinter warten vielversprechende Währungen und neue Technologien, etwa Monero (derzeit 76€), Litecoin (derzeit bei 51€) oder der nagelneue China-Krypto Neo (25€). Die drei möchte ich listen, da ich diese als besonders sicher und potenziell attraktiv ansehe. Wie immer helfen so subjektive Eindrücke meist nichts, wenn man selbst investieren will: die intensiven Recherchen wird euch niemand abnehmen können…
Man darf gespannt sein, wo die Reise hingeht. 2018 will ich erneut so eine Liste machen. Und nach meinem heutigen Wissensstand dürften Bitcoin und Ethereum die einzigen sicheren Vertreter sein. Für die anderen, ganz ehrlich, das klingt alles irgendwie cool und neu und so; doch bei etwas genauerer Betrachtung sind die einfach nur Unsinn.
Im Kern, die Menschen versuchen gerade gemeinsam eines der Hauptprobleme der Menschheit zu lösen. Und: es wurde ein nagelneues Medium zum Speichern und Austausch von Werten statt Informationen geschaffen, die Blockchain. Das ist schon aller Ehren wert, was hier passiert. Ob das Experiment gelingt? Es steht in den Sternen. Wie das bei Experimenten eben immer ist.
Quellen:
* Werte von Coinmarketcap.com, Stand 20.10.17
* Icons von Cryptocompare.com
Gestatten, Sophia:
Quelle: UN Photo/Manuel Elias
Sophia ist eine Androidin entwickelt von Hanson Robotics, 18 Monate jung, die jüngst bei einer Rede im UN-Hauptquartier in New York zum Thema „The Future of Everything – Sustainable Development in the Age of Rapid Technological Change“ – zu dt.: „Die Zukunft von allem – Nachhaltige Entwicklung im Zeitalter des rapiden technologischen Wandels“ teilnehmen durfte. [via]
Sophia wurde laut ihrem Schöpfer David Hanson so entwickelt, dass ihr Design dem Knüpfen von Beziehungen dient. Das mache sie laut Hersteller zu einem social robot. Anwendungsbereiche von Sophia sollen dann Bildung, Fabrikarbeit(?), Rettungsaktionen sein. Das ist schon sehr nah an dem, was uns seit den 80ern in Filmen wie „Blade Runner“ erzählt wird.
Die Realität denke ich, wird anders aussehen.
Porno war schon immer der treibende Motor, der neuartigen Technologien zum Durchbruch verholfen hat. Prominente Beispiele sind VHS und das Internet. Ein Schöpfer, der nichts Gutes für seine Kreationen will, wäre kein menschlicher Schöpfer. Leider ist die Gier oft der Motor aller menschlicher Handlungen. Das weiß sicher auch ein Mr. Hanson. Nur leider kann man das auf einem UN-Symposium schwer mitteilen. Daher habt ihr das exklusiv von mir jetzt. Pris grüßt uns schön aus dem Jahr 2017…
[S.O.P.H.I.A. - Sub-Optimal Philantropic Half-Intelligent Android]
„Blade Runner“ befindet sich tief verwurzelt in meiner eigenen DNS. Dabei war mir der Film anfangs überhaupt nicht bekannt, ich kam 1997 durch das gleichnamige PC-Spiel von Westwood Studios auf den Geschmack. Ein auf der tiefen und düsteren Atmosphäre aufbauendes, vier CD-ROMs umfassendes Adventure mit 7 verschiedenen Endings. Ohne PC-Heft und einem entscheidenden Hinweis kam ich immerhin auf 6 von 7 Endings. Man könnte meinen, mit 15 hätte ich nichts anderes gemacht. Waren schöne PC-Zeiten. Das Spiel mit dem übergroßen Karton hüte ich noch heute wie einen kleinen Schatz.
Mit „Blade Runner 2049“ läuft nun nach 35(!) Jahren seit gestern die offizielle filmische Fortsetzung in den Kinos dieser Welt. Ich war drin. Um es kurz zu machen: kompromisslos & sensationell!
Woran es „Blade Runner“ nie mangelte war eine authentische Endzeit-Cyberpunk-Atmosphäre. Immerhin spielen die Handlungen der Filme und auch des Videospiels nach dem dritten Weltkrieg. Es regnet andauernd, die Sonne ist verschwunden. Es gibt kaum noch belebte Landstriche, selbst die erlaubte Reichweite der Spinner des LAPD sind begrenzt. In dieser Welt gibt es keine andere Möglichkeit als die Urbarmachung Maschinen zu überlassen. Im „Blade Runner“-Kosmos sind das die sogenannten „Haut-Jobs“, Nexus 6er im Original von 1982, Nexus 8er in der gegenwärtigen Verfilmung. Hinzu kommt ein Soundtrack gemeinsam arrangiert und (fast) perfekt zugeschnitten von Hans Zimmer und Benjamin Wallfisch. Und ja, es gibt auch wieder die unvergleichlichen mystischen Vangelis-Sounds.
Optik & Sound: 10 von 10
Bei der Handlung hat man sich einem ungewöhnlichen und weniger naheliegenden Thema bedient. Waren im Original die Nexus 6-Hautjobs noch an einer Verlängerung ihrer nur auf wenige Jahre konzipierten Lebenserwartung interessiert, lautet die Frage nun statt „träumen Androiden von elektronischen Schafen?“ (Original-Text von Philip K. Dick): „träumen Androiden eigentlich von Familie und eigenen Kindern?“
Ich persönlich war überrascht, der „Blade Runner“-Stoff lässt viele Fragen offen. Aber wohl eine der schwierigsten zu beantworten versucht man hier in der Fortsetzung „Blade Runner 2049“ tatsächlich. Und es wird ebenfalls versucht das in knapp unter drei Stunden zu schaffen. Ziemlich unmöglich. Was ein Irrsinn! Hollywood mit Mut im ersten Jahr Trump!? Wie erfrischend!
Wer bei aller Bild- und Soundgewalt eine solch anspruchsvolle Handlung versuchen will einem Millionenpublikum verständlich zu machen, braucht Feingefühl und Budget bei den dafür benötigten Schauspielern. Und ganz in Manier des Originals hat man es geschafft, zum großen Glück von „Blade Runner“-Kennern und Fans. Ich will zur Handlung daher keine Worte mehr verlieren (freut euch drauf!) und mich nun der Riege der Darsteller widmen.
Handlung: 9 von 10
So wichtig wie Harrison Ford als Deckard war natürlich auch: ist Sean Young als Rachael dabei? Ja, ist sie! Allerdings nicht „real“, sondern sie stand zur Verfügung für einen auf CGI-Technik basierenden Klon. Und: auch Gaff kommt kurz zurück, der grimmige Origami-Zocker! Allerdings in einem mental eher bescheidenen Zustand.
Seit „Drive“ bin ich überzeugt von Ryan Gosling, war also für mich von Anfang an der richtige Mann für die neue Hauptrolle. Jared Leto, naja. Geschmäcker sind verschieden. Doch „Requiem for a Dream“ ist für mich weiterhin einer der besten Filme aller Zeiten. Als blinder Niander Wallace macht er eine gute Figur.
Wären die „alten Hasen“ abgehakt, was mich allerdings mehr faszinierte war der superbe und internationale Cast!
Da spielt Ana de Armas aus Kuba eine sexy 3D-KI. Model Sylvia Hoeks aus Holland die eiskalte und subtil-erotische Handlangerin Luv von Niander Wallace. Mackenzie Davis aus Kanada eine Pris sehr ähnliche Prostituierte. Carla Juri aus der Schweiz die Biologin und [DarfIchNichtVerraten]. Lennie James aus England den Supervisor einer iPhone-Kinderfabrik. Barkhad Abdi aus Somalia den Typen vom Markt, der echte von unechten Tieren unterscheiden kann. Hiam Abbass aus Israel die Anführerin einer Replikanten-Armee. Und Tómas Lemarquis aus Island den Verwalter einer firmeninternen Hautjob-Hersteller-Datenbank.
Und was das Schönste ist: die wirken auch noch alle überzeugend! Also entweder hatten die wirklich alle Bock drauf oder es waren einfach sehr schöne Drehtage in Budapest!
Cast: 11 von 10
Der Kanadier Denis Villeneuve hat mit „Blade Runner 2049“ ein Science-Fiction-Meisterwerk geschaffen. Die Effekte und Sounds dieses Films sind heute sicher etwas einfacher herzustellen und umzusetzen, aber sicher nicht günstiger geworden. Man kann den Film daher beruhigt als sehr gelungenes Sequel anschauen, mit allen Stars, die man im Original schätzen und lieben gelernt hat, der selben düsteren Atmosphäre, dem selben unvergleichlichen Soundtrack. Einzig: die Fortsetzung ist härter, kompromissloser. Und auch emotional kälter.
Wer es wagt die audiovisuelle Faszination beiseite zu schieben, die schon alleine den Eintritt locker lohnt, bekommt eine der ungemütlichsten Fragen der KI-Forschung gestellt: was für Probleme könnten sich ergeben, wenn intelligente Roboter zur Fortpflanzung fähig wären? Philip K. Dick weilt seit 1982 nicht mehr unter uns. Ich denke diese Frage wäre seiner philosophischen Genialität durchaus würdig gewesen. Man muss dem Drehbuch hoch anrechnen, dass einem Popcorn-Publikum verkaufen zu wollen. Hut ab.
Drittens, wer ein Auge für so etwas hat: was ein geniales Timing! Schnitte, Szenen, kreuzende Charaktere und Objekte. Respekt! Im Gedächtnis geblieben ist einer der besten Filmschnitte seit Jahren, als man kurz nur noch Wasserfälle sieht. Und die musikalische Untermalung dazu. Gänsehaut. Szenenwechsel in Perfektion. Und auch keine Ahnung wie das mit Deckard, K an der Bar und dem Hund im Casino funktioniert hat. Ein wirklicher Hochgenuss und bei weitem nicht die einzigen.
Danke an die unfassbar talentierten und geduldigen Teams der beiden Hauptfilme!
Danke für die Möglichmachung eines Traums!
Danke, dass Ihr die Umsetzung einer Fortsetzung nicht verbockt habt!
Danke, dass ich nach vielen Jahren mal wieder einen Grund hatte ins Kino zu gehen. Und nicht enttäuscht wurde.
Danke für unfassbar wertvolle 163 Minuten.
„All those moments will be lost in time. Like tears in the rain.“ – Roy in „Blade Runner“ (1982)
Erst Mitte des Jahres habe ich „Homo Deus“ von Yuval Noah Harari gelesen, ein gutes und faszinierendes Buch (voller kleiner Detailfehler), worin auch eine neuere „Religion der Daten“ angesprochen wird. Die Jünger dieser Religion sind erkennbar an Smartwatches und diesen ominösen „Smart Fitness Armbändern“, permanent damit beschäftigt Puls, Blutzucker, Hormonspiegel, [DeinKörperattributHier], etc. zu messen.
Es geht aber noch eine Spur härter. Praktisch unausweichlich in diesen harten, „postfaktischen Zeiten“.
Voran geht ein berüchtigter Multimillionär namens Anthony Levandowski. Gegen Levandowski wird gerade ermittelt, denn er hat bei einem Stellenwechsel aus Versehen geheime Geschäftsdokumente von Googles Fahrdienst Waymo zum ominösen Konkurrenten Uber mitgenommen. Dass Multimillionäre auch dann zu viel Freizeit haben, wenn Verfahren gegen diese laufen, beweist sein neuestes „Projekt“: er gründete jüngst eine neue Religion, die er „Way of the Future“ (Weg der Zukunft) nennt. [via]
Sein „Weg der Zukunft“ erinnert schon vom Namen her stark an Scientology. Der Gott dieser neuen Religion ist aber noch stark „under construction“, denn Ziel ist, Zitat:
„eine Gottheit basierend auf künstlicher Intelligenz zu entwickeln und zu unterstützen“.
Die Anbetung dieser Gottheit soll ebenso „zur Verbesserung der Gesellschaft“ beitragen. Aber klar doch! Es geht hier nicht um C.R.E.A.M.! Ist alles nur zum Besten der Menschheit!1
Levandowski hat jetzt hier zwei grandioseste Aktionen im selben Jahr durchgeführt, für den ich ihn ehrfurchtsvoll vorschlage für den Titel „Vollpfosten des Jahres“.
Zudem kam mir dieser ganze KI-Gott-Schwachsinn irgendwie bekannt vor…
Im Videospiel-Blockbuster „Deus Ex: Mankind Divided“ aus dem Jahr 2016 gibt es haufenweise Ebooks und NPCs (nicht-spielbare Charaktere) zur Kirche des Maschinengotts, ein Fanatiker steht sogar gleich unten im Hof der allerersten Absteige der Hauptfigur Adam Jensen in Prag und verteilt Flugblätter:
Maschinengott-Fanatiker in „Deus Ex: Makind Divided“, © Eidos Montreal
Selbst im selben Apartment-Komplex gibt es eine kleine Sektierer-Wohnung, die Wand dort kann man exemplarisch für das sehen, was Levandowski in natura wohl unter seiner Schädeldecke versteckt:
„The Void Which Binds“ aus „Deus Ex: Makind Divided“, © Eidos Montreal
An der Wand steht das Gekrakel „The Void Which Binds“, also so viel wie „Die Leere, die verbindet“.
Worauf ich eigentlich hinaus wollte, ist: KI-Gott, hatten wir schon. Gääähhhnnnn…
Wer das Spiel gespielt hat, wird nicht nur sehr gut vorbereitet sein auf das, was Levandowski hier eigentlich vor hat (und nebenbei sehen, dass die Idee geklaut ist, Eidos sollte dagegen klagen), der wird auch erkennen, wie grandios die Idee scheitert und welche Konsequenzen das für die Menschen hat.
In „Mankind Divided“ weiß eigentlich niemand mehr so recht, warum sie/er sich dieser „Kirche des Maschinengotts“ angeschlossen hat. Der KI-Gott hier ist nicht greifbar (wie bei Gottheiten üblich), wird mal so interpretiert, man erlange den Zustand selbst durch „Aszension“ (50% Verschmelzung mit der Maschine, 50% mit Drogen), mal so, er zeige sich in den Charakteren, die geholfen haben ihn groß zu machen; wäre analog zu Levandowski natürlich Levandowski selbst, eine/r seiner ProgrammiererInnen und/oder Querdenker und Visionäre mit Ideen, die diesen KI-Gott (oder welcher periphere Kladaradatsch dazu auch immer) umsetzen halfen. Kurzum: man kann mit diesen Menschen nichts mehr anfangen. Human garbage.
Was wir im Jahr 2017 brauchen sind keine neuen Religionen: es gibt nach wie vor zu viele davon. Oder sagen wir besser, es gibt zu viele Menschen, die Religionen unterstützen. In meiner Weltsicht gibt es auf diesem Planeten aktuell keine 7,5 Milliarden Menschen. Zu „normalen Menschen“ zähle ich einfach, wer konfessionslos ist und das sind weltweit gerade mal 1,05 Milliarden Menschen. Die restlichen 6,45 Milliarden heute sind für mich nicht ganz dicht, haben einen gewaltigen Sprung in der Schüssel und hindern die Menschheit daran voranzukommen. Sie glauben an männliche Götter mit weißer Hautfarbe, steuern Flugzeuge in Gebäude und schreien „allahu akbar!“ als Erwachsene mit angezogenen Windeln, platzieren Nagelbomben in U-Bahnen oder propagieren die Weltsicht, der Planet Erde sei nur ein paar Tausend Jahre alt. Der ideale Nährboden zwar für KI- oder Maschinengötter. Aber nichts, was mich davon überzeugen würde eine Familie zu gründen und Nachwuchs in diese Welt zu setzen. Die Welt ist gefährlich, da draußen. Und Multimillionäre aus den USA sowieso.
Eine Mindfuck-Meldung in mehrfacher Hinsicht, die mich auch mehrfach überrascht hat: Facebook musste ein KI-System still legen, weil es eine eigene Sprache entwickelt hat.
1. ein KI-System von Facebook? Welcher Art? Wie man noch mehr US-Dollar aus den Interessen der Nutzer heraus presst!?
2. Wieso schaltet man es ab, wenn es sich selbst optimiert hat?
3. Skynet? Anyone!?
Dazu gab es dann eine hervorragende Analyse drüben Armstrong Economics, wo man es ein bisschen schafft das Ganze kulturhistorisch und linguistisch zu bewerten. Lesenswert!
Nun, der Grund, warum man es abschaltete, geizt nicht an Komik: es war kein Englisch! Folglich konnte keiner der Entwickler etwas damit anfangen.
Anstatt der KI zu überlassen wie sie kommuniziert und sich optimiert, zog man den Stecker. Keine Ahnung, aber hier gibt es einen Begriff: dilettantisch. Sollen sie doch froh sein, dass so etwas passiert, ich hätte das jetzt eher bei Google oder Amazon verortet. So richtig geheuer scheint mir diese Geschichte bis heute nicht.
An dieser Stelle kann ich nur wieder empfehlen: es wird alles nur halb so heiß gegessen, wie es gekocht wird. Schließlich war/ist Sommerpause und diese Meldung gehört eindeutig zu diesen „Schießen wir es raus!“-Meldungen.
Aber auch sonst ist gerade mächtig was los: Bitcoin.de gibt Nutzerdaten an die Polizei ohne richterlichen Beschluss weiter. Ein Durchbruch wurde (dank CRISPR…) vermeldet, dass es bald keine Menschen mehr mit Erbkrankheiten gibt. Und dieser Hyperloop-Pod fluppt scheinbar auch. Dito, die Zeit wird immer knapper, je älter man wird: href.ninja, für die tägliche Dosis Wahnsinn.
Die Technologie-Revolution dieses Jahrhunderts trägt ein unscheinbares Logo und bringt einen Allerwelts-Bezeichner mit: Dash. Früher bekannt als „Darkcoin“ (was passender wäre, siehe weiter unten) oder „XCoin“.
Dash ist ein Kofferwort und bedeutet heute schlicht Digital cASH.
Die „Firma“ selbst ist gerade mal 3(!) Jahre jung, beschäftigt aktuell 30 Vollzeit-Mitarbeiter und verfügt dank einem programmierten(!) Loop derzeit über ein monatliches Budget von 615.000 US-Dollar. 2015 waren es noch 14.000 Dollar. Im Juni 2017 war die Organisation 1,4 Milliarden US-Dollar wert. Ende des Booms dank Brexit und Trump-Präsidentschaft nicht in Sicht.
Dash ist nicht nur eine Kryptowährung und die am meisten gelesene Seite auf BitcoinTalk (7,9 Millionen), sie stellt natürlich auch eigene Produkte her: einen Dienst zur Verschleierung von Transaktionen etwa oder einen Dienst elektronischer Überweisungen in (Fast-)Echtzeit. Und sicher noch viel mehr obskure weitere Dienste, wo noch Entwickler, Mitarbeiter, sprich Menschen entscheiden, was als Produkt veröffentlicht werden soll. Und wie diese heißen sollen.
Was kommt danach? KI-DAOs. Also dezentrale autonome Organisationen, die durch künstliche Intelligenz auf Menschen nicht mehr angewiesen sein werden.
Eine KI-DAO analysiert Märkte selbst, analysiert Produktpotenziale selbst, stattet sich selbst mit steigenden Budgets aus, entwickelt 100% eigene Produkte und entscheidet wie diese benamt werden, lernt aus Produkt-Tops und -Flops und braucht selbstredend innerhalb dieser Kette(n) keinerlei menschlichen Aufwand jedweder Form mehr. Menschen werden durch KI-DAOs nach und nach obsolet, eine KI-DAO kann selbst (theoretisch unendlich viele) KI-DAOs beschäftigen, die ausgestattet durch unfälschbare elektronische smart contracts beliebig oft eingestellt und entlassen werden können.
Und was kommt danach? Singularität. Die menschliche Geschichte wurde zu Ende erzählt. Irgendwann nach der ersten von Menschen oder (wahrscheinlicher) Maschinen programmierten KI-DAO.
Hoffentlich sind bis dahin alle Bitcoin gemint…
Im Kern war Android Marshmallow, also Version 6.x.x, nur ein Wiedergutmachungs-Update von Google, um zu beweisen, dass Lollipop, also 5.x.x, nicht vermurkst, sondern eigentlich „doch ganz okay“ war.
Mit Version 6.x.x kam auch der sogenannten „Doze-Modus“. Der „Doze-Modus“ ist im Grunde die Zementierung, dass mein Smartphone-Akku ab jetzt Google ganz allein gehört. Ich bin nicht fähig mein Smartphone, noch meine Akkunutzung entsprechend selbst zu managen, die übernahmen das für mich. Nett von Google!
Die Wahrheit ist: von den ganzen Updates, die Google bisher für Androiden gebracht hat, ist der „Doze-Modus“, mal abgesehen von einem bis heute nicht vorhandenen gescheiten SD-Karten-Management, das mit Abstand schlimmste, dümmste und unnützlichste.
Ich muss dazu sagen, ich nutze eine Custom ROM auf einer Hardware von 2013. Bei etlichen Recherchen im Web jedoch las ich von vielen Kommentaren, dass der „Doze-Modus“ alles nur schlechter macht, auch bei neueren Geräten.
Hier eine kleine Zusammenfassung, was mir der „Doze-Modus“ alles zerschossen hat:
Der eigentlich Hammer kommt aber erst noch. Und zwar kann man den „Doze-Modus“ systemweit gar nicht abstellen. W00t!?
Man kann in den Akku gehen, dort oben rechts auf „Akku-Leistungsoptimierung“ (oder so ähnlich) und darf das dann selbst, App für App, ausstellen. Wer möchte, der darf sich gerne auch an System-Apps probieren.
Das war dann, als ich bei Android Marshmallow endgültig das Kotzen kriegte.
Welcher Android-Nutzer soll das testen, App für App, an- und abstellen, schauen, ob es besser wird, dann weiter, um hier eine Veränderung sehen zu können? Ich nutze Marshmallow seit Oktober, habe Unmengen an Kombinationen ausprobiert, zum gewünschten Ergebnis kam ich n-i-e. Hinterher las ich dann von dem oben erwähnten Problem, dass die Entwickler selbst aktiv werden müssten, um „Doze“ zu unterstützen. Das kann man nicht per se verlangen, sorry. Was ein Schwachsinn.
Mittlerweile ist es sogar so, dass manchmal Notifications funktionieren, wenn WLAN deaktiviert, aber das mobile Datennetz angeschaltet ist. Wer das ein paar Tage beobachtet erkennt einen neuen Bug, was auch nicht im Sinne der Erfinder sein kann.
Lange Rede, kurzer Sinn: weg mit diesem Scheiß! Mich befiel Ekel während des Schreibens dieses Textes, jedes Mal, wenn ich nur „Doze“ tippen musste. Es widert mich an. Die 400€ damals habe ich in diese Hardware investiert, nicht Google. Mein Akku gehört mir, ich will damit machen können was ich will.
Immerhin: die Akkulaufzeit hat dieser Modus wirklich verlängert, bravo! Denn wenn keine App mehr funktionieren kann, frisst natürlich auch nichts Batterielaufzeit. Oh my…
Karolina Sobecka erfand im Rahmen einer Kunstausstellung einen Shooter, der die Logik eines FPS umkehrt: hier geht es nicht primär darum möglichst präzise möglichst viele Gegner zu erschießen. Sondern durch die Nutzung ihres autonomen Waffensystems muss man viel mehr darauf achten, Menschen nicht wahllos über den Haufen zu knallen.
[via]
Klingt für wahre Fans und Enthusiasten dieses Gaming-Genres jetzt natürlich bescheuert, doch ihre Arbeit hat einen ernsten Hintergrund:
Smarte Kampfsysteme, etwa der Militärs weltweit, dreiteilen die Verantwortung und Zuständigkeit heutzutage in 1) eine Menschengruppe (meist Männer), 2) einen oder mehrere Algorithmen und 3) eine Maschine.
Dieser Umstand ist eigentlich schon verstörend genug, es wird aber noch viel komplizierter, wenn man sich die darauf aufbauenden Systeme auflisten will: Karolina hat eine Schusswaffe genommen. Drohnen gehören dazu aber natürlich auch. Geschütztürme. Und was die Zukunft noch bringt.
Die „Gegner“ in ihrem „Spiel“ sind wiederum ausgestattet mit einer simplen KI, die natürliches menschliches Verhalten simulieren soll. Neugier treibt sie euch oft in die Nähe; die Waffe will schießen. Alles was im Zielfeld der Waffe selbst erscheint; die Waffe will schießen. Der Spieler kann diese aber weder fallen lassen, noch davon abhalten zu feuern.
Das noch in VR gegossen muss ein ziemlicher Mindfuck sein.
Medusa FPS ist Teil der Ausstellung Monsters of the Machine, die noch bis 31.08.17 in Gijón stattfindet und nicht ihr einziges Werk dieser Art. Das Thema autonome Waffensysteme beschäftigt sie schwer, durch das Essay „Drone Semiosis“ von Mark Dorrian ist sie intensiv mit dem Thema in Berührung gekommen und bis heute dabei geblieben.
Kein Witz. Wird aber nicht gut gehen:
Erstens kann im Jahr 2017 in einem 2-Stunden-Hollywood-Blockbuster nicht erzählt werden, was uns G.I.T.S.-Kennern seit 1995(!) über Animes und Anime-Serien erzählt wird. 22 Jahre schafft niemand, auch nicht Trump’s Hollywood.
Wir reden hier von zwei Anime-Spielfilmen („Ghost in The Shell“ 1995 und „Ghost in the Shell 2: Innocence“ aus 2004), sowie über zwei komplette Staffeln „Ghost in the Shell Stand Alone Complex“ mit jeweils 26 Folgen, sowie die strittige Mini-Serie „Arise“ aus 2013 mit 7 Folgen. Hier wurden keinerlei Spin-Offs und unnütze Videogames berücksichtigt.
Zweitens: Scarlett Johansson!? Eine der arrogantesten Prototyp-Arier spielt _den_ asiatischen Über-Cyborg?? O’RLY!? Titten!11
Ich wusste, dass 2017 schwer wird, aber so schwer…
Ja, die Japaner sind gemein. Was hier drin passiert, warum es passiert, wie es zu interpretieren ist; das hat über zwei Jahrzehnte jetzt nur (Netz-)Subkulturen interessiert. Lasst mich wissen, sollte die „Live-Action-Adaption“ etwas anderes sein als Effekthascherei, vielleicht bekommt ihr von mir dann einen Bitcoin!
So langsam geht mir das Thema KI auch gegen den Strich. Es war nie so über-hype-t wie heute, plötzlich haben alle eine Meinung dazu, aber ich war „live“ dabei als 1997 „Deep Blue“ im Schach gewann, wie bereits im Artikel Der Alpha-Go-Schock und die Folgen erwähnt wäre das wohl eine Initialzündung gewesen über das Thema zu diskutieren und es breit zu schlagen. Was bringt mir das 20 Jahre zu spät? Wenn selbst das modernste Land der Welt Südkorea _jetzt_ Panik bekommt; ich kann das nicht mehr nachvollziehen, das Thema ist weder neu, noch wurde das von uns jemals als Bedrohung wahrgenommen.
Die meisten Texte dazu sind ja nicht einmal schlecht geschrieben, siehe hier. Schon die Einleitung ist sahne mit der Geschichte der Computer und dass man diese auch außerhalb der üblichen Schullehren lesen kann (auch wenn sie geklaut ist). Geht dann zurück zu Aristoteles und seinem antiken logischen System und zu Leibniz mit seinem Traum der universellen „Konzeptsprache“. Zwischen 0 und 1, an und aus, (Tür, Fenster, Gatter, Stall, etc.) offen und geschlossen besteht keinerlei Unterschied, siehe true
oder false
, einfach boolean
. o.O Irgendwann kommt ein Mensch da auch selbst drauf. Irgendwie schade, dass wir Hunderttausende Jahre dafür gebraucht haben, spricht voll für uns als Spezies…
Wir 80er-Kinder sind da reingewachsen, das ist wie Nutella(TM) oder ein GameBoy(R)(C); ohne eine PlayStation hätten wir nicht „Tekken“ gegen die CPU zocken und die Prolls von Aggro Berlin keine Samples für ihre ersten Platten kreieren können. So what!?
Es gibt im Jahr 2017 für das Getöse eigentlich nur 2 Möglichkeiten:
1) es ist alles viel zu spät und die Panik ist völlig berechtigt und im Hintergrund laufen einfach schon Dinge ab, wie in Homo Deus beschrieben. Nebulös und kompliziert wie die Welt ist, lässt sich aber gar nicht mehr nachvollziehen, wo das alles her kommt
2) das Ganze ist Kindergeburtstag und alles halb so wild, legen wir uns wieder schlafen
Ich tendiere eher zu Punkt Nummer 1, Südkoreas Reaktion reicht mir in dem Aspekt eigentlich. Jedoch bin ich nicht der Meinung, es sei irgendwas zu spät, denn solange ein Rechner irgendwie Strom bekommen muss können wir ein „Killer-Werkzeug“ wie eine Schere benutzen und den Blödsinn einfach abschalten. Ein Rechner, der seine Intelligenz so weit selbst entwickelt hat, dass er für sich selbst Strom produzieren kann, darf mich dann auch gerne als Mensch ablösen.
Ist nur ein Rant, keine Aufregung, musste einfach mal raus. 2017 denke ich, mein voller Ernst, KI kann uns eigentlich mehr helfen als kaputt machen. Auch in 50 oder 100 Jahren. Aber da kann man mir auch vorwerfen ich sei biased, schließlich komme ich aus der IT. Das Schlimmste was mir passieren kann, ist: „ihr werdet diese Roboter bauen und warten!“ Und damit kann ich leben, solange ich meine Rechnungen davon bezahlen kann.