:: Introduction
I think of Neuromancer as a pretty complicated novel. Written in 1984 by William Gibson it is one of the earliest pieces of literature of cyberpunk genre, part of its Kanon today, so to speak. Anyone interested in cyberpunk will encounter it sooner or later. And anyone could read something different in it. Part of it, it’s written from the future and not only covers artificial intelligence, hacking, virtual worlds/cyberspace, drugs, ROMs; you could go on and still not grasp the vastness here. After reading, I was not really sure if even Gibson understood what he published here. But we are cool with it, as this is another factor for one’s sympathy for this 271-pager.
Today, there are websites which aggregate the most popular quotes like the one from Goodreads here. I’m pretty sure with some of the text snippets alone, you will have problems not only from semantics perspective but also from the vocabulary alone. This is innovative and futuristic but hinders a reader from truly enjoying it. Nevertheless, the cryptic groundwork was taken often as the basis for some nice artwork pieces, like the 48-page graphic novel released in 1989 by Tom de Haven and Bruce Jensen. Heck, I even think, as I own the graphic novel too and read the novel first, that you might be better off with the graphic novel and leaving the book all alone. Although I won’t recommend it, as you know, we are all cyberpunks ourselves here.
:: My proof of concept
No matter how complicated and exotic the text, I thought this would be a perfect basis for some of my further experiments with machine learning artwork generation. I thought maybe it’s better just to leave my hardware alone: should my GPU make sense of these lines now! We are 2022, with engines like Stable Diffusion and a recent laptop, this sounds like a piece of cake! So I took the most popular quotes from the novel, the ones which made sense in creating something which a reader’s mind could have difficulties with, and let it run through my (laptop) GPU. I picked the best one from three which were created simultanously per quote in approx. three minutes. Without further ado, let’s check the results here! You can click on the pictures to see the original size. Enjoy!
:: Neuromancer vs. my GPU
„Cyberspace. A consensual hallucination experienced daily by billions of legitimate operators, in every nation“
„His eyes were eggs of unstable crystal, vibrating with a frequency whose name was rain and the sound of trains, suddenly sprouting a humming forest of hair-fine glass spines“
„We have sealed ourselves away behind our money, growing inward, generating a seamless universe of self“
„Night City was like a deranged experiment in social Darwinism, designed by a bored researcher who kept one thumb permanently on the fast-forward button“
„Don’t let the little fuckers generation gap you“
„Lost, so small amid that dark, hands grown cold, body image fading down corridors of television sky“
„We monitor many frequencies. We listen always. Came a voice, out of the babel of tongues, speaking to us. It played us a mighty dub“
„And in the bloodlit dark behind his eyes, silver phosphenes boiled in from the edge of space, hypnagogic images jerking past like a film compiled of random frames“
„Case shuffled into the nearest door and watched the other passengers as he rode. A pair of predatory-looking Christian Scientists were edging toward a trio of young office techs who wore idealized holographic vaginas on their wrists, wet pink glittering under the harsh lighting“
„His vision crawled with ghost hieroglyphs, translucent lines of symbols arranging themselves against the neutral backdrop of the bunker wall. He looked at the backs of his hands, saw faint neon molecules crawling beneath the skin, ordered by the unknowable code“
„The Matrix has its roots in primitive arcade games,‘ said the voice-over, ‚in early graphics programs and military experimentation with cranial jacks.'“
„INTO HER DARKNESS, a churning synaesthesia, where her pain was the taste of old iron, scent of melon, wings of a moth brushing her cheek. She was unconscious, and he was barred from her dreams“
„Rain woke him, a slow drizzle, his feet tangled in coils of discarded fiberoptics. The arcade’s sea of sound washed over him, receded, returned. Rolling over, he sat up and held his head“
„To call up a demon you must learn its name. Men dreamed that, once, but now it is real in another way. You know that, Case. Your business is to learn the names of programs, the long formal names, names the owners seek to conceal“
„It was a vast thing, beyond knowing, a sea of information coded in spiral and pheromone, infinite intricacy that only the body, in its strong blind way, could ever read“
„Wintermute was a simple cube of white light, that very simplicity suggesting extreme complexity“
:: Outro
I was happy that my POC was a success, of course. And I was also pretty convinced by what my graphics processor could make of those rather difficult novel lines from the 80s in our current times. However, I also see some difficulties when StableDiffusion tries to render certain things: like human appearance, as oftentimes it outputs strange limbs and also faces, especially around eyes. Same goes for text, as seen in some of those (rather grotesque) examples. Both problems could be shared with other tools like DALL-E 2 or Imagen though, I never tried those before. It’s a very young brand new technology of course, this is common. From artwork perspective, I also am not sure if this is really a problem. Furthermore, I think this is a perfect example for what we do from read-write culture. Which can’t be emphasised enough nowadays, because what we originally intended back then, generate reciprocal relationship between the producer and the consumer, wasn’t taken up by people as we intended. Like ever. Stupid, unreasonable consumerism won, unfortunately. As such, this might be not the last project of its kind I did by myself, as I got enough books in my private library which could need clarification visually. But in the history of the web, probably very much so. Let me know what you think in the comments, hope you had a great time exploring this!
Dieser freundliche Herr hier ist Masayasu Ito:
60 Jahre alt. Seit 1986 bei Sony. Leiter der Entwicklung der PlayStation 4. Leiter der Entwicklung der PlayStation 5. Vizepräsident von Sony Interactive Entertainment. Ein wahrer Über-King of Gadgets aus Japan!
Wir verlieren ihn. Ab dem 1. Oktober ist er weg, leider.
Denn Japan ist ein paradiesisches Land, wo die fleißigen Arbeiter ab 60 in Rente gehen dürfen. Und leider geht er nun in Rente. Ich werde ihn vermissen! Und Millionen PlayStation-Zocker wohl auch.
Spätestens bei der PlayStation 6 werden wir alle wissen, wie wertvoll er war. Und sollte entertainmenttechnisch die nächsten Jahre alles den Bach runter gehen von Sony, wir wissen, woran es lag. Ich wünsche es nicht, aber der Realität war schon immer scheißegal, was wir uns wünschen.
Sayonara, Ito-San! You will be missed. Take care and try to enjoy your pension.
My laptop CPU became an artist over night:
What we see here is actual unique artwork my CPU created over a timeframe of approx. 12 minutes. The only thing I input to was the text string a cyberpunk cityscape and let Stable Diffusion do the rest. It’s beautiful and detailed. I actually love it!
Stable Diffusion is a sophisticated, brand new deep learning model by Stability.ai. It’s already on par with the earlier released, proprietary AI image generators DALL-E 2 or Imagen. With a powerful difference: you can actually create AI images yourself for free on your local machine. Usually done by your GPU, or like in my case above, your CPU, if capable.
I put four hours of work into it yesterday to setup my machine and create more artwork. My CPU came up with more beautiful cyberpunk cityscape examples with the following text string, a cyberpunk cityscape in neonlights at night, see the gallery here:
I’m lucky to own a powerful notebook CPU from 2020 with a graphics processor built in. I don’t know if this made a difference or not, the results surely are true for what I anticipated and surpassed my expectations.
But how can you join the CPU AI image generation yourself?
I had time to write it down yesterday and am happy to share it here for free for anyone who might be interested to do this with her/his Linux machine.
Step 0: Create a working directory in your /home
Step 1: Install Python
sudo apt-get update*
yes | sudo apt-get install python3.8*
*could be the installation of Python 3.8 is different to the one mentioned above. In this case just use your package manager of your Linux distribution to get the program installed on your machine.
Step 2: Install Miniconda
wget https://repo.anaconda.com/miniconda/Miniconda3-py38_4.12.0-Linux-x86_64.sh
bash Miniconda3-py38_4.12.0-Linux-x86_64.sh
Step 3: Clone the Stable Diffusion Repository
git clone https://github.com/CompVis/stable-diffusion.git
cd stable-diffusion/
Hint: Repo above only works for graphics cards >= 7GB (V)RAM! Thus…
Step 4: Download the ZIP, extract, copy and paste the contents following optimised version of Stable Diffusion in the folder above:
https://github.com/basujindal/stable-diffusion
Step 5: Create Conda Environment
conda env create -f environment.yaml
conda activate ldm
Step 6: Download Stable Diffusion Weights
curl https://www.googleapis.com/storage/v1/b/aai-blog-files/o/sd-v1-4.ckpt?alt=media > sd-v1-4.ckpt
Step 7: Content blocker deactivation (needed in case your output images are green or black only)
* find and open file pipeline_stable_diffusion.py
* below image = image.cpu().permute(0, 2, 3, 1).numpy()
replace anything with this and save the file:
# run safety checker
#safety_cheker_input = self.feature_extractor(self.numpy_to_pil(image), return_tensors=“pt“).to(self.device)
#image, has_nsfw_concept = self.safety_checker(images=image, clip_input=safety_cheker_input.pixel_values)if output_type == „pil“:
image = self.numpy_to_pil(image)#return {„sample“: image, „nsfw_content_detected“: has_nsfw_concept}
return {„sample“: image, „nsfw_content_detected“: False}
Step 8: Generate AI images with the CPU
python optimizedSD/optimized_txt2img.py –device cpu –precision full –prompt „a cyberpunk cityscape“ –H 512 –W 512 –n_iter 1 –n_samples 1 –ddim_steps 50
That’s it! By default you find your created images in the outputs folder. You can enter your deserved text string in „“ and let your machine do the rest. Feel free to share some of your works in the comments if this tutorial helped you.
P.S.: I also had the chance to create GPU images yesterday with this method. The only difference is by removing the part –device cpu from the command line code you find in step eight. It will be much faster but to me the option to let your CPU create actual artwork was very much appreciated and may not be well known for future AI generation images through Stable Diffusion. I had some very nice results. Will share more of my work in future entries here on gizmeo.eu so stay tuned!
Current crises of mankind and society that should be urgently addressed and discussed:
* climate crisis
* virus pandemic
* record inflation
* energy crisis
* housing market
* child abuse
* war against Ukraine
* hunger crisis
* dangers through social media
* dangers by weapons of mass destruction
What’s actually addressed and discussed:
* pronouns
Das allererste Foto des „Hubble“-Nachfolgers James Webb (Weltraumteleskop) wurde veröffentlicht:
Es handelt sich um den Galaxienhaufen SMACS 0723, fast genau so alt wie die Erde selbst und 4,6 Milliarden Lichtjahre entfernt. Der untersuchte Abschnitt war so groß wie ein Reiskorn. Es ist das hochauflösendste Foto das wir Menschen von der „Frühgeschichte“ des Universums aktuell zur Verfügung haben. Zum Vergleich: das Universum selbst war da bereits 9,1 Milliarden Jahre alt.
Viele weitere sollen folgen. Merkt euch die Abkürzung JWST. Entweder für Google oder als Keyword/“Hashtag“, es ist neben schlicht Webb das wohl bekannteste Kürzel seit heute, wenn man direkt an die neuesten Foto-Entdeckungen des erst kürzlich in Betrieb genommenen Weltraumteleskops kommen will. Und bei 9,7 Milliarden US-Dollar Kosten, Stand Dezember 2021, werden das sehr, sehr viele sein müssen. Das Ding ist zum Erfolg verdammt.
Drohnen, Drohnen. Drohnen überall!
Doch es gibt auch „gute Drohnen“, wie diesen Abfallhai, der zukünftig unsere zugemüllten Flüsse sauberhalten soll:
Der Wasteshark ist eine sehr interessante und gutartige Drohne, die man mal nicht am Himmel findet. Er ist 1,22m lang und wurde in den Niederlanden entwickelt. [via]
Das Wassergefährt verfügt über eine Art Robotermaul, das den ganzen Plastikmüll in sein geräumiges Inneres befördert. Ich konnte auf die Schnelle nicht herausfinden, ob er sich selbst leert. Doch im dümmsten Fall fährt er einfach an die Seite des Flusses, wenn er voll ist und lässt sich leeren; das wird irgendwer ja hinbekommen. Kann ja auch ein Student oder eine Schülerin mit zu viel Freizeit machen.
Man kann natürlich nun darüber diskutieren, wieso es so einen Plastikmüllroboter überhaupt braucht. Da aber die Menschen vom Affen abstammen und sich meist auch so anstellen, ist das eine Diskussion, die wir uns ersparen können, da die wahrscheinlich bis zu unserem Untergang geführt werden muss, bevor diese Spezies begreift, dass Plastik einfach nur in Mülleimer und sonst nirgendwo hin gehört, da dieser unnatürliche Stoff nicht natürlich abgebaut werden kann. Ja, Technologie muss uns retten, sonst sind wir am Arsch!
In der Diskussion um die derzeit in weltweiten Schlagzeilen kursierende Pseudo-KI LaMDA aus den Forschungslaboren Googles geht es um keine wirkliche Künstliche Intelligenz, weil es „wirkliche künstliche Intelligenz“ nicht gibt (siehe hierzu), zumindest aktuell. Und wahrscheinlich noch auf Jahrhunderte hinaus.
Die Software ist aber auf eine andere Art und Weise interessant, doch um die Anfänge zu verstehen muss man weit zurück gehen. Bis ins Jahr 1966 und zum alten (M)IT-Mastermind Joseph Weizenbaum nämlich.
Er nannte seinen Chatbot (auch wenn seine Software 1966 noch nicht so genannt wurde) ganz sexy und selbstbewusst ELIZA. Und ELIZA konnte bereits erste Menschen in die Irre locken, sie sei ein Bewusstsein, weil sie auf Fragen irgendwie vorgekaut reagieren konnte, was dem Bot in einer Datenbank bereitgelegt wurde. Nach dem selben Prinzip funktioniert LaMDA. Menschen waren schon immer sehr dumm und Computer extrem schwer zu verstehen. Tut mir leid.
Was wir aus LaMDA und dem flüchtenden konfusen Ex-Google-Mitarbeiter ableiten können für uns ist Folgendes:
1) ELIZA ist mittlerweile auf dem Stand eines siebenjährigen Menschen
2) es ist immer noch ein Bot und spuckt aus, was du ihm vorkaust
3) es besitzt keinerlei eigenes, gar künstliches Bewusstsein
4) es wird in Zukunft möglich sein Bots so zu programmieren, dass sie ein bestimmtes Alter vortäuschen können, da sie individuell mit entsprechenden Daten gefüttert werden können
Zu Punkt 4) noch eine persönliche Anmerkung, dass wir einen Schritt weiter zu wirklich funktionierenden Chatbots sind dank Google, die eventuell sogar mit Alter und Background programmierbar sein werden und eventuell sogar kostenlos bis wenig kosten werden.
Aber um eine „edle Version“ zu bekommen, die wie eine „wirkliche KI“ funktioniert und sogar VIP-Status(!) hat, wie bereits simuliert(!) in diversen „Deus Ex“-Videospielen gesehen (sie heißt dort, exakt in Anlehnung an Weizenbaums revolutionieren ersten Bot Eliza Cassan) werden wir entweder noch sehr lange warten müssen oder eben weiter zocken, denn mit Realität hat das leider nichts zu tun. Warum da jemand flüchten muss vor leuchtet mir aus IT-Sicht nicht ein. -.-
Oben: selbst als virtueller Charakter der Realität nach wie vor haushoch überlegen – VIP und News Anchor Eliza Cassan
Rekordhitze in Indien. Rekordhitze in Spanien. Unwetter mit Tornadogefahr aktuell in Deutschland. Und wir haben nicht mal Juni, vielleicht insgesamt seit zwei Wochen erst „Frühling“.
Joa. Juice Media bringt es für uns nochmal auf den Punkt mit dem Klimawandel und „1,5-Grad-Ziel“:
„As you can see we’re captured by the fossil fuel industry, compromised by our moral failings and lack of vision, and probably going to get us all killed.“
Alles beim Alten. Gehma Saufen nach Sylt!
Das komplizierteste Gadget des Planeten läuft wieder – nach dreieinhalb Jahren Pause für verschiedene Wartungen und Upgrades: der LHC vom CERN, Europas größter Teilchenbeschleuniger.
Ende April kam die Erfolgsmeldung, wenn auch noch mit „kleiner“ Geschwindigkeit der Protonen von jeweils 450 GeV. Es wird noch Wochen dauern, bis die angestrebten 13 TeV wieder erreicht werden können.
Doch was genau erhofft man sich denn noch zu finden?
* Higgs-Boson: CHECK!
* Multiversum ist nichtig durch die genaue Massebestimmung des Higgs-Boson: auch CHECK!
Arg viel mehr revolutionärer kann es eigentlich nicht mehr werden, oder?
Wahrscheinlich nicht, zumindest für das Standardmodell der Physik. Doch die Daten sind erst zu 10% gesammelt. Hier liegt wahrscheinlich der eigentliche Schlüssel, ob es noch große Geheimnisse geben wird. Überhaupt die Daten: Auswertung und Optimierung hier dürfte Jahre dauern. Jedenfalls bin ich froh, dass diese „Riesenmaschine“ wieder läuft! War sie doch neben einem wissenschaftlichen Superinstrument auch ein schönes Zeichen der wissenschaftlichen weltweiten Zusammenarbeit, viele Nationen und Entwicklungen von dort unter eine erfolgreiche Haube gebracht. In der aktuellen Welt wie ein wertvolles Relikt aus einer anderen Zeit.
Aktueller denn je:
Die Daten dieser Simulation sind lediglich zwei Jahre alt, Stand Juli 2020. Zudem öffentlich erhältlich, u.a. durch den US-Auslandsgeheimdienst CIA. Angefertigt für die Internationale Atomenergiebehörde (IAEA), sowie die Vereinten Nationen (UN). Pikant: es sind immer die Russen, die laut öffentlich zugänglichen Informationen den Atomkrieg beginnen. Wir sollten das für die politischen Auseinandersetzungen der kommenden Monate im Hinterkopf behalten.
Die drei Phasen der Vernichtung der Menschheit:
1) Atomkrieg (mehr als 178 Millionen Tote, geschätzt)
2) Nuklearer weltweiter Niederschlag (mehr als 10 Millionen Tote, geschätzt)
3) Nuklearer Winter (360 Millionen Tote, geschätzt)
Fazit: kein Land der Erde wird im Falle eines Atomkriegs nicht in irgendeiner negativen Form davon beeinflusst sein. Die Politik der „Mutually Assured Destruction“ (MAD-Doktrin), ist im englischen Wortsinne schlicht wahnsinnig.
Nuklearwaffen hätte man in den letzten Jahrzehnten an der Verbreitung hindern sollen, bereits bestehende Arsenale abbauen, was der Menschheit nicht gelang. Es gab sogar einen Stichtag, den wir seit diesem Jahr wissen: den 24. Februar 2022. Ich hoffe die Idioten, die die Bombe aktuell gerade wieder feiern, online oder sonstwo, sind sich bewusst, dass sie indirekt den Untergang der Menschheit herbeisehnen. Das kannst du schon so machen, aber dann bist du meiner Meinung nach eben ein asoziales, hirnverbranntes Arschloch, das es nicht mehr wert ist, mit anderen Menschen, die das nicht wollen, den selben Planeten zu bewohnen.
Nehmen wir mal einen Moment die fantastische Sichtweise eines außerirdischen Beobachters ein, der oder die (oder das) es geschafft hat, Milliarden Kilometer durch das All zu reisen. Um dann solch eine Schlagzeile hier zu finden:
„Scientists rename human genes to stop Microsoft Excel from misreading them as dates“, via The Verge.
Er oder sie (oder das) würde direkt wieder abdrehen: kein intelligentes Leben vorhanden.
Statt echte Datenbanken zu nutzen, halten die Menschen ihr eigenes Erbgut, das höchste natürliche Gut, das sie haben, der Code des Lebens, in einer Tabellenkalkulation von M$ fest. Und müssen diese Fachbezeichnungen auch noch abändern, weil das beschränkte proprietäre Programm alles in Datumsangaben umwandelt. m(
Zeitgeist im Jahr 2022 „n. Chr.“ auf den Punkt gebracht. Wir sind im Arsch.
Der letzte Beitrag des Monats widmet sich eigentlich genau diesem Thema: Dark Patterns: Datenschutzbehörden warnen vor manipulativem Design im Netz, via netzpolitik.org. Den Beitrag hier habe ich zufällig gesehen heute. Meine Aufzeichnung die ich verwerten wollte, ist schon etwas älter, zieht es euch rein:
Seht mein Video oben nur als Beispiel. Hier habe ich harte 3 Minuten lang nur durch die Cookies gescrollt! Das ist absoluter Wahnsinn, das Video dafür 19,1MB groß! Die Website widmet sich lediglich einem einzigen Thema, Fußball. Es kann mir niemand erzählen, dass es dafür 3 Minuten Cookies braucht. Ganz zu schweigen davon, dass du als User hier ja auch alles prüfen müsstest. Einer war zum Beispiel aktiviert, obwohl ich es nicht erwartet hätte, sieht man gegen Ende des Videos.
Hier sind wir im WWW, Jahr 2022, es ist niederschmetternd.
Im Netzpolitik-Artikel gibt es noch mehr Details zu solchen userverwirrenden Techniken. Die haben das ganz gut und ausführlich abgedeckt, hinzufügen kann ich thematisch nichts mehr. Lediglich zusätzliche Formen gibt es wahrscheinlich noch, könnte man die Liste dort mit Nutzerhilfe erweitern.
Valve geht mit seinem Steam Deck sicherlich keine gänzlich neuen Wege, hier der offizielle Trailer zum Launch:
Dennoch kann man es mutig nennen Pfade zu beschreiten, an denen bereits Konsolenhersteller gescheitert sind, wie z.B. das große Sony aus Japan.
Das Ding ist mittlerweile draußen, was kann es leisten? Leistung hat es (siehe unten).
Aber da sind andere Kinderkrankheiten, die einem das Spielen ordentlich vermiesen können. Die KollegInnen von heise.de haben es ausprobiert: Steam Deck ausprobiert: Mobiles Zocken (nur) für Tüftler, heise.de.
Im Grunde ist das Steam Deck-Konzept einfach: alles, was ihr unter einer regulären Linuxkiste (PC) mit Steam zocken könnt (und das ist bereits eine Menge, inklusive großer Blockbuster), könnt ihr hier auch zocken. Mit dem einzigen Unterschied: alles bequem im Handheldformat.
Das größte Problem ist wohl derzeit das Betriebssystem, das auf Arch Linux basiert, eigentlich eine „Rock Stable“-Distribution, up2date und unkaputtbar: sie ist einfach keine Vollversion, sondern wohl eher als Beta zu sehen.
Buttons reagierten nicht.
Der Bildschirm ist träge (lagging).
Menüeingaben werden ignoriert.
Und zu allem Überfluss wird eure PC-Auflösung übernommen, die ihr auf dem Gerät selbst gar nicht passend einstellen könnt.
„Made in USA“ halt!? Vielleicht. Aber das hätte eigentlich besser gehen müssen für 399$ (günstigste Version mit geringstem internen Speicher von nur 64GB). Das Ding kostet so viel wie die PS4 zum Start damals…
Das größte Problem, so die TesterInnen dort: das Zusammenspiel mit einem externen Display. Linuxnutzer wissen das war schon immer PITA (pain in the ass), das wird sich wohl nie ändern. Oft ist es entweder „es geht oder eben nicht“; hier geht es wohl nicht. Oder zumindest sehr schlecht. Und über FullHD schon gar nicht. Nichts Neues.
Dann gibt es noch etwas, daran stören sich Techies nie, aber die normalen NutzerInnen eben: zu viele, zu komplexe, zu irreführende Einstellungen. Es ist eben kein Apple-Device, so viel wird man sich selber herleiten können. Wer Leistung auf PC-Niveau in einem Handheld will, der muss mit Geduld und Knowledge bezahlen. Zur Not durch stundenlange Google-Suchen (die heise.de tatsächlich offiziell in dem Beitrag als Workaround(!) durch eine „wachsende Community“ bezeichnet bei einem im freien Verkauf erhältlichen Produkt).
Mich als alter CPU-Nerd (gibt es heute ja auch nicht mehr, sind ja alles APUs oder wollen welche sein), interessiert natürlich wieder mal die volle Leistung dieser Hardware und wo sie im Vergleich zu anderen Konsolen steht: also auf dem Papier, mit 1,6 TERAFlops, ist sie nur knapp unterhalb einer regulären PS4 anzusiedeln, die auf 1,84TFlops kommt. Leistungstechnisch ist da nix mehr zu machen die nächsten Jahre, das könnt ihr mir ruhig glauben. 😀
Fazit: egal, was Valve hier tut, es ist gut für Gaming und Linux. Much appreciated, smart move!
tl;dr: Nope.
The turing test is the final frontier in distinguishing the stupid machines from the clever androids.
Basically spoken, if you mock a machine about its hair (if it got some) and the machine seems upset to you, in a state you as a human can’t distunguish the reaction from a human one, the turing test has been passed during your daily routine here – a simple conversation. Machines don’t have feelings. At least they shouldn’t have at the moment, dated 2022.
You can read more about the details here but you won’t get it easy like in the example above: https://en.wikipedia.org/wiki/Turing_test. It’s a decades old problem. 72 years old, to be exact. Not solved to this day.
If you are interested when it’s finally happened, and you will find androids like Roy Batty or Pris Statton from the scifi movie „Blade Runner“ in reality, you will surely find the answer stated here:
https://isturingtestpassed.github.io/.
Summed up, just jump up to the first line of this entry on gizmeo.eu and read the first sentence out loud to get an instant answer.
…ist selbst heutzutage, in unserer krisengebeutelten Gegenwart, noch möglich. Zumindest technisch.
Den deutlichsten Vorstoß des Jahres dafür liefert ausgerechnet eines der ekligsten Unternehmen des Planeten selbst: Facebook.
Die Gesichtsbüchler kommen mit der EU nicht klar, das zweite Mal nach dem irländischen Steuerparadiesproblem, jetzt eben die DSGVO. Und weil sie wegen den erhöhten Datenschutzmaßnahmen seit 2018 keine EU-Daten auf US-Servern mehr speichern dürfen, dadurch keine ausbeuterische Werbung mehr schalten können, ziehen sie nun einen Rückzug der eigenen Produkte, also Facebook, Instagram und WhatsApp, etc. in Betracht.
Ganz ehrlich, was gibt es Schöneres!
Wir könnten endlich eigene Produkte nutzen, könnten die Pod-Idee des Weberfinders Tim-Berners Lee endlich umsetzen! Europäische Unternehmen wären gezwungen auf EU-Alternativen zu setzen, etwa Threema statt WhatsApp! Der Niedergang aller algorithmischen (Hass-)Bubbles wäre eingeläutet! Wir würden verschont bleiben von der Idee eines „Second Life 2.0“ (aka „Metaversum“)! Wer würde das nicht alles feiern!
Allein, dieser bescheuerte Konjunktiv. Sie werden es sehr wahrscheinlich nicht machen. Zum anderen bräuchten sie nur Server in Irland hochziehen, um das „Problem“ zu beheben.
Am Ende wird es hier wahrscheinlich wie mit jeder Weltverbesserungsidee passieren: Umsetzung ausgesetzt. Aber schön, dass wir das mal gedanklich durchspielen durften. Ist ja auch schon was wert in diesen Zeiten.