Social
RSS-Feed Google+ c1ph4 bei YouTube Gizmeo.com als Android-App
Kategorien
Kommentare
  • Abbey: Vielen Dank Probiere es jetzt mal aus war früher mal im darknet aber hatte absolut keine Ahnung mehr wie es...
  • c1ph4: @Unknownuser: Wo? Ist deine Version die neueste aus dem FDroid-Repository? Sehe hier keine. Versuch‘ mal...
  • c1ph4: @R2D2:Ist eine spezielle Firefox-Version für Orbot. Meine Präferenz im Tutorial hier war der übliche Firefox...
  • Unknownuser: Was ist die weltkugel in orbot?
  • R2D2: Brauche ich dringend Firefox oder geht es auch mit Chrome ?
Archiv

Sie sind momentan im Archiv der Kategorie CPUs.

Werbung
Credits
Created, Made & Maintained by AETHYX.EU

Archiv für die Kategorie „CPUs“

neue cpus der esa

Auch die ESA macht in CPUs:

GR740 von der ESA

[via]

Oder präziser: lässt machen, der GR740 wird von Cobham Gaisler aus Schweden entwickelt und von STMicroelectronics aus Frankreich gefertigt.

Wofür ist er gut?

Damit Projekte wie Schiaparelli nicht wie Steine vom Mars-Himmel fallen. 😉

Nee, jetzt im Ernst: die ESA lässt diese CPUs extra anfertigen, weil die Chips von AMD, Intel, Qualcomm, DeinHerstellerHier im Weltall nicht bestehen würden. Die Strahlung wäre einfach zu hoch und zu stressig.

Die LEON4 stammen noch aus den grellen 90ern, der GR740 hier, oben schön abgebildet, ist ein Quadcore aus eben diesen Mikroprozessoren.

CPU-Pr0n! I ♥ it! Und eben: Wir. Sind. Europa. Racist NASA has no home here. We don’t want them. Period.

Flattr this!
Bitcoin-Spenden hier akzeptiert ^^

boinc: user of the day

ATLAS@home gehört zu den anspruchsvolleren BOINC-Projekten: auch hier ist zwingend eine virtuelle Maschine erforderlich, um am Projekt teilnehmen zu können, die permanent viel über das Internet kommuniziert. Ferner lässt sich noch über eine spezielle XML einstellen, ob man mit nur 1 CPU oder mehreren rechnen möchte. Das sind Hürden, die für Newbees erst einmal genommen werden müssen, also zwingend über Online-Recherchen. Ist man hier durch, was oft nur über Herumexperimentieren gelingt, belegt das Projekt permanent 2,2GB RAM. Pro CPU, wohlgemerkt.

Das erklärt vielleicht so ein bisschen, warum ich hier innerhalb weniger Wochen zum „Nutzer des Tages“ deklariert wurde:

ATLAS@home: User of the Day Screenshot

Vier Wochen den PC kontinuierlich rechnen lassen genügte für diese Ehrung.

Als Goodies bekommen Nutzer auch hier Badges: etwa für wie lange man dabei ist, wie viele Credits man beiträgt, etc.

Richtig cool wird es bei der mitgelieferten Grafik: über „Ansicht“ -> „Erweiterte Ansicht“ -> „Aufgaben“-Reiter -> hier links bei „Grafik anzeigen“, öffnet sich im Browser, wie viele Kollisionen man bereits durchgeführt hat! Dafür klickt man einfach auf „Your Contribution“. Partikelkollisionen von zuhause aus, ahoy!

Ich kann jedem CPU-Cruncher empfehlen hier mitzumachen: schließlich war es ATLAS am CERN, der das Higgs-Boson fand, dieses „gottverdammte Teilchen“, das allen anderen seine Masse verleiht. Und da vLHC@home leider eingestampft und jüngst mit LHC@home gemerget wurde, werden die Mitmachprojekte immer weniger. Da es einige Hürden gibt bei ATLAS@home, wird man hier jedoch sehr schnell als „Nutzer des Tages“ erwähnt.

Fazit: anspruchsvolles Technikungetüm von Projekt, was man hier crunchen kann. Aber ein geiles Gefühl für „unser“ CERN zu rechnen wie auch einen „kleinen ATLAS“ zuhause zu haben! 🙂

Flattr this!
Bitcoin-Spenden hier akzeptiert ^^

vlhc@home (test4theory) mit eigenem pc betreiben

Ich hatte ja vor längerer Zeit mal erwähnt, dass ich es gut finde, durch Distributed-Computing-Projekte mehr für Europa rechnen zu lassen. Mit BOINC geht das ja mittlerweile extrem gut, man muss sich eben ein bisschen einlesen und die Institutionen finden.

Von unserer Primus-Foschungsstätte CERN gibt es sogar zwei Projekte, wo man selbst mit seinem Rechner mitmachen kann: Eines ist das SIXTRACK, es ist das einfacher einzurichtende der beiden und wird wie die meisten BOINC-Projekte direkt über den Client hinzugefügt, wenn man vorher eine EMail-Adresse und ein Passwort hinterlegt hat. Das war’s auch schon! Happy crunching!!

Die Krönung ist aber vLHC@home, auch bekannt unter dem alten Namen Test4Theory, wo man mit Hilfe von VirtualBox (zwingend notwendig hier) auf dem eigenen Rechner quasi seinen eigenen Teilchenbeschleuniger betreibt.

Fassen wir nun kurz zusammen, was man braucht, um vLCH@home zu betreiben:

1. einen vLHC@home-Account, hier klicken, um diesen zu erstellen
2. den BOINC-Client natürlich
3. einen PC (Betriebssystem egal) mit mindestens 512MB RAM, Internetverbindung und mindestens 9GB(!) freiem Speicherplatz, den das Projekt benötigt
4a. VirtualBox ist ein Muss
4b. eventuell noch das VirtualBox Extension Pack, hier der Link, wo ihr euch das passende zu eurer VirtualBox-Version aussuchen müsst

Dieses Pack hat in meinem Fall dazu geführt, dass der BOINC-Client, und damit auch vLHC@home, eine eigene virtuelle Maschine anlegen kann. Diese heißt etwa boinc_30b2eng324h oder so ähnlich und taucht auch in eurer Liste bei den anderen virtuellen Maschinen auf.

Das sind alles schon mehr Vorbereitungen, als einem lieb sein kann, aber nun verfügt ihr über die Voraussetzungen für vLHC@home.

Ihr fügt nun am Ende nur noch das Projekt über BOINC hinzu, füllt Email und Passwort aus und es passiert Magisches: Denn ab jetzt legt der Client die virtuelle Maschine automatisch an und der Rechner cruncht nun für das CERN! 🙂

Eine „Installationsanleitung“ findet man noch hier: http://lhcathome.web.cern.ch/test4theory/join-us. Ist die offizielle, aber leider wurde nichts von dem Extension Pack erwähnt. Das war bei mir ziemliches Try&Error und recht uncool am Anfang.

Das Projekt selbst ist erst 3 Jahre alt und da es etwas aufwendiger aufzusetzen ist, machen leider bisher nur wenige mit. Das führt aber dazu, dass man schnell Badges holt, ich bin innerhalb kürzester Zeit in die „Top 25%“ aufgestiegen und habe eine Anfrage aus Südkorea für Team-Crunching angenommen. Pretty cool, don’t you think?

Und bevor ich es vergesse: Wozu braucht man Teilchenbeschleuniger überhaupt und was macht so ein Ding!? Weißte Bescheid.

Flattr this!
Bitcoin-Spenden hier akzeptiert ^^

quantencomputer-spielplatz

…vom großen Google erdacht, für uns zum Ausprobieren, läuft im Browser:

ein quantencomputer-spielplatz

Da hatte wohl jemand zu viel Freizeit.

Was er kann: Wird mit der GPU betrieben, es sollen so 22 Qubits zum Schreiben, Debuggen und Teilen von eigenen Programmen zur Verfügung stehen.

Probiert es aus, hier hat noch niemand einen Plan, vielleicht habt ihr ja einen Geistesblitz:

http://chromeexperiments.com/detail/quantum-computing-playground/. [via]

Nehmt das mit dem „Experiment“ dort bitte wörtlich, mehr ist es leider nicht.

Eye-Candy gibt es aber umsonst: Es stehen Visualisierungen für eure Berechnungen in 2D und sogar 3D zur Verfügung. Das hat sich mit der GPU also bezahlt gemacht.

Und das Coolste, wovon ich bisher nie etwas gehört habe: Führt euren Code rückwärts aus! Yeah, githcir neseleg. I like!

Flattr this!
Bitcoin-Spenden hier akzeptiert ^^

moores gesetz ist tot. endlich.

1965 postulierte Intel-Gründer Gordon Moore, alle 18 Monate würde sich die Transistoren-Anzahl auf einem Prozessor-Chip verdoppeln. Damit lag er bereits von Anfang an komplett daneben, der Zeitraum musste auf zwei volle Jahre angehoben werden. Sechs Monate sind in der IT-Technik eine Ewigkeit.

Nun wollen es endlich die Gesetze der Physik, verglichen mit der Beobachtung von Moore Gesetze der Natur und damit die einzig wahren, dass dieser Trend einfach nicht mehr aufrechtzuerhalten ist. Transistoren baut man aus Atomen. Je kleiner die werden, um mehr und mehr Atome unterbringen zu können, erreicht man irgendwann, automatisch, den Punkt, wo man schlichtweg auf keine Atome mehr zurückgreifen kann.

Die Lösung: Das menschliche Gehirn.

Dieses ist zwar redundant (deshalb die vielen Neuronen) und verglichen mit einem Computer „langsam“, was die Aktionszeit von Neuronen betrifft. Aber es arbeitet ununterbrochen in parallelen Prozessen und sogar mit unterschiedlichen Regionen des Gehirns zur selben Zeit.

Ein Projekt namens SpiNNaker nimmt sich diese Arbeitsweise nun als Vorbild. Es steht für „Spiking Neural Network Architecture“. Es wird von Steve Furber an der Universität von Manchester geleitet und setzt sich das Ziel mit einer Million(!) ARM-CPUs (ARM ist sehr sparsam und recht leistungsfähig, weshalb die Architektur oft und gerne in Smartphones verbaut wird) den Prozess von parallelen Berechnungen künstlich nachzubilden. ARM-CPUs wurden nicht zufällig gewählt. Sie sind, ebenso wie unsere biologischen Neuronen, nicht die allerschärfsten Super-CPUs. Sie kommen jedoch, findet zumindest Furber, derzeit unseren Neuronen gerade deshalb am nächsten. [via]

Dass es dieses „Gesetz“ von Moore gab hat wohl dazu geführt, dass man sich mit dem Problem erst jetzt auseinandersetzt. Durch die Architektur der CPUs ist die Beobachtung von Moore logisch gewesen und wurde entsprechend automatisch erreicht. Hätte man sich bereits viel früher davon abgewandt, hätten wir heute viel mehr Architekturen und neue CPU-Ansätze, die es so schnell nicht geben wird. Man könnte sogar sagen, sich auf diese Aussage von Intel zu verlassen hat uns in der eigentlichen Entwicklung von CPUs Jahrzehnte zurückgeworfen. Das Los der eigenen Faulheit. Oder eben, in diesem Fall, der Entwickler und Firmen.

Weiterhelfen tut uns das alles heute nichts mehr, es gibt noch viel radikalere Ansätze, einen Ausweg zu finden. Einer ist der Verzicht auf das wertvolle Silizium. An der Universität Stanford rennt bereits ein „Karbon-Nanoröhren-PC„, wenn auch in einer sehr primitiven Version. Diese _könnten_ eine Art Übergang bilden, denn sie sind sehr energieeffizient.

Und dann gibt es natürlich noch die Entwicklung der Quantencomputer, über die auch hier bei Gizmeo gerne berichtet wird. Meiner persönlichen Meinung nach das bisher einzige Konzept, das nicht nur einen Übergang darstellen wird. Ein fähiger Rechner wird uns jedoch die nächsten 20(!) Jahre nicht zur Verfügung stehen. Das hat einen triftigen Grund: Quantenzustände ändern sich, sobald man mit ihnen interagiert. Dieses Problem muss aber gelöst werden, um Superzustände erhalten zu können, die mehr abbilden als diese schnöde 1 und diese ominöse 0.

Flattr this!
Bitcoin-Spenden hier akzeptiert ^^

hackbare cpus

Das ist schon ein Knaller:

„Auf 18 Seiten beschreiben Forscher der University of Massachusetts, der TU Delft und der Ruhr-Universität Bochum, wie man in Computerchips kaum zu entdeckende Hintertüren einbauen könnte.“ [via]

Das Original-PDF: http://people.umass.edu/gbecker/BeckerChes13.pdf.

Das ist genau die die Art von „Alien-Technologie“, die die Kryptographie-Experten derzeit ins Feld führen: Dass man es bei der NSA mit einem Gegner zu tun hat, der die Mittel, und auch das Geld, besitzt, solche Dinge in der Praxis anwenden zu können.

Lasst euch hier nichts vormachen: Das ist ein wichtiger Aspekt, aber eben nur einer. „Stealthy Hardware Trojans“ können ebenfalls in GPUs, WLAN-Karten, RFIDs, etc. verbaut sein. Es ist nur schwer, extrem schwer und deswegen dementiert das Intel auch vehement in dem Artikel, zu wissen, wo man suchen muss.

Ich kenne diesen Bruce Schneier nicht und ich weiß auch nicht, wieso das der einzige Experte aus dem Krypto-Bereich ist, der dauernd von den Hauptstrom-Medien zitiert wird. Aber ein Satz hat ihn schlagartig sympathisch gemacht:

„Ja, das ist eine Verschwörungstheorie. (sic) Aber ich bin nicht mehr bereit, irgendetwas auszuschließen. Das ist das Schlimmste am Verhalten der NSA. Wir haben keine Ahnung mehr, wem wir vertrauen können.“ [via]

Ich bin schon lange kein vehementer Verfechter mehr von AMD. Und Intel hier direkt anzugreifen ist eventuell unfair: Auch Apple baut Chips, Sony (Japan) und Samsung (Südkorea) ebenfalls und es gibt da noch die Dauer-Verdächtigen von Broadcom, etc. Das, was hier berichtet wird, ist Königsklasse-Hardware-Hacking. Man braucht Zugang zu Produktionsstätten, muss viel Knowhow mitbringen, eventuell noch einen gerichtlichen Beschluss. Und genau sowas macht die NSA. „Alien-Technologie“. Wieso sitzt du eigentlich noch vor einem Computer?

Flattr this!
Bitcoin-Spenden hier akzeptiert ^^

quanten-computing III

Quanten-Computer sind kompliziert und keiner rafft die Programmierung. Doch die Universtät Bristol (UK) hat vor jedem interessierten Menschen mit einem Webbrowser Zugriff darauf zu geben, über das Internet (der berüchtigten Cloud in diesem Fall), um eigene Algorithmen testen zu können. Hier der Bericht:

http://bristol.ac.uk/physics/research/quantum/qcloud/computer/. [via]

Das Problem hierbei war eigentlich immer: Firmen wie Google oder auch die NASA-Organisation forschen mit diesen komplizierten Maschinen, wo es keine Bits mehr sondern Quantenbits (qubits) gibt, die den Zustand 0 und 1 zur selben Zeit annehmen können, diese Ergebnisse aber nicht an die Öffentlichkeit lassen. Doch wenn das niemand wirklich testen kann/darf/soll, wie soll diese Quantenrevolution dann ohne erfahrene Coder stattfinden?

Der Clou ist, dass der Simulator für die Neuzeit-Programmierer bereits online ist: http://cnotmz.appspot.com/.

Lediglich die Verbindung zum Photonen-Chip fehlt noch, die wird am 20. September stattfinden.

Leider kann dieser Simulator nur ein 2-Qubit-Gerät abbilden. Der bringt nicht viel mehr als der eigene PC derzeit. Die Entwicklungen mit 6 oder auch 8 Qubits ist noch nicht sehr weit, sobald man das jedoch zum Laufen gebracht hat sollen diese Simulatoren ebenfalls online verfügbar gemacht werden.

Und keine Panik, wer hier jetzt nur Bahnhof versteht: Geht mir genauso. Eminent wichtig ist einfach der Ansatz, jedem Zugriff auf diese Technik zu geben. Am Ende kommt wahrscheinlich genau dadurch etwas Gutes & Nützliches dabei heraus.

Flattr this!
Bitcoin-Spenden hier akzeptiert ^^

utilite: ubuntu-box fuer wenig geld

Der kleine Raspberry Pi ist schön und gut, nur richtig arbeiten lässt sich damit nicht. Man merkt an jeder Ecke, dass dieser Rechner nur für Schüler als Einstieg in Linux (und PC-Hardware) gedacht ist.

Vielleicht schafft diese kleine Box da ja bald Abhilfe:

utilite: ubuntu-box fuer wenig geld

Der Mini-Rechner nennt sich Utilite und wird genauso ausgesprochen wie das Werkzeug. Ziel bei diesem Projekt war es einen Gegenpol zu den Android-Donglen zu schaffen, die zwar oft mit einer einigermaßen aktuellen Android-Version im Einsatz, aber technisch nur ungenügend dafür ausgelegt sind. Außerdem bringt der Utilite auch Ubuntu mit, was aber geändert werden kann, wenn man das denn noch will.

Hier die Specs in der Übersicht:

✓ Freescale i.MX6 single / dual / quad core Cortex-A9 MPCore, up to 1.2GHz
✓ Ubuntu / Android options
✓ Up to 4GB DDR3-1066
✓ mSATA SSD, up to 512GB
✓ Micro-SD SDXC, up to 128GB
✓ Supports OpenGL ES 1.1 and 2.0, OpenVG 1.1 and OpenCL EP
✓ Supports multi-stream 1080p H.264, VC1, RV10, DivX HW decoding
✓ HDMI 1.4 up to 1920 x 1200 @ 60Hz
✓ DVI-D up to 1920 x 1200 @ 60Hz
✓ Two 1000 BaseT Ethernet
✓ 802.11b/g/n Wi-Fi
✓ Bluetooth 3.0
✓ S/PDIF 5.1 (electrical through 3.5mm jack)
✓ Stereo line-out, Stereo line-in
✓ 4 x USB 2.0
✓ USB OTG (micro-USB connector)
✓ Two RS232 serial ports (ultra mini serial connector)
✓ 5.3″ x 3.9″ x 0.8″ 135mm x 100mm x 21mm
✓ Unregulated 10 to 16 volt input Power
✓ 3W – 8W power consumption (depending on system configuration and load)

Hergestellt wird die Box von Compulab, es gibt sie mit Single-, Dual- oder Quad-Core-Prozessor. Preislich startet man bei 99$, das sind ~75€.

Derzeit kann man sich nur informieren lassen, Bestellungen werden frühestens ab dem nächsten Monat entgegengenommen. Interessierte sollten daher diese Website im Auge behalten:

http://utilite-computer.com/web/home [via]

Resümee: Die Hardware sieht schick aus und innen wurden recht mächtige Komponenten verbaut (HD-fähig, Bluetooth 3, 4GB DDR3, etc.). Zudem ist der Preis selbst für einen Single-Core mit 1,2GHz richtig in Ordnung. Und maximal 8 Watt Verbrauch sind ein Wort.
Probleme wird es wohl mit dem Zoll geben, bei 75€ bleibt es hier nicht. Außerdem sind solche kompakten Komplettsysteme immer schnell vergriffen.
Compulab: Nice one!

Flattr this!
Bitcoin-Spenden hier akzeptiert ^^

cern distributed computing II

Vor fast zwei Monaten hatte ich mich ja beschwert, es gäbe keine Möglichkeit seine Rechenzeit für das CERN zur Verfügung zu stellen. Nun, gestern schaute ich seit langem mal wieder in BOINC rein und es gibt sogar zwei:

LHC@Home und Test4Theory.

Von den beiden ist das letztere jünger und auch spannender: Während LHC@Home „nur“ bei der Optimierung und Justierung der Magnete hilft, ist Test4Theory DAS Projekt, um die Ergebnisse, die diese Riesenmaschine LHC produziert, von der Community auswerten zu lassen.

Nur ist das eigentlich nicht, wonach ich suchte: Ich suchte überhaupt nicht nach Ersatz für BOINC-Projekte, wenngleich die meisten aus den USA kommen und ich das nicht unterstütze. Ich suchte vielmehr einen Vollersatz für BOINC vom CERN. Oder eben irgendeiner anderen vertrauenswürdigen Organisation in Europa, die sich mit so etwas auskennt.

Wenn sich die wissenschaftliche Gemeinde mittlerweile auf BOINC geeinigt hat (und es sieht schwer danach aus), dann kann ich das am Ende zwar abnicken. So ganz passt mir das aber nicht.

P.S.: Probiert mal BOINC-crunching über eure GPU unter Linux! Ist e-x-t-r-e-m lustig! Ich kam gestern in 4 Stunden keinen Zentimeter weit.

[Update I, 03.07.13, 21:45]

Habe das mit dem GPU-crunchen heute doch noch hinbekommen. War eine Sache von 5 Minuten. Hier steht, wie es geht. WTF.

Flattr this!
Bitcoin-Spenden hier akzeptiert ^^

cern distributed computing

Gibt es eigentlich einen Distributed Computing-Client vom CERN? Also, wo ich mir wie bei Boinc ein kleines Tool lade, das für diverse CERN-Projekte rechnet.

Ich weiß nämlich nicht, was mit den Daten vom Boinc-Projekt passiert. Das klingt in den Beschreibungen zu den Projekten immer alles sehr nobel, aber das soll diese komische Stiftung von Bill Gate$ ja auch sein.

Ich würde mit meinen eignen Maschinen gerne für Europa rechnen. That’s pretty much it.

Flattr this!
Bitcoin-Spenden hier akzeptiert ^^

imac-lampen

Für irgendwas muss dieser Schrott ja gut sein:

[via]

Zur Erinnerung: Der iMac G3 wurde 1998 eingeführt. Das Teil war mega-klobig, sah aus wie ein Ei, doch es war ein einziges Gerät für Rechner und Monitor und zusätzlich am Ende in 13 verschiedenen Farben erhältlich.

Als CPU wurde ein PowerPC-Prozessor verbaut. In den ersten Modellen hatte der nur 233MHz.

Ein großer Negativfaktor war auch das Gewicht: Satte 17kg brachte der iMac auf die Waage, am Ende der Produktionslinie 2003 waren es nur 2kg weniger.

Und trotzdem: Dank unfassbar vieler amerikanischer TV-Serien, sowie diverser Hollywood-Großproduktionen war der iMac in den frühen 2000er-Jahren fester Bestandteil der US-Popkultur.

Flattr this!
Bitcoin-Spenden hier akzeptiert ^^

mein pi II

So, ein Wochenende mit diesem 30€-ARM-Rechner verbracht. Wirklich überzeugt bin ich davon allerdings (noch) nicht. Ist aber nicht weiter schlimm, finde die Idee trotzdem klasse und bin auch froh, diese Hardware nun daheim zu haben. Da kommt sicher auch noch mehr in Zukunft, was Anwendungsmöglichkeiten und Mods betrifft.

Das Raspberry KDE habe ich gar nicht erst installiert. Ich habe den Autor kontaktiert und der hat wohl seit Sommer 2012 kein Update mehr davon gemacht. Ich hätte es also nicht gerade einfach gehabt das zu nutzen.

Angefangen habe ich mit Unofficial Raspbian Qt/Razor. Mit Qt arbeite ich eigentlich gerne, doch diese Distribution war extrem langsam.

Was mich aber überzeugt hat war hier das Berryboot-Werkzeug. Den Inhalt dieser ZIP packt man sich einfach auf die SD-Karte und kann loslegen: Man muss kurz seine Online-Verbindung konfigurieren und ladet sich die gewünschte Distribution einfach runter. So spart man sich die jeweiligen Vorgänge mit dd bei Linux oder dem Image-Tool unter Windows. Neben Qt/Razor kommt man so auch zu einem normalen Raspbian oder sogar dem „One Laptop per Child“-OS.

Naja, auf Dauer war das dann auch nichts.

Bin dann zu Raspberry Pi Fedora Remix gewechselt und habe hier viel Positives gesehen. Da ich Fedora aber so gut wie nicht kenne war mir das für den Einstieg zu schwerfällig. Es sah jedoch brachial gut aus, war halt etwas langsam. Basiert auf Xfce und bringt viel EyeCandy mit. Hat Spaß gemacht.

Als ich dann sah, dass Bodhilinux für ARM komplett auf Enlightenment setzt musste ich das natürlich auch mal ausprobieren. Auch das sah definitiv ganz gut aus, die Menüführung war jedoch Nonsense. Geschwindigkeit war gut, aber die Repositories waren fehlerhaft. Also wieder weitergezogen.

Tja, am Ende bin ich dann doch bei Raspbian gelandet, was ich eigentlich vermeiden wollte. Ich hasse LXDE und Debian noch viel mehr. Aber dieses OS wird direkt empfohlen und man kann hier massiv viel vom Start weg einstellen; inklusive Sprache, Overclocking, Display, usw. Außerdem sind 36.000 Pakete natürlich eine Bank. Kernel 3.6 auch.

Nur der Sound geht nicht. Habe vier Stunden zugebracht das zu konfigurieren, ohne Erfolg. Nicht gut.

Und schließlich war irgendwann auch Ende, ist ja alles freie Zeit, die dabei drauf geht.

Derzeit nutze ich den Pi als BOINC-Client und trage zu SETI und bald auch Rosetta bei. Doch auch hier braucht man viel Geduld: die 700-1.000MHz geben natürlich nicht sehr viel her und es braucht ewig diese Pakete abzuarbeiten. Aber er läuft und viel Strom braucht er nicht.

Hier ist noch ein Link für das Setup von eigenen SD-Karten: http://elinux.org/RPi_Easy_SD_Card_Setup. Abgedeckt werden Windows, Mac und natürlich Linux. Arg kompliziert ist das nicht, und so stehen einem die folgenden Systeme zur Verfügung: http://elinux.org/RPi_Distributions. Eine perfekte Liste mit vielen Zusatzinformationen.

Have fun!

Flattr this!
Bitcoin-Spenden hier akzeptiert ^^

der erste 3D-mikrochip der welt

3d_microchip

Die Uni Cambridge hat, scheinbar, den ersten 3D-Mikrochip der Welt gebaut.

Informationen von links nach rechts und nach vorne und hinten zu bewegen ist so dermaßen 2012, dieser Chip kann auch hoch und runter.

Dr. Reinoud Lavrijsen arbeitet dort und meint, heutige Chips seien wie Bungalows, wo alles auf einer einzigen Etage passiert. Neuerdings besitzt dieser Bungalow einen Fahrstuhl.

Für dieses kleine Wunder kommt die Spintronik zum Zug, ein nagelneues Forschungsgebiet der Nanoelektronik.

[via]

Wie immer stellt sich mir die Frage, was das jetzt alles bringt. Doch es könnte ein Zwischenschritt zu echten Quantencomputern sein, auch wenn beide Technologien jetzt nicht verwandt sind. Jedenfalls hofft man in Cambridge, dass diese 3D-Dinger die derzeitigen CPUs ablösen. Dann heißt es auf dem Campus: Ka-ching! Oder eben nicht; hängt davon ab, wie sie sich anstellen.

Die Technik bringt aber wohl auch in Festplatten was: durch die magnetischen Effekte lassen sich deren Kapazitäten steigern. Und: Erst 2007 gab es für die Entdeckung des zugrundeliegenden Effekts einen Friedensnobelpreis; der ging aber nicht nach Cambridge, sondern an zwei ältere Forscher-Pioniere.

Ich jedenfalls will so ein Dingens. Am besten verbaut im Raspberry Pi, die 700MHz dort sind jetzt nicht der Reißer. Aber für 30€ will ich nicht weiter meckern.

Weitermachen! Danke für’s Gespräch.

Flattr this!
Bitcoin-Spenden hier akzeptiert ^^

das cpu-card-game

das cpu-card-game

Zugegeben, auch diese Idee ist ziemlich nerdcore, aber hey, worin bewegen wir uns hier gerade?

Es geht um das Kartenspiel CPU Wars, das nach einer gewissen Finanzierungsphase über Kickstarter (Link zum Projekt) nun als echtes Kartenspiel vorliegt.

Das Einsteiger-Deck, also ein Pack mit 30 CPUs der letzten 40 Jahre, kostet 11,50€ und kann dort bestellt werden:

http://shop.cpuwarsthegame.com/.

Das erinnert mich an etwas: Genau das selbe Spielprinzip und ein ähnliches Deck gab es bereits zu Videogames! Hier ist ein Youtube-Clip, in etwas mieser Qualität, der das Kartendeck vorstellt. Das liegt noch heute bei mir rum, aber fragt mich nicht, wo und wann ich das gekauft habe.

Flattr this!
Bitcoin-Spenden hier akzeptiert ^^

commodore kehrt zurueck

commodore amiga 2012

Don’t call it a comeback: Commodore kehrt zurück! Mal wieder.

Mit dem Commodore Amiga (siehe Bild) will man auf dem PC-Markt und bei den Gamern dieser Welt wieder Boden gut machen. Die Innereien wirken vielversprechend: 3.5GHz Sandy Bridge Core i7 CPU, 1GB NVIDIA GeForce GT 430 GPU, 16GB RAM, Blu-ray und eine 1TB Festplatte. Und alles in einem schlichten Alluminiumgehäuse untergebracht. Erfreulich außerdem: Ein Commodore-OS-Linux-System namens „Vision“.

Doch die Sache hat einen Haken: Commodore will 2495$ dafür – das sind 1895€. Viele Käufer dürfte das Ding also nicht finden.

Zusätzlich kehrt der alte Brotkasten zurück als C64x Supreme:

c64x supreme

Mit 2.13GHz Dual Core Intel Atom CPU, 512MB NVIDIA GeForce GT 520 graphics card, 1TB Festplatte und 4GB RAM. Auch hier ist der Preis definitiv zu hoch: 1295$ – also 984€.

Hier
zu bestellen (gibt auch noch mehr Bilder). Lieferzeit: Vier bis sechs Wochen.

Flattr this!
Bitcoin-Spenden hier akzeptiert ^^