Viele kennen die erste Version einer Roboterethik von Isaac Asimov, eventuell sogar aus dem Film I, Robot mit Will Smith in der Hauptrolle:
# Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen.
# Ein Roboter muss den Befehlen eines Menschen gehorchen, es sei denn, solche Befehle stehen im Widerspruch zum ersten Gesetz.
# Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht dem Ersten oder Zweiten Gesetz widerspricht.
Dr. Ronald Arkin soll nun die US-Army in diesem Bereich fit machen und arbeitet mit seinem Team an einer erweiterten Version. Das HPlus-Magazine hat ihn interviewt:
http://hplusmagazine.com/articles/robotics/teaching-robots-rules-war. [via]
Arkin ist der Meinung, dass Maschinen in Kriegsgebieten unabhängiger und ethisch korrekter agieren können als Menschen. Zu diesem Zweck erstellt er eine Software-Architektur, die auch die Genfer Konvention, Kriegsgesetze oder Kriegseröffnungsregeln (sowas gibt es in den USA tatsächlich) abdecken soll.
Die Vorteile seiner zukünftigen „ethisch korrekten“ Killer-Roboter sind die Nachteile des Menschen: keine Furcht, kein psychologischer Druck, keine Müdigkeit, etc. Auch Arkin benutzt Regeln für seine Kriterien, die sehen dann so aus:
1. Aufspüren und Neutralisieren von Zielen, die z.b. in Verbindung mit den Taliban gebracht werden
2. Feuer mit Feuer vergelten; aber bitte in einem angemessenen Rahmen
3. Kollateralschäden minimieren – zivile Opfer vermeiden
4. im Zweifelsfall taktische Manöver initiieren, um gefechtsbereit zu bleiben
5. Feinde stellen und zur Aufgabe zwingen, bis menschliche Verstärkung eintrifft
Wie man sieht hat das alles wenig mit Roboter-Romantik zu tun, hier geht es eiskalt ums Kriegsgeschäft. Arkin selbst sagt zwar, dass ein ernstzunehmender funktionierender Prototyp noch Jahre entfernt ist. Die Software, die das Ganze möglich machen soll, wird aber bereits programmiert. Auf der Seite mit dem Interview findet sich auch ein Video, wie das in Zukunft aussehen könnte.