Die Robotergesetze sind jetzt schon Gegenstand von Wissenschaft, Gesetzgeber und Rechtsprechung

Joaquin

Administrator
Teammitglied
Habt ihr schon mal etwas von den Robotergesetzen gehört?

Vielleicht kennt ihr ja den Film "I, Robot" aus dem Jahr 2004 mit Will Smith. Dort werden die Regeln auch mal kurz abgehandelt. Das ganze beruht natürlich auf den russisch-amerikanischer Biochemiker, Sachbuchautor und Science-Fiction-Schriftsteller Isaac Asimov. Dieser befasste sich 1950 mit der Problematik in seinem Buch "Ich, der Robot". Die dort enthaltenen Asimov’schen Gesetze lauten:

  1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen (wissentlich) Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
Diese Regeln sind nicht ohne Grund in einer Hierarchie aufgebaut.

Für den praktischen Nutzen haben diese philosophischen Überlegungen derweil jedoch keine Bedeutung. In der zivilen Roboterindustrie der Industrie- und Haushaltsroboter, richtet man sich nach gesetzlichen Normen, welche je nach Länderrecht, entsprechend abweichen können. In der militärischen Nutzung werden diese idealen Robotergesetze ohnehin komplett ignoriert.

Die Robotergesetze wurden aber auch als solche mit der Zeit immer wieder ergänzt oder abgewandelt. So kam in \"Der Aufbruch zu den Sternen\" und \"Das galaktische Imperium\", das Nullte Gesetz hinzu:
0. Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.
1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das nullte
Gesetz.
2. Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zum nullten oder ersten Gesetz.
3. Ein Roboter muss seine eigene Existenz schützen, solange dieses sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht.

Da die Gesetze jedoch immer wieder zu einem Paradoxon führen, wurden diese in der Trilogie um den Roboter Caliban von Roger MacBride Allen komplett neu erstellt:
  • Ein Roboter darf keinen Menschen verletzen.
  • Ein Roboter ist verpflichtet, mit Menschen zusammenzuarbeiten, es sei denn, diese Zusammenarbeit stünde im Widerspruch zum Ersten Gesetz.
  • Ein Roboter muss seine eigene Existenz schützen, solange er dadurch nicht in einen Konflikt mit dem Ersten Gesetz gerät.
  • Ein Roboter hat die Freiheit zu tun, was er will, es sei denn, er würde dadurch gegen das Erste, Zweite oder Dritte Gesetz verstoßen.
Aber auch diese Regeln sind nicht optimal, wenn man zum Beispiel Roboter in der Medizin einsetzen möchte. So muss ein Roboter einem Patienten und damit einem Menschen ja nötige Verletzungen, wie Schnitte mit einem Skalpell zufügen, um in den Körper eindringen und dort eine Operation durchführen zu können.

Man mag zwar denken, hier ist man noch lange nicht so weit, aber tatsächlich sind wir was diese Entwicklung angeht, schon mitten drin. Wir haben zahlreiche autonom agierende Systeme, wie selbst fahrende Autos. Auch diese müssen in einer Notsituation entscheiden, ob sie gegen Regeln und Gesetze verstoßen, zum Beispiel eine durchgezogene Linie überfahren, um einen Unfall und somit Schaden am Menschen verhindern. Sind mehrere Menschen an einer solchen Situation beteiligt, muss ein solches Fahrzeug erkennen, welchem Leben es mehr Priorität zuordnet oder ob es durch das Opfern eines Leben, möglicherweise mehrere Leben rettet.

Dies beschäftigt jetzt schon Entwickler und Gesetzesgeber und wird in Zukunft sicherlich zu so manch einer, heftigen Debatte führen.
 
Zuletzt bearbeitet:

Joaquin

Administrator
Teammitglied
Die Robotergesetze sind eigentlich von immenser Bedeutung im Umgang der Maschinen mit Menschen, werden aber schon im Bereich Militär nicht beachtet, bzw. gezielt umgangen. Um die ethische Frage zu verdeutlichen, hat nun jemand einen Roboter so programmiert, dass er absichtlich einen Menschen verletzt und somit das erste Robotergesetz von Asimov bricht. Dabie bleibt es laut der Programmierung dem Roboter selbst überlassen ob er einen Menschen verletzt oder nicht. Es trifft sozusagen seine Entscheidung selbst bzw. willkürlich. Die Erdenker dieses Projektes wollen damit auch aufzeigen, dass es derzeitig schon Maschinen gibt, welche selbst abwägen ob sie Menschen verletzen/umbringen oder nicht. Damit sind vor allem die so genannten Killer-Drohnen gemeint.

the first law
 

Madd4

Neues Mitglied
Interessanter Ansatz....doch ich glaube das die Filme wie Terminator usw, durch aus realität werden können. Irgendwann stellen Maschinen Maschinen her.
 
Oben