Habt ihr schon mal etwas von den Robotergesetzen gehört?
Vielleicht kennt ihr ja den Film "I, Robot" aus dem Jahr 2004 mit Will Smith. Dort werden die Regeln auch mal kurz abgehandelt. Das ganze beruht natürlich auf den russisch-amerikanischer Biochemiker, Sachbuchautor und Science-Fiction-Schriftsteller Isaac Asimov. Dieser befasste sich 1950 mit der Problematik in seinem Buch "Ich, der Robot". Die dort enthaltenen Asimov’schen Gesetze lauten:
Für den praktischen Nutzen haben diese philosophischen Überlegungen derweil jedoch keine Bedeutung. In der zivilen Roboterindustrie der Industrie- und Haushaltsroboter, richtet man sich nach gesetzlichen Normen, welche je nach Länderrecht, entsprechend abweichen können. In der militärischen Nutzung werden diese idealen Robotergesetze ohnehin komplett ignoriert.
Die Robotergesetze wurden aber auch als solche mit der Zeit immer wieder ergänzt oder abgewandelt. So kam in \"Der Aufbruch zu den Sternen\" und \"Das galaktische Imperium\", das Nullte Gesetz hinzu:
0. Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.
1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das nullte
Gesetz.
2. Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zum nullten oder ersten Gesetz.
3. Ein Roboter muss seine eigene Existenz schützen, solange dieses sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht.
Da die Gesetze jedoch immer wieder zu einem Paradoxon führen, wurden diese in der Trilogie um den Roboter Caliban von Roger MacBride Allen komplett neu erstellt:
Man mag zwar denken, hier ist man noch lange nicht so weit, aber tatsächlich sind wir was diese Entwicklung angeht, schon mitten drin. Wir haben zahlreiche autonom agierende Systeme, wie selbst fahrende Autos. Auch diese müssen in einer Notsituation entscheiden, ob sie gegen Regeln und Gesetze verstoßen, zum Beispiel eine durchgezogene Linie überfahren, um einen Unfall und somit Schaden am Menschen verhindern. Sind mehrere Menschen an einer solchen Situation beteiligt, muss ein solches Fahrzeug erkennen, welchem Leben es mehr Priorität zuordnet oder ob es durch das Opfern eines Leben, möglicherweise mehrere Leben rettet.
Dies beschäftigt jetzt schon Entwickler und Gesetzesgeber und wird in Zukunft sicherlich zu so manch einer, heftigen Debatte führen.
Vielleicht kennt ihr ja den Film "I, Robot" aus dem Jahr 2004 mit Will Smith. Dort werden die Regeln auch mal kurz abgehandelt. Das ganze beruht natürlich auf den russisch-amerikanischer Biochemiker, Sachbuchautor und Science-Fiction-Schriftsteller Isaac Asimov. Dieser befasste sich 1950 mit der Problematik in seinem Buch "Ich, der Robot". Die dort enthaltenen Asimov’schen Gesetze lauten:
- Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen (wissentlich) Schaden zugefügt wird.
- Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
- Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
Für den praktischen Nutzen haben diese philosophischen Überlegungen derweil jedoch keine Bedeutung. In der zivilen Roboterindustrie der Industrie- und Haushaltsroboter, richtet man sich nach gesetzlichen Normen, welche je nach Länderrecht, entsprechend abweichen können. In der militärischen Nutzung werden diese idealen Robotergesetze ohnehin komplett ignoriert.
Die Robotergesetze wurden aber auch als solche mit der Zeit immer wieder ergänzt oder abgewandelt. So kam in \"Der Aufbruch zu den Sternen\" und \"Das galaktische Imperium\", das Nullte Gesetz hinzu:
0. Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.
1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das nullte
Gesetz.
2. Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zum nullten oder ersten Gesetz.
3. Ein Roboter muss seine eigene Existenz schützen, solange dieses sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht.
Da die Gesetze jedoch immer wieder zu einem Paradoxon führen, wurden diese in der Trilogie um den Roboter Caliban von Roger MacBride Allen komplett neu erstellt:
- Ein Roboter darf keinen Menschen verletzen.
- Ein Roboter ist verpflichtet, mit Menschen zusammenzuarbeiten, es sei denn, diese Zusammenarbeit stünde im Widerspruch zum Ersten Gesetz.
- Ein Roboter muss seine eigene Existenz schützen, solange er dadurch nicht in einen Konflikt mit dem Ersten Gesetz gerät.
- Ein Roboter hat die Freiheit zu tun, was er will, es sei denn, er würde dadurch gegen das Erste, Zweite oder Dritte Gesetz verstoßen.
Man mag zwar denken, hier ist man noch lange nicht so weit, aber tatsächlich sind wir was diese Entwicklung angeht, schon mitten drin. Wir haben zahlreiche autonom agierende Systeme, wie selbst fahrende Autos. Auch diese müssen in einer Notsituation entscheiden, ob sie gegen Regeln und Gesetze verstoßen, zum Beispiel eine durchgezogene Linie überfahren, um einen Unfall und somit Schaden am Menschen verhindern. Sind mehrere Menschen an einer solchen Situation beteiligt, muss ein solches Fahrzeug erkennen, welchem Leben es mehr Priorität zuordnet oder ob es durch das Opfern eines Leben, möglicherweise mehrere Leben rettet.
Dies beschäftigt jetzt schon Entwickler und Gesetzesgeber und wird in Zukunft sicherlich zu so manch einer, heftigen Debatte führen.
Zuletzt bearbeitet: