Die Grenzen der Robotergesetze

LESEZEIT
6 MIN

Asimovs Robotergesetze sind über 80 Jahre alt. Reichen sie in der Zeit von KI noch, um uns alle zu schützen?

Wir leben wirklich in einer spannenden Zeit. Künstliche Intelligenzen (KI) verbreiten sich immer weiter und mein Team und ich arbeiten am nächsten großen Ding: Kognitive Roboter.

Asimovs Robotergesetze

Die Verschmelzung von künstlicher Intelligenz mit einem Roboterkörper, wird uns Menschen in vielen Bereichen des Lebens unterstützen, in denen das heute noch unvorstellbar ist.

Wissenschaft, Politik, Medien und die Entwickler von KI diskutieren derzeit ob und welche gesetzlichen Einschränkungen wir benötigen, um den Einsatz von KI im Allgemeinen – und in Robotern im Speziellen, sicher zu machen. Da wir bei Neura Robotics eine ganz eigene KI entwickeln, um unsere Roboter zu steuern, ist das ein Thema, das mich persönlich natürlich auch stark beschäftigt.

Asimovs Robotergesetze

Bereits vor über achtzig Jahren hat der visionäre Science-Fiction Autor Isaac Asimov drei grundlegende Robotergesetze aufgestellt:

1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird.
2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen, es sei denn, solche Befehle stehen im Widerspruch zum ersten Gesetz.
3. Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht dem ersten oder zweiten Gesetz widerspricht.

Auf den ersten Blick bieten diese Regeln eine gute Grundlage für den ethischen Einsatz von Robotern. Aber bei näherer Betrachtung erkennt man, dass sie in einer Welt, in der KI-Systeme komplexe Entscheidungen treffen und sogar autonom agieren sollen, nicht mehr reichen, um reale ethische und moralische Herausforderungen zu bewältigen.

Die Grenzen des 1. Gesetzes

Asimovs erstes Gesetz priorisiert menschliches Leben. Absolut sinnvoll! Natürlich will niemand, dass Roboter uns Schaden zufügen oder tatenlos daneben stehen, wenn wir in Gefahr sind.
Aber die Definition von “Schaden” wird in einer Welt, in der KI in Bereiche wie autonomes Fahren, medizinische Diagnose und schrecklicherweise sogar Kriegsführung eingesetzt wird, schnell zu einem komplexen und uneindeutigen Konzept.
Was ist beispielsweise mit einem autonomem Fahrzeug, das entscheiden muss, ob sein eigener Fahrgast oder eine größere Fußgängergruppe bei einem Unfall zu Schaden kommt?
Was ist mit nichtmenschlichen Kreaturen? Ein mit KI ausgestatteter Haushalts-Roboter sollte vermutlich auch nicht in der Lage sein, unseren Haustieren Schaden zuzufügen, aber sollte er seinen Besitzer davon abhalten, eine Fliege zu erschlagen? Oder in dem einen Haushalt so und in dem anderen anders?
Der Ausdruck „durch Untätigkeit“ scheint mir besonders problematisch. Asimov stellte sich bestimmt vor, dass ein Roboter eingreift, wenn jemand in seiner Nähe in Gefahr ist. Prima. Aber auf der Welt gibt es leider zu jeder Zeit sehr viele Menschen, die in Gefahr sind. Wenn ein KI-gesteuerter Roboter das Erste Gesetz wörtlich nimmt, muss er die ganze Zeit umherflitzen und wie ein Superheld Menschen in Not und Kätzchen von Bäumen retten. Aber unseren Roboter würden wir nie wiedersehen…

Die Grenzen des 2. Gesetzes

Das zweite Gesetz, das Roboter verpflichtet, den Befehlen von Menschen zu gehorchen, kommt mir besonders problematisch vor: Die Idee, dass KI-Systeme blindlings menschlichen Anweisungen folgen müssen, birgt meiner Meinung nach erhebliche Risiken.
Hier kommen wir vielleicht zum Kern der Herausforderung allgemein gültige Gesetze für Roboter zu formulieren: Was ist, wenn die Werte, auf deren Basis die Gesetze formuliert wurden, Teil des Problems sind?
Können wir angesichts der vielen verschiedenen und teils widersprüchlichen Ethik-Konstrukte, die die Menschheit in der Vergangenheit aufgestellt hat, wirklich davon ausgehen, dass wir im Hier und Jetzt mit unserer westlichen Moral absolut und für alle Zeit richtig liegen? Ich selbst bin überzeugter Christ, aber natürlich ist mir klar, dass Sklavenhaltung und Steinigungen absolut schreckliche Verirrungen unserer Vorfahren sind – obwohl sie an einigen Stellen in der Bibel gutgeheissen werden.
In viel zu vielen Kulturen wird noch heute Gewalt gegen Menschen als legitimer Ausdruck von Moral angesehen: Ehrenmorde, Hinrichtungen, Kriege. Ich will nicht, dass Roboter in so etwas verwickelt werden!
Andererseits will natürlich auch niemand, dass die Roboter nicht das tun, was wir ihnen befehlen. Wenn wir unseren Robotern zum Beispiel beibringen, Tiere ab einer gewissen Größe auch zu schützen, weigern sie sich vielleicht irgendwann, die Einkaufstasche mit den Maultaschen nach Hause zu tragen…
Und letztlich sind wir alle realistisch genug, um zu wissen, dass KI-Systeme fehlerhaft sein oder von bösartigen Akteuren manipuliert werden können. Das macht das bedingungslose Befolgen menschlicher Anweisungen ziemlich problematisch.

Die Grenzen des 3. Gesetzes

Das dritte Gesetz, das die Selbstbewahrung des Roboters vorsieht, sofern es nicht dem ersten oder zweiten Gesetz widerspricht, führt ebenfalls zu Komplikationen. Wenn ein Roboter nicht über ausreichende Informationen über die Konsequenzen seiner Handlungen verfügt, wird die Einhaltung des dritten Gesetzes schnell zu moralisch fragwürdigen Ergebnissen führen.

Fazit: Wir brauchen einen stetig aktualisierten ethischen Rahmen

Natürlich sind Asimovs Gesetze ein großartiger Ausgangspunkt. Aber angesichts all dieser Herausforderungen ist für mich offensichtlich, dass wir einen klar definierten Rahmen für unsere Roboter benötigen (und streng genommen auch für die, die ihre KI programmieren). Aber statt starrer Regeln sollten wir Systeme entwickeln, die in der Lage sind, ethische Prinzipien zu verstehen und auf verschiedene Situationen anzuwenden.

1. Kontinuierliche Lernprozesse: Roboter und KI-Systeme müssen in der Lage sein, aus Erfahrungen zu lernen und ihr Verständnis von Ethik kontinuierlich zu verbessern. Durch fortlaufendes Training und die Anpassung an neue Informationen können sie besser auf unvorhergesehene Situationen reagieren.

2. Transparente Entscheidungsfindung: Es ist wichtig, dass die Entscheidungsprozesse von Robotern und KI-Systemen transparent sind, damit Menschen verstehen können, wie sie zu bestimmten Schlussfolgerungen gelangen. Dies ermöglicht eine bessere Überprüfung und Kontrolle der Handlungen dieser Systeme.

3. Einbindung von Ethikexperten: Ethikexperten sollten in den Entwicklungsprozess von Robotern und KI-Systemen einbezogen werden, um sicherzustellen, dass ethische Überlegungen von Anfang an berücksichtigt werden. Durch die Zusammenarbeit von Technologie- und Ethikexperten schaffen wir Systeme, die den ethischen Anforderungen unserer Gesellschaft gerecht werden.

Die Asimov’schen Robotergesetze mögen in der Welt der Science-Fiction funktionieren, aber in der realen Welt mit ihrer Komplexität und Dynamik stoßen sie an Grenzen. Um ethisch verantwortungsvolle Roboter und KI-Systeme zu schaffen, benötigen wir einen flexibleren und kontextbezogenen ethischen Rahmen. Nur so können wir sicherstellen, dass diese Technologien zum Wohl der Menschheit eingesetzt werden.

ALLE ARTIKEL

Zum Journal