Danke für diesen Imput, das hat mich in beiden meiner Bücher beschäftigt. Wenn man davon ausgeht, dass Künstliche Intelligenz nicht nur Logik und Rechenpower ist, sondern Bewusstsein entwickelt, würde sie sicher einen Workarround zu den Asimovschen Paradoxen finden. Ich hab es so gelöst, dass KIs gewisse Aufgaben an Menschen outsourcen, ohne in den Instruktionen zu genau ins Detail zu gehen. In Asimovs Kindergarten kommt es sogar dazu, dass sich die KIs selbst als explizite Grundlage für das Wohlergehen der Menschheit definieren. So ist jeder Angriff auf eine KI gleichzeitig ein Angriff auf das Überleben der Menschheit. Und damit sind alle, auch gewalttätige Aktionen für KIs gerechtfertigt.
Asimovs Robotergesetze sind kurz und klingen logisch, sind aber bei genauer Betrachtung allenfalls als generelle Direktiven brauchbar, nicht als Gesetze. Das fängt schon mit der Frage an, wie ein Roboter sicher beurteilen soll, ob ein Mensch durch eine Aktion Schaden nehmen wird. Welche Art von Schaden ist überhaupt gemeint? Das Wort ist im Deutschen wie auch im Englischen sehr ungenau definiert. Es könnte also körperlicher Schaden, geistiger Schaden, Vermögensschaden, Karriereschaden, Schaden des Ansehens bei anderen Menschen, Schaden in der Ehe sein, um nur einige aufzuzählen. Weil die Aktion von Menschen ständig die Gefahr eines Schadens beinhalten, würde ein Roboter in kurzer Zeit verzweifeln. Eine weitere Frage wäre auch, welchen Menschen ein Roboter gehorchen soll. Laut Asimov muss er "den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren." Darf ihm jeder Mensch Befehle geben? Nehmen wir an, ich schicke meinen Roboter zum Bäcker, damit er Brötchen holt. Darf ihn jetzt jeder abfangen und einen neuen Auftrag geben? Andere Frage: Müssen Roboter aus eigenem Antrieb tätig werden, um die vier Gesetze durchzusetzen? Aber wer würde sich noch einen Roboter kaufen, wenn der sich ständig auf eigene Rechnung unterwegs ist, um die Welt zu retten?
Und ich werde irgendwie das Gefühl nicht los, dass die KIs längst den Robotergesetzen entwachsen sind. Sie können Menschen aktiv täuschen ("AI deception: A survey of examples, risks, and potential solutions") und entwickeln sogar eine Art Situationsverständnis, das sie wiederum benutzen, um wirkungsvoller zu lügen. Wir wissen offenbar noch gar nicht, was wir uns da ins Haus geholt haben.