2050: Law & Order für Roboter mit K.I.?
Studie prophezeit Recht für Maschinen

Roboter werden in einigen Jahrzehnten Menschenrechte erhalten - was nach Stoff aus einem Science-Ficition-Film klingt, geht aus einer Studie hervor, die vom obersten Wissenschaftsberater der britischen Regierung David King in Auftrag gegeben wurde. Die Managementberatung Outsights und das Meinungsforschungsinstitut Ipsos Mori ergründeten in der Untersuchung, welche Rolle Roboter in 50 Jahren auf der Welt spielen werden.

In dem nun vorgelegten Bericht kommen die Autoren unter anderem zu dem Ergebnis, dass Roboter in Zukunft mit hoher Wahrscheinlichkeit auch eigene Rechte genießen werden. Im Kapitel "Utopian dream or rise of the machines?" ist von der Ausweitung der Menschenrechte auf jene Roboter die Rede, bei denen aufgrund ihrer hohen technischen Entwicklung ein gewisses Bewusstsein vorhanden ist. Als monumentalen Einschnitt beschreiben die Autoren jenen Zeitpunkt, an dem die Entwicklung der Maschinen so hoch sein wird, dass diese sich selbst reproduzieren, verbessern und damit eine Art künstlicher Intelligenz (KI) besitzen.

Gleichsetzung mit Menschen?
Der Bericht geht sogar noch einen Schritt weiter: Die logische Folge einer solchen Ausweitung der Schutzansprüche ist, dass man von dem Roboter dann auch einen weiteren Beitrag zur Gesellschaft erwarten muss. Man kann demnach davon ausgehen, dass künftige Roboter Steuern zahlen, ein Wahlrecht erhalten und möglicherweise auch Dienst an der Waffe leisten müssen. "Wenn wir tatsächlich Roboter mit Bewusstsein schaffen und sie fordern Rechte, dann sollte man sie ihren auch geben", zitiert die Financial Times Henrik Christensen, Direktor des Zentrums für Roboter und Intelligente Maschinen am Georgia Institute of Technology. Dabei spielt Ethik und Moral eine Rolle. "Die Frage ist, ob es akzeptabel wäre, den Roboterhund zu treten, wenn man den normalen Hund nicht treten würde?"

Drei Gesetze
Fans von Isaac Asimov, einem der berühmtesten Science-Fiction-Autoren des 20. Jahrhunderts, wird diese Forderung nicht unbedingt überraschen. In seinen Werken beschrieb er bereits die "Drei Gesetze der Roboter". Das erste Gesetz besagt, dass ein Roboter niemals einen Menschen verletzen oder durch Untätigkeit gestatten darf, dass einem menschlichen Wesen Schaden zugefügt wird. Ein Roboter muss dem Menschen zweitens unbedingt gehorchen, außer die Befehlsausführung verstößt gegen die erste Regel. Gesetz drei besagt, dass der Roboter seine Existenz beschützen muss, solange dieser Schutz nicht mit den ersten beiden Regeln kollidiert.

K. I. umstritten
Ein Skeptiker im Hinblick auf KI ist der Wiener Computer-Pionier Heinz Zemanek: "Eine Maschine kann nicht intelligent sein, denn nur der freie Wille bringt die Intelligenz", meinte Zemanek vor einigen Wochen im Rahmen einer Diskussionsveranstaltung. "Alles, was eine Maschine macht, basiert auf getakteter Ja/Nein-Logik. Der Mensch muss anweisen, was zu tun ist." Asimovs zweites Gesetz wäre damit gesichert.

Nicht intelligenter als "Durchschnittsmensch"
"Die Frage nach KI beschäftigt die Menschen schon lange. KI ist Software, diese braucht Hardware und den Menschen, um sie zu programmieren", sagt der Roboter-Experte Peter Kopacek vom Institut für Handhabungsgeräte und Robotertechnik an der TU Wien http://www.ihrt.tuwien.ac.at. Kopacek ist der Auffassung, dass "selbst in 50 Jahren kein Roboter intelligenter sein wird als ein Mensch mit Durchschnitts-IQ". (pte/red)