Beobachter: Schuld führt zu Strafe – das ist das Konzept unserer Rechtsprechung. Was aber, wenn ein Roboter einen Fehler macht? Wie bestraft man ihn?
Sabine Gless:
Ein Kollege sagte einmal, der Roboter müsste dann ins Gefängnis, mit einer halbierten Stromration. Aber das würde nur Sinn ergeben, wenn Roboter leiden und Schmerzen empfinden könnten – und wenn sie sich daran erinnern könnten, in der Vergangenheit etwas falsch gemacht zu haben.

Partnerinhalte
 
 
 
 

Ist es sinnvoll, Roboter zu bestrafen?
Heute würde man sagen: nein. Das Recht geht davon aus, dass nur Menschen erkennen, was sie tun, und dann ihr Verhalten danach steuern können. Roboter, wie wir sie kennen, haben keine Gewissensbisse, wenn sie etwas falsch machen. Es fehlt ihnen ein moralisches Bezugssystem. Bis jetzt sind sie nur ein Haufen aus Platinen, Platten und Schrauben, die vorprogrammiert agieren. Aber die rasante digitale Entwicklung wird uns immer wieder zur Frage bringen, ob künftige Roboter vielleicht doch in ein strafrechtliches Haftungssystem einbezogen werden sollten. Die entscheidende Frage ist dann: Wozu dient Strafrecht eigentlich?

Ja, wozu?
Wir bestrafen Menschen, damit der Einzelne die Strafe am eigenen Leib spürt und sich bessert. Zudem sollen alle anderen sehen, dass man für eine Straftat Straftaten Wir alle sind Verbrecher büssen muss, und sich denken: So etwas mache ich nicht.

Man könnte sie auch aus Rache strafen, zur persönlichen Befriedigung.
Das könnte Sinn ergeben – genauso der Wunsch, dass etwas, das Schaden angerichtet hat, aus dem Verkehr gezogen wird. Man könnte zum Beispiel ein selbstfahrendes Auto Selbstfahrende Autos Mit Hightech in den Verkehrskollaps , das ein Kind überrollt hat, öffentlich zerstören, indem ein Panzer mehrere Male drüberfährt. Man könnte auch darüber nachdenken, dass andere Roboter dabei zuschauen sollen, damit sie daraus lernen und nicht den gleichen Fehler machen. Aber das hat nicht so viel mit strafrechtlicher Haftung zu tun, wie wir sie kennen.

Wenn voll automatisierte Roboter eigenständige Entscheide treffen, die uns schädigen können: Müssen dann die Juristen nicht über die Bücher?
Unsere Gesetze sehen nicht ausdrücklich Regelungen für Roboter vor, die selbständige Entscheidungen treffen. Aber die Rechtswissenschaft kann an abstrakte Regelungen anknüpfen, etwa an Haftungsregelungen.

Könnte ein autonomer Pflegeroboter, der einen Patienten umbringt, dafür haften?
Das nicht, denn Roboter haben keine Rechtspersönlichkeit. Man kann sich heute eher die Frage stellen: Können und sollen Menschen dafür haften, wenn autonome Computerprogramme Schaden anrichten?

Warum sollen Menschen für Roboter haften?
Weil sie Nutzen aus Robotern ziehen. Weil sie sie herstellen, verkaufen, gebrauchen, vermieten. Aber da kommen grosse Fragen auf. Was machen Sie, wenn Hersteller und Programmierer nachweisen können, dass sie fehlerfrei gearbeitet haben und die Roboter auf dem neuesten Stand der Technik sind? Sollen sie dann trotzdem für die Roboter haften? Oder wäre das unfair und würde Innovation Innovation Design, das Menschenleben rettet bremsen?

«Wenn im alten Rom eine Brücke einstürzte, weil der Sklave sie falsch baute, haftete der Halter.»

Sabine Gless, Professorin für Strafrecht und Strafprozessrecht an der Uni Basel

Könnte es sein, dass niemand schuld ist?
Sicher. Es muss nicht bei jedem tödlichen Unfall eine Haftung geben, weil nicht immer ein vorwerfbarer Fehler dahintersteckt.

Eine Welt, in der künstliche Intelligenz eigenständig wichtige Entscheidungen trifft, ist mir unheimlich.
Das verstehe ich, das ist auch richtig so. Deshalb ist es wichtig, dass sich jetzt viele in diese Diskussion einschalten. Maschinelles Lernen und künstliche Intelligenz Algorithmen «Was Kinder heute lernen, wird bald bedeutungslos sein» sind nur von Vorteil, wenn sie selbständig Neues lernen. Wenn sie also Entscheidungen treffen, auf die wir als Menschen gar nicht gekommen wären. Die Frage ist dann, inwieweit Menschen, die mit ihnen arbeiten, sie kontrollieren müssen.

Zur Beantwortung dieser Fragen haben Sie das römische Recht studiert.
Wir haben mit Experten des römischen Rechts untersucht, ob man die Haftungsfragen für künstliche Intelligenz durch Anknüpfung an Haftungsregeln für Sklaven beantworten kann. Beide können klüger sein als ihre Besitzer, beide sind Teil einer Wertschöpfungskette. Unter den Sklaven gab es Architekten, Leute mit grossen Fähigkeiten, die vermietet wurden und für ihre Besitzer Geld erwirtschafteten. Weder Sklaven noch Roboter sind Rechtspersonen, sie können also nicht haften. Wenn im alten Rom eine Brücke einstürzte, weil der Sklave sie falsch baute, haftete der Halter.

Sind Computer rechtlich das Gleiche wie Sklaven?
Das römische Recht war für eine Gesellschaft gemacht, die sich am Hausstand orientierte, für den der Hausherr nach aussen verantwortlich war. Eine Unterscheidung zwischen Zivil- und Strafrecht, wie wir sie kennen, existierte nicht. Stattdessen gab es ein weit gefasstes Deliktrecht. Der Hausherr musste gegen aussen haften und zahlen. Was er gegen innen tat – ob er den Sklaven bestrafte –, war weitgehend seine Sache. Das funktioniert heute nicht mehr.

Lassen sich alle Rechtsfragen um Roboter und künstliche Intelligenz in nützlicher Frist beantworten?
Ich denke schon. Die Frage ist: Wer ist schneller, die Technik oder das Recht? Wenn sich die Technik schneller entwickelt und schon Standards setzt, die unverrückbar scheinen, dann hat das Recht grosse Schwierigkeiten, nachträglich Regeln durchzusetzen.

zur Person

Sabine Gless

Sabine Gless ist Professorin für Strafrecht und Strafprozessrecht an der Universität Basel. Sie befasst sich unter anderem mit den Auswirkungen der Digitalisierung auf unser Rechtssystem – etwa beim hoch automatisierten Fahren oder bei der Einführung von digitalem Geld wie Bitcoin.

Quelle: Eleni Kougionis
Rechtsratgeber
Mehr zu Haftpflicht

Bei einem Sachschaden kommt schnell die Frage auf: Wer haftet und wer zahlt? Sind zusätzlich Personen involviert, kann es noch teurer werden. Beobachter-Mitglieder erfahren, welche Privatversicherungen unabdingbar sind und wofür sie in welchem Fall aufkommen.

Woche für Woche direkt in Ihre Mailbox
«Woche für Woche direkt in Ihre Mailbox»
Elio Bucher, Online-Produzent
Der Beobachter Newsletter