12. Juni 2015

Brauchen Roboter bald Anwälte?

Die Notwendigkeit einer Gesetzgebung für Roboter ist nicht erst mit dem Aufkommen autonomer Fahrzeuge, von Drohnen und intelligenten Systemen in den Fokus gerückt. Im Laufe der Entwicklung der ersten Rechenautomaten trat die Vorstellung von eigenständig denkenden Maschinen in den thematischen Vordergrund der Science-Fiction, was wiederum dazu führte, dass sich auch die Erkenntnis eines nötigen Handlungsrahmens für diese Maschinen manifestierte.

Was mit Asimov begann…

Die wohl bekanntesten formulierten Robotergesetze dieser Art stammen aus der Feder des Science-Fiction-Autors Isaac Asimov, die er erstmals 1942 in seiner Kurzgeschichte „Runaround“ beschrieben hat:

1. A robot may not injure a human being or, through inaction, allow a human being to come to harm. [Ein Roboter darf einen Menschen nicht verletzten oder, durch Untätigkeit, erlauben, dass ein Mensch zu Schaden kommt.]

2. A robot must obey the orders given it by human beings, except where such orders would conflict with the First Law. [Ein Roboter muss die Regeln, die ihm von Menschen auferlegt werden, befolgen, es sei denn sie stehen in Konflikt zum ersten Gesetz.]

3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws. [Ein Roboter muss seine eigene Existenz schützen solange dieser Schutz nicht mit dem ersten oder zweiten Gesetz in Konflikt steht.]

Diese „Drei Gesetze der Robotik“ erscheinen auf den ersten Blick sehr simpel, beinhalten jedoch eine der essentiellen Ängste, die der technologischen „Evolution“ auch heute noch und vor dem Hintergrund realer Entwicklungen anstelle purer Science-Fiction stärker zugrunde liegt: die Angst vor der maschinellen Überlegenheit und der daraus resultierenden Gefahr für den Menschen. Das von Asimov später hinzugefügte nullte bzw. vierte Gesetz unterstreicht diese Befürchtung.

4. A robot may not harm humanity, or, by inaction, allow humanity to come to harm. [Ein Roboter darf der Menschheit nicht schaden oder, durch Untätigkeit, erlauben, dass die Menschheit zu Schaden kommt.]

Porträt von Isaac Asimov

Isaac Asimov ist einer der einflussreichsten Science-Fiction-Autoren aller Zeiten. Quelle: Wikipedia, Gemeinfrei

Auch wenn führende Experten und wissenschaftliche Größen eine solche Besorgnis im Angesicht der Zukunft teilen, werden leidenschaftliche Befürworter des gegenwärtigen technologischen Fortschritts an dieser Stelle scharfen Einspruch erheben. Die Bereicherung und Erhöhung des Lebensstandards, verbesserte Sicherheit im Transportwesen sowie die Kompensation zunehmend geringerer Arbeitskräfte aufgrund des demografischen Wandels sind nur einige Argumente, die für eine voranschreitende Technologieentwicklung sprechen. Die „Extremisten“ unter den Technologiefans gehen sogar soweit, Zeuge der sogenannten technologischen Singularität (der Zeitpunkt, ab dem sich Maschinen mit künstlicher Intelligenz selbst verbessern bzw. andere Maschinen bauen können, die noch fortgeschrittenere Fähigkeiten besitzen) sein zu wollen, auch wenn die anschließende Intelligenzexplosion das Ende der Menschheit bedeuten sollte.

Studien, wie „Do we need Asimov’s Laws?“ von Ulrike Barthelmess und Ulrich Furbach führen die menschliche Angst vor Maschinen außerdem auf eine tiefere, kulturelle Verwurzelung zurück. Die religiöse Furcht vor dem Verbot, Gott zu spielen, und der geschaffenen Kreatur, die sich als Strafe dafür gegen ihren Meister wendet, spielt hier eine zentrale Rolle. Als Teil unserer Kultur werden Geschichten zu dieser expliziten Thematik bereits seit Tausenden von Jahren erzählt und sind damit im Kontext von Robotern nichts Neues.

Warum also sind Gesetze nötig? Abgesehen von den „Bedrohungen“, die von Robotik und Künstlicher Intelligenz möglicherweise ausgehen könnten, ist es wichtig, die Rechtsprechung in verschiedenen Bereichen an die gegenwärtigen Fortschritte und Entwicklungen anzupassen, da sich die gesellschaftliche Verbreitung robotischer Technologien in den kommenden Jahren weiter erhöhen wird. Bedingt dadurch bilden sich neue rechtliche Problematiken in Bezug auf den Einsatz von Robotern heraus. Entsteht beispielsweise ein Schaden, der auf robotische Systeme zurückzuführen ist, können sich Haftungsfragen zivilrechtlicher oder strafrechtlicher Natur ergeben. Weitere Problemstellungen treten unter Umständen in den Bereichen Datenschutz, Immaterialgüterrecht sowie, im Falle von militärisch eingesetzten Drohnen, der Vereinbarkeit einer automatisierten Kriegsführung mit Völker- und Menschenrechten auf.

Drohne mit Paragraphzeichen

…und über Agententechnologie zu RoboLaw führte

Im europäischen Raum zogen Rechtsgelehrte erstmals in den 1980er Jahren gesetzliche Rahmenbedingungen für Roboter in Erwägung, wenngleich hauptsächlich im Kontext damaliger Agententechnologie. Ihre Untersuchungen beleuchteten bis dahin zumindest grundlegend die Frage, ob intelligente Maschinen, zum Beispiel in Bezug auf Verantwortlichkeit und Rechtsstatus, eine Anpassung oder Ausweitung bestehender Rechtsrahmen erforderten. Dabei wurden wichtige rechtliche Themen angesprochen, die von einer (zukünftigen) Gesetzgebung für Robotik abgedeckt werden sollten, jedoch keine konkreten Regularien oder Maßnahmen umfassten bzw. sich nicht auf die tatsächliche Rechtssysteme anwenden ließen.

Ein späteres Resultat dieser anfänglichen Überlegungen ist das EU-finanzierte Projekt „RoboLaw“, das vom 01. März 2012 bis 31. Mai 2014 durchgeführt wurde und zur genaueren Analyse diente, welche Gesetze und Richtlinien für die Robotik und ähnliche Systeme benötigt werden.

RoboLaw-Steckbrief:

Projektdauer: 01. März 2012 bis 31. Mai 2014
Gesamtkosten: 1 908 342,02 €
Beitrag der EU: 1 497 966 €

Koordination: Prof. Erica Palmerini (Scuola Superiore Sant’Anna, Pisa, Italien)
Teilnehmerländer: Italien, Niederlande, Vereinigtes Königreich, Deutschland
Teilnehmerinstitutionen:
• Italien: Scuola Superiore Sant’Anna
• Niederlande: Universiteit van Tilburg (Stichting katholieke Universiteit Brabant)
• Vereinigtes Königreich: University of Reading
• Deutschland: Humboldt Universität zu Berlin, Ludwig-Maximilians-Universität München

Die Hauptziele der Untersuchungen umfassten die folgenden fünf Punkte und dienten der Erstellung einer umfassenden Studie über die verschiedenen Facetten von Robotik und Recht sowie der Grundlagenschaffung für ein europäisches RoboLaw-Rahmenwerk:

1. Integration von Technologie in die Gesellschaft: Formen der politischen Steuerung (Merkmale aufkommender Regulationswerkzeuge, einschließlich „soft law“-Instrumente, wie ethische Richtlinien, technische Standards und Verhaltensnormen)

2. Robolaw-Fahrplan (Aktueller Stand existierender Regulationen, die Robotik in einer komparativen Perspektive betreffen)

3. Ausarbeitung einer Taxonomie der Robotik (Klärung der Unterschiede bezogen auf Sprache zwischen den verschiedenen Technologietypen, die in Betracht gezogen werden)

4. Philosophische, anthropologische, soziologische Konsequenzen, die sich aus der Nutzung aufkommender Robotertechnologien für die menschliche Verbesserung ergeben (Untersuchung der Beziehung zwischen zukünftigen Technologien, menschlichen Wertvorstellungen und der Gesellschaft)

5. Politikvorschläge, die Richtlinien definieren und Vorschläge zur Regulation der Robotik (Ausarbeitung des Berichtes „Guidelines on Regulating Robotics“ für die Europäische Kommission)

Anders als die skizzenhaften, früheren Untersuchungen stellte RoboLaw das erste Projekt dar, das sich im Zeitalter der Verwirklichung fortgeschrittener Robotik tiefgehend mit den Anforderungen und dem Regelwerk einer entsprechenden Gesetzgebung auseinandersetzte. Noch dazu galt die Studie als erste, die sich eingehend der legalen und ethischen Konsequenzen der Entwicklungen in der Robotik innerhalb spezifischer EU-Rechtssysteme zuwandte und diese mit den USA, Fernost und Japan verglich.

Der Projektbericht „Guidelines on Regulating Robotics“ beantwortet die Frage, ob Roboter tatsächlich gesonderte Gesetzesgrundlagen verdienen, im Allgemeinen mit verschiedenen Argumenten.

• Roboter werden als außergewöhnlich eingestuft, weshalb die bestehenden Regularien aus rein technologischen Gesichtspunkten (Autonomie und Lernfähigkeit des Roboters) in Frage gestellt werden.

• Die daraus gezogene Schlussfolgerung, dass Normen für die Verantwortlichkeit nötig sind, ist angemessen, bedarf jedoch weiterer Diskussionen in Bezug auf die Grundlagen solcher Regularien.

• Die Beurteilung einer Notwendigkeit sofortiger Regulation kann auf verschiedenen Aspekten beruhen: 1. Wird angenommen, dass vor allem autonome Roboter in manchen Fällen eher einem Subjekt gleichkommen als einem Objekt, sollte ihnen eine Art juristische Persönlichkeit beigemessen werden einschließlich aller Konsequenzen, die sich aus den dazugehörigen Rechten und Verpflichtungen ergeben. 2. Abwägungen der Funktionen sowie der Nützlichkeit, die Roboter für die Gesellschaft mit sich bringen, können eine wichtige Grundlage darstellen.

• Die Gesamtanalyse muss eine funktionale Perspektive beinhalten und in Bezug auf alternative Systeme oder rechtliche Lösungen auf politischen Überlegungen fußen. Sobald die gewünschten sozialen Resultate identifiziert und relevant sind, wird der Nutzen schließlich auch konstitutionell bemessen und abgewogen.

• Gleichzeitig beinhaltet dies, dass Roboter nicht außergewöhnlich sind, sondern einen Sonderfall darstellen und in einigen Fällen neuartige Lösungen verlangen, die für ihre bessere Entwicklung und Verbreitung in der Gesellschaft ausgearbeitet werden müssen. Unter diesem Aspekt unterscheidet sich die Robotik nicht wesentlich von anderen Feldern des Rechts, die heute Bestand haben (z.B. Umweltrecht und Produkthaftpflichtrecht). Dies impliziert weiter, dass zu diesem Zweck ausgearbeitete Normen dazu beitragen können, allgemeine Vorstellungen und Annahmen zu modifizieren, ebenso wie die Interpretation genereller Standards und Prinzipien des Rechts. Aus dieser Perspektive wäre selbst das Zugeständnis einer juristischen Persönlichkeit für Roboter auf dem rein instrumentellen Argument der Einschränkung der Verantwortlichkeit oder der Zuordnung von Rechten und Pflichten begründet – so wie im Falle eines Unternehmens.

Dennoch wird auch festgehalten, dass das Feld der Robotik zu umfassend und die Reihe an legislativen Gebieten, die von Robotik beeinflusst werden, zu groß ist, als dass gesagt werden könne, dass die Robotik im Großen und Ganzen innerhalb existierender rechtlicher Rahmenwerke untergebracht werden kann bzw. ein eigenes Robotergesetz erfordert. Es mag für manche Arten robotischer Anwendungen (z.B. Prothesen oder autonome Fahrzeuge) und regulatorische Bereiche sinnvoll sein, die Schaffung neuer, feinkörniger Regeln in Erwägung zu ziehen, die speziell auf die Problemstellungen der Robotik zugeschnitten sind. Andere Robotiktypen sowie zahlreichen regulatorische Bereiche lassen sich dagegen höchstwahrscheinlich sehr gut mittels einer durchdachten Anpassung existierender Gesetze steuern.

Roboterrecht oder nicht Roboterrecht?

Einen Schritt in Richtung der Untersuchung einer geeigneten Rechtsprechung hat in Deutschland die seit 2010 an der Universität von Würzburg etablierte Forschungsstelle RobotRecht ermöglicht. Sie befasst sich unter anderem mit den Forschungsgebieten „Haftungsfragen im Kontext der Robotik und Automatisierung“, „Strafrechtliche Produzentenhaftung“, „Datenschutz“ und „Rechtliche Bedingungen der Fahrzeugautomatisierung“, die grundlegende Problematiken der Integration von autonomen und teilautonomen Maschinen in den menschlichen Alltag angehen.

Ein tatsächliches „Roboterrecht“ gibt es bisher jedoch weder national, noch international, da Roboter in Bezug auf ihre Herstellung und ihren Einsatz weiterhin nach herkömmlichem Recht beurteilt werden. Inspirierte Gesetzesbestrebungen für den gegenwärtigen und zukünftigen Umgang mit Robotern existieren dagegen durchaus. Im asiatischen Raum lassen sich beispielsweise die japanische „Neue Industrierevolution angetrieben durch Roboter“ sowie die südkoreanische Roboter-Charta bzw. das „Gesetz für die Beschleunigung der Entwicklung und Verbreitung intelligenter Roboter“ anführen. Sowohl in Japan als auch in Südkorea besteht das Ziel, innerhalb des recht kurzen Zeitraumes bis zum Jahr 2020 die Rolle einer international führenden Roboter-Nation einzunehmen.

Ein grundsätzliches Problem der zukünftigen Anwendung von Gesetzen auf Roboter ist die rechtliche Annahme einer Gegensätzlichkeit von Person und Objekt. Die Robotik, insbesondere Künstliche Intelligenz, stellt einen Bereich dar, in dem beides miteinander verschmilzt. Ryan Carlo, Professor für Rechtswissenschaften an der Universität von Washington, unterstreicht dabei besonders die Unvereinbarkeit zentraler Konzepte des Rechts mit der neuen Technologie. Mens rea (Latein für „schuldiger Geist“), d.h. die Notwendigkeit eines Vorsatzes zur Einstufung einer Tat als Verbrechen, spielt Carlo zufolge eine wichtige Rolle im Strafrecht. Künstliche Intelligenz könnte ein solches Konzept aushebeln.

Im Strafrecht würde ein Blick auf den Geisteszustand des Angeklagten geworfen: hatte er die Absicht, wusste er oder hatte er mindestens Anlass, zu wissen, dass sein Roboter das Opfer verletzen oder das Recht brechen würde? Beim Deliktrecht läge der Blick auf der Vorhersehbarkeit: hätte sich der Angeklagte des Risikos eines Schadens und dessen Ausmaßes bewusst sein sollen oder die Handlung des Roboters als Teil seiner Aufgabe „gänzlich vorausgesehen“ haben sollen? Diese Kategorie an Hypothesen zeigt im Grunde die Perspektive eines Opfers, das einen nicht-natürlichen Schaden erlitten hat, ohne aber einen Täter, dem das Gesetz diesen Schaden anlasten kann.“ (Ryan Carlo (2014): “Robotics and the Lessons of Cyberlaw”)

Da Roboter, die neues, nicht vorhersehbares oder gelerntes Verhalten demonstrieren, der Wahrscheinlichkeit von Verbrechen, die niemand zuvor beabsichtigt hatte, einen Raum schaffen. Zur Veranschaulichung bezieht sich Carlo auf den Fall des Programmierers Darius Kazemi, der einen Bot für wahllose Einkäufe bei Amazon kreierte. Was wäre, wenn dieser Bot nun alkoholische Süßigkeiten kaufen würde, die in Kazemis Heimatstaat als illegal gelten? Ebenso ungewiss und signifikant sind zum Beispiel die haftungsrechtliche Handhabe von autonomen Fahrzeugen, der Schutz der Privatsphäre bei Nutzung sozialer Roboter (dürfen diese im Falle einer polizeilichen Untersuchung zum Ausspionieren Verdächtiger benutzt werden?) oder die Frage, ob diejenigen Roboter oder Roboteringenieure, die Roboter herstellen, als Ziel der Rechtsprechung und Regulationen auch für deren Handlungen verantwortlich gemacht werden sollten? Es scheint ziemlich sicher, dass Fragen dieser Art in Zukunft vermehrt aufgeworfen werden.

Fazit

Eines ist gewiss, Roboter werden in Zukunft ein zunehmend essentieller Bestandteil des normalen Alltags – egal, ob in Form von mit der Waschmaschine kommunizierenden Kühlschränken, autonomen Fahrzeugen oder Drohnen, die uns Pakete liefern. Sicher ist deshalb auch, dass es Regularien geben muss, die sich mit juristischen Belangen der Robotik und der daraus resultierenden Verantwortlichkeiten auseinandersetzen. Ob wir bereits soweit sind, ist eine andere Frage, allerdings wird es immer wichtiger, Grundlagen für die zukünftigen Fragen und Probleme zu schaffen, auf denen in konkreten Vorfällen aufgebaut werden kann. Die Entwicklung einer geeigneten bzw. angepassten Rechtsprechung ist ein Prozess, doch die Beginne sind gemacht und heben dank Projekten wie RoboLaw und der Forschungsstelle RobotRecht die Notwendigkeit einer ernsthaften Betrachtung der Thematik hervor.

Quellen

Weiterführende Literatur

RoboLaw: