Suche

Die Einführung der E-Person – absurdes Gedankenexperiment oder realistisches Szenario?

Künstliche Intelligenz ist in aller Munde. Längst hat sie auch Einzug in die akademische Rechtsdiskussion gefunden, welche insbesondere darum kreist, ob ein KI-System selbst haftbar gemacht werden sollte. Dies ließe sich, so der Vorschlag, durch die Schaffung einer neuen Rechtspersönlichkeit – der „elektronischen Person (E-Person)“ - erreichen. Selbst das EU-Parlament hat hierzu bereits ernsthafte Überlegungen angestellt. Was zunächst futuristisch klingt, fand bereits 1950 in den „Robotergesetzen“ des Science-Fiction-Autors Isaac Asimov Anklang, welcher die Roboter selbst als Träger von Rechten und Pflichten und damit als rechtsfähige Rechtssubjekte sah. Heutige Befürworter*innen dieser Lösung fürchten, dass andernfalls im Schadensfall Verantwortungslücken entstehen könnten. Doch stimmt dies überhaupt – oder reicht der gegenwärtige Rechtsrahmen aus, um derartige Haftungsfälle in den Griff zu bekommen?


von Nadine Pappenhagen


© Lea Donner



Ambivalenz der Prognosen in Bezug auf KI


Glaubt man etwa Elon Musk, welcher bereits 2016 prophezeite, der Mensch könnte - und dabei bezog er sich auf den Intelligenzquotienten - „für die KI irgendwann das sein, was Hauskatzen heute für den Menschen sind“, so lässt sich die Relevanz des Themas Künstliche Intelligenz kaum mehr leugnen. Selbst Stephen Hawking, zu Lebzeiten einer der profiliertesten Wissenschaftler der Welt, warnte 2017, KI könnte sich „als das schlimmste Ereignis in der Geschichte der Menschheit entpuppen“. Der Einsatz von KI birgt unzweifelhaft einige Risiken, welche sich vor allem aus der fehlenden Nachvollziehbarkeit ihrer Entscheidungsfindung, der mangelnden Vorhersehbarkeit ihres Verhaltens sowie der erschwerten Zuweisung von Verantwortlichkeiten aufgrund der Interaktion mit Menschen oder anderen Systemen ergeben.


Angesichts dieser alarmierenden Prognosen mag es überraschen, wie leidenschaftlich auf der anderen Seite die Vorzüge von KI für unseren zivilisatorischen Fortschritt hervorgehoben werden. Fakt ist: Früher wurden von Maschinen lediglich einfache, sehr begrenzte Aufgaben übernommen. Durch maschinelles Lernen hat deren Entwicklung jedoch rasant an Fahrt aufgenommen. Mittlerweile ist KI längst in unserem Alltag angekommen und in Bereichen präsent, in welchen sie vor einigen Jahren wohl noch niemand vermutet hätte: Es gibt bereits Pilotprojekte, welche KI und Roboter unterstützend in der Pflegebranche einsetzen wollen, die meisten von uns hatten beim Surfen im Internet wohl schon einmal Kontakt zu einem Chatbot und auch erste Testprogramme zu autonom fahrenden Autos sind bereits angelaufen.


Rechtliche Herausforderungen


Egal ob man der neuen Technologie offen oder zurückhaltend gegenübersteht – eine Herausforderung für unsere aktuelle Rechtsordnung scheint KI allemal zu sein.

Dies wird spätestens dann deutlich, wenn KI-Systeme Schäden verursachen. Wer haftet, wenn – wie im März 2018 mit einem Uber-Taxi geschehen – ein Fußgänger bei einem Unfall mit einem selbstfahrenden Auto ums Leben kommt? An diesem Punkt beginnt die zivilrechtliche Problematik autonomer Systeme. Prinzipiell sind in diesem Fall drei Möglichkeiten denkbar: entweder man hält den Hersteller des Systems für verantwortlich, weil er für die von ihm auf den Markt gebrachten Produkte haftet. Oder man zieht den Nutzer des Systems, also etwa den Betreiber oder den Bediener eines selbstfahrenden Autos, zur Verantwortung. In Betracht käme auch, den Fahrzeughalter, also in der Regel den Eigentümer des Autos, für den Schaden haften zu lassen. KI-Systeme ähneln jedoch in ihrer Autonomie und Unberechenbarkeit immer mehr menschlichen Hilfspersonen. Daher häufen sich die Stimmen, welche es unverhältnismäßig finden, den genannten Personenkreisen die volle Verantwortung für sämtliche Handlungen der KI aufzubürden. Auch der Geschädigte soll natürlich nicht unter dem Fehlverhalten der künstlichen Intelligenz leiden, was uns zum Vorschlag für eine Eigenhaftung des KI-Systems führt. Noch ist diese Möglichkeit durch das geltende Recht nicht vorgesehen, sie ließe sich jedoch zukünftig durch die Schaffung der E-Person realisieren.


Aber wie kann man sich dieses Konzept konkret vorstellen? Und welche Vorzüge bietet es?


Durch die Einführung der E-Person verfügt das autonome System über eine eigene Rechtspersönlichkeit, welche bisher nur natürlichen und juristischen Personen vorbehalten ist. Somit könnte es selbst Adressat rechtlicher Pflichten sein und sogar über eigenes Vermögen verfügen. Vergleichbar einem Handelsregister bei juristischen Personen soll zudem auch die E-Person der Übersichtlichkeit wegen in ein zu schaffendes Register eingetragen werden. In unserem Beispiel stünde das autonome Fahrzeug nach dem Unfall – sei es über eine Versicherung oder über ein Mindestkapital, mit dem es zuvor ausgestattet wurde – dann mit einer eigenen Haftungsmasse zur Verfügung, aus welcher beispielsweise Schmerzensgeld an die Hinterbliebenen bezahlt werden könnte.

Zudem ist es wohl übersichtlicher, eine eigene Rechtspersönlichkeit zu schaffen, als aus schon im Gesetz verankerten und eigentlich auf menschliche Hilfspersonen zugeschnittenen Regelungen einzelne auszuwählen und auf KI-Systeme anzuwenden. Zusammenfassend ermöglicht es die E-Person, die Handlungen eines autonomen Systems an einer Stelle zu bündeln und es somit zu steuern, weil es die Konsequenzen eines Verstoßes am Ende selber tragen muss.


Schattenseiten des Vorschlags


So innovativ und praktikabel dieser Vorstoß auf den ersten Blick scheint, er sieht sich fast durchweg negativer Kritik ausgesetzt.

Durch die pauschale und unreflektierte Übertragung ganzer Regelungskomplexe droht die Gefahr einer Missachtung der Besonderheiten autonomer Systeme. So ist die Zuerkennung von Rechtsfähigkeit keineswegs so vermeintlich unkompliziert, sondern an einige ungeschriebene Prämissen gebunden. Das Rechtssubjekt muss etwa eine abgrenzbare, identifizierbare Einheit sein, was in einigen Fällen – beispielsweise bei einer „Cloud“ – keineswegs eindeutig der Fall ist. Auch die Anforderungen an den Grad der Autonomie des Systems, welche Bedingung für die Rechtsfähigkeit sein sollen, müssen bestimmt werden: eine Rechtsfähigkeit für Taschenrechner kann wohl kaum gewünscht sein. Zudem ist die durch Rechtsfähigkeit bezweckte Verhaltenssteuerung nur dann realisierbar, wenn das Rechtssubjekt Sanktionen vermeiden, also wirtschaftlich überleben will. Was bei natürlichen Personen unproblematisch der Fall ist, folgt bei juristischen Personen typischerweise aus dem unternehmerischen Zweck der Eigner, welcher meist in der Gewinnerzielung besteht. Im Gegensatz dazu hat ein KI-System kein wirkliches eigenes Interesse an seinem eigenen Überleben, was als „Kamikaze-Problem“ bezeichnet wird. Es zeichnet sich durch seine Unberechenbarkeit für die übrigen Marktteilnehmer*innen aus und wäre für die Rechtsordnung letztlich nicht steuerbar. Die Einführung der E-Person wirft zudem – wie bereits die Erforderlichkeit einer Haftungsmasse sowie eines Registers offenbart – zahlreiche Folgefragen auf. Diese verursachen einen hohen administrativen und legislativen Aufwand, welcher zudem erhebliche Kosten mit sich bringt. Würde man hingegen mit bereits bestehenden gesetzlichen Regelungen arbeiten, entstünden diese Nachteile nicht.

Bei der Ausstattung eines KI-Systems mit einem begrenzten Mindestkapital, welches in einer Haftungssituation alleine zur Verfügung steht und somit eine persönliche Haftung der dahinterstehenden Personen verhindert, besteht Potenzial für einen Missbrauch dieses Mechanismus. Vereinfacht gesagt könnten autonome Systeme von ihren Nutzer*innen als Haftungsschild missbraucht werden, was die Kosten ihres Einsatzes senken und damit die Nachfrage nach ihnen in unerwünschtem Maße aufblähen würde. Sollte die Einführung der E-Person zudem vorrangig auf die Bereitstellung einer Haftpflichtversicherung zielen, könnte diese auch unmittelbar beim Betreiber des Systems verankert werden, was eine Rechtspersönlichkeit des KI-Systems im Ergebnis überflüssig macht. Im Endeffekt lassen sich der Einsatz des Systems und seine Konfiguration ebenso wie seine Eigenschaft als selbstlernendes System eben immer auf den Willen seines Betreibers zurückführen. So haben nicht wenige der von KI-Systemen hervorgerufenen Schäden ihre Ursache in der Bereitstellung von falschen oder schlechten Daten oder Hardwarefehlern. Der Betreiber setzt durch den Einsatz von KI ein Risiko, profitiert jedoch zugleich von den damit verbundenen Chancen und muss sich somit die Handlungen und Erklärungen des Systems folgerichtig auch zurechnen lassen. Dies deckt sich mit der Auffassung der vom Bundestag zum Thema KI eingesetzten Enquete-Kommission, welcher KI-Technologien als ein Werkzeug in der Verantwortung des Menschen betrachtet und empfiehlt, von dem Konzept der E-Person Abstand zu nehmen.


Alternativen zur E-Person


Beachtet man, dass trotz allem sowohl die technische Entwicklung wie auch die kommerzielle Verbreitung von KI-Systemen noch relativ am Anfang stehen und bis jetzt noch kaum Schadensfälle größeren Umfangs bekannt sind, mag einem die gesamte Diskussion um die E-Person überhitzt erscheinen. Die meisten Expert*innen sind sich einig, dass der bisherige Rechtsrahmen die überwiegende Zahl der Haftungsfälle wird bewältigen können bzw. flexibel genug ist, um die neuen technischen Entwicklungen angemessen zu verarbeiten. Hält man eine Anpassung des Haftungsrechts trotzdem für notwendig, könnte punktuell an einigen Stellschrauben gedreht werden: So ließe sich beispielsweise die Beweisführung im Rahmen der Herstellerhaftung mithilfe sog. „Logfiles“, also Dateien, welche Vorgänge in einem System protokollieren und damit nachvollziehbar machen, zugunsten des Herstellers eines KI-Systems vereinfachen. Es würde dem Hersteller eines autonomen Autos also beispielsweise leichter fallen, zu beweisen, dass er dieses nach bestem Wissen und Gewissen konstruiert hat. Denkbar wäre zudem, eine Gefährdungshaftung des Betreibers eines autonomen Systems nur auf bestimmte Bereiche zu erstrecken. Gefährdungshaftung meint hier eine Schadensersatzpflicht, welche kein Verschulden voraussetzt, sondern darauf beruht, dass der Schadensersatzpflichtige bei einer erlaubten Tätigkeit unvermeidlich eine gewisse Gefährdung seiner Umgebung herbeiführt. Dies ist deshalb sinnvoll, weil nicht erkennbar ist, warum beim Einsatz von KI ausnahmslos immer eine besondere Gefahr entsteht: Überfährt der intelligente Rasenmähroboter das Kleintier des Nachbarn, weil er es fälschlicherweise für einen Laubhaufen hält, ist nicht nachvollziehbar, warum der Verbraucher hierfür strikt haften soll. Denn beim Kauf des Geräts hat er sich verständlicherweise darauf verlassen, dass dieses seine Arbeit ordnungsgemäß verrichten wird.


Nach der derzeitigen Rechtslage würde in unserem Beispiel mit dem Uber-Taxi wohl der Fahrzeughalter haften – es sei denn, es bestünden Produktionsfehler: Dann müsste der Autohersteller in die Pflicht genommen werden. Unabhängig von einer Zuerkennung von Rechtsfähigkeit an KI-Systeme sollten Hersteller*innen und Betreiber*innen jedoch keinesfalls aus ihrer Verantwortung für das „Verhalten“ ihrer Systeme entlassen werden. Denn dadurch ginge für sie ein wichtiger Anreiz verloren, sich bei der Schaffung und im Betrieb der KI-Systeme um deren Sicherheit zu kümmern – und die eingangs genannten Befürchtungen würden womöglich wahr werden.