Munich Re logo
Not if, but how

Entdecken Sie die Munich Re Gruppe

Lernen Sie unsere Konzernunternehmen, Niederlassungen und Tochtergesellschaften weltweit kennen.

Wer haftet, wenn Roboter Schäden verursachen?
Das Thema künstliche Intelligenz (KI) fasziniert viele Menschen. Entsprechend intensiv ist die Berichterstattung der Medien und die Diskussion in der Öffentlichkeit.
Robot Head
© Andriy Onufriyenko
    alt txt

    properties.trackTitle

    properties.trackSubtitle

    Auch wenn sich die Entwicklung noch im Anfangsstadium befindet und es im Alltag erst wenige Anwendungsfälle gibt, wirft die Möglichkeit zum Einsatz von KI jedoch schon jetzt eine Reihe von Fragen auf: Wer haftet, wenn es durch KI zu Schäden Dritter kommt? Führt der Einsatz von KI zu Änderungen des Haftungsrechts? Und nicht zuletzt: Welche Auswirkungen ergeben sich hieraus für den Versicherungsbedarf der Beteiligten?

    Rechtslage heute

    Zunächst einmal muss man sich darüber klar sein, dass das Entstehen einer neuen Technologie keineswegs notwendigerweise Änderungen im Haftungsrecht erforderlich macht. Das Haftungsrecht ist eines der ältesten Rechtsgebiete überhaupt. Dank seiner Flexibilität hat es über Jahrhunderte hinweg zahllose Veränderungen der technischen und sonstigen Rahmenbedingungen im Kern unverändert überstanden. Es gibt durch das Entstehen einer neuen Technologie keinen „rechtsfreien Raum“, der zwingend durch neue Gesetze geschlossen werden müsste.

    Auch die Haftung für autonome Entscheidungen Dritter ist nichts Neues für das Haftungsrecht. Schon das römische Recht der Antike regelte die Haftung für Sklaven. Das deutsche Bürgerliche Gesetzbuch (BGB) enthält Bestimmungen zur Haftung für Gehilfen, Kinder und Tiere. Auch nach heutigem Recht hat ein durch KI Geschädigter daher vielfältige Möglichkeiten, Schadensersatzansprüche gegen den Hersteller, Eigentümer, Halter, Nutzer, Netzanbieter, Software-Provider oder andere an einer KI-Anwendung Beteiligte geltend zu machen. Diese können sich aus dem Deliktsrecht des BGB ergeben oder aus Spezialgesetzen wie dem Straßenverkehrsgesetz (StVG), dem Produkthaftungsgesetz oder auch dem Allgemeinen Gleichbehandlungsgesetz (AGG), wenn die KI-Anwendung aus den von ihr genutzten Daten diskriminierende Bewertungen ableitet. Daneben kann eine Haftung natürlich immer auch die Folge der vertraglichen Beziehungen des Geschädigten zu einem der Beteiligten sein.

    Bestes Beispiel für den bereits heute umfassenden Schutz Geschädigter ist die Haftung für autonome Fahrzeuge: Nach dem StVG haftet der Halter eines Kfz, wenn es bei dessen Betrieb zu einer Tötung, Körperverletzung oder Sachbeschädigung kommt. Dafür ist es unerheblich, ob das Fahrzeug im automatisierten Modus fuhr oder von einem Menschen gesteuert wurde. Aber auch da, wo es an einer so umfassenden Gefährdungshaftung für KI-Anwendungen fehlt, wird bei Schäden oft weniger die künstliche als die natürliche Intelligenz beziehungsweise deren Fehlen das Problem gewesen sein, mit allen haftungsrechtlichen Konsequenzen.

    Ausgleich zwischen Innovation und Verbraucherschutz

    Fraglich ist allerdings, ob die nach der heutigen Gesetzeslage erzielten Ergebnisse dem entsprechen, was unter politischen, wirtschaftlichen und sozialen Aspekten wünschenswert ist. Im Vordergrund steht dabei die Herausforderung, einen angemessenen Ausgleich zwischen Innovationsfreundlichkeit und Verbraucherschutz zu finden: Eine zu umfassende Haftung behindert die Entwicklung und Ausbreitung neuer Technologien und damit die Wettbewerbsfähigkeit Europas. Zu große Hürden bei der Durchsetzung von Entschädigungsansprüchen, vor allem nach Personenschäden, gefährden dagegen berechtigte Interessen der Verbraucher. KI-spezifischer Handlungsbedarf für den Gesetzgeber könnte sich danach vor allem aus den Beweisschwierigkeiten ergeben, denen ein durch KI-Anwendungen Geschädigter ausgesetzt ist: Warum ist ein Algorithmus zu den erzielten Ergebnissen gekommen? Worin genau bestand der Fehler? Wer hätte ihn vermeiden oder das schädigende Ereignis vorhersehen können? Oft ähneln KI-Anwendungen heute noch einer Blackbox, bei der man lediglich den zugrundeliegenden Algorithmus und das Ergebnis kennt, nicht aber die Abläufe dazwischen. Wer immer die Beweislast hat, in der Regel also der Kläger, hat im Streitfall daher kaum Aussicht auf Erfolg.

    Suche nach EU-weiter Lösung

    Da Einigkeit besteht, dass für derartige Fragen eine (wenigstens) europaweite Lösung einer nationalen Herangehensweise gegenüber vorzugswürdig ist, findet die Diskussion hierzu vor allem auf EU-Ebene statt. Einige auch KI-relevante Reformen wurden bereits umgesetzt – so etwa die Datenschutz-Grundverordnung von 2016, die den Schutz personenbezogener Daten regelt, oder die Ergänzungen des Urheberrechts von 2019, die auch Regelungen zur Datennutzung für das Trainieren von Algorithmen enthalten. Die Sichtung des eigentlichen Haftungsrechts läuft hingegen noch. Erste Lösungsansätze finden sich zum Beispiel in der Entschließung des EU-Parlaments zu „zivilrechtlichen Regelungen im Bereich Robotik“ von 2017 und in den Ethik-Richtlinien „für eine vertrauenswürdige KI“ von 2019. Darin wird unter anderem diskutiert, neue Gefährdungshaftungen einzuführen und die Produkthaftung der Hersteller auszuweiten. Aber auch zusätzliche Pflichtversicherungen oder Entschädigungsfonds, statt oder ergänzend zu Versicherungslösungen, werden erwogen.

    Daneben wurde die Einführung einer „E-Person“ vorgeschlagen. Bei zunehmender Autonomie der KI-Anwendungen soll sie ermöglichen, quasi den Roboter selbst für die von ihm verursachten Schäden haftbar zu machen. Wie dieser die Schäden ersetzen oder sich Haftpflichtversicherungsschutz verschaffen soll, blieb dabei allerdings unerwähnt. Um der Komplexität des Themas Rechnung zu tragen, wurden neben den üblichen Bestandsaufnahmen und Anhörungen schließlich zwei Expertenkommissionen eingesetzt. Eine davon sollte überprüfen, welche Anpassungen der Produkthaftungsrichtlinie von 1985 erforderlich sind, die andere, ob darüber hinaus Änderungen des Haftungsrechts ratsam erscheinen.

    Wie die EU-Vorgaben zur Haftung für KI letztlich aussehen werden, ist noch nicht absehbar. Wahrscheinlich ist, dass es bei der Produkthaftungsrichtlinie einige Anpassungen des Wortlauts geben wird. Diese dürften sich etwa darauf beziehen, unter welchen Voraussetzungen Software als Produkt anzusehen ist, wann Updates dazu führen, dass ein neues Produkt entsteht und wer Hersteller eines KI-Produkts ist beziehungsweise wer dieses „in Verkehr bringt“. Ob es darüber hinaus zu einer Ausweitung der Produkthaftung kommt, bleibt abzuwarten. Für die Bereitschaft, innovative KI-basierte Produkte zu entwickeln, wäre eine Haftungsausweitung kaum zuträglich. Sinnvoller wäre, auch unter dem Aspekt des Verbraucherschutzes, Standards zu entwickeln, die klarstellen, welches Maß an Sicherheit ein Verbraucher von einem KI-Produkt erwarten darf und welcher der an KI-Anwendungen Beteiligten wofür verantwortlich ist.

    Differenzierte Regelung erforderlich

    Im Hinblick auf alle anderen zu erwartenden Änderungen des Haftungsrechts im Zusammenhang mit neuen Technologien bietet der Bericht der Expertengruppe vom 21. November 2019 erste Hinweise. Danach zeichnet sich ab, dass es keine einheitliche Regelung für alle KI-Anwendungen geben wird. Vielmehr soll berücksichtigt werden, in welchem Maße KI-Anwendungen Dritte gefährden, ohne dass etwaige Schäden bereits durch bestehende Gefährdungshaftungen wie das StVG abgedeckt sind. Bei einer Gefährdung Dritter soll deren Schutz durch Beweiserleichterungen und Logging-Pflichten verbessert werden. Bei einer besonderen Gefährdung Dritter wird auch die Einführung neuer Gefährdungshaftungen empfohlen, zur Gewährleistung der nötigen Solvenz der danach Haftenden auch in Verbindung mit zusätzlichen Pflichtversicherungen.

    Jedenfalls soll sichergestellt werden, dass die Einschaltung von KI-Anwendungen nicht dazu führt, dass jemand weniger haftet als bei der Nutzung menschlicher Gehilfen. Im Übrigen wird befürwortet, bei der Haftungsverteilung vorrangig darauf abzustellen, wer am ehesten in der Lage ist, KI-Risiken zu beherrschen und Schäden zu vermeiden. Positiv hervorzuheben ist, dass der Vorschlag einer „E-Person“, die im Ergebnis nichts anderes als eine Gefährdungshaftung ihrer Finanzgeber wäre, ausdrücklich abgelehnt wurde.

    Phase der Rechtsunsicherheit

    Aus Sicht eines Haftpflichtversicherers bleibt festzuhalten, dass uns eine längere Phase erheblicher Rechtsunsicherheit bevorsteht. Der Gesetzgeber muss schon im Interesse einer größeren Flexibilität der Regelungen, die wegen der schnellen Weiterentwicklung der technischen Möglichkeiten unverzichtbar ist, viele Details der Rechtsfortbildung den Gerichten überlassen. Bis sich eine gefestigte höchstrichterliche Rechtsprechung in hinreichender Dichte herausgebildet hat, wird es aber viele Jahre dauern. Dies führt nicht nur zu einem hohen Rechtsänderungsrisiko, sondern vor allem auch zu einem Anstieg der Rechtsverfolgungskosten, auch im Hinblick auf etwaige Rückgriffe des zunächst Haftenden auf andere Beteiligte.

    Zusätzlich steigt die Komplexität der Haftungsszenarien bei KI-Anwendungen dadurch, dass die Beteiligten meist einer Vielzahl verschiedener Rechtsordnungen unterliegen. Deren auch nur ansatzweise Angleichung erscheint aber in absehbarer Zeit allenfalls auf EU-Ebene, nicht aber weltweit möglich. Zudem dürfte der Anstieg der Dokumentations-, Monitoring- und Organisationspflichten auch neue Anknüpfungspunkte für eine Ausweitung der D&O-Haftung eröffnen. All dies wird nicht ohne Auswirkungen auf die Haftungsrisiken und den Versicherungsbedarf der verschiedenen Akteure bleiben. Noch stecken die KI-Anwendungen weitgehend in den Kinderschuhen. Die Weichen für die Regelung der rechtlichen Rahmenbedingungen werden aber jetzt gestellt. Die damit verbundenen Möglichkeiten sollte die Versicherungswirtschaft nicht ungenutzt verstreichen lassen.

    Prof. Dr. Ina Ebert, Leitende Fachexpertin Haftung und Versicherungsrecht, Munich Re

    Newsletter

    Immer einen Schritt voraus mit exklusiven Einblicken und Branchen-Updates! Abonnieren Sie unseren Munich Re Insights Newsletter und lernen Sie die neuesten Trends im Risikomanagement, Expertenanalysen, Markteinblicke und Innovationen in der Versicherungsbranche aus erster Hand kennen. Seien Sie Teil unserer Gemeinschaft von Vordenkern bei Munich Re und machen Sie sich auf den Weg in eine widerstandsfähigere Zukunft.