Ich schwör’, ich war’s nicht! – Haftungsfragen und die KI

-Werbung-spot_imgspot_img

Das prägende Thema unserer Zeit sind die mit dem Aufstieg der KI-Technologien einhergehenden Fragen und Probleme. Jeder Fachbereich stellt sich ganz auf seine Weise diesem am Horizont stehenden Technikwandel. Auch für Jurist:Innen ist dieses Problemfeld nicht ohne Herausforderungen und die EU will eines der weltweit ersten großen Regulierungsvorhaben in die Tat umsetzen. Doch wo genau liegen eigentlich die Probleme? Welche Auswirkungen haben die europäischen Rechtsvorhaben auf das deutsche Haftungsregime? Dies soll im folgenden, wenn auch nicht abschließend, kurz aufgeführt werden.

Versuch der Begriffsbestimmung

Fangen wir aber vielleicht von vorne an: Was ist überhaupt unter KI zu verstehen? Grundsätzlich ist KI also Künstliche Intelligenz (oder im Englischen Artificial Intelligence, AI) ein Teilgebiet der Informatik, das sich mit maschinellem Lernen befasst und versucht, intelligentes Verhalten zu Automatisieren. KI-Systeme kommen in völlig unterschiedlichen Arealen zum Einsatz und sind aus unserem Alltag heute kaum noch wegzudenken.

Zu den wichtigsten Oberdisziplinen zählen vor allem Muster-, Sprach-und Handschrifterkennung, Expertensysteme (zu denen auch Frage-Antwort-Systeme und Chatbots gehören), maschinelles Lernen, Robotik, sowie künstliche neuronale Netze und Deep Learning.

KI hat das Potential unseren Alltag erheblich zu vereinfachen und zu reformieren. Wenn man genau hinschaut, ist die KI schon ein wichtiger Bestandteil vieler digitaler Anwendungen. Auch der Aufstieg von ChatGPT hat dazu einiges beigetragen.

Im Kontext immer rasanterer Entwicklungen wird ein Handicap des deutschen Rechtssystem offenbar: Durch träge Prozesse kann man oftmals mit der Technik auf gesetzgeberischer Seite nicht mithalten. Umso mehr ist es daher geboten zu untersuchen, ob und inwieweit unser gut reguliertes Haftungsregime spezielle Fallkonstellationen abdecken kann.

Der Chatbot als eigene Person?

Gehen wir daher also mal kurz zurück zu dem Air Canada Fall, in dem ein Kunde der Fluglinie von dem Chatbot auf der Unternehmensseite zu einer speziellen Rabattregelung falsch beraten wurde. Die Fluglinie versuchte sich dadurch zu exkulpieren, dass sie angab, der Chatbot sei eine eigene, separate Person, die allein für ihre Handlungen zuständig sei („The chatbot is a separate legal entity that is responsible for its own actions“). Soweit so kurios (oder jurios…)

Wenn man diese Argumentation aber einmal kurz übernimmt, muss man sich unweigerlich fragen, ob Air Canada dann nicht haftet, weil sie sich das Versäumnis einer von ihr eingesetzten Person zurechnen lassen muss. Mit anderen Worten: Kann die KI ein Erfüllungsgehilfe im Sinne des § 278 BGB sein, was eine Haftung gemäß §§ 280 ff. BGB nach sich zieht?

Bei realistischer Betrachtung wird man hier wohl sagen müssen, dass das ausscheidet. Eine künstliche Intelligenz, also eine Software, hat unstreitig keine Personeneigenschaft. Andererseits droht man auch Haftungslücken zu produzieren, wenn kein Sorgfaltspflichtverstoß bei Einsatz und Überwachung der KI nachgewiesen werden kann. Die Konsequenz wäre, dass der Geschädigte einen Schaden zu erleiden hätte, den er gegenüber dem Schädiger nicht geltend machen kann.

Auch der Lösungsvorschlag eines Gutachtens der Datenethikkommission von 2019 kann hier keine abschließende Lösung bieten: Ein Akteur, der sich einer KI bedient, sollte sich nicht auf dem vorgenannten Weg exkulpieren können, da ein anderer Akteur, der sich eines Menschen bedient ohnehin für dessen Fehlverhalten einstehen muss. Orientiert man einen Sorgfaltsmaßstab an den am Markt existierenden Systemen, besteht dann aber die Frage, welcher Einsatz von Technologien einem Betreiber auch wirklich zugemutet werden kann. (Unbeachtet der Frage, ob man bei hochentwickelten Softwaresystemen wirklich ohne weiteres eine Fehlfunktion von einer Normalfunktion unterscheiden kann).

Viele Wege führen nach Rom… oder zur Haftung!

Aber die Gehilfenhaftung ist ja nicht der einzige Möglichkeit im Haftungsregime Der Gesetzgeber hat schon  in der Vergangenheit gesehen, dass es nötig sein kann, im Kontext der Verwendung gefährlicher Produkte, andere rechtliche Lösungen zu schaffen.

Auf diese Lösung ist auch die EU in ihrer angestrebten Regulierung von KI ebenfalls verfallen.

Der große EU AI Act, der vor allem die Hochrisiko-KI-Systeme regulieren soll, wird ein haftungsbegründendes Schutzgesetz darstellen und kann daher für Schadensersatzansprüche gemäß § 823 Abs. 2 BGB herangezogen werden. Eigene haftungsrechtlichen Regelungen enthält die neue Verordnung jedoch nicht.

Vielmehr wird einerseits die Produkthaftungsrichtlinie, auf der auch das deutsche Produkthaftungsgesetz beruht, überarbeitet. Ziel des Entwurfes ist die Modernisierung der Gefährdungshaftung in Bezug auf KI, die vor allem durch Erleichterung der Beweiserbringung erreicht werden soll. Ist ein Zusammenhang zwischen Schaden und Nichteinhaltung einer schadensrelevanten Verpflichtung wahrscheinlich, so soll künftig die Kausalität zwischen diesen beiden Indizien widerlegbar angenommen werden. Zudem soll die Beklagten eine Offenlegungspflicht treffen, nach der die Gerichte auch die Offenlegung von Informationen anordnen können. Grundlage hierfür ist jedoch, dass die Klagenden hinreichend dargelegt haben, dass ein Schadenersatzanspruch wahrscheinlich ist.

Gänzlich neu ist eine geplante Richtlinie, die KI-spezifische Haftungssfragen regeln soll. In ihrer inhaltlichen Planung ist diese Richtlinie eine Art Ergänzung zum EU AI Act.

Es soll hier vor allem um Schadensfälle gehen, die durch Vorsatz oder Fahrlässigkeit verursacht worden sind. Besonders interessant könnten dabei die Fälle sein, in denen es zu einer Verletzung der Privatsphäre durch KI-Sicherheitsprobleme gekommen ist. Bei entsprechender Ausrichtung kann die Richtlinie ein mögliches Sanktionsregime für Schäden sein, die bei Nichteinhaltung des EU AI Acts entstehen.

Zeitgemäße Anpassung der Gesetze

Im Endeffekt bedeutet dies für das deutsche Haftungspotpurri, dass es sicherlich keine systematischen Änderungen geben wird. Vielmehr wird es zu einer zeitgemäßen Anpassung der bestehenden Gesetze kommen, die man sicherlich mit der Umsetzung der Verbrauchsgüterkaufrichtlinie vergleichen kann.

Der Bereich um KI ist so volatil, dass aber auch das nicht abschließend festgestellt werden kann. Bis die entsprechenden Richtlinien und Verordnungen beschlossen worden sind, kann sich noch einiges ändern. Eines kann man aber mit Sicherheit sagen: Eine Ausrede a la „Das war ich nicht, das war die KI!“ dürfte auch jetzt schon vor deutschen Gerichten keinen Erfolg haben!

-Werbung-
Elisabeth Günther
Elisabeth Güntherhttp://www.shieldmaidensvoice.com
Studentin der Rechtswissenschaft an der MLU Halle-Wittenberg. Bloggerin für den Metal-Blog Shieldmaiden's Voice.

Ähnliche Artikel

Social Media

6,795FollowerFolgen
2,166FollowerFolgen
Download on the App Store
Jetzt bei Google Play
-Werbung-spot_img
-Werbung-

Letzte Artikel