Die Rechtsordnung richtet sich an Menschen, nicht an Maschinen
Unsere Rechtsordnung besteht aus Rechtsnormen, die sich an Menschen richtet und Regelungen zum menschlichen Verhalten aufstellt. Sofern sich die Gesetze an „juristische Personen“ richten, das heißt beispielsweise an eine GmbH, treten auch hier wieder Menschen in den Vordergrund, die für die GmbH agieren. Selbstverständlich gibt es auch Gesetze, die sich auf Sachen beziehen und damit auch auf Maschinen. Diese Normen richten sich allerdings nicht an die Maschinen als Rechtsträger, sondern an die Menschen, die diese Maschinen gebaut haben oder sie vertreiben.
Künstliche Intelligenz übernimmt komplexe Funktionen, die traditionell mit kognitiven Fähigkeiten und Entscheidungen einhergehen. Sie wird nicht vollständig programmiert, sondern lernt aus Daten dazu, um Optimierungsziele zu erreichen. Je autonomer ein KI-System ist, desto mehr Kontrolle geben die Menschen ab und desto weniger lässt sich planen, wie die KI reagieren wird. Braucht die Rechtsordnung neue Haftungsregelungen für Künstliche Intelligenz?
Die e-Person wird das Haftungsproblem vermutlich nicht lösen
In der aktuellen Diskussion wird es von einigen Personen in Betracht gezogen, autonomen Systemen eine Rechtspersönlichkeit zuzuweisen. Ursprünglich stammt diese Idee vom Europäischen Parlament. Die Systeme könnten dann als eine „elektronische Person“ (e-Person) mit unterschiedlichen Rechten versehen werden. Würde man e-Personen anerkennen, könnte so ein intelligentes System Rechtsträger werden und müsste nach bestimmten Rechtsnormen handeln oder würde sich anderenfalls haftbar machen. Kritisiert wird an dem Ansatz der e-Person, dass er Maschinen in einigen Aspekten wie Menschen behandeln würde und dies ethisch fragwürdig ist. Voraussetzung für die Rechtsträgerschaft der Maschine wäre ohnehin, dass sie über eine Haftungsmasse verfügen müsste. Dann könnte man aber auch direkt die Idee der e-Person verwerfen und von einer e-GmbH sprechen, mit eigenem Kapital, welches für die Haftung eingesetzt werden könnte. Weder die e-Person, noch die e-GmbH bieten Vorteile gegenüber der herkömmlichen Haftung. Die bisherigen Instrumente der Rechtsordnung, die Gefährdungshaftung und ggf. Pflichtversicherungen führen zum selben Ergebnis. Außerdem könnten sich Hersteller der Verantwortung entziehen, sobald diese nicht mehr haften, da das intelligente System oder die e-GmbH selbst Rechtsträger sind und haften.
Die umfassende Herstellerhaftung benachteiligt die Hersteller
Denkbar wäre es, die Produzenten- und Produkthaftung, die unsere Rechtsordnung für Hersteller vorsieht, auszudehnen. Dann könnten Hersteller von KI allein verantwortlich gemacht werden. Dieser Ansatz ist jedoch unfair gegenüber den Herstellern von Künstlicher Intelligenz, zumal diese ein selbstlernendes System nur bedingt steuern können. Fraglich ist hier auch, warum Nutzer, die von der KI-Verwendung profitieren, nicht auch an der Verantwortung beteiligt werden. Die umfassende Herstellerhaftung ist aus Sicht von KLUGO abzulehnen.
Die Gefährdungshaftung könnte die Haftungsfrage beantworten
Eine naheliegende Lösung könnte die Gefährdungshaftung sein. Diese würde neben der Herstellerhaftung auch die Nutzerhaftung ermöglichen. So steht der Hersteller im Rahmen der Herstellerhaftung für Fehler der KI ein. Zusätzlich könnte dann auch der Nutzer des intelligenten Systems über die verschuldensunabhängige Gefährdungshaftung verantwortlich gemacht werden. So funktioniert bereits unser Haftungssystem, etwa bei der Kfz-Halterhaftung oder der Tierhalterhaftung. Bei den Gefährdungstatbeständen, wie zum Beispiel im Straßenverkehr, haftet ein Fahrzeughalter verschuldensunabhängig allein deshalb, weil er eine Gefahrenquelle schafft. Die Gefährdungshaftung könnte auf intelligente Systeme übertragen werden.
Diese Übertragung der bestehenden Regelungen auf KI wäre momentan machbar, da bisher nur die Programmierung „schwacher“ intelligenter Systeme möglich ist. Damit sind Systeme gemeint, die eine konkrete Problemlösung verfolgen und anhand der implementierten Programmierung agieren. Derzeit gibt es noch keine intelligenten Systeme, die vollständig autonom agieren. Sofern die intelligenten Systeme im Rahmen der von Menschen vorgenommenen Programmierung agieren, kann die Gefährdungshaftung eingreifen. Neue Haftungsregelungen könnten erst zu einem späteren Zeitpunkt notwendig werden.
KLUGO plant den Einsatz von KI
KLUGO arbeitet daran, dem Rechtsratsuchenden den bestmöglichen Service zu bieten. Um die Anwaltssuche noch einfacher und besser zu gestalten, entwickelt KLUGO derzeit eine KI, die das Nutzer-Anwalt-Matching optimiert. Wer ein Rechtsproblem hat, steht zuerst vor der Frage, welches Rechtsgebiet davon betroffen ist. Gelingt die Zuordnung nicht, ist es schwierig den passenden Anwalt zu finden. Die neue KI von KLUGO wird die Fallfrage selbständig dem richtigen Rechtsgebiet zuordnen. So wird es für Rechtsratsuchende noch einfacher über KLUGO eine Rechtsfrage zu stellen. KLUGO findet den passenden Anwalt.