Künstliche Intelligenz (KI) ist in Deutschland nach einer Studie eines renommierten Beratungshauses nur in knapp vier Prozent aller Unternehmen umfassend integriert; deutlich weniger als etwa in US-Unternehmen. Gleichzeitig hört man aus den Reihen der Politik den Ruf nach einer Kommission, die sich mit Algorithmen beschäftigen soll, also dem Kernstück jeder KI. Beide Meldungen zusammen zeichnen ein deutliches Bild der derzeitigen Situation von KI in Deutschland, der Ruf nach einer Kommission ist aber zugleich ein Fingerzeig, warum die Umsetzung in Deutschland derzeit nicht recht in Schwung kommt.

Denn das liegt eben auch an den unzureichenden rechtlichen Rahmenbedingungen. Praktisch bedeutsam wird dies beispielsweise angesichts der Frage, wie schnell etwa Techniken wie autonomes Fahren oder Paketzustellung per Drohne flächendeckend bereitgestellt werden können. Kernstück aller Überlegungen hierbei sind mehrere Fragen: Wie geht eine KI mit Situationen um, in denen in jedem Fall mindestens eine Person geschädigt werden wird? Ist dafür jemand strafrechtlich verantwortlich und zivilrechtlich zum Schadenersatz verpflichtet? Wird das System von Behörden überprüft und wenn ja, woran wird die Software gemessen?

Im Grunde geht es um eine Situation, die seit Jahrhunderten Moral und Ethik und in der Konsequenz das Recht beschäftigt, ohne dabei einer absoluten Lösung bereits nahe zu sein. Diese Situation ist von einem unausweichlichen Dilemma geprägt. Um im Beispiel des autonomen Fahrens zu bleiben: Das auf den Zebrastreifen zufahrende Fahrzeug kann nicht mehr rechtzeitig bremsen und wird entweder die Fußgänger auf dem Übergang, dem Bürgersteig oder die Insassen gefährden. Diese Situation geschieht auch ohne KI und autonome Fahrzeuge und führt regelmäßig zu Effekthandlungen der beteiligten Fahrer. Die Rechtsprechung löst das regelmäßig mit einem übergesetzlichen Notstand, was den Fahrer im Ergebnis als nicht strafbar einstuft. Zivilrechtlich werden die Ansprüche der Opfer über die Pflichtversicherung des Halters reguliert.

Mit dem selbst lernenden und autonom entscheidenden System der KI kommt jetzt eine neue Komponente hinzu; hier entscheidet kein Fahrer mehr, kein Effekt oder Reflex eines Menschen spielt eine Rolle. Im Gegenteil: Gerade autonomes Fahren soll ja insbesondere deswegen eine so große Rolle spielen, weil das selbst lernende System weniger Fehler macht als der Mensch. Die KI lernt also aus vergangenen Trainingssituationen und anhand von definierten Regeln.

In Dilemma-Situationen versagt diese Systematik aber bis zu einem bestimmten Grad. Hier trifft die KI eine Entscheidung, die entweder vorher determiniert oder schlicht zufällig ist. Das kann im Ergebnis dieselbe sein, die der überwiegende Teil an Menschen auch getroffen hätte - die Entscheidung wurde aber schlicht nicht von einem Menschen in der Gefahrensituation getroffen, sondern viel früher in der Programmierung festgelegt.

Hierzu gibt es derzeit keine gesetzliche Regelung; es ist vielmehr sehr wahrscheinlich, dass Maschinen bereits deswegen nicht wie Menschen in Dilemma-Situationen behandelt werden, weil sie schlicht keine sind. Zudem handelt es sich nicht um einen übergesetzlichen Notstand, eine unausweichliche Situation; die Entscheidung wird ja vorab am Programmiertisch getroffen oder zumindest angelegt. Die rechtliche Situation ist offen und führt direkt ins Grundgesetz zur Unantastbarkeit der Würde des Menschen.

Die wird dann verletzt, wenn Menschen verdinglicht, zum Objekt gemacht werden. Genau das ist aber zu vermuten, wenn eine KI die einen opfert, um die anderen zu retten. Im Ergebnis führt das dazu, dass man auf die Segnungen aller autonom handelnden KI noch wird verzichten müssen, denn Hersteller solcher Systeme haften für entsprechende Fehler, und das verlangsamt natürlich erheblich die Marktdurchdringung. Lösungsansätze hierzu sind bisher nur zart vorhanden.

Philipp Reusch



Reusch ist Rechtsanwalt und Gründer der Anwaltsboutique Reuschlaw Legal Consultants in Berlin und Saarbrücken. Er ist ausgewiesener Spezialist für Produkthaftung und Lehrbeauftragter an der RWTH Aachen. Im Rahmen des gerade veröffentlichten Rankings "Deutschlands beste Anwälte 2017" wurde er vom "Handelsblatt" zu einem von Deutschlands besten Anwälten 2017 im Rechtsgebiet Produkthaftung gekürt.