Haftungsfragen Künstliche Intelligenz
Künstliche Intelligenz - KI - spielt in vielen Lebensbereichen eine immer wichtigere Rolle. Dabei stellen sich auch Haftungsfragen. Die EU will sie im Rahmen einer KI-Haftungsrichtlinie regeln.
Was "künstliche Intelligenz" genau ist, darüber gehen die Meinungen auseinander. In einem weiteren Sinne umfasst KI Systeme, die selbsttätig Empfehlungen oder Bewertungen abgeben oder Entscheidungen treffen. In einem engeren Sinne werden darunter selbstlernende und selbstoptimierende Systeme verstanden.
Autorenbox (bitte nicht verändern)
Algorithmen garantieren keine Fehlerfreiheit oder Rechtskonformität
Legt man den weiteren Begriff zugrunde, dann wird in der Finanzbranche längst mit KI gearbeitet. Die Bandbreite reicht vom Kreditscoring über Finanzanalysesysteme bis zu Robo-Advice. Der Einsatz solcher Systeme hat unter Umständen gravierende finanzielle Auswirkungen. Das Urteil eines Scoring-Systems führt zum Beispiel zur Kreditgewährung oder -ablehnung und beeinflusst Konditionen. Die Tatsache, dass KI-Systeme "unbestechlich" sind und alleine aufgrund ihrer Algorithmen agieren, bedeutet nicht, dass ihre Handlungsergebnisse fehlerfrei sind oder in Einklang mit geltendem Recht stehen. Spätestens in diesem Zusammenhang stellt sich die Haftungsfrage.
Der KI-Anwender trägt die Beweislast
Da KI-Einsatz nicht nur im Finanzsektor weiter zunehmen wird und mit einer steigenden Zahl an KI-induzierten Haftungsfällen zu rechnen ist, plant die EU eine KI-Haftungsrichtlinie, der bestehende KI-Haftungsregelungen anpassen will. Ein Richtlinienvorschlag existiert bereits. Eine Umsetzung hätte beträchtliche Konsequenzen für Finanzdienstleister. Einer der Kernpunkte ist die Beweisführung bei vermuteten KI-Haftungsschäden. Der Richtlinienvorschlag sieht ein zweistufiges Verfahren vor:
- in der ersten Stufe muss der möglicherweise Geschädigte zeigen, dass ihm ein Schaden durch einen Regelverstoß oder Fehler entstanden ist und ein KI-System hieran "nach vernünftigem Ermessen" verursachend beteiligt gewesen ist;
- in der zweiten Stufen hätte der KI-Anwender nachzuweisen, dass der Schaden andere Ursachen hat, um sich von der KI-Haftung zu befreien. Ein Finanzdienstleister wäre also in der Beweislast.
Die Tatsache, dass KI-Systeme "unbestechlich" sind und alleine aufgrund ihrer Algorithmen agieren, bedeutet nicht, dass ihre Handlungsergebnisse fehlerfrei sind."
Offenlegung von Geschäftsgeheimnissen
Besonders kritisch ist: Geschädigte können gerichtlich die Offenlegung von Informationen über "Hochrisiko-KI-Systeme" erzwingen. Ein KI-Anwender könnte dann zum Beispiel seine Algorithmen offenlegen müssen - ein üblicherweise gut gehütetes Geschäftsgeheimnis.
Allerdings soll die Offenlegung nur erfolgen, soweit "erforderlich und verhältnismäßig". Umso wichtiger dürfte daher eine vorausschauende Dokumentation sein, die angemessene Grenzziehungen ermöglicht und verhindert, dass mehr offengelegt werden muss als rechtlich notwendig ist.
Eins ist jedenfalls jetzt schon sicher: Die KI-Haftungsrichtlinie wird noch für manchen Diskussionsstoff sorgen.
Ich glaube, dass die Zusammenarbeit mit motivierten Menschen auf beiden Seiten zusätzliche Energie freisetzt