Ro­bo­tik / Künst­li­che In­tel­li­genz als Emer­ging Risk

Kontext15. Juni 2022

Selbstlernende autonome Maschinen werden vermehrt in der Industrie und im Gesundheitswesen eingesetzt. Es stellen sich Fragen zur Produktsicherheit und zur Produkthaftpflichtgesetzgebung.

Risikobeschreibung

Robotik umfasst Teilgebiete der Informatik, der Elektrotechnik und des Maschinenbaus und wird auch als Oberbegriff für das Internet der Dinge (IoT) sowie für die autonome Mobilität (z. B. Auto, Eisenbahn, Schiffe, Flugzeuge/Drohnen) verwendet.

Künstliche Intelligenz (KI) wird bereits für viele Anwendungen von privaten Unternehmen und immer mehr auch von der öffentlichen Hand verwendet und ist in unserer Welt nicht mehr wegzudenken. So wird KI verwendet in Sprach- und Gesichtserkennungssystemen, Suchmaschinen, Bildanalysesoftware, als virtuelle Assistenten, Anwendungen des Internet der Dinge, autonome Mobilität, etc.

Selbstlernende autonome Maschinen werden vermehrt eingesetzt in der Industrie (z. B. automatisierte Produktion, Lagersysteme) und im Gesundheitswesen (z. B. Operationsroboter, Assistenz- und Serviceroboter). Der Einsatz von Industrierobotern ist ein bekanntes Phänomen in wiederkehrenden Abläufen zum Automatisieren, wie beispielsweise bei der Herstellung von Automobilen.

Der Mangel an Pflegepersonal in Spitälern und Heimen führt weltweit zur Diskussion, wie weit Pflege- und Assistenzroboter bei täglichen Routinearbeiten eingesetzt werden können. Die Roboter sind in der Lage, Patienten zu Untersuchungen zu begleiten, Sachen hinterherzutragen, Essen und Medikamente abzugeben, Gespräche und Diskussionen zu führen oder generell die Zeit zu vertreiben. In technikaffinen Ländern sind derartige Roboter bereits im Einsatz, wie Beispiele aus Japan und China zeigen. Es ist auch damit zu rechnen, dass Roboter vermehrt Einzug in den Privathaushalt halten (man denke z. B. an Staubsauger- oder Rasenmäherroboter).

 

Risikowahrnehmung

Die möglichen negativen Auswirkungen dieser Entwicklung werden in wissenschaftlichen und juristischen Kreisen diskutiert. Insbesondere die Frage, wie weit die geltende Datenschutz-, Produktsicherheits- und Produkthaftpflichtgesetzgebung diesen Entwicklungen genügend Rechnung trägt.

 

Haftpflichtrechtliche Relevanz

Ein fehlerhafter Roboter kann zu Personen- und Sachschäden führen. Derartige Schäden sind grundsätzlich Gegenstand der Produkthaftpflichtgesetzgebung und von allgemeinen Haftpflichtnormen. Die Frage, die sich hier stellt, ist insbesondere, wer schlussendlich für den Fehler einzustehen hat. Ist es der Halter/Eigentümer des Roboters in Analogie zur Tierhalter- oder Motorfahrzeughalter-Haftpflicht? Ist es der Endhersteller des Roboters, in welchen die Software eingebaut ist, oder ist es der Programmierer der fehlerhaften Software? Soll der Roboter eine eigene Rechtspersönlichkeit erhalten und als solcher eigenständig haften (als elektronische Person in Ergänzung zur natürlichen und juristischen Person)? Diese Fragen werden im Europäischen Parlament und in der Europäischen Kommission intensiv diskutiert. Ebenfalls Thema ist die Erweiterung der Produkthaftpflicht-Direktive, um die geschädigten Konsumenten besser zu schützen. Zudem steht die Einführung eines Haftpflichtversicherungs-Obligatoriums für fehlerhafte Produkte zur Diskussion.

 

Haftpflichtversicherungstechnische Relevanz

Die Betriebshaftpflicht- und Produkthaftpflicht-Versicherung des Herstellers bietet Versicherungsschutz, wenn ein fehlerhafter Roboter (z. B. Programmfehler in der KI-Software) einen Personen- oder Sachschaden verursacht. Versichert ist auch die gesetzliche Haftpflicht des Halters des Roboters, sowie der Betreiber von Systemen, die von den autonomen Systemen benötigt werden, wie beispielsweise Navigationssysteme oder Telekommunikation. Die Berufshaftpflichtversicherung für Softwareentwickler bietet Versicherungsschutz für Haftpflichtansprüche aus der fehlerhaften Programmierung für den Schaden (Personen- und Sachschäden), welcher der Roboter gegenüber Dritten verursacht hat, sowie für den Schaden (Anlage-/ Vermögensschäden) am von Dritten hergestellten Robotern selbst. Auch können Programmierfehler in auf künstlicher Intelligenz basierenden digitalen Lösungen und Applikationen (z. B. Personalrekrutierung, digitale Rechtsberatung, Maschinen- und Fahrzeugsteuerungen) zu klassischen Personen- und Sachschäden sowie zu reinen Vermögensschäden führen.

 

Zeithorizont für versicherte Ansprüche

Roboter und Künstliche Intelligenz werden vermehrt Einzug in unser Leben halten und verschiedene Aufgaben/Abläufe übernehmen, und als Folge ist mit Ansprüchen aus Personen-, Sach- und, wenn versichert, auch reinen Vermögensschäden zu rechnen. Welche Haftpflichtversicherungs-Produkte betroffen sein werden, hängt von der zukünftigen Allokation der Haftpflichtansprüche ab. In Frage kommen beispielsweise Eigentümer, Halter oder Benutzer des Roboters, Hersteller des Roboters oder Zulieferer, Softwareentwickler, Hersteller von fehlerhaften Produkten, welche mit dem Roboter hergestellt wurden (3D-Printing) oder auch ein Systemoperator (z. B. Telekommunikationsunternehmen).

Definition «Emerging Risks»:

Neue Technologien und die Entwicklung der modernen Gesellschaft bieten neue Chancen, aber auch neue Gefahren. Solche neuartigen zukunftsbezogenen Risiken, die sich dynamisch entwickeln und eben nur bedingt erkennbar und bewertbar sind werden als «Emerging Risks» bezeichnet.  Der Begriff «Emerging Risks» ist nicht einheitlich definiert. In der Versicherungsbranche werden damit üblicherweise Risiken bezeichnet, welche sich als mögliche zukünftigen Gefahr mit grossem Schadenpotenzial manifestieren.