Künstliche Intelligenz und Produktsicherheit im Maschinenbau

Aufnahme von KI in Maschinenrichtlinie möglich

Die Einsatzmöglichkeiten von künstlicher Intelligenz (KI) werden aktuell sehr intensiv in verschiedenen Kreisen diskutiert. Da aktuell über eine Revision der Maschinenrichtlinie 2006/42/EG in Brüssel diskutiert wird, ist u.a. auch hier die Aufnahme von KI in den Anhang I der grundlegenden Sicherheits- und Gesundheitsanforderungen ein Thema. Entgegen der ursprünglichen Planung wird die EU-Kommission erst im 2. Quartal 2021 ihren Entwurf der Revision veröffentlichen (siehe hier).  

Für künstliche Intelligenz gibt es keine allgemein anerkannte Definition. Das DIN und die DKE haben in einem gemeinsamen Projekt mit dem Bundesministerium für Wirtschaft und Energie (BMWi) eine Normungsroadmap für Künstliche Intelligenz erarbeitet, um hier einen umfassenden Überblick über Status Quo, Anforderungen und Herausforderungen sowie Normungs- und Standardisierungsbedarfe zu verschiedenen Schwerpunktthemen rund um Künstliche Intelligenz zu liefern.

Ein wichtiger Aspekt von KI ist, unter welchen Voraussetzungen sicherheitsrelevante Entscheidungen eines Systems von Methoden der künstlichen Intelligenz beeinflusst oder automatisiert getroffen werden dürfen. Konkrete rechtliche Vorgaben fehlen derzeit noch. Die bisherigen Binnenmarktvorschriften nehmen auf den Aspekt KI bisher keinen Bezug. Gerade im Maschinen- und Anlagenbau wären KI-Systeme denkbar und deshalb wird sicherlich in der Revision der Maschinenrichtlinie hierauf Bezug genommen, um einen Bewertungsmaßstab für die rechtlich geforderte Risikobeurteilung zu haben. 

Von der Hierarchie der Schutzmaßnahmen ausgehend (sog. Produkthaftungspyramide), ist ein Produkt so zu konstruieren, dass Gefährdungen erst gar nicht entstehen können. Wo dies nicht umsetzbar ist, müssen Schutzeinrichtungen die Risiken so weit verringern, bis nur noch vertretbare Restrisiken übrig sind. Über diese müssen schließlich die Anwender informiert werden (Instruktionspflichten). Einen wesentlichen Anteil an diesem Konzept haben Steuerungen, wenn sie dazu eingesetzt werden, Sicherheitsfunktionen eines Produktes auszuführen (vgl. Anhang I, Nummer 1.2.1, 2006/42/EG). Entscheidend ist, dass Hersteller in der Lage sind, die von ihren Produkten ausgehenden Risiken zu beurteilen.  

Hier liegt das Problem: Die Designer von Systemen, die auf den komplexeren Methoden der künstlichen Intelligenz basieren (wie etwa maschinelles Lernen mit neuronalen Netzen), können bisher selbst im Nachhinein nicht zufriedenstellend erklären, warum sich ihr System auf eine bestimmte Weise verhalten hat.  

Ziel soll es sein, mit solchen eher aus dem Risikomanagement kommenden Ansätzen auch für Methoden der künstlichen Intelligenz Kriterienkataloge für ein akzeptables Risikoniveau aufzustellen. Diese Kriterienkataloge können Festlegungen zu Spezifikation und Modellierung, Erklärbarkeit und Nachvollziehbarkeit von Entscheidungen, Übertragbarkeit auf unterschiedliche Situationen, Verifizierung und Validierung des Systems, Überwachung während der Laufzeit, Mensch-Maschine-Interaktion, Prozesssicherung und Zertifizierung sowie sicherheitsbezogener Ethik und Datensicherheit enthalten.  

Daher fordert das Europäische Parlament eine Verordnung (EU) über ethische Grundsätze für die Entwicklung, den Einsatz und die Nutzung von künstlicher Intelligenz, Robotik und damit zusammenhängenden Technologien. Darin werden solche Kriterien für die Bewertung der Konformität vorgeschlagen.  

Erste Ansätze finden sich in dem jüngst veröffentlichten Fachbericht ISO/TR 22100-5 3 „Safety of machinery - Relationship with ISO 12100 - Part 5: Implications of artificial intelligence machine learning“ (Januar 2021). Neben der Revision der Maschinenrichtlinie wird die EU-Kommission auch einen Vorschlag für eine Verordnung zur künstlichen Intelligenz vorlegen, die rechtlich verbindliche Rahmenbedingungen für die Verwendung künstlicher Intelligenz enthält. Diese Rahmenbedingungen müssen vollständige, klare und verifizierbare Anforderungen dafür enthalten, in welchen Fällen und unter welchen Voraussetzungen sicherheitsrelevante Entscheidungen eines Systems von Methoden der künstlichen Intelligenz beeinflusst oder automatisiert getroffen werden dürfen.

Compliance News

Die wichtigsten Neuigkeiten rund um Marktzulassungen und Product Compliance.

Expertise rund um Product, Material & Environmental Compliance
Weitere News
UK: Bereits ab April 2024 gelten Neue Cybersecurity-Anforderungen für vernetzte Verbraucherprodukte

Jetzt schnell sein und ein „statement of compliance“ für Verbraucherprodukte vorbereiten

mehr

EU: Rechtssache „Malamud“ und EUGH-Urteilsverkündung zum 5. März 2024

Gegenstand und Folgen des Urteils für die Europäische Normung

mehr

EU: Batterie-VO 2023/1542 – Umsetzung wichtiger Erzeugerpflichten bereits zum 18.08.2024

Konformitätsbewertung, harmonisierte Normen und CE-Kennzeichnung

mehr

Login
x

Gemäß der Cookie-Richtlinie der EU (RL 2009/136/EG) möchten wir Sie darüber informieren, dass unsere Website Cookies verwendet. Wenn Sie unsere Webseite benutzen, akzeptieren Sie das und stimmen unseren Datenschutzbestimmungen zu. Welche Cookies konkret gesetzt werden und wie Sie von Ihrem Widerspruchsrecht Gebrauch machen können, erfahren Sie auf unserer Seite zum. Datenschutz.

OK