Spätestens seit der Veröffentlichung von ChatGPT ist Künstliche Intelligenz in aller Munde. Doch können schlaue Algorithmen, die beispielsweise Texte generieren, auch in der sicheren Automation wegweisend sein? Ja, können sie. Doch die Frage, die bleibt, ist: Wie?
Hinter dem Begriff „Künstliche Intelligenz“ (KI) oder im Englischen „Artificial Intelligence“ (AI) verbirgt sich tatsächlich keine Magie oder Zauberei, sondern reine Mathematik. Vereinfacht gesagt handelt es sich um einen programmierten Code, der versucht, menschliches Verhalten nachzuahmen mit dem Ziel, menschliche Entscheidungen zu automatisieren. Die Grundlagen für diese Technologie wurden bereits in den 60er-Jahren geschaffen. Jedoch erst heute – mit entsprechend leistungsfähiger Hardware und neuen Konzepten sowie neuen Algorithmen – bekommt das Thema einen enormen Aufschwung. Diese Entwicklungen machen KI-Technologien für die Industrie in einem Maß nutzbar, dass Experten eine Revolution in der globalen Wirtschaft prognostizieren.
„Künstliche Intelligenz steht als Synonym für eine Revolution in der Datenverarbeitung.“
Lukas Elwinger, AI Engineer bei Pilz
„Künstliche Intelligenz steht als Synonym für eine Revolution in der Datenverarbeitung“, erklärt Lukas Elwinger, AI Engineer bei Pilz. „Damit werden sich Herausforderungen meistern lassen, die durch konventionelle Algorithmen und Technologien bisher nicht lösbar waren. Das wiederum bietet Raum für neue Geschäftsfelder, Geschäftsmodelle, Produkte und Dienstleistungen.“
Die Königsdisziplin ist, Künstliche Intelligenz und Maschinensicherheit miteinander zu verbinden. Denn KI ist eine sogenannte Blackbox: „Man kann nicht vorhersehen beziehungsweise nachvollziehen, wie sich das komplexe System entscheidet“, erläutert Lukas Elwinger. „Das ist jedoch für die funktionale Sicherheit zwingend erforderlich. Jede Reaktion des Sicherheitssystems muss begründet werden können – auch wenn KI im Spiel ist.“ Um KI in der Maschinensicherheit umsetzen zu können, sind drei Komponenten relevant: Sicherheit, Transparenz und Verlässlichkeit.
Voraussetzungen für den Einsatz von KI in der Maschinensicherheit

KI für Maschinensicherheit möglich machen
In Sachen Transparenz beschäftigt sich die Forschung aktuell genau mit diesem Aspekt: erklären zu können, wieso sich eine KI wie entscheidet. Dafür machen Experten das komplexe System der KI für den Menschen mithilfe von erklärbarer KI (Explainable AI) verständlich und damit nachvollziehbar. Hinsichtlich der Verlässlichkeit nutzen Experten Algorithmen und Methoden zur Quantifizierung der Unsicherheit. Dadurch zeigen die KI-Systeme an, wie sicher oder unsicher sie sich bei ihrer Entscheidung sind, erkennen ungültige Eingaben und reagieren entsprechend. Durch geeignete Konzepte und Architekturen kann die Zuverlässigkeit weiter erhöht werden. Im Bereich Sicherheit verifiziert die Forschung mit Methoden der formalen Verifikation, ob die KI sicher und fehlerfrei ist. Alle drei Komponenten tragen zur höchstmöglichen Zuverlässigkeit und Sicherheit der KI im industriellen Umfeld sowie zum Schutz des Menschen bei. Denn eine allumfassende Künstliche Intelligenz, die der menschlichen Intelligenz ebenbürtig ist oder sie sogar übertrifft – in den Medien oft als „starke KI“ bezeichnet –, gibt es noch nicht. Das bedeutet: Ein KI-System wird nur für vom Menschen definierte Aufgaben mit zuvor festgelegten Rahmenbedingungen zuverlässig funktionieren.
Was sagt die Gesetzgebung?
1. EU-AI-Act
Der EU-AI-Act, eine geplante EU-Verordnung für Künstliche Intelligenz, sieht harmonisierte Regeln für die Entwicklung, das Inverkehrbringen und die Nutzung von KI-Systemen in der EU, aber auch für die Sicherheit und die Grundrechte Einzelner vor. Die KI-Verordnung geht mit Anforderungen über das Inverkehrbringen hinaus und betrachtet den kompletten Lebenszyklus von Produkten. Ein sensibles Thema ist die Definition eines KI-Systems, da sie den gesamten Geltungsbereich der Verordnung regelt. Bisher können bereits allgemein verwendete Algorithmen unter den Geltungsbereich des AI-Acts fallen. Jedoch bleibt abzuwarten, was die finale Definition sein wird. Denn der EU-AI-Act ist momentan noch im Entwurfsstadium.
2. EU-Maschinenverordnung
In der EU-Maschinenverordnung ist bereits festgelegt, dass beim Einsatz von KI-Systemen in der funktionalen Sicherheit ein Konformitätsbewertungsverfahren durchzuführen ist. Sicherheitsrelevante KI-Systeme werden demnach als „Hochrisiko-Maschinen“ geführt. Für Hersteller wie Pilz bedeutet dies, dass ein Konformitätsbewertungsverfahren nur unter Einbeziehung einer benannten Stelle durchgeführt werden kann, auch wenn die einschlägigen harmonisierten Normen angewendet werden.
3. ISO/IEC CD TR 5469 „Artificial intelligence — Functional safety and AI systems“
International ist man gerade an der Ausarbeitung einer ersten Standardisierung: ISO/IEC CD TR 5469 „Artificial intelligence — Functional safety and AI systems“. Sie setzt sich explizit mit „AI & Safety“ auseinander. Experten von Pilz werden sowohl in nationalen als auch internationalen Committees an dieser Standardisierung mitwirken.
„Wir erwarten uns von KI kurzfristig eine Effizienzsteigerung in der Produktion. Langfristig gesehen hoffen wir, Künstliche Intelligenz auch im sicherheitsrelevanten Umfeld gewinnbringend einsetzen zu können“, sagt Matthias Holzäpfel, Vice President Vorausentwicklung bei Pilz, mit Blick auf die Zukunft. Um beispielsweise eine sichere Personenerkennung zu realisieren, sind KI-basierte Objekterkennung, Objektverfolgung und Sensordatenfusion elementare Bestandteile. Derzeit sind solche Anwendungen nur mit einem hohen ingenieurtechnischen Aufwand realisierbar. Hier werden KI-Systeme in Zukunft ein notwendiges Hilfsmittel sein.
Pilz hat Künstliche Intelligenz im Blick. Unsere Experten und Expertinnen beschäftigen sich ganz konkret mit der KI-Technologie sowie den aktuellen Forschungen zu KI und Maschinensicherheit. Als verlässlicher Partner der sicheren Automation, für den der Schutz des Menschen und der Maschine im Mittelpunkt steht, wird Pilz den Einsatz künstlicher Intelligenz jedoch nicht dem Zufall überlassen, sondern die Gesetzgebung und die Ausarbeitung von Normen kritisch begleiten.