Kann Künst­liche Intel­li­genz sicher sein?

Spätes­tens seit der Veröf­fent­li­chung von ChatGPT ist Künst­liche Intel­li­genz in aller Munde. Doch können schlaue Algo­rithmen, die beispiels­weise Texte gene­rieren, auch in der sicheren Auto­ma­tion wegwei­send sein? Ja, können sie. Doch die Frage, die bleibt, ist: Wie?

Hinter dem Begriff „Künst­liche Intel­li­genz“ (KI) oder im Engli­schen „Arti­fi­cial Intel­li­gence“ (AI) verbirgt sich tatsäch­lich keine Magie oder Zauberei, sondern reine Mathe­matik. Verein­facht gesagt handelt es sich um einen program­mierten Code, der versucht, mensch­li­ches Verhalten nach­zu­ahmen mit dem Ziel, mensch­liche Entschei­dungen zu auto­ma­ti­sieren. Die Grund­lagen für diese Tech­no­logie wurden bereits in den 60er-Jahren geschaffen. Jedoch erst heute – mit entspre­chend leis­tungs­fä­higer Hard­ware und neuen Konzepten sowie neuen Algo­rithmen – bekommt das Thema einen enormen Aufschwung. Diese Entwick­lungen machen KI-Tech­no­lo­gien für die Indus­trie in einem Maß nutzbar, dass Experten eine Revo­lu­tion in der globalen Wirt­schaft prognos­ti­zieren.

„Künst­liche Intel­li­genz steht als Synonym für eine Revo­lu­tion in der Daten­ver­ar­bei­tung.“

Lukas Elwinger, AI Engi­neer bei Pilz

„Künst­liche Intel­li­genz steht als Synonym für eine Revo­lu­tion in der Daten­ver­ar­bei­tung“, erklärt Lukas Elwinger, AI Engi­neer bei Pilz. „Damit werden sich Heraus­for­de­rungen meis­tern lassen, die durch konven­tio­nelle Algo­rithmen und Tech­no­lo­gien bisher nicht lösbar waren. Das wiederum bietet Raum für neue Geschäfts­felder, Geschäfts­mo­delle, Produkte und Dienst­leis­tungen.“

Die Königs­dis­zi­plin ist, Künst­liche Intel­li­genz und Maschi­nen­si­cher­heit mitein­ander zu verbinden. Denn KI ist eine soge­nannte Blackbox: „Man kann nicht vorher­sehen bezie­hungs­weise nach­voll­ziehen, wie sich das komplexe System entscheidet“, erläu­tert Lukas Elwinger. „Das ist jedoch für die funk­tio­nale Sicher­heit zwin­gend erfor­der­lich. Jede Reak­tion des Sicher­heits­sys­tems muss begründet werden können – auch wenn KI im Spiel ist.“ Um KI in der Maschi­nen­si­cher­heit umsetzen zu können, sind drei Kompo­nenten rele­vant: Sicher­heit, Trans­pa­renz und Verläss­lich­keit.

Voraus­set­zungen für den Einsatz von KI in der Maschi­nen­si­cher­heit

Nur wenn die Faktoren Sicher­heit, Trans­pa­renz und Verläss­lich­keit ausrei­chend erforscht sind, lässt sich Künst­liche Intel­li­genz in der Maschi­nen­si­cher­heit umsetzen. © Pilz GmbH & Co. KG, Ostfil­dern

KI für Maschi­nen­si­cher­heit möglich machen

In Sachen Trans­pa­renz beschäf­tigt sich die Forschung aktuell genau mit diesem Aspekt: erklären zu können, wieso sich eine KI wie entscheidet. Dafür machen Experten das komplexe System der KI für den Menschen mithilfe von erklär­barer KI (Explainable AI) verständ­lich und damit nach­voll­ziehbar. Hinsicht­lich der Verläss­lich­keit nutzen Experten Algo­rithmen und Methoden zur Quan­ti­fi­zie­rung der Unsi­cher­heit. Dadurch zeigen die KI-Systeme an, wie sicher oder unsi­cher sie sich bei ihrer Entschei­dung sind, erkennen ungül­tige Eingaben und reagieren entspre­chend. Durch geeig­nete Konzepte und Archi­tek­turen kann die Zuver­läs­sig­keit weiter erhöht werden. Im Bereich Sicher­heit veri­fi­ziert die Forschung mit Methoden der formalen Veri­fi­ka­tion, ob die KI sicher und fehler­frei ist. Alle drei Kompo­nenten tragen zur höchst­mög­li­chen Zuver­läs­sig­keit und Sicher­heit der KI im indus­tri­ellen Umfeld sowie zum Schutz des Menschen bei. Denn eine allum­fas­sende Künst­liche Intel­li­genz, die der mensch­li­chen Intel­li­genz eben­bürtig ist oder sie sogar über­trifft – in den Medien oft als „starke KI“ bezeichnet –, gibt es noch nicht. Das bedeutet: Ein KI-System wird nur für vom Menschen defi­nierte Aufgaben mit zuvor fest­ge­legten Rahmen­be­din­gungen zuver­lässig funk­tio­nieren.

Was sagt die Gesetz­ge­bung?

1. EU-AI-Act

Der EU-AI-Act, eine geplante EU-Verord­nung für Künst­liche Intel­li­genz, sieht harmo­ni­sierte Regeln für die Entwick­lung, das Inver­kehr­bringen und die Nutzung von KI-Systemen in der EU, aber auch für die Sicher­heit und die Grund­rechte Einzelner vor. Die KI-Verord­nung geht mit Anfor­de­rungen über das Inver­kehr­bringen hinaus und betrachtet den kompletten Lebens­zy­klus von Produkten. Ein sensi­bles Thema ist die Defi­ni­tion eines KI-Systems, da sie den gesamten Geltungs­be­reich der Verord­nung regelt. Bisher können bereits allge­mein verwen­dete Algo­rithmen unter den Geltungs­be­reich des AI-Acts fallen. Jedoch bleibt abzu­warten, was die finale Defi­ni­tion sein wird. Denn der EU-AI-Act ist momentan noch im Entwurfs­sta­dium.

2. EU-Maschi­nen­ver­ord­nung

In der EU-Maschi­nen­ver­ord­nung ist bereits fest­ge­legt, dass beim Einsatz von KI-Systemen in der funk­tio­nalen Sicher­heit ein Konfor­mi­täts­be­wer­tungs­ver­fahren durch­zu­führen ist. Sicher­heits­re­le­vante KI-Systeme werden demnach als „Hoch­ri­siko-Maschinen“ geführt. Für Hersteller wie Pilz bedeutet dies, dass ein Konfor­mi­täts­be­wer­tungs­ver­fahren nur unter Einbe­zie­hung einer benannten Stelle durch­ge­führt werden kann, auch wenn die einschlä­gigen harmo­ni­sierten Normen ange­wendet werden.

3. ISO/IEC CD TR 5469 „Arti­fi­cial intel­li­gence — Func­tional safety and AI systems“

Inter­na­tional ist man gerade an der Ausar­bei­tung einer ersten Stan­dar­di­sie­rung: ISO/IEC CD TR 5469 „Arti­fi­cial intel­li­gence — Func­tional safety and AI systems“. Sie setzt sich explizit mit „AI & Safety“ ausein­ander. Experten von Pilz werden sowohl in natio­nalen als auch inter­na­tio­nalen Commit­tees an dieser Stan­dar­di­sie­rung mitwirken.

„Wir erwarten uns von KI kurz­fristig eine Effi­zi­enz­stei­ge­rung in der Produk­tion. Lang­fristig gesehen hoffen wir, Künst­liche Intel­li­genz auch im sicher­heits­re­le­vanten Umfeld gewinn­brin­gend einsetzen zu können“, sagt Matthias Holz­äpfel, Vice Presi­dent Voraus­ent­wick­lung bei Pilz, mit Blick auf die Zukunft. Um beispiels­weise eine sichere Perso­nener­ken­nung zu reali­sieren, sind KI-basierte Objekt­er­ken­nung, Objekt­ver­fol­gung und Sensor­da­ten­fu­sion elemen­tare Bestand­teile. Derzeit sind solche Anwen­dungen nur mit einem hohen inge­nieur­tech­ni­schen Aufwand reali­sierbar. Hier werden KI-Systeme in Zukunft ein notwen­diges Hilfs­mittel sein.

Pilz hat Künst­liche Intel­li­genz im Blick. Unsere Experten und Exper­tinnen beschäf­tigen sich ganz konkret mit der KI-Tech­no­logie sowie den aktu­ellen Forschungen zu KI und Maschi­nen­si­cher­heit. Als verläss­li­cher Partner der sicheren Auto­ma­tion, für den der Schutz des Menschen und der Maschine im Mittel­punkt steht, wird Pilz den Einsatz künst­li­cher Intel­li­genz jedoch nicht dem Zufall über­lassen, sondern die Gesetz­ge­bung und die Ausar­bei­tung von Normen kritisch begleiten.


Gleich weitersagen!


Hat Ihnen der Artikel gefallen?

1 Stern2 Sterne3 Sterne4 Sterne5 Sterne (Geben Sie die erste Bewertung ab!)
Loading...

Vielen Dank!


Schreiben Sie einen Kommentar

Die E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.