Predictive Manufacturing

Ein Intelligentes Überwachungssystem zur Erkennung von Anomalien im 3D-Druck

ZeitschriftIndustrie 4.0 Management
Ausgabe39. Jahrgang, 2023, Ausgabe 1, Seite 27-31
Open Accesshttps://doi.org/10.30844/I4SE.23.1.88
Literatur Teilen Zitieren Download

Abstract

Beim selektiven Laserschmelzen wird Metallpulver schichtweise aufgeschmolzen und mit dem bereits gefertigten Bauteil verschmolzen. Innerhalb dieses Prozesses entstehen vermeidbare fehlerhafte Schichten. Derartige Fehler sind erst durch verschiedene Druck- und Zugfestigkeitsexperimente nach dem Druck feststellbar. Dieses Vorgehen ist kostenintensiv und ineffizient.

Keywords

Artikel

Die AutorInnen einen Demonstrator vor, der mithilfe von maschinellen Lernmethoden auf sensorbasierter Datenerfassung in der Lage ist, bereits während des Fertigungsprozesses fehlerhafte Schichten zu detektieren und MaschinenbetreuerInnen mit Entscheidungsempfehlungen zu unterstützen.

Selektives Laserschmelzen

Das selektive Laserschmelzverfahren wird in der Industrie unter anderem zur Herstellung von Metallbauteilen verwendet und nimmt einen immer größeren Stellenwert in der Produktionsindustrie ein. Es ist ein additives Fertigungsverfahren, bei dem ein Metallpulverbett gleichmäßig in Schichten auf eine Bauteilplattform aufgebracht und mithilfe eines Lasers aufgeschmolzen wird. Auf diese Weise ist es möglich, Bauteile mit vergleichsweise individuell hohen geometrischen Ansprüchen zu fertigen. Dabei kommt es zu wiederholten Aufheiz- und Abkühlzyklen, bei denen die Bauteile dauerhaft hohen Belastungen ausgesetzt sind.

Um einen hohen Qualitätsstandard zu gewährleisten, sollten fehlerhaft gedruckte Schichten vermieden werden. Defekte Schichten weisen beispielsweise Poren, Risse oder Unebenheiten auf, die zu qualitätsmindernden Eigenschaften führen. Erst nach dem Druck werden die Bauteile respektive Testbauteile auf Zug- und Druckfestigkeit geprüft, um die Bauteilqualität sicherzustellen. Bei negativen Testergebnissen wird das Bauteil analysiert und erneut mit optimierten Prozessparametern gedruckt, was den Prozess kostenintensiv und zeitaufwändig macht [1].

Methodik

Um eine Erkennung bereits während des Drucks zu ermöglichen, kommen zwei Methoden zum Einsatz: Ein Autoencoder und die Hauptkomponentenanalyse. Beide Methoden erhalten Graustufenbilder der gedruckten Schichten aus der Vogelperspektive, welche Siemens generierte.

Vorverarbeitung der Graustufenbilder

Auf dem Gebiet des maschinellen Lernens ist die Vorverarbeitung der Daten ein unverzichtbarer Schritt. Die Qualität der Vorhersage eines neuronalen Netzes ist nur so gut, wie die Qualität der Daten auf denen die Vorhersage basiert. Der Beispieldatensatz von Siemens enthält pro Schicht ein Bild der gesamten Bauteilplattform. Im jeweiligen Druckauftrag entstehen neun Bauteile gleichzeitig mit verschiedenen geometrischen Abmessungen, sodass es diese im Graustufenbild zu separieren gilt. Für jedes ausgeschnittene Bild wurde die Sichtbarkeit, respektive Kontrast und Helligkeit verbessert.

Die Verbesserung der Sichtbarkeit der ausgeschnittenen Bilder, respektive Kontrast und Helligkeit ist notwendig. Hierbei wandelt das sogenannte LAB Farben-Modell die Farben der Bilder in das sogenannte LAB-Farben-Modell um und das „Contrast Limited Adaptive Histogram Equalization“ (CLAHE) bessert den Helligkeitskanal auf. Anschließend geschieht die Zusammenführung aller drei Kanäle [2].

Künstliche neuronale Netze modellieren die Funktionsweise des menschlichen Gehirns und simulieren das Lernen mithilfe von Neuronen. Diese kommen beispielsweise bei der Bilderkennung zum Einsatz und konnten dort bahnbrechende Meilensteine erzielen. Eine zusammenfassende Übersicht über die Funktionsweise und die erfolgreichen Anwendungen von künstlichen neuronalen Netzen, insbesondere in der Bildverarbeitung, aber nicht ausschließlich, geben Z. Li u. a. [3].

Autoencoder, der als Eingabe die separierten Bauteile erhält, diese im Encoding-Schritt auf einen niedrig-dimensionalen Vektorraum transformiert sowie im Decoding-Schritt rücktransformiert und so die Eingabe rekonstruiert. Unterhalb sind beispielhaft Graustufenbilder der einzelnen Schichten dargestellt
Bild 1: Autoencoder, der als Eingabe die separierten Bauteile erhält, diese im Encoding-Schritt auf einen niedrig-dimensionalen Vektorraum transformiert sowie im Decoding-Schritt rücktransformiert und so die Eingabe rekonstruiert. Unterhalb sind beispielhaft Graustufenbilder der einzelnen Schichten dargestellt.

Autoencoder

Autoencoder sind neuronale Netze, die aus zwei Phasen bestehen:

Ein Autoencoder reduziert die Dimension einer Eingabe im sogenannten Encoding-Schritt und rekonstruiert die Originaleingabe im sogenannten Decoding-Schritt, wie in Bild 1 dargestellt ist.

Nach dem Encoding-Schritt liegt eine komprimierte Darstellung der Eingabe vor, die alle Informationen beinhaltet, um die Eingabe zu rekonstruieren. Der Autoencoder lernt Transformationsfunktionen in verschieden dimensionierten Vektorräumen.

Zu diesem Zweck wird ein Autoencoder auf eine Reihe von Bildern trainiert, sodass der trainierte Autoencoder ähnliche Bilder rekonstruieren kann, ohne diese vorher gesehen zu haben. Um die Anzahl der Epochen für das Training zu bestimmen, wird „Early Stopping“ eingesetzt. Dieses stoppt das Training des Autoencoders automatisch, sobald sich der Loss der Testdaten von einer zur nächsten Epoche nicht mehr signifikant ändert. Der Loss dient als Gütekriterium eines Modells und berechnet sich aus einer entsprechenden Loss-Funktion.

Die AutorInnen verwenden die mittlere quadratische Abweichung als Funktion, um die quadratische Abweichung der Vorhersage von den tatsächlichen Werten und damit den Fehler des Modells zu berechnen. Durch die Anwendung von „Early Stopping“ wird außerdem eine zu starke Überanpassung des Modells an die Trainingsdaten verhindert [4]. Die Anzahl der Epochen hängt vom Aufbau und Training des Autoencoders ab.

Die Idee besteht darin, den Autoencoder mithilfe von Bildern zu einem fehlerfreien Druck zu trainieren, insbesondere dass andere Bilder, die ebenfalls aus einem fehlerfreien Druck stammen gut rekonstruiert werden können − während Bilder aus fehlerhaften Druckschichten schlechter rekonstruierbar sind. Diese Abweichungen in den Bildern sind messbar und im Demonstrator visualisiert, wie in Bild 2 erkennbar ist. Während des Drucks ist für jede Schicht die Abweichung beobachtbar. Bei einer gewissen Anzahl an Schichten mit hohen Abweichungen besteht die Möglichkeit den Druck zu stoppen, da eine Qualitätsminderung zu erwarten ist.

Fehlerfreier Druck eines Bauteils. Links: Zweidimensionale Darstellung der Bilder mithilfe von Autoencoder und Hauptkomponentenanalyse, es sind zwei Cluster erkennbar, wobei die Punkte eines Clusters nach unten wandern, aufgrund der pyramidenförmigen Geometrie. Rechts: Darstellung des Rekonstruktionsfehlers für jede Schicht mit einem empirisch festgelegten Grenzwert.
Bild 2: Fehlerfreier Druck eines Bauteils. Links: Zweidimensionale Darstellung der Bilder mithilfe von Autoencoder und Hauptkomponentenanalyse, es sind zwei Cluster erkennbar, wobei die Punkte eines Clusters nach unten wandern, aufgrund der pyramidenförmigen Geometrie. Rechts: Darstellung des Rekonstruktionsfehlers für jede Schicht mit einem empirisch festgelegten Grenzwert.

Nach der Datenvorverarbeitung und dem Training des Autoencoders ist es möglich den Druckauftrag intelligent zu überwachen. Unregelmäßigkeiten, die auf fehlerhafte Schichten hindeuten, werden als Anomalien bezeichnet. Fehlerhafte Schichten deuten auf mindernde Bauteilqualität hin und sind vermeidbar. Mithilfe des Autoencoders und den rekonstruierten Bildern ist es möglich Anomalien im Druckprozess zu identifizieren. Durch das Training auf gut gedruckten Schichten, kann der Autoencoder mängelbehaftete Schichten nicht gut rekonstruieren, wodurch der Rekonstruktionsfehler ansteigt.

Zur Berechnung des Rekonstruktionsfehlers wird die mittlere quadratische Abweichung (MQA) vorgeschlagen:

Rekonstruktionsfehler = (Originalbild – rekonstruiertes Bild)2 (1)

Die MQA ist in vielen Anwendungen im Bereich des maschinellen Lernens als Standardmetrik zu finden. Im besten Fall geht der Rekonstruktionsfehler gegen 0, woraus sich qualitativ hochwertig gedruckte Schichten ableiten lassen [5, 6].

Hauptkomponentenanalyse

Die Hauptkomponentenanalyse ist eine bekannte Methode der linearen Dimensionsreduktion [7]. Mithilfe von Berechnungen werden die sogenannten Hauptkomponenten der Daten ermittelt. Das sind genau die Merkmale der Daten, durch die sie hauptsächlich definiert sind. Es werden Korrelationen zwischen Variablen ausgenutzt, um den Datensatz auf weniger unkorrelierte Hauptkomponenten zurückzuführen [8]. In diesem Fall sollen die Bilder des 3D-Drucks auf zwei Dimensionen reduzierbar sein (ein Bild besitzt in der Eingabe 100 x 100 Pixel bzw. Dimensionen).

Das Ziel ist die zweidimensionale Darstellung der Bilder als Punkte eines Clusters im Diagramm. Fehlerhafte Schichten machen sich durch Streuung dieser Punkte im Diagramm erkennbar. Mithilfe der Berechnung eines Clustermittelpunkts wird der Abstand streuender Punkte bestimmt. Benachbarte Schichten sollten sich stark ähneln, sodass im Idealfall das Bild einer Schicht immer auf den gleichen Punkt transformierbar ist.

Anwendungsapplikation zur Entscheidungsunterstützung

Beide Verfahren sind im Demonstrator visualisiert dargestellt, wie in Bild 2 sichtbar ist.

Auf der linken Seite vom Druckbild sind die Bildmerkmale erkennbar, projiziert mithilfe der Kopplung von Autoencoder und Hauptkomponentenanalyse auf einen zweidimensionalen Vektorraum. Der Encoding-Schritt im Autoencoder transformiert die Bilder auf einen Vektorraum der Größe 25 x 25 und die Hauptkomponentenanalyse reduziert anschließend diesen Vektorraum auf einen zweidimensionalen Vektorraum, um die vorhandenen Bildmerkmale auf Punkte abzubilden. Dabei entstehen im Idealfall zwei Cluster, die auf einen fehlerfreien Druck hindeuten. Die Ursache für die zwei Cluster ist auf die unterschiedliche Stellung des Beschichters in der Maschine während der Belichtung zurückzuführen. Die Bilder werden alternierend heller respektive etwas dunkler belichtet.

Die Topologie der Punkte innerhalb des Clusters lässt sich auf die pyramidenförmige Geometrie zurückführen. In der rechten Darstellung ist der Rekonstruktionsfehler des Autoencoders berechnet, sodass der Fortschritt des Druckprozesses mithilfe eines Grenzwerts bewertbar ist. Beide Überwachungskenngrößen können unabhängig voneinander Unregelmäßigkeiten detektieren, die auf Fehler im Druckprozess hindeuten und das manuelle Eingreifen erfordern.

Warnhinweis aufgrund einer Schicht, welche den Grenzwert für den Rekonstruktionsfehler übersteigt. Die AnwenderInnen haben die Möglichkeit den Druckprozess frühzeitig abzubrechen oder den Fertigungsprozess fortzusetzen.
Bild 3: Warnhinweis aufgrund einer Schicht, welche den Grenzwert für den Rekonstruktionsfehler übersteigt. Die AnwenderInnen haben die Möglichkeit den Druckprozess frühzeitig abzubrechen oder den Fertigungsprozess fortzusetzen.

Analyse der Bauteile und Ergebnisse

Diesbezüglich lässt sich ein empirischer Grenzwert festlegen, der die gedruckte Schicht in fehlerhaft und fehlerfrei aufteilt und nach dem sich Entscheidungen über das weitere Verfahren ableiten lassen. Anomalien sind erkennbar, sobald der Rekonstruktionsfehler den Grenzwert übersteigt, andernfalls ist die Fortsetzung des Drucks unbedenklich.

Es steht den AnwenderInnen frei, diesen Grenzwert nach unten oder oben hin anzupassen, um möglicherweise die Bauteilqualitätsstandards zu aktualisieren. Die Anzahl an Ausreißern gibt Indizien zur Bewertung der Bauteilqualität. Zu demonstrativen Zwecken lassen sich folgende Regeln festlegen, die sich aus fachlicher Einschätzung der Bauteile und Bildverläufe ergeben:

  • Das Bauteil gilt als fehlerfrei, wenn kein Rekonstruktionsfehler über dem Grenzwert liegt.
  • Das Bauteil gilt als minimal fehlerhaft, wenn ein oder zwei Rekonstruktionsfehler über dem Grenzwert liegen.
  • Das Bauteil gilt als potenziell fehlerhaft (und sollte manuell überprüft werden), wenn drei oder vier Rekonstruktionsfehler über dem Grenzwert liegen.
  • Das Bauteil gilt als stark fehlerhaft, wenn mindestens fünf Rekonstruktionsfehler über dem Grenzwert liegen.

Werden die vorliegenden Bauteile mithilfe dieses Regelsatzes analysiert, so ergibt sich folgende Auswertung:

  • Bauteil 1: stark fehlerhaft (13 fehlerhafte Schichten)
  • Bauteil 2: minimal fehlerhaft (2 fehlerhafte Schichten)
  • Bauteil 3: minimal fehlerhaft (1 fehlerhafte Schicht)
  • Bauteil 4: stark fehlerhaft (50 fehlerhafte Schichten)
  • Bauteil 5: minimal fehlerhaft (1 fehlerhafte Schicht)
  • Bauteil 6: minimal fehlerhaft (1 fehlerhafte Schicht)
  • Bauteil 7: potenziell fehlerhaft (4 fehlerhafte Schichten)
  • Bauteil 8: fehlerfrei (0 fehlerhafte Schichten)
  • Bauteil 9: fehlerfrei (0 fehlerhafte Schichten)

Darüber hinaus schlagen die AutorInnen vor, bei jeder mängelbehafteten gedruckten Schicht eine Warnung im Überwachungssystem auszugeben mit der Option den Druckprozess abzubrechen respektive fortzusetzen und nach fünf aufeinanderfolgenden fehlerbehafteten Schichten den aktuellen Druckprozess automatisiert abzubrechen. Beide Fälle werden in Bild 3 respektive Bild 4 dargestellt. Für Bauteil 1 wird der Prozess somit nach 745 Schichten abgebrochen und für Bauteil 4 nach 684 gedruckten Schichten.

Der Druck wird automatisiert abgebrochen, da der Rekonstruktionsfehler von fünf aufeinanderfolgenden Schichten den Grenzwert übersteigt. Ebenso sind im linken Diagramm zahlreiche Ausreißer erkennbar, die auf qualitativ minderwertige Schichten hindeuten.
Bild 4: Der Druck wird automatisiert abgebrochen, da der Rekonstruktionsfehler von fünf aufeinanderfolgenden Schichten den Grenzwert übersteigt. Ebenso sind im linken Diagramm zahlreiche Ausreißer erkennbar, die auf qualitativ minderwertige Schichten hindeuten.

Zusammenfassung und Ausblick

Die automatische Erkennung von fehlerhaften Schichten mithilfe eines intelligenten Überwachungssystems während des Druckprozesses spart Zeit und Ressourcen. Zur Umsetzung dieser Zielstellung wurden Graustufenbilder generiert und vorverarbeitet. Das Trainieren eines Autoencoders basiert auf zwei qualitativ hochwertigen Bauteilen. Anhand der Differenz zwischen dem Originalbild und dem rekonstruierten Bild lassen sich Anomalien identifizieren.

Weist ein Bauteil zu viele Ausreißer auf, lässt sich der Druckprozess frühzeitig stoppen, um Material einzusparen. Außerdem ließen sich die einzelnen Schichten auf zwei Dimensionen reduzieren, sodass eine Visualisierung der Merkmale im Graustufenbild möglich ist und eine graphische Veranschaulichung des Druckprozesses entsteht. Anhand dieser sind Charakteristika und Ähnlichkeiten der Druckverläufe detektierbar.

Für zukünftige Arbeiten wäre es interessant, mit weiteren Bauteilen zu überprüfen, ob sich diese Implementierungen übertragen lassen. Andere Bauteilgeometrien sind denkbar, dafür ist es notwendig den Autoencoder mit weiteren Bauteilen verschiedener Geometrien zu trainieren. Um dieses Vorgehen in der Praxis anzuwenden besteht die Möglichkeit die Graustufenbilder der jeweiligen Schicht in Echtzeit einzulesen und zu verarbeiten. Wichtig ist hierbei die Geschwindigkeit des Drucks und die Performance der Anwendungsapplikation, diese Betrachtungen sind in der aktuellen Arbeit noch nicht eingeflossen.

Ebenso denkbar wäre das Training eines künstlichen neuronalen Netzes zur Klassifikation von fehlerhaften respektive fehlerfreien Schichten. Außerdem könnten andere Klassifikationsalgorithmen wie beispielsweise Random Forest oder eine Support-Vector-Maschine zum Einsatz kommen.

Die Entwicklung einer Metrik basierend auf der Kombination beider Kenngrößen, welche in der vorliegenden Arbeit entwickelt wurden, wäre ein weiterer wünschenswerter Fortschritt.

Durch den hohen Ressourcenverbrauch und die Qualitätskontrolle nach dem Druck (der Druck eines Bauteils kann von mehreren Stunden bis zu hin zu mehreren Tagen andauern) ist der Prozess vergleichsweise ineffizient. Eine automatische Früherkennung von fehlerhaften Schichten wird den 3D-Druck rentabler und nachhaltiger machen.

3D-Druck mit integrierter Qualitätskontrolle bedarf nur noch geringfügigem manuellen Eingreifen. Mithilfe der vorgestellten Verfahren wird es in Zukunft möglich sein, komplexe industrielle Systeme wie den 3D-Druck intelligent zu überwachen. Die Produktionsprozesse lassen sich so stetig optimieren und die personelle Betreuung einzelner Maschinen wird in dem heutigen Ausmaß nicht mehr notwendig sein.

Die intelligente Analyse und Visualisierung sind auf heterogene Sensordatenströme aus Produktionsprozessen erweiterbar, sodass eine Fehlererkennung auf unterschiedlichen Produktionsparametern und Kenngrößen möglich erscheint. Zu diesem Zweck forscht das Scads.AI u. a. an der Entwicklung von Hybridmodellen zur Thermosimulation von Schmelzprozessen während des 3D-Drucks. Speziell werden Abbildungen physikalischer Zusammenhänge wie partielle Differentialgleichungen mit klassischen maschinellen Lernverfahren gekoppelt, um so datengetriebene, interpretierbare Vorhersagemodelle zu generieren.

Dieser Beitrag entstand im Rahmen des Projekts „TWIN-Transformation komplexer Produktentstehungsprozesse in wissensbasierte Services für die generative Fertigung“, das vom Bundesministerium für Bildung und Forschung unter dem Kennzeichen 02K18D050 ff. gefördert wird.


Literatur

[1] Bremen, S.; Meiner, W.; Diatlov, A.: Selective Laser Metling – A manufacturing technology for the future? In: Laser Technik Journal, (2012), S. 33-38.
[2] Chang, Y.; Jung, C.; Ke, P.; Song, H.; Hwang, J.: Automatic contrast-limited adaptive histogram equalization with dual gamma correction. In: IEEE Access 6 (2018), S. 11782-11792.
[3] Li, Z.; Liu, F.; Yang, W.; Peng, S.; Zhou, J.: A Survey of Convolutional Neural Networks: Analysis, Applications and Prospects, IEEE Transactions on Neural Networks and Learning Systems (2021), Volume 33: S. 6999-7019.
[4] Yao, Y.; Rosasco, L.; Caponnetto, A.: On Early Stopping in Gradient Descent Learning, Constructive Approximation, (2007): S. 289-315.
[5] Zimmerer, D.; Kohl, S.; Petersen, J; Meier-Hein, F.; Isensee, K.: Context encoding variational autoencoder for unsupervised anomaly detection. CoRR (2018): S. 1-13.
[6] An, J.; Cho, S.; Variational autoencoder based anomaly detection using reconstruction probability. Special Lecture on IE (2015), S. 1-18.
[7] Wang, Y.; Yao, H.; Zhao, S.: Auto-encoder based dimensionality reduction. Neurocomputing (2016), S. 232-242.
[8] Dette, H.; Härdle, W.; Principal component analysis, Multivariate Analysemethoden (2010), S. 126-147.

Ihre Downloads


Das könnte Sie auch interessieren

Lernfabriken für die Zukunft der Fertigung in Brasilien

Lernfabriken für die Zukunft der Fertigung in Brasilien

Förderung der Industrie durch Technologie und Kompetenzentwicklung
Fertigungsunternehmen in Entwicklungsländern stehen vor der Herausforderung, Produktivitätslücken zu schließen und gleichzeitig Industrie-4.0-Technologien einzuführen. Lernfabriken sind ein hilfreicher Ansatz, um diesen Herausforderungen zu begegnen. Ein Beispiel hierfür ist die Lernfabrik „Fábrica do Futuro“ in São Paulo, Brasilien, die Studierende einbindet, die Kompetenzentwicklung fördert und mit der Industrie in der angewandten Forschung zusammenarbeitet.
Serious Gaming und die Energiewende

Serious Gaming und die Energiewende

Kollaborativ Wissen erzeugen und interaktiv komplexe Zusammenhänge begreifen
Janine Gondolf ORCID Icon, Gert Mehlmann, Jörn Hartung, Bernd Schweinshaut, Anne Bauer
Die Vermittlung der Komplexität und Vielschichtigkeit der Energiewende an ein breites Publikum ist eine Herausforderung. Dieser Beitrag zeigt auf, wie interaktive Serious Games auf einem Multitouch-Tisch dazu beitragen können, Zusammenhänge erfahrbar und begreifbar zu machen. Spiele und Tisch wurden in verschiedenen Gesprächskontexten eingesetzt. Diese werden hier in drei Fallvignetten dargestellt, die auf teilnehmender Beobachtung der unterschiedlichen Einsätze, situierter und gemeinsamer Reflexion basieren. Die Vignetten zeigen, wie Interaktion epistemische Prozesse anstoßen, Perspektivwechsel ermöglichen und kollektives Denken fördern kann, das für gesamtgesellschaftliche Zukunftsgestaltung notwendig ist.
Industry 4.0 Science | 42. Jahrgang | 2026 | Ausgabe 2 | Seite 62-69 | DOI 10.30844/I4SD.26.2.62
Digitale Zwillinge in Produktion und Logistik erleben

Digitale Zwillinge in Produktion und Logistik erleben

Die fischertechnik® Lernfabrik 4.0 als Entwicklungsplattform für mögliche Ausbaustufen
Deike Gliem ORCID Icon, Sigrid Wenzel ORCID Icon, Jan Schickram, Tareq Albeesh
Die fischertechnik® Lernfabrik 4.0 hat sich als geeignete Experimentierumgebung zur Erprobung Digitaler Zwillinge erwiesen. Abhängig vom angestrebten Reifegrad reichen die Funktionen eines Digitalen Zwillings von der reinen Zustandsüberwachung über Prognosen bis hin zur operativen Steuerung von Produktions- und Logistiksystemen. Zur systematischen Einordnung dieser Funktionen wird in diesem Beitrag ein Reifegradmodell vorgestellt, das als Orientierungsrahmen für den Aufbau eines Digitalen Zwillings dient. Darauf aufbauend werden ausgewählte Anwendungsfälle in einer Test- und Entwicklungsumgebung umgesetzt, die auf einer Systemarchitektur mit mehrstufiger Schichtlogik basiert. Anhand erster Umsetzungen werden Einsatzzwecke, relevante Methoden sowie typische Herausforderungen und Potenziale für den Transfer in reale Fabrikumgebungen aufgezeigt.
Industry 4.0 Science | 42. Jahrgang | 2026 | Ausgabe 2 | Seite 30-37 | DOI 10.30844/I4SD.26.2.30
Angewandte KI für die menschenzentrierte Montage

Angewandte KI für die menschenzentrierte Montage

Ein ethisch fundierter Ansatz zur Gestaltung von Arbeitsplätzen
Tadele Belay Tuli ORCID Icon, Michael Jonek ORCID Icon, Sascha Niethammer, Henning Vogler, Martin Manns ORCID Icon
Künstliche Intelligenz (KI) kann die Montage verbessern, indem sie menschliche Bewegungen vorhersagt und den Arbeitsplatz entsprechend gestaltet. Mithilfe probabilistischer Modelle wie der Gaußschen Mischmodelle (GMMs) antizipieren KI-Systeme die Bewegungen des Bedieners, um die Koordination mit Robotern zu verbessern. Diese Vorhersagesysteme werfen jedoch ethische Bedenken hinsichtlich Sicherheit, Fairness und Datenschutz gemäß EU AI Act auf. Dieser Artikel stellt eine Methode vor, die probabilistische Bewegungsmodellierung mit ethischer Bewertung mittels Z-Inspection® integriert. Eine Fallstudie unter Verwendung des Werkerassistenzsystem zeigt, wie multimodale Sensorik (Bewegung, Blick) und interpretierbare Modelle eine vorausschauende Unterstützung ermöglichen. Der Ansatz geht von der ethischen Bewertung zu einer ethisch informierten Arbeitsgestaltung über und liefert übertragbare Prinzipien sowie eine konfigurierbare Bewertungsmatrix.
Industry 4.0 Science | 42. Jahrgang | 2026 | Ausgabe 1 | Seite 60-68 | DOI 10.30844/I4SD.26.1.60
Produktionssteuerung im All

Produktionssteuerung im All

Ein KI-gestützter Ansatz für die Industrie im Orbit
Dominik Augenstein, Lara Jovic
Eine Produktion im Weltraum, beispielsweise von Halbleitern, bietet viele Vorteile für Unternehmen. Gleichzeitig sorgen hohe Transportkosten dafür, dass genau abgewogen werden muss, welche Produktionsmaterialien man ins Weltall transportiert. Die Anwendung sogenannter Kalman-Filter ermöglicht dabei eine (Echt-Zeit) Steuerung von der Erde aus und damit eine kosteneffiziente Art der Weltraumproduktion. Mittels Machine Learning kann dieser Ansatz auch bei sehr komplexen Produktionssystemen Anwendung finden.
Industry 4.0 Science | 41. Jahrgang | 2025 | Ausgabe 6 | Seite 22-29
Quiz: Produktion im Weltraum

Quiz: Produktion im Weltraum

Testen Sie jetzt Ihr Wissen!
Schwerelos produzieren – nur Science-Fiction oder bereits Realität? Dank neuer Raumfahrttechnologien entstehen heute erste Produktionsprozesse im All, die Materialien und Strukturen ermöglichen, die auf der Erde kaum herstellbar sind. Von ultrapuren Fasern bis zum 3D-Druck von Organen: Die Schwerelosigkeit eröffnet Industrien völlig neue Perspektiven – und bringt die Raumfertigung näher an die Gegenwart, als viele denken.