Zurück zur Übersicht

Storyblok Image
© Plasmo Industrietechnik GmbH

LBMcheck (FFG - ASAP 13)

Optische Qualitätssicherung beim Laser Beam Melting (LBM) mittels Kamera und Photodiode

Im Zuge des Projekts LBMcheck beschäftigen sich der Konsortialführer FOTEC Forschungs- und Technologietransfer GmbH und die Konsortialpartner Technische Universität Wien und Plasmo Industrietechnik GmbH mit der Qualitätssicherung des LSS-Verfahrens, welches über enormes Potential verfügt. Bauteilformen sind denkbar und umsetzbar, die genau auf die jeweilige Belastung optimiert sind (Geometriefreiheit).

Ausgangslage

Die Arbeiten wurden im Rahmen des ASAP Programms der FFG durchgeführt und sind mit Mitteln des Bundes gefördert worden.

Im Zuge des Projekts LBMcheck beschäftigen sich der Konsortialführer FOTEC Forschungs- und Technologietransfer GmbH und die Konsortialpartner Technische Universität Wien und Plasmo Industrietechnik GmbH mit der Qualitätssicherung des LSS-Verfahrens, welches über enormes Potential verfügt. Bauteilformen sind denkbar und umsetzbar, die genau auf die jeweilige Belastung optimiert sind (Geometriefreiheit). Zudem entfällt die Spannproblematik und das Verfahren erreicht die mechanischen Eigenschaften des Grundwerkstoffes. In den Bereichen Luft- und Raumfahrt kann das Verfahren diese Stärken optimal ausspielen. In diesen Branchen bietet eine Gewichtsersparnis enorme Vorteile, welche durch die konstruktiven Freiheiten des Verfahrens bei additiv gefertigten Bauteilen markant sein kann. So lange aber kein funktionierendes Qualitätssicherungssystem auf dem Markt erhältlich ist, zeigen Endanwender häufig wenig Akzeptanz für diese Fertigungstechnologie, da eine Bauteilüberprüfung sehr kostspielig ist.

Die Schwierigkeit besteht jedoch in der Findung korrekter Algorithmen und einem zuverlässigen Messsystem, obwohl sich mehrere Forschungsgruppen bereits seit längerem damit beschäftigen, ist bis jetzt aber noch kein Produkt auf dem Markt erhältlich. Eine weitere Schwierigkeit stellt die Implementierung einer industrietauglichen Lösung der Hardware in die LSS-Anlagen dar.

Alle LSS-Anlagen haben die Gemeinsamkeit, dass der Aufbauprozess rein gesteuert, also ohne Signalrückführung im Sinne einer closed-loop control funktioniert. Zwar ist es bereits einigen Forschungsgruppen bzw. Maschinenherstellern gelungen, Teile des Prozesses zu überwachen, wie zum Beispiel die Rest-Sauerstoffkonzentration in der Prozesskammer, die Leistung des verwendeten Bearbeitungslasers, die Temperatur der Bauplattform und eventuell sogar den Pulverauftrag, aber eine Regelung des gesamten Aufbauprozesses ist bis dato weder Forschungsgruppen noch den Maschinenherstellern gelungen. Erste Schritte hin zu einem repräsentativen QS-System haben kürzlich die Maschinenhersteller EOS und Concept Laser in Form erster Ansätze einer Prozessdokumentation vorgestellt. Zusammengefasst kann an dieser Stelle jedoch erwähnt werden, dass zwar eine Protokollierung des Bauprozesses durch entsprechende Sensordaten stattfindet, diese jedoch zumeist nicht online (in harter Echtzeit) ausgewertet werden können bzw. nur Prozess-Unregelmäßigkeiten (-Auffälligkeiten) widerspiegeln. Dies bedeutet, dass der Zusammenhang zwischen Unregelmäßigkeiten in den Sensordaten und der entstehenden tatsächlichen Bauteilqualität (Fehlerkatalog) nicht bekannt ist und somit keinerlei fundierte OKNOK Aussagen eines Bauteils möglich sind.

Ziele

  • Erforschung und Implementierung der Algorithmen zur Berechnung der Charakteristiken, welche die Modellierung der Bauteilqualität aus den Sensordaten unter Verwendung der Methoden der Systemidentifikation ermöglicht. Die Algorithmen müssen in Echtzeit implementierbar sein und sollen bevorzugt unter Vermeidung von Referenzdaten operieren.

  • Entwicklung einer Klassifikationsstrategie, welche die Abbildung individueller Qualitätsanforderungen ermöglicht. Dieses Ziel soll unter Einsatz von Optimierungs­strategien, wie z.B. genetischer Algorithmen, erreicht werden. Durch den Einsatz dieser Strategien und durch die Verknüpfung der Sensordaten soll die Pseudofehlerrate gegenüber der alleinigen Verwendung einer diodenbasierten Überwachung um 50% verringert werden.

  • Verifizierung/Demonstration des entwickelten Systems anhand von Testgeometrien für zwei Werkstoffe (z.B. AlSi10Mg und Inconel). Verifizierung/Demonstration der Ausschussreduktion um 30%, sowie Reduktion der bestehenden Prüfungen mittels Computertomographie auf 30% und damit einhergehender deutlicher Reduktion der Prüfkosten und –zeiten.

Ergebnis

  • Konkret wurden zwei Messysteme erfolgreich implementiert (diodenbasiert und kamerabasiert) und der proof of concept erbracht, dass aus den Messsignalen Charakteristiken berechnet werden können, welche mit Prozessvariationen und Bauteilauffälligkeiten korrelieren. Die entsprechende Analysistoolbox wurde im Projekt erstellt.

  • Für die Beurteilung von Auffälligkeiten wurden erfolgreich Proben erstellt, als Beispiel sei hier Porosität genannt, hier ist der Abgleich mit CT Analysen der Bauteile gelungen. Weitere systematische Zusammenhänge z.B. über die Absaugthematik der Maschinen wurden erkannt und in den Signalen nachgewiesen.

  • Fehlerkataloge wurden erstellt, wobei die Hauptschwierigkeit im Projekt das Fehlen entsprechender Produktnormen war. Somit gibt es keine allgemein gültigen Richtlinien für die Klassifizierung der Fehler hinsichtlich z.B. in Ordnung und nicht in Ordnung. Dies machte einen endgültigen Abgleich der Modelle, wie in AP4 geplant, schwierig bzw. wurde diese Einteilung anhand der Erfahrungen im Projektteam vorgenommen und erfolgreich gezeigt, dass hier eine entsprechende Modellierung möglich ist. Zudem wurde das Framework so entwickelt, dass bisher nicht existierende kundenspezifische Qualitätsvorgaben berücksichtigt werden können.

  • Als Highlight sei hier ein Ansatz zur Verwendung verorteter Charakteristiken genannt. Es wurde im Projekt von Rawsignalen hoher Datenmenge auf 2D layerbasierte und 3D volumensbasierte digitale Prozesszwillinge umgeschwenkt. Neben dem höheren Informationsgehalt ergibt sich ein drastisch reduzierter Speicherbedarf (Reduktion der Datenmengen um einen Faktor größer 1000) und damit ein fast interaktives Arbeiten mit dem digitalen Zwilling.

  • Weiteres Highlight ist die automatisierte Berechnung der Kameracharakteristiken auf einem FPGA. Es wurde hier der proof of concept erbracht, dass eine Berechnung der Kenngrößen mit mehr als 20.000 Bildern pro Sekunde in Echtzeit erfolgen kann.

  • Darüber hinaus wurde ein auf maschinellem Lernen beruhender Ansatz zur automatisierten Auffindung von Auffälligkeiten in Sekundenschnelle entwickelt, ohne Vorgaben zu benötigen. Mittels unsupervised learning Methoden wurden KPIs aus den digitalen Zwillingen so korreliert, dass stochastische und systematische Prozessänderungen und Bauteilauffälligkeiten erkannt werden können.

cemoj

Wir schätzen Privatsphäre

Diese Seite verwendet ausschließlich anonymisierte Cookies, um den vollen Funktionalitätsumfang zu garantieren und laufend zu verbessern. Sie stimmen durch Anklicken von "Zustimmen & fortfahren" zu, dass funktionelle Cookies, Statistik-Cookies und Medien-Cookies in Ihrem Browser gespeichert werden. Ihre erteilte Einwilligung können Sie jederzeit widerrufen, z.B. unter dem Link "Cookie-Einstellungen ändern" in der Fußzeile unserer Website.

Datenschutz