DE102018129441A1 - Überwachung eines Laserbearbeitungsprozesses mithilfe von tiefen faltenden neuronalen Netzen - Google Patents

Überwachung eines Laserbearbeitungsprozesses mithilfe von tiefen faltenden neuronalen Netzen Download PDF

Info

Publication number
DE102018129441A1
DE102018129441A1 DE102018129441.7A DE102018129441A DE102018129441A1 DE 102018129441 A1 DE102018129441 A1 DE 102018129441A1 DE 102018129441 A DE102018129441 A DE 102018129441A DE 102018129441 A1 DE102018129441 A1 DE 102018129441A1
Authority
DE
Germany
Prior art keywords
data
machining
laser
tensor
workpiece
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102018129441.7A
Other languages
English (en)
Other versions
DE102018129441B4 (de
Inventor
Joachim Schwarz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Precitec GmbH and Co KG
Original Assignee
Precitec GmbH and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to DE102018129441.7A priority Critical patent/DE102018129441B4/de
Application filed by Precitec GmbH and Co KG filed Critical Precitec GmbH and Co KG
Priority to EP19789615.2A priority patent/EP3883715A1/de
Priority to CN201980089975.7A priority patent/CN113329836A/zh
Priority to KR1020217018693A priority patent/KR102611342B1/ko
Priority to PCT/EP2019/077485 priority patent/WO2020104103A1/de
Priority to US17/295,904 priority patent/US20220011726A1/en
Priority to JP2021528414A priority patent/JP2022509143A/ja
Publication of DE102018129441A1 publication Critical patent/DE102018129441A1/de
Application granted granted Critical
Publication of DE102018129441B4 publication Critical patent/DE102018129441B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K26/00Working by laser beam, e.g. welding, cutting or boring
    • B23K26/02Positioning or observing the workpiece, e.g. with respect to the point of impact; Aligning, aiming or focusing the laser beam
    • B23K26/03Observing, e.g. monitoring, the workpiece
    • B23K26/032Observing, e.g. monitoring, the workpiece using optical means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K1/00Soldering, e.g. brazing, or unsoldering
    • B23K1/005Soldering by means of radiant energy
    • B23K1/0056Soldering by means of radiant energy soldering by means of beams, e.g. lasers, E.B.
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K26/00Working by laser beam, e.g. welding, cutting or boring
    • B23K26/20Bonding
    • B23K26/21Bonding by welding
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K26/00Working by laser beam, e.g. welding, cutting or boring
    • B23K26/36Removing material
    • B23K26/38Removing material by boring or cutting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K31/00Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups
    • B23K31/006Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups relating to using of neural networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K31/00Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups
    • B23K31/12Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups relating to investigating the properties, e.g. the weldability, of materials
    • B23K31/125Weld quality monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • Plasma & Fusion (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Automation & Control Theory (AREA)
  • Laser Beam Processing (AREA)

Abstract

Ein System zur Überwachung eines Laserbearbeitungsprozesses zur Bearbeitung eines Werkstücks umfasst: eine Recheneinheit, die eingerichtet ist, basierend auf aktuellen Daten des Laserbearbeitungsprozesses einen Eingangstensor zu bestimmen und basierend auf dem Eingangstensor mittels einer Übertragungsfunktion einen Ausgangstensor zu bestimmen, der Informationen über ein aktuelles Bearbeitungsergebnis enthält, wobei die Übertragungsfunktion zwischen dem Eingangstensor und dem Ausgangstensor durch ein angelerntes neuronales Netz gebildet ist.

Description

  • Die vorliegende Offenbarung betrifft ein System zur Überwachung eines Laserbearbeitungsprozesses zur Bearbeitung eines Werkstücks und ein Bearbeitungssystem zur Bearbeitung eines Werkstücks mittels eines Laserstrahls, welches ein solches System zur Überwachung eines Laserbearbeitungsprozesses zur Bearbeitung eines Werkstücks umfasst. Ferner betrifft die vorliegende Offenbarung ein Verfahren zur Überwachung eines Laserbearbeitungsprozesses zur Bearbeitung eines Werkstücks.
  • Hintergrund und Stand der Technik
  • In einem Bearbeitungssystem zur Bearbeitung eines Werkstücks mittels eines Laserstrahls wird der von einer Laserlichtquelle oder einem Ende einer Laserleitfaser austretende Laserstrahl mit Hilfe einer Strahlführungs- und Fokussieroptik auf das zu bearbeitende Werkstück fokussiert oder gebündelt. Die Bearbeitung kann beispielsweise ein Laserschneiden, - löten oder -schweißen umfassen. Das Laserbearbeitungssystem kann beispielsweise einen Laserbearbeitungskopf umfassen.
  • Insbesondere beim Laserschweißen oder -löten eines Werkstücks ist es wichtig, den Schweiß- bzw. Lötprozess kontinuierlich zu überwachen und die Qualität der Bearbeitung zu sichern. Aktuelle Lösungen für die Überwachung derartiger Laserbearbeitungsprozesse umfassen für gewöhnlich eine sogenannte In-Prozess-Überwachung.
  • Die In-Prozess-Überwachung bzw. Überwachung eines Laserbearbeitungsprozesses erfolgt typischerweise dadurch, dass gewisse Signale oder Parameter des Laserbearbeitungsprozesses, wie z.B. Temperaturwerte, die Plasmastrahlung, die Laserleistung des Laserbearbeitungskopfes, die Menge und Art der zurückgestreuten Laserleistung, etc. unabhängig voneinander erfasst und beurteilt werden. Beispielsweise werden Messwerte eines Signals oder Parameters über eine gewisse Zeitdauer kontinuierlich gemessen bzw. erfasst, um ein dem Parameter entsprechendes Signal zu erhalten. Ebenso erfolgt eine Überwachung der Geometrie der Dampfkapillare (auch Keyhole genannt) und des die Dampfkapillare umgebenden Schmelzbads mittels Bildverarbeitung und -auswertung während des Laserbearbeitungsprozesses.
  • Es folgen eine Verarbeitung und eine Klassifikation der einzelnen Signale, für die jeweils eine Vielzahl von Einstellwerten für Filterprozesse, Median- oder Mittelwertberechnungen, Hüllkurven, Schwellwerten etc. von einem erfahrenen Spezialisten eingestellt werden müssen. Bei der Klassifikation eines Signals wird das Signal dahingehend überprüft, ob das Signal gewisse Fehlerkriterien erfüllt. Beispielsweise wird geschaut, ob das Signal vordefinierte Schwellwerte unter- bzw. überschreitet. Dazu werden die einzelnen Signale mit vordefinierten Referenzkurven verglichen, um die sogenannte Hüllkurven gelegt worden sind. Ein weiteres Kriterium kann beispielsweise das Integral des Signals über der Hüllkurve sein.
  • Wenn ein Signal während des Laserbearbeitungsprozesses zuvor festgelegte Fehlerkriterien erfüllt, wird durch die In-Prozess-Überwachung ein Fehler ausgegeben. D.h. die In-Prozess-Überwachung erzeugt eine Benachrichtigung, dass ein Bearbeitungsfehler aufgetreten ist.
  • Die Klassifikation der Signale und die Überwachung der Keyhole- und Schmelzbadgeometrie beschreiben also die Qualität des Laserbearbeitungsprozesses. Anhand der Klassifizierung der Signal- bzw. Parameterverläufe und der Überwachung der Keyhole- und Schmelzbadgeometrie werden Bearbeitungsfehler erkannt und klassifiziert und das bearbeitete Werkstück wird abhängig davon beispielsweise als „gut“ (d.h. geeignet für die Weiterverarbeitung oder den Verkauf) oder als „schlecht (d.h. als Ausschuss) gekennzeichnet bzw. klassifiziert. Darüber hinaus kann während des laufenden Laserbearbeitungsprozesses mittels der Überwachung der Signale bzw. Parameter bzw. der Geometrie der Keyhole- und Schmelzbadgeometrie Einfluss auf die Steuerungsparameter des Prozesses genommen werden. Somit kann der Laserbearbeitungsprozess gesteuert werden.
  • In herkömmlichen Systemen ist die Signalverarbeitung und -klassifikation komplex, da die Merkmale, die die Qualität beschreiben, stark von dem verwendeten Material, der eingebrachten Laserleistung, der Schweißgeschwindigkeit und vielem mehr abhängen. Das heißt, die Klassifikation der Signale muss über zahlreiche Parameter angepasst werden. Erweiterungen der Laserbearbeitung auf ein neues Material oder eine Änderung des Bearbeitungsprozesses erfordern eine Änderung der Klassifikationsparameter und der Parameter der Bildverarbeitung. Auch jede Anpassung der Laserbearbeitung, beispielsweise durch einen Produktwechsel, erfordert das erneute Ein- oder Nachstellen der Parameter.
  • Aufgrund dieser Komplexität erfolgen sowohl die Signalverarbeitung als auch die Klassifikation der Signale getrennt für jedes Signal bzw. jeden Parameter, d.h. unabhängig von den anderen Signalen bzw. Parametern. Die Festlegung der Parameter sowohl für die Signalverarbeitung als auch für die Klassifikation der Signale, beispielsweise das Bilden der Hüllkurven, etc., und der Bildverarbeitung muss deshalb durch Spezialisten erfolgen.
  • Welche Merkmale der Signal- bzw. Parameterverläufe bzw. der Keyhole- und Schmelzbadgeometrie überhaupt für die Überwachung des Laserbearbeitungsprozesses und die Erkennung von Bearbeitungsfehlern herangezogen werden können, kann ebenfalls nur durch Spezialisten auf dem Gebiet entschieden und bewerkstelligt werden, da die Komplexität dieser Systeme aufgrund der Anzahl einzustellenden Parameter sehr hoch ist.
  • Die Schulung von Spezialisten ist entsprechend aufwendig und langwierig. Darüber hinaus erfordert das Ein- und Nachstellen der Parameter lange Produktionsunterbrechungen in der Fertigung bei den Kunden der Laserbearbeitungssysteme. Zudem ist die Gefahr einer Fehlparametrierung hoch.
  • In herkömmlichen Systemen erfolgt die Überwachung des Laserbearbeitungssystems deshalb lediglich basierend auf einzelnen Signal- bzw. Parameterverläufen und der Überwachung der Keyhole- und Schmelzbadgeometrie. Die Überwachung unter Berücksichtigung aller Signale bzw. Parameter des Laserbearbeitungsprozesses und unter gleichzeitiger Einbeziehung der Keyhole- und Schmelzbadgeometrie erfolgt also nicht.
  • 3A zeigt ein beispielhaftes Signal, welches die Plasmastrahlung eines Laserbearbeitungsprozesses, beispielsweise eines Schweißprozesses, repräsentiert und das Signal einer Temperatur des Laserbearbeitungsprozesses innerhalb der jeweiligen Hüllkurven. Beide Signale liegen so innerhalb der Hüllkurve, dass die Schweißung als ordnungsgemäß klassifiziert wird, da das Integral des Signals über der Hüllkurve kleiner als ein festgelegter Schwellwert ist.
  • In 3B Bild liegen die Signale deutlich oberhalb der jeweiligen Hüllkurven. Mit entsprechender Parametrierung des Schwellwerts für das Integral über der Hüllkurve wird das Signal als fehlerhaft klassifiziert und ein Bearbeitungsfehler wird festgestellt.
  • In 3C sind Verläufe drei verschiedener Signale gezeigt. Jeder Signalverlauf für sich wird als ordnungsgemäß klassifiziert. Tatsächlich liegt aber eine fehlerhafte Schweißung vor. Um diese zu erkennen, müssten die Verläufe mehrerer Signale herangezogen und ggf. von einem Spezialisten begutachtet werden.
  • Zusammenfassung der Erfindung
  • Es ist eine Aufgabe der Erfindung, Bearbeitungsfehler zuverlässig und schnell und ohne aufwändige Parametrierungsprozesse zu erkennen. Es ist ferner eine Aufgabe der Erfindung, Bearbeitungsfehler, vorzugsweise in Echtzeit, während eines laufenden Laserbearbeitungsprozesses zu erkennen.
  • Darüber hinaus ist es eine Aufgabe der Erfindung, ein System anzugeben, welches die Erkennung von Bearbeitungsfehlern automatisiert und somit eine Prozessüberwachung, vorzugsweise in Echtzeit, ermöglicht.
  • Es ist weiter eine Aufgabe der Erfindung, ein System anzugeben, bei dem die Erkennung von Bearbeitungsfehlern schnell und einfach auf geänderte Umstände oder eine geänderte Situation, wie z.B. ein geänderter Bearbeitungsprozess oder ein anderes Werkstückmaterial, angepasst werden können.
  • Es ist ferner eine Aufgabe der Erfindung, ein System anzugeben, bei dem die Erkennung von Bearbeitungsfehlern unter gleichzeitiger Berücksichtigung einer Vielzahl von Parametern erfolgt.
  • Es ist darüber hinaus eine Aufgabe der Erfindung, ein System anzugeben, bei dem die Erkennung von Bearbeitungsfehlern basierend auf von einem Bearbeitungsbereich auf der Werkstückoberfläche aufgenommenen Rohdaten erfolgt (sogenannte „end-to-end“-Verarbeitung bzw. -Analyse).
  • Diese Aufgaben werden durch den Gegenstand der unabhängigen Ansprüche gelöst. Vorteilhafte Ausführungsformen und Weiterentwicklungen sind Gegenstand der entsprechenden abhängigen Ansprüche.
  • Die Erfindung beruht auf dem Gedanken, dass die Bestimmung des Bearbeitungsergebnisses des Laserbearbeitungsprozesses, insbesondere die Erkennung von Bearbeitungsfehlern und die Bestimmung bzw. Charakterisierung des Bearbeitungsbereichs, unter Verwendung eines tiefen neuronalen Netzes erfolgt, welches als Eingangsdaten aktuelle Sensordaten, Steuerdaten und/oder Bilddaten des Laserbearbeitungsprozesses, vorzugsweise als Rohdaten, erhält.
  • Gemäß einem Aspekt der vorliegenden Offenbarung ist ein System zur Überwachung eines Laserbearbeitungsprozesses zur Bearbeitung eines Werkstücks angegeben, wobei das System umfasst: eine Recheneinheit, die eingerichtet ist, basierend auf aktuellen Daten des Laserbearbeitungsprozesses Eingangstensoren zu bestimmen und basierend auf diesen Tensoren mittels einer Übertragungsfunktion einen Ausgangstensor zu bestimmen, der Informationen über ein aktuelles Bearbeitungsergebnis enthält, wobei die Übertragungsfunktion zwischen den Eingangstensoren und dem Ausgangstensor durch ein angelerntes neuronales Netz gebildet ist. Das Bearbeitungsergebnis kann Informationen über einen Bearbeitungsfehler und/oder einen Bearbeitungsbereich des Werkstücks umfassen.
  • Demnach ist das System in der Lage, selbstständig und unmittelbar das Bearbeitungsergebnis des Laserbearbeitungsprozesses zu bestimmen. Beispielsweise kann bestimmt werden, ob ein Bearbeitungsfehler bei einem durch das Laserbearbeitungssystem bearbeiteten Werkstück vorliegt. Darüber hinaus kann bestimmt werden, ob ein Bearbeitungsbereich des Werkstücks vorbestimmte Merkmale oder eine vorbestimmte Geometrie aufweist, beispielsweise ob ein Keyhole gebildet worden ist oder welche Ausdehnung ein Schmelzbad aufweist. Basierend darauf können Parameter des Laserbearbeitungsprozesses eingestellt werden, um weitere Fehler zu vermeiden. Mithilfe des Systems zur Überwachung kann also ein Laserbearbeitungsprozess bzw. ein Laserbearbeitungssystem gesteuert werden.
  • Im Allgemeinen hat die Verwendung eines neuronalen Netzes, welches die Übertragungsfunktion bildet, den Vorteil, dass das System selbstständig erkennen kann, ob und welche Bearbeitungsfehler vorliegen. Demnach ist es nicht mehr notwendig, dass die erfassten Sensordaten vorverarbeitet werden müssen, um einer Fehlererkennung zugänglich zu sein. Weiterhin ist es nicht notwendig, Fehlerkriterien zu definieren, die die Bearbeitungsqualität charakterisieren bzw. etwaige Bearbeitungsfehler angeben. Auch ist es nicht erforderlich, eine Parametrisierung der Fehlerkriterien anzugeben oder anzupassen. Die Überwachung eines Laserbearbeitungsprozesses wird dadurch vereinfacht. Die genannten Schritte müssen nicht durch Experten der Laserbearbeitung durchgeführt oder begleitet werden. Das System zur Überwachung eines Laserbearbeitungsprozesses gemäß den hierin offenbarten Aspekten führt die Erkennung von Bearbeitungsfehlern und die Bestimmung der Keyhole- und Schmelzbadgeometrie selbstständig, d.h. automatisiert, durch und kann einfach angepasst werden.
  • Das System kann also mit dem Ausgangstensor Informationen über ein aktuelles Bearbeitungsergebnis des aktuellen Bearbeitungsbereichs enthalten, etwa über eine Beschaffenheit des Bearbeitungsbereichs selbst, beispielsweise eine Ausdehnung des Bearbeitungsbereichs, das Vorhandensein eines sogenannten Keyholes bzw. einer Dampfkapillare, das Vorhandensein eines Schmelzbads, einer Position und/oder Tiefe des Keyholes innerhalb des Schmelzbads, einer Ausdehnung bzw. einer Form des Schmelzbads, etc..
  • Ferner kann das System in der Lage sein, einen Bearbeitungsfehler zu erkennen und dessen Art anzugeben. Der Ausgangstensor kann beispielsweise mindestens eine der folgenden Informationen enthalten: Vorhandensein mindestens eines Bearbeitungsfehlers, die Art des Bearbeitungsfehlers, Wahrscheinlichkeit für einen Bearbeitungsfehler einer bestimmten Art, Position des Bearbeitungsfehlers auf einer Oberfläche eines bearbeiteten Werkstücks. Die Art des Bearbeitungsfehlers kann zumindest eine der folgenden sein: Pore, Loch, fehlende Durchschweißung des Werkstücks, falscher Freund, Spritzer oder Spalt.
  • Die Recheneinheit kann also dazu eingerichtet sein, den Ausgangstensor für den aktuellen Bearbeitungsbereich des Laserbearbeitungsprozesses zu bestimmen, während der Laserbearbeitungsprozess noch ausgeführt wird. Durch die unmittelbare Bestimmung des Bearbeitungsergebnisses kann eine Überwachung des Laserbearbeitungsprozesses in Echtzeit möglich sein. Die Recheneinheit kann eingerichtet sein, den Ausgangstensor in Echtzeit zu bilden und Regelungsdaten an ein den Laserbearbeitungsprozess durchführendes Laserbearbeitungssystem auszugeben. Im einfachsten Fall kann der Ausgangstensor die Information enthalten, ob eine Bearbeitung eines Werkstücks gut oder schlecht ist. Basierend auf dieser Information kann der Laserbearbeitungsprozess entsprechend gesteuert werden, indem beispielsweise Prozessparameter angepasst werden. Beispielsweise kann eine Laserleistung erhöht oder reduziert werden, die Fokuslage des Lasers kann verändert werden, oder ein Abstand Bearbeitungskopf eines Laserbearbeitungssystems zum Werkstück kann verändert werden.
  • Die Übertragungsfunktion zwischen den Eingangstensoren und dem Ausgangstensor ist durch ein angelerntes oder trainiertes neuronales Netz gebildet. Mit anderen Worten kann die Recheneinheit ein neuronales Netz umfassen. Das neuronale Netz kann durch Fehlerrückführung bzw. Backpropagation trainiert worden sein.
  • Das neuronale Netz kann ein angelerntes tiefes neuronales Netz, z.B. ein angelerntes tiefes faltendes neuronales Netz oder Konvolutionsnetz sein. Das Konvolutionsnetz kann zwischen 10 und 40 Konvolutionslagen, vorzugsweise 34 Konvolutionslagen, aufweisen. Darüber hinaus kann das Konvolutionsnetz mindestens eine sogenannte „Fully-Connected“-Schicht aufweisen.
  • Das neuronale Netz kann zum Transfer-Learning eingerichtet sein. Mit anderen Worten kann das neuronale Netz an geänderte Voraussetzungen eines geänderten Laserbearbeitungsprozesses anpassbar sein. Die Recheneinheit kann insbesondere dazu eingerichtet sein, das neuronale Netz mittels Transfer-Learning, z.B. basierend auf Trainingsdaten, an einen geänderten Laserbearbeitungsprozess anzupassen.
  • Die Trainingsdaten können Testdaten des geänderten Laserbearbeitungsprozesses zum Bestimmen eines entsprechenden Eingangstensors und einen den Testdaten zugeordneten, vorgegebenen Ausgangstensor, der Informationen über ein entsprechendes, zuvor bestimmtes Bearbeitungsergebnis des geänderten Laserbearbeitungsprozesses enthält, umfassen. Das Bearbeitungsergebnis kann Informationen über einen z.B. von einem Experten identifizierten Bearbeitungsfehler enthalten. Zum Anpassen bzw. Trainieren des neuronalen Netzes können die Trainingsdaten mehrere Sätze solcher Testdaten und zugehöriger Ausgangstensoren umfassen. Die Testdaten können auf Werten eines Sensorparameters basieren, die von zumindest einer Sensoreinheit während eines vorangegangen Laserbearbeitungsprozesses erfasst worden sind, und/oder auf Werten eines Steuerparameters, die während eines vorausgegangenen Laserbearbeitungsprozesses verwendet worden sind.
  • Dadurch kann das neuronale Netz, welches die Übertragungsfunktion bildet, an eine geänderte Situation oder einen geänderten Laserbearbeitungsprozess angepasst werden. Hierfür wird die Übertragungsfunktion modifiziert. Die geänderte Situation kann beispielsweise darin bestehen, dass die zu bearbeitenden Werkstücke andere Materialien, unterschiedliche Verschmutzungsgrade und/oder Dicken aufweisen, oder dass sich die Parameter der Laserbearbeitung ändern. Beim Transfer-Learning kann ein für das Trainieren oder Anlernen des neuronalen Netzes verwendeter Trainingsdatensatz oder ein reduzierter Trainingsdatensatz um neue Beispiele ergänzt werden.
  • Die Verwendung eines trainierten neuronalen Netzes, das zum Transfer-Learning eingerichtet ist, bei dem System zur Erkennung von Bearbeitungsfehlern gemäß den hierin beschriebenen Aspekten hat also den Vorteil, dass das System schnell an geänderte Situationen angepasst werden kann.
  • Die Eingangstensoren können aktuelle Daten des Laserbearbeitungsprozesses als Rohdaten umfassen oder daraus bestehen. Demnach müssen die aktuellen Daten nicht vor der Bildung des Eingangstensors verarbeitet werden. Ein der Bildung des Eingangstensors vorgeschalteter Datenverarbeitungsschritt kann dadurch entfallen. Das neuronale Netz bestimmt also direkt auf Basis der Rohdaten den Ausgangstensor.
  • Die Recheneinheit kann eingerichtet sein, eine Vielzahl von aktuellen Daten des Bearbeitungsprozesses, die demselben aktuellen Zeitpunkt entsprechen, in dem Eingangstensor zusammenzufassen und zusammen durch die Übertragungsfunktion auf den Ausgangstensor abzubilden. Durch die gleichzeitige Verarbeitung aller relevanten aktuellen Daten des Laserbearbeitungsprozesses kann die Bestimmung des Bearbeitungsergebnisses zuverlässiger und schneller erfolgen. Dadurch kann die Überwachung des Laserbearbeitungsprozesses zuverlässiger und genauer erfolgen.
  • Die Eingangstensoren können aktuelle Daten des Laserbearbeitungsprozesses umfassen, die erfasste Sensordaten und/oder Steuerdaten umfassen, welche beispielsweise 512 Samples umfassen, wobei jedes Sample einem Zeitpunkt zugeordnet ist. Die Sensordaten und Steuerdaten werden im Folgenden auch Prozessdaten genannt. Der Eingangstensor wird dabei aus den jeweiligen aktuellen Daten gebildet, indem alle 256 Samples ein Fenster über 512 Samples gelegt wird. Dadurch ist eine Überlappung der Samples zwischen zwei zeitlich nacheinander gebildeten Eingangstensoren gewährleistet. Zu jedem Sample kann ein Bild aufgenommen werden, welches über den Zeitpunkt der Aufnahme dem jeweiligen Sample der Sensordaten und/oder Steuerdaten zugeordnet werden kann. Jeder Eingangstensor kann demnach Daten wie beispielsweise Sensordaten, Bilddaten und/oder Steuerdaten des Bearbeitungsprozesses enthalten, die dem jeweiligen Zeitpunkt entsprechen. D.h. die Sensordaten bzw. Bilddaten wurden zu dem jeweiligen Zeitpunkt erfasst, und die Steuerdaten wurden zu dem jeweiligen Zeitpunkt durch eine Steuereinheit des Laserbearbeitungssystems bei dem Bearbeitungsprozess angewendet. Die so erzeugten Eingangstensoren können für einen gegebenen Zeitpunkt während der Ausführung des Laserbearbeitungsprozesses die letzten n erfassten Sensordaten und/oder die letzten n erfassten Bilddaten und/oder die letzten n verwendeten Steuerdaten umfassen. Im einfachsten Fall ist n = 1.
  • Gemäß einer Ausführungsform ist n = 512 und ein erster Eingangstensor umfasst aktuelle Sensor- und/oder Steuerdaten, mit anderen Worten aktuelle Prozessdaten, und ein zweiter Eingangstensor umfasst aktuelle Bilddaten. D.h. der erste Eingangstensor umfasst die letzten 512 Samples oder Werte der jeweiligen Sensordaten, Steuerdaten und/oder Bilddaten. Bei einer typischen Samplingrate von 100KHz wird dazu alle 5,12 ms ein Datensatz der Dimension m x 512 erzeugt werden. Hierbei steht m für die Anzahl von m verschiedenartigen Daten, die die (erfassten) Sensordaten und die (erhaltenen bzw. verwendeten) Steuerdaten umfassen. Aus diesen Datensätzen wird alle 2,56 ms der erste Eingangstensor der Dimension m × 512 gebildet. Bei einer entsprechenden Bilderfassungsrate von ca. 391 Bildem/s (d.h. es wird alle 2,56 ms ein Bild aufgenommen) kann mit jedem ersten Eingangstensor der Prozessdaten ein zweiter Eingangstensor der Bilddaten erzeugt werden. Beispielsweise wird ein Bild mit 512 × 512 Pixeln entsprechend einem Eingangstensor der aktuellen Prozessdaten erfasst. Demnach weist in diesem Fall der entsprechend erzeugte Eingangstensor der Bilddaten die Dimension 512 × 512 auf.
  • Die aktuellen Sensordaten können eine oder mehrere Temperaturen, eine Plasmastrahlung, Intensitäten von reflektiertem oder zurückgestreutem Laserlicht bei unterschiedlichen Wellenlängen, eine Keyhole-Tiefe und/oder einen Abstand eines den Laserbearbeitungsprozess ausführenden Laserbearbeitungskopfes zum Werkstück umfassen. Die Steuerdaten können eine Ausgangsleistung eines Lasers am Laserbearbeitungskopf, eine Fokuslage, einen Fokusdurchmesser, eine Position des Laserbearbeitungskopfes, eine Bearbeitungsgeschwindigkeit und/oder ein Bahnsignal umfassen. Die Bilddaten können ein Bild einer Oberfläche des Werkstücks umfassen, beispielsweise ein Bild eines Bearbeitungsbereichs des Werkstücks. Der Bearbeitungsbereich kann ein Schmelzbad und/oder ein Keyhole umfassen.
  • Das Bahnsignal kann ein Steuersignal eines den Laserbearbeitungsprozess durchführenden Laserbearbeitungssystems sein, welches eine Bewegung eines Laserbearbeitungskopfes relativ zum Werkstück steuert. Durch die Einbeziehung des Bahnsignals in die Bestimmung des Bearbeitungssignals kann beispielsweise ein aufgetretener Bearbeitungsfehler schnell und einfach auf dem Werkstück lokalisiert werden, da bekannt ist, zu welchem Zeitpunkt welcher Bereich des Werkstücks vom Laserbearbeitungssystem bearbeitet wird bzw. wurde. Das System kann somit in der Lage sein, den Zeitpunkt während des Laserbearbeitungsprozesses anzugeben, zu dem ein Fehler aufgetreten ist. Alternativ kann das System den Zeitpunkt lediglich basierend aufgrund der bekannten Bearbeitungsgeschwindigkeit, einem bekannten Zeitpunkt als definierter Startpunkt und der zeitlichen Zuordnung der Eingangstensoren berechnen. Die zeitliche Zuordnung der Eingangstensoren ergibt sich aus der Erzeugungsrate der Eingangstensoren und einer Anzahl der seit dem Startpunkt erzeugten Eingangstensoren.
  • Das System kann ferner zumindest eine Sensoreinheit zum Erfassen von aktuellen Sensordaten des Laserbearbeitungsprozesses während des Laserbearbeitungsprozesses, umfassen. Die Sensordaten, die von der Sensoreinheit umfasst werden, repräsentieren also Werte eines von der Sensoreinheit erfassten oder gemessenen Parameters, beispielsweise eines physikalischen Parameters wie eine Temperatur. Die zumindest eine Sensoreinheit kann einen Temperatursensor, einen Lichtsensor oder einen Plasmasensor umfassen. Die Sensoreinheit kann ferner einen Abstandssensor, beispielsweise ein Triangulationssystem und/oder ein OCT („optical coherence tomography“ oder „optische Kohärenztomographie“)-System umfassen. Mittels des Abstandssensors kann ein Abstand zu einer Oberfläche des Werkstücks bestimmt werden, z.B. ein Abstand zwischen dem einem Laserbearbeitungskopf des Laserbearbeitungssystems und der Werkstückoberfläche.
  • Das System kann ferner zumindest eine Bilderfassungseinheit zum Erfassen von aktuellen Bilddaten eines Bearbeitungsbereichs des Werkstücks während des Laserbearbeitungsprozesses umfassen. Die Bilderfassungseinheit kann eine Kamera oder ein Kamerasystem, insbesondere ein 2D- und/oder ein 3D-Kamerasystem, vorzugsweise mit einer Auflicht-LED-Beleuchtung, umfassen. Die Bilderfassungseinheit kann ein Stereo-Kamerasystem umfassen. Vorzugsweise entsprechen die Bilddaten einem zweidimensionalen Bild bzw. einer zweidimensionalen Abbildung eines Ausschnitts einer Werkstückoberfläche, welcher den Bearbeitungsbereich des Laserbearbeitungsprozesses umfasst. Der Bearbeitungsbereich kann ein sogenanntes Schmelzbad und Keyhole umfassen. Mit anderen Worten können die Bilddaten ein Bild des Schmelzbads und des Keyholes umfassen.
  • Die Erfassungsraten der Bilderfassungseinheit und der Sensoreinheit können gleich groß sein. Mit anderen Worten können die Daten der Bilderfassungseinheit und der Sensoreinheit pro vorgegebenen Zeitraum korreliert werden. Die Bilderfassungseinheit und die Sensoreinheit können die jeweiligen Daten stets zu denselben Zeitpunkten erfassen. Beispielsweise kann die Bilderfassungseinheit zu denjenigen Zeitpunkten ein Bild des Werkstücks aufnehmen, an denen ein Temperatursensor eine Temperaturmessung vornimmt.
  • Die aktuellen Daten des Laserbearbeitungsprozesses können aktuelle Sensordaten und/oder aktuelle Bilddaten und/oder aktuelle Steuerdaten des Laserbearbeitungsprozesses umfassen. Die Sensordaten und Steuerdaten werden im Folgenden auch Prozessdaten genannt. Die Sensordaten repräsentieren Werte mindestens eines von einer Sensoreinheit erfassten oder gemessenen Parameters. Die Steuerdaten repräsentieren Werte mindestens eines Steuerparameters des Laserbearbeitungsprozesses oder Laserbearbeitungssystems.
  • Die Recheneinheit weist vorzugsweise mindestens eine Schnittstelle auf, die dazu eingerichtet ist, um diese aktuellen Daten zu empfangen. Die mindestens eine Schnittstelle kann beispielsweise eingerichtet sein, Trainingsdaten zum Trainieren oder Anpassen des neuronalen Netzes, Steuerdaten eines Laserbearbeitungssystem und/oder Sensordaten einer Sensoreinheit und/oder Bilddaten von einer Bilderfassungseinheit zu empfangen. Das System kann also dazu eingerichtet sein, von einer Steuerung eines Laserbearbeitungssystems, welcher den Laserbearbeitungsprozess durchführt, Werte zumindest eines Steuerparameters, beispielsweise über eine Schnittstelle zu erhalten.
  • Typischerweise ist die Netzarchitektur zur Klassifikation der Sensordaten eine andere als die Netzarchitektur zur Klassifikation der Bilddaten.
  • Um Bild- und Prozessdaten gleichzeitig zu verwenden, werden gemäß einer Ausführungsform die jeweiligen neuronalen Netze, welche Prozessdaten und Bilddaten klassifizieren, nach der letzten oder vorletzten versteckten Schicht zusammengeschaltet. In der letzten versteckten Schicht des jeweiligen Netzes befindet sich die Merkmalsdarstellung der Eingangstensoren der Bild- und Prozessdaten. In den folgenden voll verbundenen Schichten findet die Klassifikation dieser verbundenen Merkmale statt.
  • Diese Vorgehensweise hat den Vorteil, dass beim Trainieren des Gesamtnetzes nur wenige Schichten trainiert werden müssen und bei der Verwendung, eingeschränkt nur auf Prozessdaten, wieder das Netz, welches für die Prozessdaten trainiert wurde, verwendet werden kann. Zu dieser Vorgehensweise werden die Netze für Bild- und Prozessdaten getrennt trainiert. Damit haben die Netze die Abbildung des Eingangstensors, bestehend aus den Bilddaten und des Eingangstensors, bestehend aus den Prozessdaten, auf Merkmalsvektoren gelernt.
  • Der oder die Eingangstensoren können aktuelle Daten für x vergangene Zeitpunkte während einer Ausführung des Laserbearbeitungsprozesses enthalten, wobei x eine natürliche Zahl ist, und für jeden der x Zeitpunkte können die Eingangstensoren diesem Zeitpunkt entsprechende Bilddaten, und Sensor- bzw. Steuerdaten, d.h. Prozessdaten, umfassen. Die Zeitpunkte x können gleich weit voneinander beabstandet sein, beispielweise jeweils 256ms oder 512 oder 1024ms. Der oder die Eingangstensoren können von der Übertragungsfunktion auf den Ausgangstensor abgebildet werden, d.h. Bilddaten und Steuer- bzw. Sensordaten werden von einer gemeinsamen Übertragungsfunktion verarbeitet.
  • Gemäß einer Ausführungsform werden dabei zwei Zweige des Netzwerkes durchlaufen und in einer Schicht die Merkmale der jeweiligen Eingangstensoren verbunden. Ein Zweig des Netzes hat die Bilddaten als Eingangstensor, der andere Zweig des Netzes die Prozessdaten. Bei dieser Vorgehensweise spricht man von einer sogenannten „Feature Level Fusion“. Beide Netze können wieder leicht entkoppelt werden und einzeln verwendet werden. Denn die Kombination von Bild- und Prozessdaten in einen Tensor kann in manchen Situationen nicht zielführend sein.
  • Gemäß einem weiteren Aspekt der Offenbarung ist ein Laserbearbeitungssystem zur Bearbeitung eines Werkstücks mittels eines Laserstrahls angegeben, wobei das Bearbeitungssystem einen Laserbearbeitungskopf zum Einstrahlen eines Laserstrahls auf ein zu bearbeitendes Werkstück und ein System zur Erkennung eines Bearbeitungsfehlers gemäß einem der hierin beschriebenen Aspekte umfasst. Vorzugsweise ist die Erfassungseinheit am Laserbearbeitungskopf angeordnet.
  • Gemäß einem weiteren Aspekt ist ein Verfahren zur Überwachung eines Laserbearbeitungsprozesses zur Bearbeitung eines Werkstücks angegeben, wobei das Verfahren die folgenden Schritte umfasst: Bestimmen eines oder mehrerer Eingangstensoren, basierend auf aktuellen Daten des Laserbearbeitungsprozesses, und Bestimmen eines Ausgangstensors, basierend auf dem einen oder der mehreren Eingangstensoren mittels einer Übertragungsfunktion, wobei der Ausgangstensor Informationen über ein aktuelles Bearbeitungsergebnis enthält, wobei die Übertragungsfunktion zwischen dem Eingangstensor und dem Ausgangstensor durch ein angelerntes neuronales Netz gebildet ist.
  • Figurenliste
  • Die Erfindung wird im Folgenden anhand von Figuren im Detail beschrieben. In den Figuren:
    • 1 zeigt eine schematische Darstellung eines Laserbearbeitungssystems zur Bearbeitung eines Werkstücks mittels eines Laserstrahls und ein System zur Überwachung eines Laserbearbeitungsprozesses gemäß einer Ausführungsform;
    • 2 zeigt ein Blockschaltbild eines Systems zur Überwachung eines Laserbearbeitungsprozesses eines gemäß einer Ausführungsform;
    • 3A, 3B und 3C zeigen Darstellungen von beispielhaften Verläufen von Sensorwerten;
    • 4 zeigt einen Bearbeitungsbereich eines Werkstücks während eines Laserbearbeitungsprozesses;
    • 5 zeigt ein Blockschaltbild eines tiefen faltenden neuronalen Netzes gemäß einer Ausführungsform;
    • 6 zeigt ein Blockschaltbild eines tiefen faltenden neuronalen Netzes zur Klassifikation von Prozessdaten gemäß einer Ausführungsform;
    • 7 zeigt ein Blockschaltbild eines tiefen faltenden neuronalen Netzes zu Klassifikation von Bilddaten gemäß einer Ausführungsform;
    • 8 zeigt ein Blockschaltbild eines tiefen faltenden neuronalen Netzes zur Klassifikation von Bild- und Prozessdaten gemäß einer Ausführungsform.
    • 9 zeigt ein Verfahren zur Überwachung eines Laserbearbeitungsprozesses zur Bearbeitung eines Werkstücks gemäß einer Ausführungsform.
  • Detaillierte Beschreibung der Zeichnungen
  • Im Folgenden werden, sofern nicht anders vermerkt, für gleiche und gleichwirkende Elemente gleiche Bezugszeichen verwendet.
  • 1 zeigt eine schematische Darstellung eines Laserbearbeitungssystems 100 zur Bearbeitung eines Werkstücks mittels eines Laserstrahls gemäß Ausführungsformen der vorliegenden Offenbarung. Das Laserbearbeitungssystem 100 ist dazu eingerichtet, einen Laserbearbeitungsprozess gemäß Ausführungsformen der vorliegenden Offenbarung durchzuführen.
  • Das Laserbearbeitungssystem 100 umfasst einen Laserbearbeitungskopf 101, insbesondere einen Laserschneid-, Laserlöt- oder Laserschweißkopf und ein System 300 zur Erkennung von Bearbeitungsfehlern. Das Laserbearbeitungssystem 100 umfasst eine Laservorrichtung 110 zum Bereitstellen eines Laserstrahls 10 (auch als „Bearbeitungsstrahl“ oder „Bearbeitungslaserstrahl“ bezeichnet).
  • Das Laserbearbeitungssystem 100 oder Teile davon, wie beispielsweise der Bearbeitungskopf 101, kann gemäß Ausführungsformen entlang einer Bearbeitungsrichtung 20 bewegbar sein. Die Bearbeitungsrichtung 20 kann eine Schneid-, Löt- oder Schweißrichtung und/oder eine Bewegungsrichtung des Laserbearbeitungssystems 100, wie beispielsweise des Bearbeitungskopfes 101, bezüglich des Werkstücks 1 sein. Insbesondere kann die Bearbeitungsrichtung 20 eine horizontale Richtung sein. Die Bearbeitungsrichtung 20 kann auch als „Vorschubrichtung“ bezeichnet werden.
  • Das Laserbearbeitungssystem 100 wird von einer Steuereinheit 140 gesteuert, die dazu eingerichtet ist, den Bearbeitungskopf 101 und/oder die Laservorrichtung 110 zu steuern.
  • Das System 300 zur Überwachung eines Laserbearbeitungsprozesses umfasst eine Recheneinheit 320. Die Recheneinheit 320 ist dazu eingerichtet, basierend auf aktuellen Daten des Laserbearbeitungsprozesses einen Eingangstensor zu bestimmen und basierend auf dem Eingangstensor mittels einer Übertragungsfunktion einen Ausgangstensor zu bestimmen, der Informationen über ein aktuelles Bearbeitungsergebnis des Laserbearbeitungsprozesses enthält.
  • Mit anderen Worten kann der Ausgangstensor das Ergebnis einer oder mehrerer Rechenoperationen sein und Informationen darüber enthalten, ob und welche/r Fehler bei der Bearbeitung des Werkstücks 1 durch das Laserbearbeitungssystem 100 aufgetreten ist/sind. Ferner kann der Ausgangstensor Informationen über die Art, Position und Größe des/der Fehler auf der Werkstückoberfläche 2 enthalten. Der Ausgangstensor kann ebenfalls Informationen über einen Bearbeitungsbereich des Werkstücks 1 umfassen, beispielsweise eine Größe, Form oder Ausdehnung eines Keyholes und/oder eines Schmelzbads.
  • Gemäß einer Ausführungsform ist die Recheneinheit 320 mit der Steuereinheit 140 kombiniert (nicht gezeigt). Mit anderen Worten kann die Funktionalität der Recheneinheit 320 mit derjenigen der Steuereinheit 140 in einer gemeinsamen Verarbeitungseinheit kombiniert sein.
  • Gemäß einer Ausführungsform umfasst das System 300 ferner zumindest eine Sensoreinheit 330 und eine Bilderfassungseinheit 310.
  • Die zumindest eine Sensoreinheit 330 ist dazu eingerichtet, den Wert eines Parameters eines Laserbearbeitungsprozesses, der durch das Laserbearbeitungssystem 100 ausgeführt wird, zu erfassen, aus den erfassten Werten Sensordaten zu erzeugen und diese an die Recheneinheit 320 zu übertragen. Die Erfassung kann kontinuierlich bzw. in Echtzeit erfolgen. Gemäß einer Ausführungsform kann die Sensoreinheit 330 eingerichtet sein, Werte von mehreren Parametern zu erfassen und diese an die Recheneinheit 320 weiterzuleiten. Die Werte können gleichzeitig erfasst werden.
  • Die Bilderfassungseinheit 310 ist dazu ausgebildet, Bilddaten einer bearbeiteten Oberfläche 2 des Werkstücks 1 und/oder eines Bearbeitungsbereichs des Laserbearbeitungsprozesses zu erfassen. Der Bearbeitungsbereich kann als ein Bereich der Werkstückoberfläche definiert sein, in dem zu einem aktuellen Zeitpunkt der Laserstrahl 10 auf die Werkstückoberfläche trifft und das Material der Werkstückoberfläche geschmolzen ist und/oder wo ein Einstich- oder Durchstichloch in dem Material vorhanden ist. Der Bearbeitungsbereich kann insbesondere als ein Bereich der Werkstückoberfläche definiert sein, in dem ein Schmelzbad und/oder ein Keyhole ausgebildet ist. Die Bilderfassungseinheit 310 ist gemäß einer Ausführungsform am Bearbeitungskopf 101 angeordnet. Beispielsweise kann die Bilderfassungseinheit 310 mit Bezug zur Bearbeitungsrichtung 20 nachfolgend an dem Bearbeitungskopf 101 angeordnet sein. Die Bilderfassungseinheit 310 kann auch koaxial zu einem Laserstrahl 10 und/oder einem später beschriebenen Messstrahl 13 angeordnet sein. Die Recheneinheit 320 ist dazu eingerichtet, die von der Bilderfassungseinheit 310 erfassten Bilddaten und die von der Sensoreinheit 330 erfassten Sensordaten zu empfangen und auf Basis der aktuellen Bilddaten und der aktuellen Sensordaten den Eingangstensor zu bilden.
  • Optional umfasst das Laserbearbeitungssystem 100 oder das System 300 eine Messeinrichtung 120 zum Messen eines Abstands zwischen einem Endabschnitt des Bearbeitungskopfes 101 und einem zu bearbeitenden Werkstück 1. Die Messeinrichtung kann einen optischen Kohärenztomographen, insbesondere einen optischen Kurzkohärenz-Tomographen, umfassen.
  • Die Laservorrichtung 110 kann eine Kollimatorlinse 112 zur Kollimation des Laserstrahls 10 aufweisen. Der Kohärenztomograph kann eine Kollimator-Optik 122, die eingerichtet ist, um einen optischen Messstrahl 13 zu kollimieren, und eine Fokussier-Optik 124 aufweisen, die eingerichtet ist, um den optischen Messstrahl 13 auf das Werkstück 1 zu fokussieren.
  • 2 zeigt ein Blockschaltbild des Systems 300 zur Überwachung eines Laserbearbeitungsprozesses gemäß einer Ausführungsform.
  • Das System 300 umfasst die Recheneinheit 320, zumindest eine Sensoreinheit 330 und eine Bilderfassungseinheit 310. Die Recheneinheit 320 ist mit der Sensoreinheit 330 und der Bilderfassungseinheit 310 verbunden, sodass die Recheneinheit 320 die von der Bilderfassungseinheit 310 erfassten Bilddaten und die von der Sensoreinheit 320 erfassten Sensordaten empfangen kann.
  • Die Recheneinheit 320 enthält gemäß einer Ausführungsform einen Prozessor zum Ermitteln des Ausgangstensors. Die Übertragungsfunktion ist typischerweise in einem Speicher (nicht gezeigt) der Recheneinheit 320 abgelegt oder als Schaltkreis, beispielsweise als FPGA, realisiert. Der Speicher kann ausgebildet sein, weitere Daten, beispielsweise den ermittelten Ausgangstensor, zu speichern.
  • Die Recheneinheit 320 kann eine Ein-/Ausgabeeinheit 322, welche insbesondere eine graphische Benutzeroberfläche zur Interaktion mit einem Benutzer aufweisen kann, umfassen. Die Recheneinheit 320 kann eine Datenschnittstelle 321 aufweisen, über die die Recheneinheit den Ausgangstensor an eine externe Stelle, wie z.B. eine weitere Recheneinheit, Computer, PC, eine externe Speichereinheit, wie z.B. eine Datenbank, eine Speicherkarte oder Festplatte, übermitteln kann. Die Recheneinheit 320 kann ferner eine Kommunikationsschnittstelle (nicht gezeigt) aufweisen, mit der die Recheneinheit mit einem Netzwerk kommunizieren kann. Ferner kann die Recheneinheit 320 den Ausgangstensor auf der Ausgabeeinheit 322 graphisch anzeigen. Die Recheneinheit 320 kann mit einer Steuereinheit 140 eines Laserbearbeitungssystems 100 verbunden sein, um den Ausgangstensor an die Steuereinheit 140 zu übertragen.
  • Die Recheneinheit 320 kann ferner dazu eingerichtet sein, über die Schnittstelle 321 Steuerdaten von der Steuereinheit 140 des Laserbearbeitungssystems 100 zu empfangen und die Steuerdaten ebenfalls in den Eingangstensor aufzunehmen. Die Steuerdaten können beispielsweise die Ausgangsleistung der Laservorrichtung 110, den Abstand des Bearbeitungskopfes 101 von der Oberfläche des Werkstücks 1, die Vorschubrichtung und - geschwindigkeit, jeweils zu einem gegebenen Zeitpunkt, umfassen.
  • Die Recheneinheit 320 bildet aus den aktuellen Daten einen oder mehrere Eingangstensoren für eine Übertragungsfunktion. Erfindungsgemäß werden der eine oder die mehreren Eingangstensoren aus aktuellen Rohdaten gebildet. D.h. eine vorausgehende Verarbeitung der aktuellen Daten durch die Recheneinheit 320, die Sensoreinheit 330 oder die Bilderfassungseinheit 310 findet nicht statt.
  • Die Übertragungsfunktion ist durch ein angelerntes, d.h. vortrainiertes neuronales Netz gebildet. Mit anderen Worten enthält die Recheneinheit das tiefe faltende neuronale Netz. Der Ausgangstensor wird durch Anwendung der Übertragungsfunktion auf den einen oder die mehreren Eingangstensoren gebildet. Anhand der Übertragungsfunktion wird somit aus dem einen oder den mehreren Eingangstensoren der Ausgangstensor ermittelt.
  • Der Ausgangstensor enthält Informationen oder Daten über ein aktuelles Bearbeitungsergebnis des Laserbearbeitungsprozesses. Das Bearbeitungsergebnis kann beispielsweise aufgetretene Bearbeitungsfehler und/oder die Informationen über einen Bearbeitungsbereich des Werkstücks umfassen. Diese Informationen über einen aktuellen Bearbeitungsfehler können umfassen: ob zumindest ein Bearbeitungsfehler vorliegt, die Art des zumindest einen Bearbeitungsfehlers, die Position des Bearbeitungsfehlers auf der Oberfläche des bearbeiteten Werkstücks 1 und/oder die Größe bzw. Ausdehnung des Bearbeitungsfehlers. Die Informationen über den Bearbeitungsbereich können sein: Ort und/oder Größe des Keyholes, Ort und/oder Größe und/oder Geometrie des Schmelzbades. Gemäß einer Ausführungsform kann der Ausgangstensor auch die Wahrscheinlichkeit enthalten, mit der ein Bearbeitungsfehler einer bestimmten Art aufgetreten ist, bzw. mit welcher Sicherheit das System einen Bearbeitungsfehler einer bestimmten Art erkannt hat.
  • Die Bilderfassungseinheit 310 kann ein Kamerasystem oder ein Stereo-Kamerasystem, z.B. mit Auflicht Led-Beleuchtung umfassen. Erfindungsgemäß entsprechen die Bilddaten einer zweidimensionalen Abbildung eines Ausschnitts der Werkstückoberfläche. Mit anderen Worten repräsentieren die erfassten oder aufgenommenen Bilddaten ein zweidimensionales Bild der Werkstückoberfläche, wie beispielhaft in 4 gezeigt und nachfolgend im Detail beschrieben.
  • Die Recheneinheit 320 kann gemäß einer Ausführungsform dazu eingerichtet sein, den Eingangstensor und/oder den Ausgangstensor grafisch an der Ausgabeeinheit 322 darzustellen. Beispielsweise kann die Recheneinheit 320 die im Eingangstensor enthaltenen Sensordaten und/oder Bilddaten, als Kurvenverläufe, wie in 3A bis 3C gezeigt, oder als zweidimensionale Bilder der des Werkstücks 1, wie in 4 gezeigt, grafisch darstellen und diese mit den im Ausgangstensor enthaltenen Informationen überlagern.
  • 4 zeigt eine Darstellung von Bilddaten gemäß einer Ausführungsform. Genauer gesagt zeigt 4 eine beispielhafte Aufnahme des Schmelzbades und des Keyholes bei 850 nm mit überlagerten Geometriedaten. Das Kreuz 2a zeigt den Mittelpunkt des Keyholes an, das Kreuz 2b zeigt den Mittelpunkt des Schmelzbades an, die Linie 2c zeigt den Umriss des Schmelzbades an und die Linie 2d zeigt den Umriss des Keyholes an, wie sie als Information im durch die Recheneinheit 320 bestimmten Ausgangstensor enthalten sind. Das umrandende Rechteck 2e („Bounding Box“) zeigt die berechnete Größe des Schmelzbades.
  • Bei Abweichungen von vorgegeben Geometrien oder Größen des Schmelzbades kann beispielsweise im Ausgangstensor die Information enthalten sein, dass das Bearbeitungsergebnis eines Laserbearbeitungsprozesses, beispielsweise eine Schweißung, als „schlecht“ klassifiziert ist. In diesem Fall kann das System 300 zur Überwachung des Laserbearbeitungsprozesses einen Fehler ausgeben.
  • In herkömmlichen Systemen müssten für die Größe des umrandeten Rechtecks 2e Soll-Vorgaben oder Referenzwerte vorgegeben bzw. hinterlegt werden. Zur Berechnung wird eine zweistufige morphologische Operation durchgeführt („Blob Analyse“). Die dazu notwendigen Parameter, wie beispielsweise die Binärschwellen, müssen in herkömmlichen Systemen von Experten vorgegeben werden. Änderungen des Schweißprozesses erfordern bei dieser Vorgehensweise Änderungen an den Parametern durch erfahrene Experten. Diese Nachteile werden gemäß dem hierin beschriebenen System zur Überwachung vermieden.
  • 5 zeigt ein Blockschaltbild eines tiefen faltenden neuronalen Netzes 400 gemäß einer ersten Ausführungsform.
  • Gemäß der in 5 gezeigten Ausführungsform enthalten die Eingangstensoren 405, 415 verschiedene Typen oder Arten von Sensordaten, Steuerdaten und Bilddaten des Laserbearbeitungssystems. Beispielsweise weist der Eingangstensor 405 für die Bilddaten die Dimension „Bildhöhe in Pixel“ x „Bildbreite in Pixel“ und der Eingangstensor 415 für die Sensor- und/oder Steuerdaten die Dimension „Anzahl Typen von Sensor- und/oder Steuerdaten“ x „Anzahl Samples“ auf. Die Bilddaten bilden also den Eingangstensor 405 für den „Zweig“ des neuronalen Netzes 400, welcher die Bilddaten auf die signifikanten Merkmale reduziert. Die Sensordaten bilden den Eingangstensor 415 für den Zweig des neuronalen Netzes 400, welcher die signifikanten Merkmale aus den Sensordaten berechnet.
  • Die Sensordaten können beispielsweise von einem oder mehreren Temperatursensoren gemessene Temperaturen, eine von einem entsprechenden Sensor gemessene Plasmastrahlung, eine von einem Photosensor gemessene Intensität von an einer Werkstückoberfläche reflektierten oder zurückgestrahlten Laserlicht, eine Wellenlänge von reflektiertem oder zurückgestreutem Laserlicht, oder ein von einem Abstandssensor gemessener Abstand zwischen einem Laserbearbeitungskopf und dem Werkstück sein.
  • Die Steuerdaten können Steuersignale sein, die von einer Steuerung erzeugt werden, um ein Laserbearbeitungssystem dazu zu veranlassen, den Laserbearbeitungsprozess auszuführen. Zu den Steuerdaten können eine Fokuslage und ein Fokusdurchmesser eines Laserstrahls oder ein Bahnsignal sein, wobei das Bahnsignal ein Positionssignal darstellt, welches die relative Position eines Laserbearbeitungskopfes des Laserbearbeitungssystems relativ zum Werkstück vorgibt.
  • Die Sensordaten und/oder Steuerdaten bilden direkt den Eingangstensor 415 des tiefen faltenden neuronalen Netzes. Genauso bilden die Bilddaten direkt den Eingangstensor 405 des tiefen faltenden neuronalen Netzes. D.h. es findet zwischen den Eingangstensoren 405 415 und dem Ausgangstensor eine sogenannte „end-to-end“-Abbildung oder -Analyse statt. Da in diesem tiefen faltenden neuronalen Netz Bilddaten und Prozessdaten kombiniert in einem Netz klassifiziert werden, spricht man auch von einer sogenannten „Feature Level Fusion“.
  • Die Recheneinheit kann dazu eingerichtet sein, für jeden der Zeitpunkte n einen Satz der Sensordaten, Steuerdaten und/oder Bilddaten, die dem jeweiligen Zeitpunkt entsprechen, in den jeweiligen Eingangstensoren 405, 415 zusammenzufassen und als Ganzes mittels der Übertragungsfunktion 420 auf den Ausgangstensor abzubilden.
  • Gemäß einer Ausführungsform können die Erfassungsraten der Bilderfassungseinheit zum Erfassen der Bilddaten und der Sensoreinheit zum Erfassen der Sensordaten gleich groß sein, und die Bilderfassungseinheit und die Sensoreinheit führen die Erfassung jeweils zu denselben Zeitpunkten durch.
  • Der Ausgangstensor 430 und entsprechend die Ausgangsschicht weist eine Dimension entsprechend der enthaltenen Informationen auf. Der Ausgangstensor 430 enthält beispielsweise mindestens eine der folgenden Informationen: Vorhandensein mindestens eines Bearbeitungsfehlers, Art des Bearbeitungsfehlers, Position des Bearbeitungsfehlers auf einer Oberfläche eines bearbeiteten Werkstücks, Wahrscheinlichkeit für einen Bearbeitungsfehler einer bestimmten Art, räumliche und/oder flächige Ausdehnung des Bearbeitungsfehlers auf der Oberfläche des bearbeiteten Werkstücks, Ort und/oder Größe des Keyholes, Ort und/oder Größe und/oder Geometrie des Schmelzbades.
  • Der Ausgangstensor 430 kann an eine Steuereinheit des jeweiligen Laserbearbeitungsprozesses (nicht gezeigt) weitergeleitet werden. Mithilfe der im Ausgangstensor 430 enthaltenen Informationen kann die Steuereinheit den Laserbearbeitungsprozess anpassen, beispielsweise durch Anpassung verschiedener Parameter des Laserbearbeitungsprozesses.
  • Die Recheneinheit kann dazu eingerichtet sein, den Ausgangstensor 430 in Echtzeit zu bilden. Somit kann der Laserbearbeitungsprozess unter Verwendung des hierin beschriebenen Systems zur Überwachung eines Laserbearbeitungsprozesses unmittelbar gesteuert werden.
  • 6 zeigt ein Blockschaltbild eines tiefen faltenden neuronalen Netzes 600 gemäß einer weiteren Ausführungsform, das geeignet ist, um einen Eingangstensor, der aktuelle Sensor- und/oder Steuerdaten umfasst, auf einen Ausgangstensor abzubilden.
  • Gemäß der in 6 gezeigten Ausführungsform enthält der Eingangstensor 630 512 Messwerte oder Samples von 4 verschiedenen Typen von Sensordaten und/oder Steuerdaten, d.h. Prozessdaten, des Laserbearbeitungssystems. Die Sensordaten und Steuerdaten bilden direkt den Eingangstensor 630 des tiefen faltenden neuronalen Netzes. D.h. es findet zwischen dem Eingangstensor 630 und dem Ausgangstensor 640 eine sogenannte „end-to-end“-Abbildung oder -Analyse statt.
  • Die Eingangsschicht bzw. der Eingangstensor 630 besitzt also die Dimension 4 × 512.
  • Die Übertragungsfunktion, die durch das tiefe neuronale Netz gebildet ist, soll Informationen über einen aktuellen Bearbeitungsfehler enthalten, also einen Bearbeitungsfehler, der zu einem Zeitpunkt, der Aufnahme der Samples aufgetreten ist. Der Ausgangstensor 640 soll beispielsweise die Information „Fehler ja/nein“, Vorliegen von bzw. Wahrscheinlichkeit für Fehler „Loch“, Vorliegen von bzw. Wahrscheinlichkeit für Fehler „Spritzer“, Vorliegen von bzw. Wahrscheinlichkeit für Fehler „Spalt“, Vorliegen von bzw. Wahrscheinlichkeit für Fehler „Falscher Freund/Fehlende Durchschweißung“ enthalten. Damit besitzt der Ausgangstensor 640 bzw. die Ausgangsschicht die Dimension 1 × 5.
  • Demnach bildet das tiefe faltende neuronale Netz 600 gemäß der in 6 gezeigten Ausführungsform einen Eingangstensor 630 der Dimension 4 × 512 auf den Ausgangstensor 640 der Dimension 1 × 5 ab: R2048→R5.
  • Aus der Betrachtung des Ausgangstensors 640 bzw. dessen enthaltenen Werte kann wiederum anhand eines vorgegebenen Klassifikationsalgorithmus das bearbeitete Werkstück als „gut“ oder als „schlecht“ klassifiziert werden. D.h. das Werkstück kann je nach Situation als zum Verkauf oder zur Weiterverarbeitung geeignet („gut“) oder als Ausschuss bzw. dahingehend klassifiziert werden, dass noch eine Nachbearbeitung erforderlich ist („schlecht“).
  • Das tiefe faltende neuronale Netz 600 („Deep Convolutional Neural Net“), im Folgenden abgekürzt mit „CNN“, kann mehrere Faltungsschichten 610 umfassen, welche Faltungen mit mehreren Kernen durchführen. Ferner kann das CNN 600 eine „Fully-Connected“-Schicht oder -Block 620 und/oder einen „Leaky ReLu“-Block oder Schicht 650 aufweisen. Wie in 6 gezeigt umfasst das CNN beispielsweise 21 Faltungsschichten, wobei zumindest einige Faltungsschichten eine Normierung („Batch Normlization“) und Residual-Blöcke umfassen.
  • 7 zeigt ein Blockschaltbild eines tiefen faltenden neuronalen Netzes 700 gemäß einer Ausführungsform, das geeignet ist, um einen Eingangstensor, der aktuelle Bilddaten umfasst, auf einen Ausgangstensor abzubilden.
  • Beim tiefen faltenden neuronalen Netz 700 gemäß der in 7 gezeigten Ausführungsform umfasst der Eingangstensor 730 ein Bild des Werkstücks, beispielsweise des Bearbeitungsbereichs des Werkstücks, mit der Größe 512 × 512 Pixeln. D.h. die Eingangsschicht 730 weist die Dimension 512 × 512 auf.
  • Der Eingangstensor 730 enthält die erfassten Rohdaten der Bilddaten. Diese Rohbilddaten bilden direkt den Eingangstensor des tiefen faltenden neuronalen Netzes. D.h. es findet zwischen dem Eingangstensor 730 und dem Ausgangstensor 740 eine sogenannte „end-to-end“-Abbildung oder -Analyse statt. Es werden also keine Merkmale des Keyholes oder des Schmelzbades in einem Zwischenschritt berechnet oder parametrisiert.
  • Die Übertragungsfunktion soll Informationen darüber liefern, ob das Keyhole vorhanden ist, und/oder Informationen über die Lage eines Schwerpunkts oder Mittelpunkts des Keyholes, über ein das Keyhole umrandendes Rechteck und/oder über ein das Schmelzbad umrandendes Rechteck.
  • Damit enthält der Ausgangstensor 740 die Werte „Pkeyhole“ (Keyhole vorhanden/nicht vorhanden), „XKeyhole“ (Position des Schwer- bzw. Mittelpunkts des Keyholes in x-Richtung), „YKeyhole“ (Position des Schwer- bzw. Mittelpunkts des Keyholes in Y-Richtung), „dXKeyhole“ (Größe des Keyholes in x-Richtung), „dYKeyhole“ (Größe des Keyhole in Y-Richtung), „XSchmelzbad“ (Position des Schwer- bzw. Mittelpunkts des Schmelzbades in x-Richtung), „YSchmelzbad“ (Position des Schwer- bzw. Mittelpunkts des Schmelzbades in y-Richtung), „dXSchmelzbad“ (Größe des Schmelzbades in x-Richtung), und „dYSchmelzbad“ (Größe des Schmelzbades in y-Richtung). Der Ausgangstensor 740 bzw. die Ausgangsschicht umfasst damit 9 Werte und weist somit die Dimension 1 × 9 auf.
  • Demnach bildet das neuronale Netz 700 gemäß der in 7 gezeigten Ausführungsform den Eingangstensor 730 der Dimension 512x512 auf den Ausgangstensor 740 der Dimension 1×9 ab: R262144→R9.
  • Wie in 7 gezeigt umfasst das CNN beispielsweise 34 Faltungsschichten 710, wobei zumindest einige Faltungsschichten eine Normierung („batch normlization“) und sogenannte Residual-Blöcke umfassen. Weiter weist das Konvolutionsnetz zwei sogenannte „Fully-Connected“-Schichten 720 auf. Das neuronale Netz 700 wird in der letzten Schicht 750 serialisiert und mittels sigmoidaler Aktivierungsfunktion auf den Ausgangstensor 740 abgebildet.
  • Indem die Ausgänge einer Schicht normiert werden, kann das Problem „explodierender“ oder „verschwindender“ Gradienten vermieden werden. Das Verhalten im Inferenz-Ablauf ist weniger anfällig auf Daten anderer Distributionen.
  • Üblicherweise beinhaltet die Normierung den Mittelwert und die Standardabweichung über einen „Minibatch“. Die Auswirkung davon ist eine Regulierung.
  • In einem trainierten tiefen faltenden neuronalen Netz werden gemäß einer Ausführungsform diese Parameter als Hyperparameter verwendet: „Batch Normalization“, „Accelarating Deep Network Training by Reducing Internal Covariate Shift“ (nach Sergey Ioffe, Christian Szegedy).
  • In 7 steht ein Block „Konvolution 32 3x3“ für einen Faltungsblock oder eine Faltungsschicht mit 32 verschiedenen 3x3 Faltungsfiltermasken. D.h. der Block „Konvolution 32 3x3“ erzeugt aus einem Eingangstensor 730 der Dimension m x n x c einen Tensor m x n x 32, m steht für die Höhe, n für die Breite, c für die Anzahl der Kanäle. Im Fall eines einkanaligen (c=1) Eingangstensors mit der Höhe m=512 und der Breite n=512 entsteht ein Ausgangstensor 740 der Dimension 512 × 512 × 32, der Ausgangstensor enthält also 32 Bilder der Dimension 512 × 512. Entsprechendes gilt für die anderen Faltungsblöcke.
  • Die Angabe „/2“ in einem Faltungsblock in 7 beschreibt einen „Stride“ von 2. D.h. der Filterkern wird um 2 Pixel weitergeschoben, damit wird die Dimension um die Hälfte reduziert. Die Angaben über den Blöcken, z.B. „512 × 512“ beschreiben jeweils die Dimension m × n des Tensors ohne die Kanalanzahl.
  • Die Angabe „Residual-Block“ gibt an, dass auf das Ergebnis einer Ausgangsschicht (1+2) der Ausgang einer vorhergehenden Schicht (1) addiert wird, bevor der Wert über die Aktivierungsfunktion weitergegeben wird.
  • In 8 ist ein tiefes faltendes neuronales Netz zur Klassifikation Bilddaten und Prozessdaten dargestellt. Das neuronale Netz 800 umfasst gemäß einer Ausführungsform jeweils ein neuronales Netz 845, 855 gemäß den Ausführungsformen der 6 und 7. Das neuronale Netz 800 entsteht in diesem Fall durch eine Verkettung bzw. Kopplung bzw. Aneinanderhängen mindestens einer voll verbundenen Schicht 830 („Fully Connected Layer“) und optional weiterer voll verbundenen Schichten 820 mit sogenannter mit „Leaky ReLu“-Aktivierungsfunktion. Die Abbildung der letzten voll verbundenen Schicht 830 auf den Ausgangstensor 840 kann durch eine sigmoidale Aktivierungsfunktion erfolgen. Die beiden Eingangstensoren 805, 815 der jeweiligen neuronalen Netze 845, 855 werden auf den Ausgangstensor 840 abgebildet, wobei der Ausgangstensor 840 die folgenden Komponenten aufweist: P(Fehler), P(Loch), P(Spritzer), P(Spalt), P(falscher Freund), „x_keyhole“, „y_keyhole“, „dx_keyhole“, „dy_keyhole“, „x_schmelzbad“, „y_schmelzbad“, „dx_schmelzbad“ und „dy_schmelzbad“. P steht dabei für die Wahrscheinlichkeit eines Bearbeitungsfehlers einer bestimmten Art. Der Ausgangstensor 840 des neuronalen Netzes 800 weist damit die Dimension 1 × 13 auf.
  • Das in den Ausführungsformen der 5 bis 8 verwendete neuronale Netz ist ein trainiertes bzw. angelerntes tiefes faltendes neuronales Netz. Mit anderen Worten hat das CNN anhand von Beispielen vor Auslieferung des Systems zur Erkennung von Bearbeitungsfehlern gelernt, welches eine „gute“ und welches eine „schlechte“ bearbeitete Werkstückoberfläche ist, bzw. welches eine „gute“ und eine „schlechte“ Schweißung oder Lötung bzw. Schweiß- oder Lötnaht ist. Mit anderen Worten hat das CNN gelernt, eine bearbeitete Werkstückoberfläche als „gut“ oder als „schlecht“ zu klassifizieren, bzw. es hat gelernt, Bearbeitungsfehler zu erkennen, zu lokalisieren, ihrer Art nach zu klassifizieren und ihre Größe zu bestimmen.
  • Im Falle der In-Prozess-Überwachung soll das System zuverlässig bestimmen, ob die bearbeitete Werkstückoberfläche Bearbeitungsfehler aufweist, oder welche geometrischen Eigenschaften der Bearbeitungsbereich aufweist. Es kann vorzugsweise erkennen, welche Fehler vorliegen (z.B. eine Pore, ein Loch, Auswurf, Spritzer, eine Anhaftung oder eine fehlende Durchschweißung bzw. „falscher Freund“), und kann möglicherweise auch den Bearbeitungsfehler lokalisieren und seine Größe auf der Werkstückoberfläche angeben. Um das CNN zu trainieren und die Hyperparameter einzustellen, werden dem CNN vorgegebene Eingangsdatensätze und entsprechende Ausgangstensoren bereitgestellt. Die vorgegebenen Eingangsdatensätze enthalten beispielsweise Sensor-, Bild- und/oder Steuerdaten des Laserbearbeitungsprozesses wie vorstehend beschrieben. Jedem vorgegebenen Eingangsdatensatz ist ein entsprechender vorgegebener Ausgangstensor oder Ergebnistensor zugeordnet. Dieser Ausgangstensor enthält für den jeweiligen Eingangsdatensatz das gewünschte Ergebnis des CNN für den jeweiligen Laserbearbeitungsprozess.
  • Zum Trainieren des Netzes für Bild- und Prozessdaten gemäß der in 8 beschriebenen Ausführungsform werden Einzelnetze für Bilddaten und Prozessdaten verwendet. Nach dem Trainieren enthalten die letzten vollverbundenen Schichten die Darstellung der signifikanten Merkmale. Mit den so ermittelten Parametern der jeweiligen Einzelnetze werden diese wie beschrieben verkettet und nur noch die Schichten nach der Verkettung trainiert.
  • Mit anderen Worten, der entsprechende vorgegebene Ausgangstensor enthält Informationen über die Klassifikation der auf dem Ausschnitt der bearbeiteten Werkstückoberfläche vorhandenen Bearbeitungsfehler und/oder über die geometrischen Merkmale des Bearbeitungsbereichs. Diese Zuordnung von einem Ausgangstensor zu jedem vorgegebenen Eingangsdatensatz erfolgt manuell (sogenanntes „Labeling“ der erfassten Sensor-, Bild- und Steuerdaten). D.h. es erfolgt eine vorgegebene Zuordnung der Sensor-, Bild- und Steuerdaten auf das Ergebnis der Übertragungsfunktion. Beispielsweise wird in dem Ausgangstensor angegeben, ob in einem Laserbearbeitungsprozess, auf dem der Eingangsdatensatz basiert, ein Bearbeitungsfehler aufgetreten ist, welche Art von Fehler vorliegt, an welchem Ort auf der bearbeiteten Werkstückoberfläche, beispielsweise anhand eines zweidimensionalen Koordinatensystems mit x- und y-Koordinaten, der Bearbeitungsfehler vorliegt, und welche Größe in x- und y-Richtung der Bearbeitungsfehler, ob ein Keyhole und/oder ein Schmelzbad vorhanden ist, wo das Keyhole und/oder das Schmelzbad in Bezug zueinander oder zu einem aktuellen Bearbeitungspunkt liegen, welche Fläche und/oder welche Halbachsen das Keyhole und/oder das Schmelzbad aufweisen, etc..
  • Mittels Optimierungsverfahren wird anschließend die durch das CNN gebildete Übertragungsfunktionen ermittelt und in dem System 300, vorzugweise im Speicher der Recheneinheit 320, gespeichert. Das Optimierungsverfahren wird beispielsweise mit dem „Backpropagation“-Verfahren mit einer Adam Optimierung durchgeführt. Bei der Inferenz liefert das CNN die Zuordnung des Eingangsdatensatzes auf das Bearbeitungsergebnis.
  • Im trainierten Netz werden gemäß einer Ausführungsform diese Parameter als Hyperparameter verwendet: „Batch Normalization“, „Accelarating Deep Network Training by Reducing Internal Covariate Shift“ (nach Sergey Ioffe, Christian Szegedy).
  • Das angelernte tiefe faltende neuronale Netz ist so konfiguriert, dass es mittels sogenanntem Transfer-Learning an eine geänderte Situation oder an einen geänderten Laserbearbeitungsprozess angepasst werden kann. Das grundlegende Training des Netzes wird im Vorfeld vor der Inbetriebnahme des Systems durchgeführt. Bei Änderungen des Bearbeitungsprozesses nach Inbetriebnahme wird lediglich ein sogenanntes Transfer-Learning durchgeführt. Die geänderte Situation kann beispielsweise darin liegen, dass sich die zu bearbeitenden Werkstücke verändern, z.B. bei einer Änderung des Werkstoffes. Auch kann sich die Dicke der Werkstückoberfläche oder die Materialzusammensetzung leicht verändern. Darüber hinaus können für die Bearbeitung des Werkstücks andere Prozessparameter verwendet werden. Dadurch können andere Bearbeitungsfehler auftreten. Beispielsweise kann sich die Wahrscheinlichkeit für die unterschiedlichen Arten von Bearbeitungsfehlern verändern oder die Bearbeitungsfehler können anders ausgebildet sein. D.h. das neuronale Netz muss an die veränderte Situation und die sich dadurch veränderten Bearbeitungsfehler angepasst werden.
  • Das Transfer-Learning verläuft ähnlich wie das initiale Anlernen des neuronalen Netzes. Typischerweise werden bei Transfer-Learning jedoch nur einige bestimmte Faltungsschichten des tiefen faltenden neuronalen Netzes angepasst, insbesondere die letzten zwei bis drei Faltungsschichten. Die Anzahl der Parameter des neuronalen Netzes, die verändert werden, ist hierbei wesentlich geringer als beim Trainieren bzw. Anlernen des neuronalen Netzes. Dadurch wird es ermöglicht, dass das Transfer-Learning beim Kunden rasch abgeschlossen werden kann, typischerweise in weniger als einer Stunde. D.h. beim Transfer-Learning wird nicht das gesamte neuronale Netz neu trainiert bzw. angelernt.
  • Die zum Transfer-Learning nötigen Trainingsdaten kann das System 300 über die Schnittstelle 321 empfangen.
  • Die Trainingsdaten können Testdatensätze des geänderten Laserbearbeitungsprozesses umfassen, woraus die Recheneinheit beim Transfer-Learning einen entsprechenden Eingangstensor bildet. Darüber hinaus umfassen die Trainingsdaten einen dem jeweiligen Testdatensatz zugeordneten, vorgegebenen Ausgangstensor, der Informationen über ein entsprechendes, zuvor von einem Experten bestimmtes Bearbeitungsergebnis des geänderten Laserbearbeitungsprozesses enthält.
  • Beispielsweise enthalten die Testdatensätze Sensordaten, die erfasst wurden, als während eines vorangegangenen Laserbearbeitungsprozesses ein Bearbeitungsfehler aufgetreten ist, und der zugeordnete Ausgangstensor enthält Informationen über den Fehler, beispielsweise die Fehlerart, die Position und die Ausdehnung des Bearbeitungsfehlers auf dem Werkstück.
  • 9 zeigt ein Verfahren zur Überwachung eines Laserbearbeitungsprozesses zur Bearbeitung eines Werkstücks. Der erste Schritt 910 umfasst das Bestimmen eines Eingangstensors basierend auf aktuellen Daten des Laserbearbeitungsprozesses. In einem zweiten Schritt 920 wird basierend auf dem Eingangstensor mittels einer Übertragungsfunktion ein Ausgangstensor bestimmt, wobei der Ausgangstensor Informationen über ein aktuelles Bearbeitungsergebnis enthält. Die Übertragungsfunktion ist dabei vorgegeben und durch ein angelerntes neuronales Netz gebildet.
  • Das Verfahren zur Überwachung eines Laserbearbeitungsprozesses kann während einer laufenden Bearbeitung des Werkstücks durchgeführt werden. Gemäß einer Ausführungsform wird das Verfahren für die gesamte bearbeitete Werkstückoberfläche einmal durchlaufen.
  • Die Verwendung eines neuronalen Netzes, welches die Übertragungsfunktion bildet, hat den Vorteil, dass das System selbstständig erkennen kann, ob und welche Bearbeitungsfehler vorliegen. Demnach ist es nicht mehr notwendig, dass die empfangenen aktuellen Daten, wie beispielsweise die Bild- oder Sensordaten, vorverarbeitet werden müssen, um einer Fehlererkennung zugänglich zu sein. Weiterhin ist es nicht notwendig, aus den erfassten Daten Merkmale zu extrahieren, die die Bearbeitungsqualität bzw. etwaige Bearbeitungsfehler charakterisieren. Darüber hinaus ist es nicht erforderlich, zu entscheiden, welche extrahierten Merkmale für die Beurteilung der Bearbeitungsqualität bzw. die Klassifikation der Bearbeitungsfehler notwendig bzw. relevant sind. Auch ist es nicht erforderlich, eine Parametrisierung der extrahierten Merkmale zur Klassifikation der Bearbeitungsfehler anzugeben bzw. anzupassen. Die Bestimmung bzw. Beurteilung der Bearbeitungsqualität bzw. der Bearbeitungsfehler durch das Laserbearbeitungssystem wird dadurch vereinfacht. Die genannten Schritte müssen nicht durch Experten der Laserbearbeitung durchgeführt oder begleitet werden.

Claims (15)

  1. System (300) zur Überwachung eines Laserbearbeitungsprozesses zur Bearbeitung eines Werkstücks (1), umfassend: - eine Recheneinheit (320), die eingerichtet ist, basierend auf aktuellen Daten des Laserbearbeitungsprozesses einen Eingangstensor zu bestimmen und basierend auf dem Eingangstensor mittels einer Übertragungsfunktion einen Ausgangstensor zu bestimmen, der Informationen über ein aktuelles Bearbeitungsergebnis enthält, wobei die Übertragungsfunktion zwischen dem Eingangstensor und dem Ausgangstensor durch ein angelerntes neuronales Netz gebildet ist.
  2. System (300) gemäß Anspruch 1, wobei die aktuellen Daten des Laserbearbeitungsprozesses aktuelle Bilddaten und/oder aktuelle Prozessdaten des Laserbearbeitungsprozesses umfassen, wobei die aktuellen Prozessdaten aktuelle Sensordaten und/oder aktuelle Steuerdaten umfassen.
  3. System (300) gemäß einem der vorstehenden Ansprüche, wobei der Eingangstensor aktuelle Daten des Laserbearbeitungsprozesses als Rohdaten umfasst oder daraus besteht.
  4. System (300) gemäß einem der vorhergehenden Ansprüche, wobei die aktuellen Daten des Laserbearbeitungsprozesses zumindest eines der folgenden umfassen: eine Temperatur, eine Plasmastrahlung, eine Laserleistung, eine Intensität von reflektiertem oder zurückgestreutem Laserlicht, eine Wellenlänge von reflektiertem oder zurückgestreutem Laserlicht, einem Abstand eines den Laserbearbeitungsprozess ausführenden Laserbearbeitungskopfes zum Werkstück, eine Keyhole-Tiefe, eine Fokuslage, ein Fokusdurchmesser, ein Bahnsignal, und/oder ein Bild einer Oberfläche des Werkstücks.
  5. System (300) gemäß einem der vorhergehenden Ansprüche, ferner umfassend - zumindest eine Sensoreinheit (330) zum Erfassen von aktuellen Sensordaten des Laserbearbeitungsprozesses während des Laserbearbeitungsprozesses, und/oder - eine Bilderfassungseinheit (310) zum Erfassen von aktuellen Bilddaten eines Bearbeitungsbereichs des Werkstücks (1) während des Laserbearbeitungsprozesses.
  6. System (300) gemäß einem der vorstehenden Ansprüche, wobei das angelernte neuronale Netz ein Einzelnetz für Prozessdaten und ein Einzelnetz für Bilddaten umfasst, die zumindest über eine gemeinsame Ausgangsschicht gekoppelt sind, wobei das angelernte neuronale Netz eingerichtet ist, einen Eingangstensor für Prozessdaten und einen Eingangstensor für Bilddaten auf einen gemeinsamen Ausgangstensor abzubilden.
  7. System (300) gemäß Anspruch 6, wobei die mindestens eine Ausgangsschicht mindestens eine voll verbundene Schicht umfasst.
  8. System (300) gemäß Anspruch 6 oder 7, wobei der Eingangstensor für Prozessdaten auf einer Vielzahl von Samples basiert, und der Eingangstensor für Bilddaten ein Bild umfasst, wobei das Bild den Samples des Eingangstensors für Prozessdaten zeitlich entspricht.
  9. System (300) gemäß einem der vorstehenden Ansprüche, wobei das Bearbeitungsergebnis Informationen über einen Bearbeitungsfehler und/oder einen Bearbeitungsbereich des Werkstücks (1) umfasst.
  10. System (300) gemäß einem der vorstehenden Ansprüche, wobei der Ausgangstensor eine der folgenden Informationen enthält: Vorhandensein mindestens eines Bearbeitungsfehlers, Art des Bearbeitungsfehlers, Position des Bearbeitungsfehlers auf einer Oberfläche eines bearbeiteten Werkstücks, Wahrscheinlichkeit für einen Bearbeitungsfehler einer bestimmten Art, und räumliche und/oder flächige Ausdehnung des Bearbeitungsfehlers auf der Oberfläche des bearbeiteten Werkstücks.
  11. System (300) gemäß einem der vorhergehenden Ansprüche, wobei die Recheneinheit (320) eingerichtet ist, den Ausgangstensor in Echtzeit zu bilden und Regelungsdaten an ein den Laserbearbeitungsprozess durchführendes Laserbearbeitungssystem (100) auszugeben.
  12. System (300) gemäß einem der vorhergehenden Ansprüche, wobei das angelernte neuronale Netz mittels Transfer-Learning basierend auf Trainingsdaten an einen geänderten Laserbearbeitungsprozess anpassbar ist.
  13. System (300) gemäß Anspruch 12, wobei die Trainingsdaten umfassen: Testdaten des geänderten Laserbearbeitungsprozesses zum Bestimmen eines entsprechenden Eingangstensors, und einen den jeweiligen Testdaten zugeordneten, vorgegebenen Ausgangstensor, der Informationen über ein entsprechendes, zuvor bestimmtes Bearbeitungsergebnis des geänderten Laserbearbeitungsprozesses enthält.
  14. Laserbearbeitungssystem (100) zur Bearbeitung eines Werkstücks (1) mittels eines Laserstrahls, wobei das Laserbearbeitungssystem (100) umfasst: - einen Laserbearbeitungskopf (101) zum Einstrahlen eines Laserstrahls (10) auf ein zu bearbeitendes Werkstück (1); und - ein System (300) gemäß den vorstehenden Ansprüchen.
  15. Verfahren (800) zur Überwachung eines Laserbearbeitungsprozesses zur Bearbeitung eines Werkstücks, das Verfahren umfassend die Schritte: - Bestimmen (810) eines Eingangstensors, basierend auf aktuellen Daten des Laserbearbeitungsprozesses, und - Bestimmen (820) eines Ausgangstensors, basierend auf dem Eingangstensor mittels einer Übertragungsfunktion, wobei der Ausgangstensor Informationen über ein aktuelles Bearbeitungsergebnis enthält, wobei die Übertragungsfunktion zwischen dem Eingangstensor und dem Ausgangstensor durch ein angelerntes neuronales Netz gebildet ist.
DE102018129441.7A 2018-11-22 2018-11-22 System zur Überwachung eines Laserbearbeitungsprozesses, Laserbearbeitungssystem sowie Verfahren zur Überwachung eines Laserbearbeitungsprozesses Active DE102018129441B4 (de)

Priority Applications (7)

Application Number Priority Date Filing Date Title
DE102018129441.7A DE102018129441B4 (de) 2018-11-22 2018-11-22 System zur Überwachung eines Laserbearbeitungsprozesses, Laserbearbeitungssystem sowie Verfahren zur Überwachung eines Laserbearbeitungsprozesses
CN201980089975.7A CN113329836A (zh) 2018-11-22 2019-10-10 借助深度卷积神经网络监测激光加工过程
KR1020217018693A KR102611342B1 (ko) 2018-11-22 2019-10-10 심층 합성곱 신경망을 이용한 레이저 가공 공정 모니터링 시스템 및 방법
PCT/EP2019/077485 WO2020104103A1 (de) 2018-11-22 2019-10-10 Überwachung eines laserarbeitungsprozesses mithilfe von tiefen faltenden neuronalen netzen
EP19789615.2A EP3883715A1 (de) 2018-11-22 2019-10-10 Überwachung eines laserarbeitungsprozesses mithilfe von tiefen faltenden neuronalen netzen
US17/295,904 US20220011726A1 (en) 2018-11-22 2019-10-10 Monitoring a laser machining process using deep folding neural networks
JP2021528414A JP2022509143A (ja) 2018-11-22 2019-10-10 ディープ畳込みニューラルネットワークを使用するレーザ加工プロセスの監視

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018129441.7A DE102018129441B4 (de) 2018-11-22 2018-11-22 System zur Überwachung eines Laserbearbeitungsprozesses, Laserbearbeitungssystem sowie Verfahren zur Überwachung eines Laserbearbeitungsprozesses

Publications (2)

Publication Number Publication Date
DE102018129441A1 true DE102018129441A1 (de) 2020-05-28
DE102018129441B4 DE102018129441B4 (de) 2023-11-16

Family

ID=68281408

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018129441.7A Active DE102018129441B4 (de) 2018-11-22 2018-11-22 System zur Überwachung eines Laserbearbeitungsprozesses, Laserbearbeitungssystem sowie Verfahren zur Überwachung eines Laserbearbeitungsprozesses

Country Status (7)

Country Link
US (1) US20220011726A1 (de)
EP (1) EP3883715A1 (de)
JP (1) JP2022509143A (de)
KR (1) KR102611342B1 (de)
CN (1) CN113329836A (de)
DE (1) DE102018129441B4 (de)
WO (1) WO2020104103A1 (de)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020112116A1 (de) 2020-05-05 2021-11-11 Precitec Gmbh & Co. Kg Verfahren zum Analysieren eines Laserbearbeitungsprozesses, System zum Analysieren eines Laserbearbeitungsprozesses und Laserbearbeitungssystem mit einem solchen System
DE102020211343A1 (de) 2020-09-10 2022-03-10 Trumpf Laser- Und Systemtechnik Gmbh Verfahren zum Laserschweißen mittels eines in einer Doppelkernfaser geführten Laserstrahls sowie zugehörige Laserschweißmaschine und Computerprogrammprodukt
WO2022053526A1 (de) * 2020-09-09 2022-03-17 Precitec Gmbh & Co. Kg Verfahren zur zustandsüberwachung eines laserbearbeitungskopfes und laserbearbeitungssystem zum durchführen desselben
DE102021107544A1 (de) 2021-03-25 2022-09-29 Precitec Gmbh & Co. Kg Verfahren zur Normierung von Sensorsignalen für die Überwachung eines Laserbearbeitungsprozesses, Verfahren zum Überwachen eines Laserbeitungsprozesses und Laserbearbeitungssystem
DE102021111349A1 (de) 2021-05-03 2022-11-03 Precitec Gmbh & Co. Kg Verfahren zum Überwachen eines Laserschweißprozesses und dazugehöriges Laserschweißsystem
WO2023017178A1 (de) * 2021-08-13 2023-02-16 Precitec Gmbh & Co. Kg Verfahren und system zum analysieren eines laserbearbeitungsprozesses basierend auf einem spektrogramm
DE102021127016A1 (de) 2021-10-19 2023-04-20 Precitec Gmbh & Co. Kg Prozesssignalrekonstruktion und Anomalie-Detektion bei Laserbearbeitungsprozessen

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3885069A1 (de) * 2020-03-25 2021-09-29 Bystronic Laser AG Qualitätskontrolle eines laserbearbeitungsprozesses mittels maschinellem lernen
US11537111B2 (en) * 2020-04-01 2022-12-27 General Electric Company Methods and apparatus for 2-D and 3-D scanning path visualization
KR102532753B1 (ko) * 2021-07-22 2023-05-16 울산과학기술원 금속 3d 프린터 모니터링 방법, 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램
DE102021123038A1 (de) * 2021-09-06 2023-03-09 Trumpf Laser- Und Systemtechnik Gmbh Spritzerdetektion durch künstliche Intelligenz bei der Laserbearbeitung
US20230302539A1 (en) * 2022-03-25 2023-09-28 General Electric Company Tool for scan path visualization and defect distribution prediction
CN117884786B (zh) * 2024-03-15 2024-05-28 哈尔滨工业大学(威海) 一种锡球激光焊接缺陷检测方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19957163C1 (de) * 1999-11-27 2001-08-09 Thyssenkrupp Stahl Ag Verfahren und Vorrichtung zur Qualitätskontrolle der Naht an mit einem Laser stumpf geschweißten Blechen oder Bändern
JP2001276980A (ja) 2000-03-30 2001-10-09 Matsushita Electric Ind Co Ltd 接合装置
CA2743522C (en) * 2008-11-21 2015-05-26 Precitec Itm Gmbh Method and device for monitoring a laser processing operation to be performed on a workpiece, and laser processing head having such a device
US8456523B2 (en) 2009-07-20 2013-06-04 Precitec Kg Laser processing head and method for compensating for the change in focus position in a laser processing head
KR101780049B1 (ko) 2013-07-01 2017-09-19 한국전자통신연구원 레이저 용접 비드 검사 장치 및 방법
CN108027911A (zh) * 2015-07-29 2018-05-11 伊利诺斯工具制品有限公司 促进焊接即服务软件的系统及方法
JP6339603B2 (ja) * 2016-01-28 2018-06-06 ファナック株式会社 レーザ加工開始条件を学習する機械学習装置、レーザ装置および機械学習方法
JP6404893B2 (ja) * 2016-12-22 2018-10-17 ファナック株式会社 工具寿命推定装置
JP6487475B2 (ja) * 2017-02-24 2019-03-20 ファナック株式会社 工具状態推定装置及び工作機械
CN108346151A (zh) * 2018-03-12 2018-07-31 湖南大学 一种判断激光焊接熔透性的方法
DE102018129425B4 (de) * 2018-11-22 2020-07-30 Precitec Gmbh & Co. Kg System zur Erkennung eines Bearbeitungsfehlers für ein Laserbearbeitungssystem zur Bearbeitung eines Werkstücks, Laserbearbeitungssystem zur Bearbeitung eines Werkstücks mittels eines Laserstrahls umfassend dasselbe und Verfahren zur Erkennung eines Bearbeitungsfehlers eines Laserbearbeitungssystems zur Bearbeitung eines Werkstücks

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020112116A1 (de) 2020-05-05 2021-11-11 Precitec Gmbh & Co. Kg Verfahren zum Analysieren eines Laserbearbeitungsprozesses, System zum Analysieren eines Laserbearbeitungsprozesses und Laserbearbeitungssystem mit einem solchen System
WO2021224255A1 (de) 2020-05-05 2021-11-11 Precitec Gmbh & Co. Kg Verfahren zum analysieren eines laserbearbeitungsprozesses, system zum analysieren eines laserbearbeitungsprozesses und laserbearbeitungssystem mit einem solchen system
WO2022053526A1 (de) * 2020-09-09 2022-03-17 Precitec Gmbh & Co. Kg Verfahren zur zustandsüberwachung eines laserbearbeitungskopfes und laserbearbeitungssystem zum durchführen desselben
DE102020211343A1 (de) 2020-09-10 2022-03-10 Trumpf Laser- Und Systemtechnik Gmbh Verfahren zum Laserschweißen mittels eines in einer Doppelkernfaser geführten Laserstrahls sowie zugehörige Laserschweißmaschine und Computerprogrammprodukt
DE102021107544A1 (de) 2021-03-25 2022-09-29 Precitec Gmbh & Co. Kg Verfahren zur Normierung von Sensorsignalen für die Überwachung eines Laserbearbeitungsprozesses, Verfahren zum Überwachen eines Laserbeitungsprozesses und Laserbearbeitungssystem
DE102021107544B4 (de) 2021-03-25 2023-01-05 Precitec Gmbh & Co. Kg Verfahren zur Normierung von Sensorsignalen für die Überwachung eines Laserbearbeitungsprozesses, Verfahren zum Überwachen eines Laserbeitungsprozesses und Laserbearbeitungssystem
DE102021111349A1 (de) 2021-05-03 2022-11-03 Precitec Gmbh & Co. Kg Verfahren zum Überwachen eines Laserschweißprozesses und dazugehöriges Laserschweißsystem
WO2023017178A1 (de) * 2021-08-13 2023-02-16 Precitec Gmbh & Co. Kg Verfahren und system zum analysieren eines laserbearbeitungsprozesses basierend auf einem spektrogramm
DE102021127016A1 (de) 2021-10-19 2023-04-20 Precitec Gmbh & Co. Kg Prozesssignalrekonstruktion und Anomalie-Detektion bei Laserbearbeitungsprozessen
EP4170448A1 (de) 2021-10-19 2023-04-26 Precitec GmbH & Co. KG Prozesssignalrekonstruktion und anomalie-detektion bei laserbearbeitungsprozessen

Also Published As

Publication number Publication date
WO2020104103A1 (de) 2020-05-28
JP2022509143A (ja) 2022-01-20
DE102018129441B4 (de) 2023-11-16
CN113329836A (zh) 2021-08-31
KR102611342B1 (ko) 2023-12-06
EP3883715A1 (de) 2021-09-29
US20220011726A1 (en) 2022-01-13
KR20210091789A (ko) 2021-07-22

Similar Documents

Publication Publication Date Title
DE102018129441B4 (de) System zur Überwachung eines Laserbearbeitungsprozesses, Laserbearbeitungssystem sowie Verfahren zur Überwachung eines Laserbearbeitungsprozesses
DE102018129425B4 (de) System zur Erkennung eines Bearbeitungsfehlers für ein Laserbearbeitungssystem zur Bearbeitung eines Werkstücks, Laserbearbeitungssystem zur Bearbeitung eines Werkstücks mittels eines Laserstrahls umfassend dasselbe und Verfahren zur Erkennung eines Bearbeitungsfehlers eines Laserbearbeitungssystems zur Bearbeitung eines Werkstücks
DE102014212246B3 (de) Verfahren und Vorrichtung zur Qualitätssicherung
EP2365890B1 (de) Verfahren und vorrichtung zur überwachung eines an einem werkstück durchzuführenden laserbearbeitungsvorgangs sowie laserbearbeitungskopf mit einer derartigen vorrichtung
DE102013109915B4 (de) Verfahren und Vorrichtung zur Überprüfung eines Inspektionssystems zur Erkennung von Oberflächendefekten
DE102012219187B4 (de) System zur binären Klassifikation von interessierenden Elementen in einem reproduzierbaren Prozess
DE102014208768B4 (de) Verfahren und Vorrichtung zur Qualitätssicherung
DE102021114967A1 (de) Werkstückinspektions- und fehlererkennungssystem, das die anzahl der fehlerbilder für das training angibt
DE102013003760A1 (de) Verfahren und Vorrichtung zur Qualitätsbeurteilung eines mittels eines generativen Lasersinter- und/oder Laserschmelzverfahrens hergestellten Bauteils
EP2886239A1 (de) Verfahren und Vorrichtung zur Überwachung und Regelung der Bearbeitungsbahn bei einem Laser-Fügeprozess
DE102018214063A1 (de) Maschinenlernvorrichtung, Maschinenlernsystem und Maschinenlernverfahren
DE102014207095A1 (de) Kantenmessungs-Videowerkzeug mit robustem Kantenunterscheidungs-Spielraum
DE102019127323B4 (de) Laserbearbeitungssystem zum Durchführen eines Bearbeitungsprozesses an einem Werkstück mittels eines Laserstrahls und Verfahren zur Überwachung eines Bearbeitungsprozesses an einem Werkstück mittels eines Laserstrahls
DE102020112116A1 (de) Verfahren zum Analysieren eines Laserbearbeitungsprozesses, System zum Analysieren eines Laserbearbeitungsprozesses und Laserbearbeitungssystem mit einem solchen System
EP2618958B1 (de) Nutzung der polarisation der wärmestrahlung zur detektion von 3d-strukturen
EP3885069A1 (de) Qualitätskontrolle eines laserbearbeitungsprozesses mittels maschinellem lernen
EP3961559B1 (de) Verfahren und vorrichtung zum ermitteln von defekten während eines oberflächenmodifizierungsverfahrens
DE102021117714A1 (de) Automatische Nahterkennung für einen Schweißprozess
DE102011085677A1 (de) Verfahren und Vorrichtung zur Überwachung eines an einem Werkstück vorzunehmenden Laserbearbeitungsvorgangs
DE102020100345B4 (de) System und Verfahren zum Überwachen eines Laserbearbeitungsprozesses sowie dazugehöriges Laserbearbeitungssystem
DE102021121112A1 (de) Analysieren eines Laserbearbeitungsprozesses basierend auf einem Spektrogramm
EP4170448A1 (de) Prozesssignalrekonstruktion und anomalie-detektion bei laserbearbeitungsprozessen
DE102018220342A1 (de) Verfahren zur Überwachung eines Laserbearbeitungsprozesses an einem oder mehreren Werkstücken

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division