WO2023031353A1 - Spritzerdetektion durch künstliche intelligenz bei der laserbearbeitung - Google Patents

Spritzerdetektion durch künstliche intelligenz bei der laserbearbeitung Download PDF

Info

Publication number
WO2023031353A1
WO2023031353A1 PCT/EP2022/074377 EP2022074377W WO2023031353A1 WO 2023031353 A1 WO2023031353 A1 WO 2023031353A1 EP 2022074377 W EP2022074377 W EP 2022074377W WO 2023031353 A1 WO2023031353 A1 WO 2023031353A1
Authority
WO
WIPO (PCT)
Prior art keywords
spatter
laser processing
recording
optical sensor
processing
Prior art date
Application number
PCT/EP2022/074377
Other languages
English (en)
French (fr)
Inventor
Oliver BOCKSROCKER
Julia HARTUNG
Andreas Jahn
Vinayakraj SALVARRAJAN
Original Assignee
Trumpf Laser- Und Systemtechnik Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Trumpf Laser- Und Systemtechnik Gmbh filed Critical Trumpf Laser- Und Systemtechnik Gmbh
Priority to CN202280060254.5A priority Critical patent/CN117916767A/zh
Publication of WO2023031353A1 publication Critical patent/WO2023031353A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Definitions

  • the invention relates to a method and a device for detecting spatter or weld defects during laser processing.
  • the applicant is aware of methods in which conventional image processing algorithms are used in order to achieve spatter detection during laser processing.
  • a recording is analyzed using fixedly specified geometric features or using fixedly specified brightness features.
  • the type and/or size of the spatter deviates from these specified characteristics, there is no spatter detection, or only unreliable spatter detection.
  • the object according to the invention is therefore achieved by a method for detecting spatter during the laser processing of a workpiece.
  • the process has the following process steps:
  • the method according to the invention allows spatter detection or weld seam defects during laser processing independently of the temperature (luminosity), the geometric shape and/or speed of the spatter.
  • Weld seam defects are, in particular, pores or holes in a weld seam in laser welding.
  • a clear distinction between spatter and other luminous phenomena occurring during laser processing is made possible.
  • an early warning can be issued in the event of an increase in spatter and/or the increase in weld seam defects.
  • the neural network is designed in the form of a U-net architecture of a convolutional neural network.
  • the Convolutional Neural Network allows the comprehensive training of the neural network using only a few recordings.
  • the U-net architecture as an embodiment of a convolutional neural network has proven advantageous for the specific application in laser processing. This achieves fast processing times and low performance requirements for the computer processors used in the evaluation unit.
  • the neural network can be trained using transfer learning with a few recordings.
  • the object according to the invention is further achieved with a device according to claim 11.
  • the recording data of the recording are coded by means of convolution in a first convolution layer and the recording data of the recording are also coded with at least one dilated kernel.
  • a dilated kernel or extended convolution kernel allows to omit individual pixels of the image matrix.
  • a convolution operation with a dilated kernel is also referred to as a dilated convolution.
  • the encoded reduced recording data can be transmitted to a second convolutional layer.
  • the reduction factor denotes the extent of the expansion of the convolution kernel.
  • a high reduction factor leads to a correspondingly high expansion of the convolution kernel.
  • the recordings can be made from different angles (perspectives).
  • the recording(s) may be created in the form of a greyscale image in order to speed up the processing of the recording(s). More preferably, one or more recordings are/are entered in the form of a grayscale image with a size of 256 ⁇ 256 pixels or 128 ⁇ 128 pixels.
  • the recording(s) can originally be created with a higher resolution, for example 720x540 pixels.
  • the optical imaging is particularly preferably selected in such a way that at least the entire process zone width is imaged.
  • the training data set with verified recordings can advantageously be enlarged by rotation, vertical shift, horizontal shift, vertical mirroring, horizontal mirroring, adjustment of the brightness range, zoom and/or shearing.
  • the pixels of the verified shots can be classified into “Background”, “Process Lights” and “Splashes”.
  • the neural network can carry out a semantic segmentation.
  • a pixel-precise resolution can be achieved.
  • the optical sensor can be designed in the form of a spatially and time-resolving area sensor.
  • the optical sensor can be connected to the evaluation unit via a network connection.
  • the exposure time of the optical sensor per recording is preferably between 1ps and 20000ps, in particular between 1ps and 1000ps.
  • the wavelength range observed is preferably between 300 nm and 2000 nm, in particular between 800 nm and 1100 nm.
  • the wavelength of the processing laser beam is blocked by an optical filter in front of the optical sensor.
  • a bandpass filter for wavelengths between 800 nm and 1000 nm can be used for this purpose, for example.
  • a broadband filter can be used, the spectral width of which is preferably less than or equal to 200 nm.
  • an improved contrast between a spatter and the light emission from the process zone can be achieved by using an optical filter.
  • the splashes can stand out against a dark background if no additional external lighting is used.
  • additional lighting can be used.
  • dark splashes stand out against the light background.
  • an illumination laser with a wavelength between 800 nm and 1000 nm can be used as additional illumination.
  • the architecture of the neural network is preferably based on one of Wang et. al. presented architecture of a stacked dilated U network (SDU network) [Wang, S.; Hu, SY; Cheah, E.; Wang, X.; Wang, J.; Chen, L.; Baikpour, M.; ⁇ ztk, A.; Li, Q.; Chou, SH; Lehman, CD; Kumar, V.; Samir, A. U-Net using stacked dilated convolutions for medical image segmentation. arXiv, 2020] (Tue Abbreviation SD stands for stacked dilated). There are other U-Net modifications called SDU-Net, where the abbreviation SD stands for different concepts.
  • an SDU-Net modification with stacked convolutional layers is used.
  • This U-Net variant inherits the architecture of the vanilla U-Net but uses stacked dilated convolutions. Instead of two standard convolutional layers in each encoding and decoding operation, the SDU network uses one standard convolutional layer followed by multiple dilated convolutional layers that are concatenated as input to the next operation. Therefore, the SDU network is deeper than a comparable U-network architecture and has a larger receptive field.
  • the optical sensor can be in the form of a camera.
  • the camera can be in the form of a high-speed camera.
  • the camera can have a CMOS sensor and/or a CCD sensor.
  • the optical sensor can be arranged coaxially to the processing laser beam.
  • method step B several recordings can be made.
  • method step C) these can be transferred to the evaluation unit for the detection of one or more spatters.
  • maximum value images can be evaluated by the evaluation unit during the laser processing. As a result, the change in spatter behavior over time during laser processing can be recorded particularly well.
  • the recording rate of the camera is preferably greater than 20 Hz, in particular greater than 100 Hz.
  • the method has the following method step:
  • Laser processing is particularly preferably carried out in the form of laser welding.
  • at least two metallic components for example based on iron, copper and/or aluminum, are preferably connected.
  • the components can consist of the same or different material.
  • the welding depth is preferably more than 100 pm and less than 20 mm.
  • the depth to width aspect ratio of the weld is preferably greater than 0.5:1 so that deep penetration welding occurs.
  • the object according to the invention is also achieved by a device for detecting spatter during the laser processing of a workpiece, in particular by a device for carrying out a method described here.
  • the device has a laser processing machine with a processing laser beam, an optical sensor with a number of pixels for recording radiation produced during laser processing, an evaluation unit with an algorithm for machine learning for detecting spatter, and an output unit for outputting an output if spatter is detected.
  • the device can include a fiber optic cable that is used actively, in particular for a fiber laser, or passively, in particular for a disk laser.
  • the fiber optic cable can have a core fiber surrounded by a ring fiber.
  • the core fiber can preferably have a diameter between 10 pm and 50 pm or between 50 pm and 400 pm, in particular between 50 pm and 200 pm.
  • the outer diameter of the ring fiber is preferably between 40 pm and 2000 pm, in particular between 80 pm and 800 pm.
  • the diameter ratio of the core fiber to the ring fiber is 1:2 to 1:10, in particular 1:4.
  • the beam diameter of the core beam on the workpiece is preferably between 10 pm and 300 pm, in particular between 30 pm and 70 pm in single mode or between 50 pm and 1200 pm in multi-mode.
  • the beam parameter product of the core beam is preferably between 0.38mm*mrad and 16mm*mrad, in particular less than or equal to 0.6mm*mrad in single mode or less than or equal to 8mm*mrad in multimode.
  • the fiber-optic cable can have a single-spot fiber.
  • the laser processing machine can have scanner optics and/or "flying optics".
  • the imaging ratio is preferably 1:1 to 5:1, in particular 1.5:1 to 2:1.
  • the device is preferably designed in the form of a laser welding machine. Further advantages of the invention result from the description and the drawing. Likewise, the features mentioned above and those detailed below can be used according to the invention individually or collectively in any combination. The embodiments shown and described are not to be understood as an exhaustive list, but rather have an exemplary character for the description of the invention.
  • FIG. 1 shows a schematic representation of the method according to the invention and the device according to the invention.
  • the device 10 has a laser processing machine 14, in particular in the form of a laser welding machine.
  • the laser processing machine 14 has a processing laser beam source 16 for emitting a processing laser beam 18 .
  • the processing laser beam 18 can be coupled into the optical system of the laser processing machine 14 by a first semi-transparent mirror 20 and finally impinge on a workpiece 22 .
  • the first semitransparent mirror 20 is preferably in the form of a dichroic mirror or a perforated mirror.
  • Process lights 24 emanate from the workpiece 22 as a result of the laser processing.
  • the reflection 26 of an additional illumination (not shown), in particular the reflection 26 of an additional illumination laser, can emanate from the workpiece 22 .
  • the process lighting 24 and/or the reflection 26 of additional lighting referred to generally as "radiation" here, can be detected by an optical sensor 28 .
  • the optical sensor 28 is aligned coaxially to the processing laser beam 18 .
  • An optical filter 30 can be provided to protect the optical sensor 28 from the processing laser beam 18 .
  • the optical sensor 28 can a collimating lens 32 may be connected upstream.
  • the optical sensor 28 is preferably in the form of a camera, in particular with a CMOS or CCD sensor.
  • a second semi-transparent mirror 34 can be provided for deflecting the process lighting 24 or the reflection 26 of an additional lighting.
  • the second semi-transparent mirror 34 can be in the form of a dichroic mirror or a hole mirror.
  • a signal 36 from the optical sensor 28 is fed to an evaluation unit 38 which has an algorithm 40 for machine learning.
  • the algorithm 40 can have a neural network 42 .
  • the neural network 42 is in the form of a convolutional neural network. It has a U-net architecture and can be designed to carry out a semantic segmentation.
  • the images are recorded spatially with a resolution of 2 pixels or more.
  • the recording data of the recording are coded by means of convolution in a first convolution layer and the recording data of the recording are also coded with at least one dilated kernel.
  • a dilated kernel or extended convolution kernel where the convolution kernel is referred to as a kernel, allows individual pixels of the image matrix to be left out.
  • a convolution operation with a dilated kernel is also referred to as a dilated convolution.
  • the encoded reduced recording data can be transmitted to a second convolutional layer.
  • the reduction factor denotes the extent of the expansion of the convolution kernel.
  • a high reduction factor leads to a correspondingly high expansion of the convolution kernel.
  • a plurality of convolution kernels each with a different reduction factor, is chosen with a plurality of four convolution kernels.
  • the recording data encoded in this way with four extended convolution kernels or dilated kernels with different reduction factors are transmitted to a second convolution layer.
  • the amount of recording data for training the convolutional neural network can be reduced, the training is faster and with less computing power.
  • only a small two-digit number of images, for example thirty images, is required as recording data of the images or images of the laser processing.
  • the machine learning algorithm 40 was or is trained by several recordings 44a, 44b, 44c. Recorded spatters 46a, 46b or weld defects are shown on at least some recordings 44a-c.
  • the algorithm 40 is thus designed to detect a spatter 48 or a weld seam defect that occurs during the laser processing.
  • the device 10 and the method 12 are designed to emit an output 50 if spatter 48 or a weld seam defect was detected.
  • the output 50 can take place immediately after the detection of the spatter 48 or at a later time than the detection of the spatter 48 or weld seam defect.
  • the spatters 48 or weld seam defects that occur can be used after their verification as recorded spatters 46a, b or recorded weld seam defects for further training of the algorithm 40 of the method 12 used.
  • the output 50 can be fed to a control unit 52 of the device 10 in order to control or regulate the laser processing machine 14 .
  • the invention thus relates in summary to a method 12 and a device 10 for detecting spatter 48 or weld seam defects during the laser processing of a workpiece 22 with a processing laser beam 18.
  • the optical sensor 28 detects at least one recording 44a-c, in particular several recordings 44a-c, and transmits its or their signal 36 to an evaluation unit 38.
  • the evaluation unit 38 has an algorithm 40 for machine learning, as described.
  • the algorithm 40 is trained by previously recorded and evaluated recordings 44a-c, in particular with recorded spatter 46a, b or weld defects. Algorithm 40 is designed to detect spatter 48 or weld defects occurring during laser processing and to output this information as output 50 .
  • the output 50 can be sent to a control unit 52 for controlling or regulating the laser processing machine 14 .

Landscapes

  • Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Laser Beam Processing (AREA)

Abstract

Die Erfindung betrifft ein Verfahren (12) und eine Vorrichtung (10) zur Erfassung von Spritzern (48) bei der Laserbearbeitung eines Werkstücks (22) mit einem Bearbeitungslaserstrahl (18). Dabei wird/werden bei der Laserbearbeitung erzeugtes Prozessleuchten (24) und/oder die Reflexion (26) einer Zusatzbeleuchtung von einem optischen Sensor (28) erfasst. Der optische Sensor (28) erfasst zumindest eine Aufnahme (44a-c), insbesondere mehrere Aufnahmen (44a-c), und übermittelt dessen bzw. deren Signal (36) an eine Auswerteeinheit (38). Die Auswerteeinheit (38) weist einen Algorithmus (40) zum maschinellen Lernen auf. Der Algorithmus (40) ist durch zuvor erfasste und bewertete Aufnahmen (44a-c), insbesondere mit aufgenommenen Spritzern (46a, b), trainiert. Der Algorithmus (40) ist dazu ausgebildet, einen bei der Laserbearbeitung auftretenden Spritzer (48) zu erkennen und diese Information als Ausgabe (50) auszugeben. Die Ausgabe (50) kann an eine Steuereinheit (52) zur Steuerung oder Regelung der Laserbearbeitungs-maschine (14) erfolgen.

Description

Spritzerdetektion durch künstliche Intelligenz bei der Laserbearbeitung
Hintergrund der Erfindung
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Spritzerdetektion oder von Schweißnahtfehlern bei der Laserbearbeitung.
Der Anmelderin sind Verfahren bekannt, bei denen konventionelle Bildverarbeitungsalgorithmen eingesetzt werden, um bei der Laserbearbeitung eine Spritzererkennung zu erreichen. Bei diesen Verfahren erfolgt eine Analyse einer Aufnahme anhand fest vorgegebener geometrischer Merkmale oder anhand von fest vorgegebenen Helligkeitsmerkmalen. Wenn Art und/oder Größe der Spritzer von diesen vorgegebenen Merkmalen abweichen, erfolgt jedoch keine oder lediglich eine unzuverlässige Spritzerdetektion.
Bekannt im Stand der Technik sind weiter Verfahren und Vorrichtungen, welche mit einer Kameraeinrichtung Schmelzprozesse mittels semantischer Segmentierung mit Verwendung von neuronalen Netzen überwachen.
Aufgabe der Erfindung
Es ist daher Aufgabe der Erfindung, eine zuverlässige Spritzerdetektion oder Detektion von Schweißnahtfehlern bei der Laserbearbeitung eines Werkstücks zu erreichen. Beschreibung der Erfindung
Diese Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren gemäß Patentanspruch 1 und eine Vorrichtung gemäß Patentanspruch 11. Die Unteransprüche geben bevorzugte Weiterbildungen wieder.
Die in der Beschreibung dargelegten Merkmale und Vorteile betreffen dabei gleichermaßen das hier beschriebene Verfahren und die hier beschriebene Vorrichtung.
Die erfindungsgemäße Aufgabe wird mithin gelöst durch ein Verfahren zum Erkennen eines Spritzers bei der Laserbearbeitung eines Werkstücks. Das Verfahren weist folgende Verfahrensschritte auf:
A) Laserbearbeitung des Werkstücks (22) mit einem Bearbeitungslaserstrahl (18) einer Laserbearbeitungsmaschine (14);
B) Erstellen zumindest einer Aufnahme (44a-c) von bei der Laserbearbeitung ausgehender Strahlung mit einem optischen Sensor (28), wobei der optische Sensor (28) mehrere Pixel zur Aufnahme der Strahlung aufweist;
C) Zuführung der Aufnahme (44a-c) an eine Auswerteeinheit (38) mit einem Algorithmus (40) zum maschinellen Lernen, welcher als neuronales Netz (42) in Form einer U-net Architektur eines Convolutional Neural Network ausgebildet ist, wobei der Algorithmus (40) mit verifizierten Aufnahmen (44a-c) von Spritzern (46a, b) oder Schweißnahtfehlern trainiert wurde und einen oder mehrere Spritzer (48) oder Schweißnahtfehler in der zugeführten Aufnahme (44a-c) erkennt;
D) Ausgeben einer Ausgabe (50) im Falle eines erkannten Spritzers (48) oder Schweißnahtfehlers.
Das erfindungsgemäße Verfahren erlaubt eine Spritzererkennung oder Schweißnahtfehler bei der Laserbearbeitung unabhängig von der Temperatur (Leuchtstärke), der geometrischen Ausprägung und/oder Geschwindigkeit der Spritzer. Schweißnahtfehler sind insbesondere Poren oder Löcher an einer Schweißnaht beim Laserschweißen. Eine eindeutige Unterscheidung zwischen Spritzern und sonstigen, bei der Laserbearbeitung auftretenden Leuchterscheinungen wird ermöglicht. Weiterhin kann eine frühzeitige Warnung bei einer Spritzerzunahme und/oder der Zunahme von oder Schweißnahtfehlern ausgegeben werden. Das neuronale Netz ist in Form einer U-net Architektur eines Convolutional Neural Network ausgebildet. Das Convolutional Neural Network erlaubt das umfassende Training des neuronalen Netzes anhand nur weniger Aufnahmen. Die U-net Architektur als Ausgestaltung eines Convolutional Neural Network hat sich für die spezifische Anwendung bei Laserbearbeitungen als vorteilhaft erwiesen. Hiermit werden schnelle Verarbeitungszeiten und geringe Leistungsanforderungen an verwendete Computerprozessoren in der Auswerteeinheit erzielt. Alternativ oder zusätzlich dazu kann das neuronale Netz mittels Transfer Learning mit wenigen Aufnahmen trainiert werden.
Die erfindungsgemäße Aufgabe wird weiter mit einer Vorrichtung nach Anspruch 11 gelöst.
Ausführungsformen der Erfindung sind in den abhängigen Ansprüchen beschrieben.
Bei einem Beispiel werden bei der U-net Architektur in einer ersten Faltungsschicht die Aufnahmedaten der Aufnahme mittels Faltung kodiert und zudem die Aufnahmedaten der Aufnahme mit wenigstens einem dilated Kernel kodiert. Ein dilated Kernel oder erweiterter Faltungskern gestattet, einzelne Pixel der Bildmatrix auszulassen. Eine Faltungsoperation mit einem dilated Kernel wird auch als Dilated Convolution, etwa dilatierte Faltung, bezeichnet.
Anschließend können die kodierten reduzierten Aufnahmedaten zu einer zweiten Faltungsschicht übertragen werden. Als besonders vorteilhaft hat sich im Zusammenhang mit der Spritzererkennung und dem Erkennen von Schweißnahtfehlern erwiesen, eine Mehrzahl von Faltungskernen mit unterschiedlichen Reduktionsfak- toren zu verwenden. Der Reduktionsfaktor bezeichnet bei Faltungskernen das Ausmaß der Ausweitung des Faltungskerns. Ein hoher Reduktionsfaktor führt zu einer entsprechend hohen Ausweitung des Faltungskerns.
Das Erstellen der Aufnahmen kann aus verschiedenen Blickwinkeln (Perspektiven) erfolgen.
Die Aufnahme(n) kann/können in Form eines Graustufenbildes erstellt werden, um die Verarbeitung der Aufnahme(n) zu beschleunigen. Weiter bevorzugt wird/wer- den eine/mehrere Aufnahme(n) in Form eines Graustufenbildes mit einer Größe von 256x256 Pixeln oder 128x128 Pixeln eingegeben. Die Aufnahme(n) kann/können dabei ursprünglich mit einer höheren Auflösung, beispielsweise 720x540 Pixeln, erstellt werden.
Besonders bevorzugt wird beim Erstellen der Aufnahme(n) die optische Abbildung so gewählt, dass zumindest die gesamte Prozesszonenbreite abgebildet wird.
Als Bearbeitungslaserstrahl wird vorzugsweise ein Laserstrahl mit einer Wellenlänge von 400nm bis 450nm (blau), 515nm (grün) und/oder von 800nm bis 1200nm (IR), insbesondere von 1030nm oder 1070nm, eingesetzt.
Der Trainingsdatensatz mit verifizierten Aufnahmen kann auf vorteilhafte Art und Weise durch Rotation, vertikale Verschiebung, horizontale Verschiebung, vertikale Spiegelung, horizontale Spiegelung, Anpassung des Helligkeitsbereichs, Zoom und/oder Scherung vergrößert werden.
Die Pixel der verifizierten Aufnahmen können in „Hintergrund", „Prozessleuchten" und „Spritzer" eingeteilt werden.
In besonders bevorzugter Ausgestaltung des Verfahrens kann das neuronale Netz eine Semantic Segmentation durchführen. Hierdurch kann eine pixelgenaue Auflösung erreicht werden. Der optische Sensor kann in Form eines orts- und zeitauflösenden Flächensensors ausgebildet sein. Der optische Sensor kann über eine Netzwerkverbindung mit der Auswerteeinheit verbunden sein.
Die Belichtungszeit (exposure time) des optischen Sensors beträgt pro Aufnahme vorzugsweise zwischen lps und 20000ps, insbesondere zwischen lps und lOOOps.
Der beobachtete Wellenlängenbereich beträgt vorzugsweise zwischen 300nm und 2000nm, insbesondere zwischen 800nm und llOOnm.
In besonders bevorzugter Ausgestaltung des erfindungsgemäßen Verfahrens wird die Wellenlänge des Bearbeitungslaserstrahls vor dem optischen Sensor durch einen optischen Filter geblockt. Hierzu kann beispielsweise ein Bandpassfilter für Wellenlängen zwischen 800nm und lOOOnm eingesetzt werden. Alternativ oder zusätzlich dazu kann ein Breitbandfilter eingesetzt werden, dessen spektrale Breite vorzugsweise kleiner oder gleich 200nm ist.
Durch den Einsatz eines optischen Filters kann zusätzlich dazu ein verbesserter Kontrast zwischen einem Spritzer und der Lichtemission aus der Prozesszone erreicht werden.
Die Spritzer können sich von einem dunklen Hintergrund abheben, wenn keine zusätzliche externe Beleuchtung eingesetzt wird. Alternativ zu dieser bevorzugten Ausführungsform kann eine Zusatzbeleuchtung eingesetzt werden. In diesem Fall heben sich dunkle Spritzer vom hellen Hintergrund ab. Als Zusatzbeleuchtung kann insbesondere ein Beleuchtungslaser mit einer Wellenlänge zwischen 800nm und lOOOnm eingesetzt werden.
Die Architektur des neuronalen Netzes basiert vorzugsweise auf einer von Wang et. al. vorgestellten Architektur eines gestapelten dilatierten U-Netzes (SDU-Netz) [Wang, S.; Hu, S.Y.; Cheah, E.; Wang, X.; Wang, J.; Chen, L.; Baikpour, M.; Öztürk, A.; Li, Q.; Chou, S.H.; Lehman, C.D.; Kumar, V.; Samir, A. U-Net using stacked dilated convolutions for medical image segmentation. arXiv, 2020] (Die Abkürzung SD steht für stacked dilated). Es gibt weitere U-Netz-Modifikationen namens SDU-Net, bei denen die Abkürzung SD für verschiedene Konzepte steht. Zum Beispiel gibt es das sphärische deformierbare U-Netz (SDU-Netz) von Zhao et al., das für die medizinische Bildgebung im inhärenten sphärischen Raum entwickelt wurde [Zhao, F.; Wu, Z.; Wang, L; Lin, W.; Gilmore, J.H.; Xia, S.; Shen, D.; Li, G. Spherical Deformable U-Net: Application to Cortical Surface Parcellation and Development Prediction. IEEE Transactions on Medical Imaging 2021. doi : 10.1109/TMI.2021.3050072.]. Ein weiteres SDU-Netz, das als Modifikation des U-Netzes bezeichnet wird, ist das strukturierte Dropout-U-Netz von Guo et. al. [Guo, C.; Szemenyei, M.; Pei, Y.; Yi, Y.; Zhou, W. SD-Unet: A Structured Dropout U-Net for Retinal Vessel Segmentation. Proceedings - 2019 IEEE 19th International Conference on Bioinformatics and Bioengineering, BIBE 2019, 2019. doi : 10.1109/BIBE.2019.00085.]. Anstelle des traditionellen Dropouts für Faltungsschichten schlagen sie ein strukturiertes Dropout zur Regularisierung des U- Netzes vor. Gadosey et al. präsentieren das Stripping Down U-Net, mit der gleichen Abkürzung für die Segmentierung von Bildern auf einer Plattform mit geringem Rechenbudget. Durch die Verwendung von tiefenweise trennbaren Faltungen entwerfen sie eine leichtgewichtige tiefe neuronale Netzarchitektur, die vom U- Net-Modell inspiriert ist [Gadosey, P.K.; Li, Y.; Agyekum, E.A.; Zhang, T.; Liu, Z.; Yamak, P.T.; Essaf, F. SD-UNET: Stripping down U-net for segmentation of biomedical images on platforms with low computational budgets. Diagnostics 2020, 10. doi : 10.3390/diagnosticsl0020110.].
Vorzugsweise wird eine SDU-Net-Modifikation mit gestapelten Faltungsschichten verwendet. Diese U-Net-Variante übernimmt die Architektur des Vanilla U-Net, verwendet aber gestapelte dilatierte Faltungen. Anstelle von zwei Standardfaltungsschichten in jeder Kodier- und Dekodieroperation verwendet das SDU-Netz eine Standardfaltungsschicht, gefolgt von mehreren dilatierten Faltungsschichten, die als Eingabe für die nächste Operation verkettet werden. Daher ist das SDU- Netz tiefer als eine vergleichbare U-Netz-Architektur und hat ein größeres rezeptives Feld. Der optische Sensor kann in Form einer Kamera ausgebildet sein. Die Kamera kann in Form einer High-Speed Kamera ausgebildet sein.
Die Kamera kann einen CMOS-Sensor und/oder einen CCD-Sensor aufweisen.
In weiter bevorzugter Ausgestaltung kann der optische Sensor koaxial zum Bearbeitungslaserstrahl angeordnet sein.
Im Verfahrensschritt B) können mehrere Aufnahmen erstellt werden. Diese können im Verfahrensschritt C) der Auswerteeinheit zur Erkennung eines oder mehrerer Spritzer übergeben werden. Alternativ oder zusätzlich dazu können während der Laserbearbeitung Maximalwertbilder von der Auswerteeinheit bewertet werden. Hierdurch kann die zeitliche Veränderung des Spritzerverhaltens während der Laserbearbeitung besonders gut erfasst werden.
Die Aufnahmerate der Kamera ist vorzugsweise größer als 20 Hz, insbesondere größer als 100 Hz.
In besonders bevorzugter Ausgestaltung der Erfindung weist das Verfahren folgenden Verfahrensschritt auf:
E) Steuern oder Regeln des Bearbeitungslaserstrahls im Falle des Erkennens eines oder mehrerer Spritzer.
Hierdurch kann eine spritzerarme oder sogar spritzerfreie Laserbearbeitung erreicht werden.
Besonders bevorzugt erfolgt die Laserbearbeitung in Form von Laserschweißen. Beim Laserschweißen werden vorzugsweise zumindest zwei metallische Komponenten, beispielsweise auf Eisen-, Kupfer- und/oder Aluminiumbasis, verbunden. Die Komponenten können dabei aus gleichem oder verschiedenem Material bestehen. Die Einschweißtiefe beträgt vorzugsweise mehr als 100pm und weniger als 20mm. Das Aspektverhältnis von Tiefe zu Breite der Schweißnaht beträgt vorzugsweise mehr als 0,5: 1, sodass ein Tiefschweißen erfolgt. Die erfindungsgemäße Aufgabe wird weiterhin gelöst durch eine Vorrichtung zum Erkennen eines Spritzers bei der Laserbearbeitung eines Werkstücks, insbesondere durch eine Vorrichtung zur Durchführung eines hier beschriebenen Verfahrens. Die Vorrichtung weist eine Laserbearbeitungsmaschine mit einem Bearbeitungslaserstrahl, einen optischen Sensor mit mehreren Pixeln zur Aufnahme von bei der Laserbearbeitung entstehender Strahlung, eine Auswerteeinheit mit einem Algorithmus zum maschinellen Lernen zur Erkennung eines Spritzers sowie eine Ausgabeeinheit zum Ausgeben einer Ausgabe im Falle eines erkannten Spritzers auf.
Die Vorrichtung kann ein Lichtleitkabel umfassen, das aktiv, insbesondere für einen Faserlaser, oder passiv, insbesondere für einen Scheibenlaser, genutzt wird. Das Lichtleitkabel kann eine Kernfaser aufweisen, die von einer Ringfaser umgeben ist. Die Kernfaser kann vorzugsweise einen Durchmesser zwischen 10pm und 50pm oder zwischen 50pm und 400pm, insbesondere zwischen 50pm und 200pm, aufweisen. Der Außendurchmesser der Ringfaser beträgt vorzugsweise zwischen 40pm und 2000pm, insbesondere zwischen 80pm und 800pm. In besonders bevorzugter Ausgestaltung beträgt das Durchmesserverhältnis von Kernfaser zur Ringfaser 1 :2 bis 1 : 10, insbesondere 1 :4.
Der Strahldurchmesser des Kernstrahls auf dem Werkstück beträgt vorzugsweise zwischen 10pm und 300pm, insbesondere zwischen 30pm und 70pm im Single- Mode bzw. zwischen 50pm und 1200pm im Multi-Mode. Das Strahlparameterprodukt des Kernstrahls beträgt vorzugsweise zwischen 0,38mm*mrad und 16mm*mrad, insbesondere weniger oder gleich 0,6mm*mrad im Single-Mode bzw. weniger oder gleich 8mm*mrad im Multi-Mode.
Das Lichtleitkabel kann eine Single-Spot-Faser aufweisen.
Die Laserbearbeitungsmaschine kann eine Scanneroptik und/oder eine „fliegende Optik" aufweisen. Das Abbildungsverhältnis beträgt vorzugsweise 1 : 1 bis 5: 1, insbesondere 1,5: 1 bis 2: 1.
Die Vorrichtung ist vorzugsweise in Form einer Laserschweißmaschine ausgebildet. Weitere Vorteile der Erfindung ergeben sich aus der Beschreibung und der Zeichnung. Ebenso können die vorstehend genannten und die noch weiter ausgeführten Merkmale erfindungsgemäß jeweils einzeln für sich oder zu mehreren in beliebigen Kombinationen Verwendung finden. Die gezeigten und beschriebenen Ausführungsformen sind nicht als abschließende Aufzählung zu verstehen, sondern haben vielmehr beispielhaften Charakter für die Schilderung der Erfindung.
Detaillierte Beschreibung der Erfindung und Zeichnung
Fig. 1 zeigt eine schematische Darstellung des erfindungsgemäßen Verfahrens und der erfindungsgemäßen Vorrichtung.
Fig. 1 zeigt eine erfindungsgemäße Vorrichtung 10 zur Durchführung eines erfindungsgemäßen Verfahrens 12. Die Vorrichtung 10 weist eine Laserbearbeitungsmaschine 14, insbesondere in Form einer Laserschweißmaschine, auf. Die Laserbearbeitungsmaschine 14 weist eine Bearbeitungslaserstrahlguelle 16 zur Abgabe eines Bearbeitungslaserstrahls 18 auf. Der Bearbeitungslaserstrahl 18 kann durch einen ersten halbdurchlässigen Spiegel 20 in das optische System der Laserbearbeitungsmaschine 14 eingekoppelt werden und schließlich auf ein Werkstück 22 treffen. Der erste halbdurchlässige Spiegel 20 ist vorzugsweise in Form eines Dich- roitspiegels oder eines Lochspiegels ausgebildet.
Vom Werkstück 22 geht durch die Laserbearbeitung Prozessleuchten 24 aus. Alternativ oder zusätzlich dazu kann vom Werkstück 22 die Reflexion 26 einer Zusatzbeleuchtung (nicht gezeigt), insbesondere die Reflexion 26 eines Zusatz-Beleuchtungslasers, ausgehen. Das Prozessleuchten 24 und/oder die Reflexion 26 einer Zusatzbeleuchtung, hier allgemein als „Strahlung" bezeichnet, kann/können von einem optischen Sensor 28 detektiert werden.
Der optische Sensor 28 ist vorliegend koaxial zum Bearbeitungslaserstrahl 18 ausgerichtet. Ein optischer Filter 30 kann zum Schutz des optischen Sensors 28 vor dem Bearbeitungslaserstrahl 18 vorgesehen sein. Dem optischen Sensor 28 kann eine Kollimationslinse 32 vorgeschaltet sein. Der optische Sensor 28 ist vorzugsweise in Form einer Kamera, insbesondere mit CMOS oder CCD-Sensor, ausgebildet.
Zur Umlenkung des Prozessleuchtens 24 beziehungsweise der Reflexion 26 einer Zusatzbeleuchtung kann ein zweiter halbdurchlässiger Spiegel 34 vorgesehen sein. Der zweite halbdurchlässige Spiegel 34 kann in Form eines Dichroitspiegels oder eines Lochspiegels ausgebildet sein.
Ein Signal 36 des optischen Sensors 28 wird einer Auswerteeinheit 38 zugeführt, die einen Algorithmus 40 zum maschinellen Lernen aufweist. Der Algorithmus 40 kann dabei ein neuronales Netz 42 aufweisen.
Das neuronale Netz 42 ist in Form eines Convolutional Neural Network ausgebildet. Es weist eine U-net Architecture auf und kann dazu ausgebildet sein, eine Semantic Segmentation durchzuführen. Die Bildaufnehmen erfolgen ortsauflösend mit einer Auflösung von 2 Pixeln oder mehr.
Bei einem Beispiel werden bei der U-net Architektur in einer ersten Faltungsschicht die Aufnahmedaten der Aufnahme mittels Faltung kodiert und zudem die Aufnahmedaten der Aufnahme mit wenigstens einem dilated Kernel kodiert. Ein dilated Kernel oder auch erweiterter Faltungskern, wobei der Faltungskern als Kernel bezeichnet ist, gestattet, einzelne Pixel der Bildmatrix auszulassen. Eine Faltungsoperation mit einem dilated Kernel wird auch als Dilated Convolution, etwa dila- tierte Faltung, bezeichnet.
Anschließend können die kodierten reduzierten Aufnahmedaten zu einer zweiten Faltungsschicht übertragen werden. Als besonders vorteilhaft hat sich im Zusammenhang mit der Spritzererkennung und dem Erkennen von Schweißnahtfehlern erwiesen, eine Mehrzahl von Faltungskernen mit unterschiedlichen Reduktionsfaktoren zu verwenden. Der Reduktionsfaktor bezeichnet bei Faltungskernen das Ausmaß der Ausweitung des Faltungskerns. Ein hoher Reduktionsfaktor führt zu einer entsprechend hohen Ausweitung des Faltungskerns. In der folgenden Formel für die mathematische Faltung bezeichnet die Variable / den Reduktionsfaktor. Wird 1 = 1 gesetzt, so wird eine gewöhnliche Faltung durchgeführt ohne Ausweitung des Faltungskerns.
(F * Z/c)(p) = 'S" F(s)/c(t)
4— ls+lt=p
Bei einem Beispiel wird eine Mehrzahl von Faltungskernen mit jeweils einem unterschiedlichen Reduktionsfaktor gewählt mit einer Mehrzahl von vier Faltungskernen. Die derart kodierten Aufnahmedaten mit vier erweiterten Faltungskernen oder dilated Kernels mit unterschiedlichem Reduktionsfaktor werden zu einer zweiten Faltungsschicht übertragen. Hiermit kann die Menge der Aufnahmedaten zum Trainieren des Convolutional Neural Network verringert werden, das Trainieren erfolgt schneller und mit weniger Rechenleistung. Als Aufnahmedaten der Bildaufnahmen oder Aufnahmen der Laserbearbeitung werden zu diesem Zweck lediglich eine kleine zweistellige Anzahl von Bildaufnahmen benötigt, beispielsweise dreißig Aufnahmen.
Der Algorithmus 40 zum maschinellen Lernen wurde beziehungsweise ist durch mehrere Aufnahmen 44a, 44b, 44c trainiert. Auf zumindest einigen Aufnahmen 44a-c sind aufgenommene Spritzer 46a, 46b oder Schweißnahtfehler abgebildet. Der Algorithmus 40 ist dadurch dazu ausgebildet, einen bei der der Laserbearbeitung auftretenden Spritzer 48 oder Schweißnahtfehler zu detektieren. Die Vorrichtung 10 bzw. das Verfahren 12 sind dazu ausgebildet, eine Ausgabe 50 auszugeben, wenn ein Spritzer 48 oder Schweißnahtfehler detektiert wurde. Die Ausgabe 50 kann unmittelbar nach der Detektion des Spritzers 48 oder zeitlich versetzt zur Detektion des Spritzers 48 oder Schweißnahtfehlers erfolgen. Die auftretenden Spritzer 48 oder Schweißnahtfehler können nach ihrer Verifizierung als aufgenommene Spritzer 46a, b oder aufgenommene Schweißnahtfehler zum weiteren Training des verwendeten Algorithmus 40 des Verfahrens 12 eingesetzt werden.
Die Ausgabe 50 kann einer Steuereinheit 52 der Vorrichtung 10 zugeführt werden, um die Laserbearbeitungsmaschine 14 zu steuern oder zu regeln. Bei Betrachtung der Zeichnung betrifft die Erfindung somit zusammenfassend ein Verfahren 12 und eine Vorrichtung 10 zur Erfassung von Spritzern 48 oder Schweißnahtfehlern bei der Laserbearbeitung eines Werkstücks 22 mit einem Be- arbeitungslaserstrahl 18. Dabei wird/werden bei der Laserbearbeitung erzeugtes Prozessleuchten 24 und/oder die Reflexion 26 einer Zusatzbeleuchtung von einem optischen Sensor 28 erfasst. Der optische Sensor 28 erfasst zumindest eine Aufnahme 44a-c, insbesondere mehrere Aufnahmen 44a-c, und übermittelt dessen beziehungsweise deren Signal 36 an eine Auswerteeinheit 38. Die Auswerteeinheit 38 weist einen Algorithmus 40 zum maschinellen Lernen auf, wie beschrieben. Der Algorithmus 40 ist durch zuvor erfasste und bewertete Aufnahmen 44a-c, insbesondere mit aufgenommenen Spritzern 46a, b oder Schweißnahtfehlern trainiert. Der Algorithmus 40 ist dazu ausgebildet, einen bei der Laserbearbeitung auftretenden Spritzer 48 oder Schweißnahtfehler zu erkennen und diese Information als Ausgabe 50 auszugeben. Die Ausgabe 50 kann an eine Steuereinheit 52 zur Steuerung oder Regelung der Laserbearbeitungsmaschine 14 erfolgen.
Die Anwendung des beschriebenen Verfahrens und der Vorrichtung ist besonders geeignet für Werkstücke 22 aus den Materialien Aluminium und Kupfer.
Bezuqszeichenliste
10 Vorrichtung
12 Verfahren
14 Laserbearbeitungsmaschine
16 Bearbeitungslaserstrahlquelle
18 Bearbeitungslaserstrahl
20 erster halbdurchlässiger Spiegel
22 Werkstück
24 Prozessleuchten
26 Reflexion einer Zusatzbeleuchtung
28 optischer Sensor
30 optischer Filter
32 Kollimationslinse
34 zweiter halbdurchlässiger Spiegel
36 Signal des optischen Sensors 28
38 Auswerteeinheit
40 Algorithmus zum maschinellen Lernen
42 neuronales Netz
44a-c Aufnahme
46a, b aufgenommener Spritzer
48 bei der Laserbearbeitung auftretender Spritzer
50 Ausgabe
52 Steuereinheit

Claims

Patentansprüche
1. Verfahren (12) zum Erkennen eines Spritzers (48) oder Schweißnahtfehlern bei der Laserbearbeitung eines Werkstücks (22) mit den Verfahrensschritten:
A) Laserbearbeitung des Werkstücks (22) mit einem Bearbeitungslaserstrahl (18) einer Laserbearbeitungsmaschine (14);
B) Erstellen zumindest einer Aufnahme (44a-c) von bei der Laserbearbeitung ausgehender Strahlung mit einem optischen Sensor (28), wobei der optische Sensor (28) mehrere Pixel zur Aufnahme der Strahlung aufweist; dadurch gekennzeichnet, dass das Verfahren (12) folgende Verfahrensschritte aufweist:
C) Zuführung der Aufnahme (44a-c) an eine Auswerteeinheit (38) mit einem Algorithmus (40) zum maschinellen Lernen, welcher als neuronales Netz (42) in Form einer U-net Architektur eines Convolutional Neural Network ausgebildet ist, wobei der Algorithmus (40) mit verifizierten Aufnahmen (44a-c) von Spritzern (46a, b) oder Schweißnahtfehlern trainiert wurde und einen oder mehrere Spritzer (48) oder Schweißnahtfehler in der zugeführten Aufnahme (44a-c) erkennt;
D) Ausgeben einer Ausgabe (50) im Falle eines erkannten Spritzers (48) oder Schweißnahtfehlers.
2. Verfahren (12) nach Anspruch 1, bei dem in der U-net Architektur in einer ersten Faltungsschicht die Aufnahmedaten der Aufnahme (44a-c) mittels Faltung kodiert werden und zudem die Aufnahmedaten der Aufnahme (44a-c) mit wenigstens einem dilated Kernel kodiert werden.
3. Verfahren (12) nach Anspruch 2, wobei die mit dem wenigstens einen dilated Kernel kodierten Aufnahmedaten zu einer zweiten Faltungsschicht übertragen werden.
4. Verfahren (12) nach Anspruch 2 oder 3, wobei eine Mehrzahl von Faltungskernen mit unterschiedlichen Reduktionsfaktoren verwendet werden.
5. Verfahren (12) nach Anspruch 2 oder 3, bei dem das neuronale Netz (42) eine Semantic Segmentation durchführt.
6. Verfahren (12) nach einem der vorhergehenden Ansprüche, bei dem der optische Sensor (28) in Form einer Kamera ausgebildet ist.
7. Verfahren (12) nach einem der vorhergehenden Ansprüche, bei dem der optische Sensor (28) koaxial zum Bearbeitungslaserstrahl (18) angeordnet ist.
8. Verfahren (12) nach einem der vorhergehenden Ansprüche, bei dem im Verfahrensschritt B) sequenziell mehrere Aufnahmen (44a-c) erstellt werden und im Verfahrensschritt C) der Auswerteeinheit (38) zum Erkennen eines oder mehrerer Spritzer (48) oder Schweißnahtfehler zugeführt werden.
9. Verfahren (12) nach einem der vorhergehenden Ansprüche, bei dem das Verfahren (12) folgenden Verfahrensschritt aufweist:
E) Steuern oder Regeln des Bearbeitungslaserstrahls (18) beim Erkennen eines im Verfahrensschritt C) erkannten Spritzers (48) oder Schweißnahtfehler oder mehrerer im Verfahrensschritt C) erkannter Spritzer (48) oder Schweißnahtfehler.
10. Verfahren (12) nach einem der vorhergehenden Ansprüche, bei dem die Laserbearbeitung im Verfahrensschritt A) in Form von Laserschweißen erfolgt.
11. Vorrichtung (10) zum Erkennen eines Spritzers (48) oder Schweißnahtfehlers bei der Laserbearbeitung eines Werkstücks (22), insbesondere zur Durchführung eines Verfahrens (12) nach einem der vorhergehenden Ansprüche, mit den Merkmalen: a) Einer Laserbearbeitungsmaschine (14) mit einem Bearbeitungslaserstrahl (18); b) einem optischen Sensor (28) zum Erstellen zumindest einer Aufnahme (44a-c) von bei der Laserbearbeitung ausgehender Strahlung, wobei der optische Sensor (28) mehrere Pixel zur Aufnahme der Strahlung aufweist; dadurch gekennzeichnet, dass die Vorrichtung (10) folgende Merkmale aufweist: c) eine Auswerteeinheit (38) mit einem Algorithmus (40) zum maschinellen Lernen, welcher als neuronales Netz (42) in Form einer U-net Architektur eines Convolutional Neural Network ausgebildet ist, wobei die Aufnahme (44a-c) der Auswerteeinheit (38) zuführbar ist, und wobei der Algorithmus (40) mit verifizierten Aufnahmen (44a-c) von Spritzern (46a, b) oder Schweißnahtfehlern trainiert ist, um einen oder mehrere Spritzer (48) oder Schweißnahtfehlern in der zugeführten Aufnahme (44a-c) zu erkennen; und d) einer Ausgabeeinheit zum Ausgeben einer Ausgabe (50) im Falle eines erkannten Spritzers (48) oder Schweißnahtfehlers. Vorrichtung (10) nach Anspruch 11, bei der die Laserbearbeitungsmaschine (14) in Form einer Laserschweißmaschine ausgebildet ist. Vorrichtung (10) nach Anspruch 11 oder 12, bei welcher die Laserbearbeitungsmaschine (14) ein Bandpassfilter umfasst, welcher Wellenlängen im Bereich von etwa 800nm bis etwa lOOOnm filtert zum Aufnehmen durch den optischen Sensor (28).
PCT/EP2022/074377 2021-09-06 2022-09-01 Spritzerdetektion durch künstliche intelligenz bei der laserbearbeitung WO2023031353A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202280060254.5A CN117916767A (zh) 2021-09-06 2022-09-01 在激光加工过程中通过人工智能检测飞溅物

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021123038.1A DE102021123038A1 (de) 2021-09-06 2021-09-06 Spritzerdetektion durch künstliche Intelligenz bei der Laserbearbeitung
DE102021123038.1 2021-09-06

Publications (1)

Publication Number Publication Date
WO2023031353A1 true WO2023031353A1 (de) 2023-03-09

Family

ID=83400558

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2022/074377 WO2023031353A1 (de) 2021-09-06 2022-09-01 Spritzerdetektion durch künstliche intelligenz bei der laserbearbeitung

Country Status (3)

Country Link
CN (1) CN117916767A (de)
DE (1) DE102021123038A1 (de)
WO (1) WO2023031353A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116493735B (zh) * 2023-06-29 2023-09-12 武汉纺织大学 一种万瓦级超高功率激光焊接过程运动飞溅实时跟踪方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020104103A1 (de) * 2018-11-22 2020-05-28 Precitec Gmbh & Co. Kg Überwachung eines laserarbeitungsprozesses mithilfe von tiefen faltenden neuronalen netzen

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9373163B2 (en) 2010-06-28 2016-06-21 Precitec Kg Method for controlling a laser processing operation by means of a reinforcement learning agent and laser material processing head using the same
CN113207286B (zh) 2018-12-19 2023-04-25 松下知识产权经营株式会社 外观检查装置及使用该外观检查装置判定焊接部位有无形状不良及形状不良的种类的判定精度的提高方法、焊接系统及工件的焊接方法
DE102019209100A1 (de) 2019-06-24 2020-12-24 Robert Bosch Gmbh Qualitätsüberwachung für einen Laserstrahl-Schweißprozess
DE102019214180A1 (de) 2019-09-18 2021-03-18 Robert Bosch Gmbh Überwachungsvorrichtung zur Überwachung von einem Schmelzprozess, Verfahren zur Überwachung von einem Schmelzprozess, Computerprogramm sowie maschinenlesbares Speichermedium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020104103A1 (de) * 2018-11-22 2020-05-28 Precitec Gmbh & Co. Kg Überwachung eines laserarbeitungsprozesses mithilfe von tiefen faltenden neuronalen netzen

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
DONG XINGHUI ET AL: "Defect Detection and Classification by Training a Generic Convolutional Neural Network Encoder", IEEE TRANSACTIONS ON SIGNAL PROCESSING, IEEE, USA, vol. 68, 19 October 2020 (2020-10-19), pages 6055 - 6069, XP011818775, ISSN: 1053-587X, [retrieved on 20201030], DOI: 10.1109/TSP.2020.3031188 *
GUO, C.SZEMENYEI, M.PEI, Y.YI, Y.ZHOU, W: "SD-Unet: A Structured Dropout U-Net for Retinal Vessel Segmentation", PROCEEDINGS - 2019 IEEE 19TH INTERNATIONAL CONFERENCE ON BIOINFORMATICS AND BIOENGINEERING, BIBE 2019, 2019
NICOLOSI L ET AL: "A monitoring system for laser beam welding based on an algorithm for spatter detection", CIRCUIT THEORY AND DESIGN (ECCTD), 2011 20TH EUROPEAN CONFERENCE ON, IEEE, 29 August 2011 (2011-08-29), pages 25 - 28, XP031975496, ISBN: 978-1-4577-0617-2, DOI: 10.1109/ECCTD.2011.6043301 *
VATER JOHANNES ET AL: "Fault Classification and Correction based on Convolutional Neural Networks exemplified by laser welding of hairpin windings", 2019 9TH INTERNATIONAL ELECTRIC DRIVES PRODUCTION CONFERENCE (EDPC), IEEE, 3 December 2019 (2019-12-03), pages 1 - 8, XP033728083, DOI: 10.1109/EDPC48408.2019.9012044 *
WANG, S.HU, S.Y.CHEAH, E.WANG, X.WANG, J.CHEN, L.BAIKPOUR, M.OZTURK, ALI, Q.CHOU, S.H.: "U-Net using stacked dilated convolutions for medical image segmentation", ARXIV, 2020
YANG LEI ET AL: "An automatic welding defect location algorithm based on deep learning", NDT&E INTERNATIONAL, ELSEVIER, AMSTERDAM, NL, vol. 120, 13 March 2021 (2021-03-13), XP086574893, ISSN: 0963-8695, [retrieved on 20210313], DOI: 10.1016/J.NDTEINT.2021.102435 *
ZHANG YANXI ET AL: "Welding defects detection based on deep learning with multiple optical sensors during disk laser welding of thick plates", JOURNAL OF MANUFACTURING SYSTEMS, vol. 51, 28 September 2019 (2019-09-28), pages 87 - 94, XP085710627, ISSN: 0278-6125, DOI: 10.1016/J.JMSY.2019.02.004 *
ZHAO, F.WU, Z.WANG, LLIN, W.GILMORE, J.H.XIA, S.SHEN, D.LI, G: "Spherical Deformable U-Net: Application to Cortical Surface Parcellation and Development Prediction", IEEE TRANSACTIONS ON MEDICAL IMAGING, 2021

Also Published As

Publication number Publication date
CN117916767A (zh) 2024-04-19
DE102021123038A1 (de) 2023-03-09

Similar Documents

Publication Publication Date Title
DE102018129441B4 (de) System zur Überwachung eines Laserbearbeitungsprozesses, Laserbearbeitungssystem sowie Verfahren zur Überwachung eines Laserbearbeitungsprozesses
DE102014212246B3 (de) Verfahren und Vorrichtung zur Qualitätssicherung
DE102014208768B4 (de) Verfahren und Vorrichtung zur Qualitätssicherung
EP3095591B1 (de) Verfahren und vorrichtung zum zumindest bereichsweisen ermitteln einer kontur wenigstens einer generativ hergestellten bauteilschicht
WO2016146276A1 (de) Verfahren und vorrichtung zum prüfen von zahnrädern
WO2011141135A1 (de) Laserschneidkopf und verfahren zum schneiden eines werkstücks mittels eines laserschneidkopfes
EP1128927A1 (de) Verfahren und vorrichtung zum bearbeiten von werkstücken mit hochenergiestrahlung
DE102013209526A1 (de) Verfahren und Vorrichtung zum Erkennen eines Schnittabrisses
WO2018069308A1 (de) Verfahren und vorrichtung zur bestimmung und zur regelung einer fokusposition eines bearbeitungsstrahls
DE10103255B4 (de) Verfahren zur automatischen Beurteilung von Laserbearbeitungsprozessen
DE102015207834A1 (de) Bearbeitungsmaschine für ein mit einem Laserstrahl durchzuführendes Produktionsverfahren und Verfahren zu deren Betrieb
WO2023031353A1 (de) Spritzerdetektion durch künstliche intelligenz bei der laserbearbeitung
WO2020099421A1 (de) Verfahren und vorrichtung zur überwachung eines schweissprozesses zum verschweissen von werkstücken aus glas
EP3880395A1 (de) Verfahren und vorrichtung zur überwachung eines schweissprozesses zum verschweissen von werkstücken aus glas
DE102020213109B3 (de) Verfahren und Bearbeitungsmaschine zur Porendefekt-Überwachung eines Laserschweißprozesses zum Verschweißen von mehreren Stableitern sowie zugehöriges Computerprogrammprodukt
DE10310854B3 (de) Verfahren, Überwachungsvorrichtung und Laserbearbeitungsanlage mit Fehlstellenüberwachung einer optischen Komponente
DE10222786A1 (de) Verfahren zur Positionierung von Werkstücken bei Laserbearbeitungsprozessen
DE102018207405A1 (de) Verfahren und Vorrichtung zum Herstellen einer Schicht auf einem Träger und Bauteil mit der Schicht
DE10225450A1 (de) Verfahren zur Fehlerdetektion bei Laserbearbeitungsprozessen
EP3885069A1 (de) Qualitätskontrolle eines laserbearbeitungsprozesses mittels maschinellem lernen
EP3478442B1 (de) Vorrichtung zur prozessüberwachung bei einem auftragschweiss-verfahren
DE102020211343A1 (de) Verfahren zum Laserschweißen mittels eines in einer Doppelkernfaser geführten Laserstrahls sowie zugehörige Laserschweißmaschine und Computerprogrammprodukt
EP2359980B1 (de) Laserstrahlschweißeinrichtung und Verfahren zur Prüfung einer Laserstrahlschweißeinrichtung
DE102022203056A1 (de) Vorrichtung zum selektiven Materialabtrag an Strukturelementen oder Schichten, die auf Oberflächen von Substraten ausgebildet sind
EP4230341A1 (de) Verfahren und vorrichtung zum laserschneiden eines werkstücks

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22773606

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202280060254.5

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE