WO2021139914A1 - Überwachung eines laserbearbeitungsprozesses mithilfe eines neuromorphen bildsensors - Google Patents

Überwachung eines laserbearbeitungsprozesses mithilfe eines neuromorphen bildsensors Download PDF

Info

Publication number
WO2021139914A1
WO2021139914A1 PCT/EP2020/081633 EP2020081633W WO2021139914A1 WO 2021139914 A1 WO2021139914 A1 WO 2021139914A1 EP 2020081633 W EP2020081633 W EP 2020081633W WO 2021139914 A1 WO2021139914 A1 WO 2021139914A1
Authority
WO
WIPO (PCT)
Prior art keywords
laser
machining process
image data
workpiece
data
Prior art date
Application number
PCT/EP2020/081633
Other languages
English (en)
French (fr)
Inventor
Fabian MACK
Matthias Sauer
Original Assignee
Precitec Gmbh & Co. Kg
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Precitec Gmbh & Co. Kg filed Critical Precitec Gmbh & Co. Kg
Priority to US17/791,788 priority Critical patent/US20230036295A1/en
Priority to CN202080093857.6A priority patent/CN115175780A/zh
Publication of WO2021139914A1 publication Critical patent/WO2021139914A1/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K26/00Working by laser beam, e.g. welding, cutting or boring
    • B23K26/02Positioning or observing the workpiece, e.g. with respect to the point of impact; Aligning, aiming or focusing the laser beam
    • B23K26/03Observing, e.g. monitoring, the workpiece
    • B23K26/032Observing, e.g. monitoring, the workpiece using optical means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K26/00Working by laser beam, e.g. welding, cutting or boring
    • B23K26/20Bonding
    • B23K26/21Bonding by welding
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K26/00Working by laser beam, e.g. welding, cutting or boring
    • B23K26/36Removing material
    • B23K26/38Removing material by boring or cutting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K31/00Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups
    • B23K31/006Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups relating to using of neural networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K31/00Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups
    • B23K31/12Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups relating to investigating the properties, e.g. the weldability, of materials
    • B23K31/125Weld quality monitoring

Definitions

  • the present disclosure relates to a system for monitoring a laser machining process for machining a workpiece with a laser beam and a laser machining system for machining a workpiece with a laser beam, which comprises such a system.
  • the present disclosure also relates to a method for monitoring a laser machining process for machining a workpiece.
  • a laser processing system for processing a workpiece with a laser beam
  • the laser beam emerging from a laser light source or one end of a laser guide fiber is focused or bundled onto the workpiece to be processed with the aid of beam guidance and focusing optics.
  • the processing can include, for example, laser cutting or welding.
  • the laser processing system can for example comprise a laser processing head.
  • processing area can in particular comprise a steam capillary (also called “keyhole”) and the molten bath surrounding the steam capillary.
  • frame-based cameras are usually used for this.
  • Frame-based cameras are based on the principle that the entire image sensor of the camera is exposed at a specific point in time or at specific time intervals. This creates a single image of the workpiece surface assigned to the respective point in time.
  • Several such individual images are transmitted completely and one after the other to a processing unit for further image processing and evaluation, or they are stored.
  • a single image is also known as a “frame”.
  • One property of frame-based cameras concerns the number of frames that can be recorded per second by the respective camera and is specified in “frames per second” or “fps” for short.
  • frame-based cameras When the image is captured by a frame-based camera, all information of each pixel is recorded. taken and transmitted, which leads to enormous redundancy in the generated and transmitted information in the event of relatively small changes in the image, for example. This in turn leads to a large amount of image data generated and transmitted.
  • the image data generated in this way are used as input data for image processing and evaluation using various methods or algorithms.
  • the image data can be used offline to determine optimal parameters for different steps of the laser machining process, in particular piercing, cutting, welding, in order to improve the individual steps in the next move.
  • the data can be used in combination with various models and algorithms to monitor the result of the laser material processing process, or to determine whether there is a processing error and what type of processing error it is.
  • the image data can be used online to monitor and / or regulate the laser machining process by influencing parameters of the laser machining process.
  • the difficult lighting conditions that prevail during the laser machining process can become a problem.
  • the lighting conditions can change constantly and / or abruptly.
  • additional lighting is generally required, often in combination with a high-quality bandpass filter, which is particularly transparent at the wavelength of the lighting, in order to generate useful image data.
  • the machines used in the laser processing system are getting faster and faster.
  • the individual steps of a laser machining process can run faster and faster in order to produce more profitably.
  • the dynamic range of frame-based cameras is limited. On the other hand, this leads to an enormous increase in the generated and processed image data.
  • Disclosure of the invention It is an object of the invention to enable monitoring and / or regulation of a laser machining process, in particular in real time. In particular, it is an object of the invention to enable regulation of at least one parameter of the laser machining process.
  • the invention is based on the basic idea of using neuromorphic image sensors to monitor a laser machining process, such as laser cutting or laser welding.
  • the neuromorphic image sensor can also be referred to as an “event-based image sensor” and can in particular be designed as an event-based camera. Accordingly, monitoring with a neuromorphic image sensor can be referred to as "event-based monitoring”.
  • Neuromorphic image sensors have a larger dynamic range and a higher equivalent frame rate and thus a higher temporal resolution than frame-based cameras. In addition, no redundant information or image data is generated or transmitted.
  • the use of neuromorphic image sensors thus enables improved monitoring and / or regulation of laser machining processes, in particular in real time. In particular, the monitoring of fast-running laser machining processes is improved.
  • the computing power required for image processing or evaluation can be reduced, and power consumption can be reduced. Furthermore, no separate lighting of the laser machining process is necessary. Due to the reduced computing power and the reduced power consumption, the computing units used for image processing and evaluation can be made smaller or more compact, and can, for example, be used in a laser processing unit. be integrated head, whereby system costs, in particular manufacturing costs, who can be reduced.
  • the neuromorphic image sensors can also be combined with methods or algorithms of machine learning (“machine learning”, “ML” for short).
  • a system for monitoring a laser machining process for machining a workpiece with a laser beam comprising: a neuromorphic image sensor which is set up to generate image data of the laser machining process, in particular of a surface of the workpiece , and a computing unit which is set up to determine input data based on the image data and to determine output data containing information about the laser machining process based on the input data by means of a transfer function.
  • the output data can be used for quality monitoring and / or regulation of the laser machining process.
  • a laser processing system for processing a workpiece with a laser beam comprising: a laser processing head for irradiating a laser beam onto a workpiece to be processed; and the above-described system for monitoring a laser machining process.
  • a method for monitoring a laser machining process for machining a workpiece with a laser beam comprising the steps of: generating image data of the laser machining process by means of a neuromorphic image sensor, determining input data based on the image data, and determining output data based on the input data by means of a transfer function, the output data containing information about the laser machining process.
  • the method preferably further comprises the step of regulating, in particular in real time, at least one parameter of the laser machining process based on the determined output data.
  • the method can include regulating, in particular in real time, at least one parameter of the laser machining process based on the determined output data.
  • the neuromorphic image sensor With the neuromorphic image sensor, the workpiece surface, the laser machining process and the vapor of the melting material can be visualized or mapped.
  • the spectral sensitivity of the neuromorphic Image sensor in the visible range and / or in the border area between the visible range and the infrared range.
  • the computing unit of the system can be set up to carry out the method described above for monitoring a laser machining process. In other words, the method can be carried out by the computing unit.
  • the transfer function between the input data and the output data can be formed by a trained neural network.
  • the computing unit can therefore perform image processing or image evaluation of the image data transmitted by the neuromorphic sensor through the transmission function.
  • the computing unit can be set up to generate the input data by means of a further transmission function based on the image data.
  • the further transfer function can be formed by a further learned neural network.
  • the further transfer function can be used to reduce the amount of image data.
  • the image data transmitted by the neuromorphic image sensor can be the input data or can be used as input data.
  • the learned neural network and / or the further learned neural network can be a convolutional neural network, CNN (“Convolutional Neural Networks”), a binary neural network, BNN (“Binarized Neural Networks”), and / or a recurrent neural network, RNN (“Recurent Neural Networks").
  • CNN Convolutional Neural Networks
  • BNN Binary Neural Networks
  • RNN Recurent Neural Networks
  • the neuromorphic image sensor can be set up to generate image data from a workpiece surface.
  • the neuromorphic image sensor can in particular be set up to generate image data from a machining area of the workpiece surface.
  • the processing area of the workpiece surface can include a process zone, in particular a steam capillary and / or a melt pool.
  • the neuromorphic image sensor can also be set up to generate an area upstream of the processing area in a feed direction and / or downstream of the processing area in the feed direction.
  • the neuromorphic image sensor can be set up to transmit image data to the processing unit continuously and / or asynchronously.
  • the neuromorphic image sensor can in particular be set up to send a continuous stream of the image data to the computing unit transfer.
  • the continuous stream of image data can be designed as an asynchronous stream of event-based image data.
  • the neuromorphic image sensor can comprise a multiplicity of pixels which, independently of one another, generate image data in response to changes in brightness detected by the respective pixel.
  • the image data of a pixel can include at least one pixel address corresponding to the pixel and a time stamp corresponding to the detected change in brightness.
  • the image data of a pixel can furthermore include a polarity of the change in brightness and / or a brightness level or a brightness level.
  • the neuromorphic image sensor can have a spectral sensitivity in the visible range.
  • the neuromorphic image sensor can be set up to independently detect a change in an exposure level, i.e. a change in brightness, of each of the plurality of pixels and to transmit it to the processing unit as a so-called event.
  • the neuromorphic image sensor can comprise a plurality of pixels which independently detect changes in brightness and pass them on as an event as soon as the changes in brightness occur.
  • the pixels can be set up not to otherwise generate or transmit any image data. Accordingly, the continuous stream of image data can include individual, asynchronously transmitted events.
  • the information about the laser machining process can include information about a state of the laser machining process, information about a machining result, a machining error and / or a machining area of the workpiece.
  • the processing result can in particular be a current processing result.
  • the information about a machining error can contain at least one of the following information: presence of at least one machining error, type of machining error, position of the machining error on a surface of a machined workpiece, probability of a machining error of a certain type, and spatial and / or two-dimensional extent of the Machining error on the surface of the machined workpiece.
  • the computing unit can be set up to generate the output data in real time.
  • the system for monitoring the laser machining process in particular the computing unit of the system, can have a communication interface in order to transmit or receive data.
  • the computing unit can be set up to generate control data based on the output data and to output or transmit them to the laser processing system. Alternatively, the computing unit can be set up to transmit the output data to the laser processing system.
  • the system for monitoring the laser machining process can be integrated into an existing laser machining system.
  • the processing unit can be arranged on or in the laser processing head.
  • the computing unit of the system can also be integrated in a control unit of the laser processing system.
  • the neuromorphic image sensor can be arranged on an outside and / or on the laser processing head.
  • the beam path of the neuromorphic image sensor can be at least partially integrated into the beam path of the laser processing system or the laser processing head and, for example, can run at least partially coaxially.
  • the laser processing system can comprise a control unit which is set up to control the laser processing system and / or to regulate the laser processing process based on the output data determined by the computing unit, preferably in real time.
  • the laser machining process can be regulated by setting, adapting and / or changing at least one parameter of the laser machining process. Parameters of the laser processing process are, for example, laser power, focus position, feed speed and direction, focus diameter, distance between the laser processing head and workpiece, etc ..
  • the laser processing system can include a laser source that is set up to generate the laser beam for laser processing. In this case, the control unit can be set up to control the laser source.
  • the computing unit can also be set up to transmit the determined output data to a unit for quality assurance of the laser processing system.
  • the unit for quality assurance can be set up to determine, based on the output data, optimal parameters for at least one step of the laser machining process or for a subsequent laser machining process.
  • the present invention can advantageously be used to control a laser machining process, in particular laser cutting or laser welding.
  • parameters of the laser machining process can preferably be adapted in real time to the current process status, whereby better machining results can be achieved. These include, for example, better surface quality and greater higher feed speed and a shorter piercing time.
  • the piercing process can be analyzed in real time and precisely regulated.
  • a cutting front can be monitored during laser cutting and the process quality can be determined in real time.
  • the present invention enables the monitoring of spatter with an extremely high temporal resolution, which can be used both in laser cutting and in laser welding in order to draw conclusions about the process quality.
  • the present invention enables direct monitoring of the weld pool and control of the parameters of the laser welding.
  • a monitoring and / or regulation of a laser processing process can take place more efficiently and faster.
  • a neuromorphic image sensor event-based sensor
  • machine learning enables an immediate analysis of the process status and real-time control of the process in a cost-effective and compact manner.
  • Fig. 1 shows a schematic representation of a laser processing system for processing a workpiece with a laser beam and a system for monitoring a Laserbear processing process according to a first embodiment
  • Fig. 2 shows a schematic representation of a laser processing system for processing a workpiece with a laser beam and a system for monitoring a Laserbear processing process according to a second embodiment
  • Fig. 3 shows a flow chart of a method for monitoring a Laserbearbei processing process for machining a workpiece according to an embodiment.
  • Fig. 1 shows a schematic representation of a laser processing system for processing a workpiece with a laser beam and a system for monitoring a Laserbear processing process according to a first embodiment
  • Fig. 2 shows a schematic representation of a laser processing system for processing a workpiece with a laser beam and a system for monitoring a laser machining process according to a second embodiment.
  • a laser processing system 1 is set up for processing a workpiece 2 with a laser beam 3.
  • the laser processing system 1 comprises a laser processing head 14, such as a laser cutting or laser welding head, and a laser device 15, also called a “laser source”, for providing the laser beam 3.
  • the laser processing head 14 is set up to radiate the laser beam 3 onto the workpiece 2.
  • the laser processing head 14 can comprise collimation optics for collimating the laser beam and / or focusing optics for focusing the laser beam 3.
  • the area of the workpiece surface in which the laser beam 3 strikes the workpiece 2 can also be referred to as the “machining area” or “process zone” and can in particular include a pinhole, a steam capillary and / or a melt pool.
  • the laser processing system 1 or parts thereof, in particular the laser processing head 14, and the workpiece 2 can be movable relative to one another in a processing or feed direction 4.
  • the laser processing system 1 or parts thereof, in particular the laser processing head 14 can be moved in the feed direction 4.
  • the workpiece 2 can be moved in the feed direction 4 relative to the Laserbearbei processing system 1 or to a part thereof, in particular to the laser processing head 14.
  • the feed direction 4 can be a cutting or welding direction.
  • the feed direction 4 is a horizontal movement.
  • the speed at which the laser processing system 1 and the workpiece 2 move relative to one another along the feed direction 4 can be referred to as the “feed speed”.
  • the laser machining system 1 is set up to carry out a laser machining process, for example laser cutting and laser welding.
  • the laser processing system 1 comprises a control unit 10 which is set up to control the processing head 14 and / or the laser device 15.
  • the control unit 10 can be set up to regulate the laser processing process.
  • the regulation includes changing, adapting or setting at least one parameter of the laser machining process.
  • the at least one parameter can, for example, the laser power of the laser device 15, the feed speed of the laser processing head 14, and the focus position of the laser beam 3 include sen.
  • the laser machining system 1 also includes a system for monitoring a laser machining process.
  • the system for monitoring a laser machining process includes a neuromorphic image sensor 13 and a computing unit 11.
  • the neuromorphic image sensor 13 is set up to generate image data of the laser machining process or of a surface of the workpiece 2.
  • the computing unit 11 is set up to determine input data based on the image data, and to determine output data based on the input data by means of a transfer function, which contains information about the laser machining process.
  • the computing unit 11 can be set up to generate the output data in real time.
  • the computing unit 11 or the control unit 10 can be set up to carry out the method described below for monitoring a laser machining process. In other words, the method can be carried out by the computing unit 11 or the control unit 10.
  • the neuromorphic image sensor 13 is based on the principle of only outputting or recording the change in the exposure level of each individual pixel.
  • Neuromorphic image sensors also called event-based image sensors, detect changes in brightness, so-called “events”. The data transfer takes place in asynchronous form.
  • event-based image sensors or event-based cameras information about changes in brightness is continuously transmitted. Only the information of the pixels that have detected changes in brightness is continuously transmitted.
  • frame-based cameras in which the brightness values for all pixels (including those that have not changed compared to the previous recording) are transmitted with each recording, data is only transmitted with neuromorphic image sensors when the brightness changes of a pixel changes significantly.
  • the time quantification of the individual pixels results in fewer redundancies than with frame-based image sensors or cameras. At the same time, the loss of information is lower.
  • Neuromorphic image sensors have a number of advantages. This includes a high dynamic range, for example from approx. 100 to 130 dB, which means that additional lighting is superfluous in most cases.
  • neuromorphic image sensors have a high temporal resolution and are not influenced by overexposure / underexposure or rapid movement.
  • the recording speed of the neuromorphic image sensors is comparable with a high-speed camera that can have several thousand fps, although with neuromorphic image sensors there are no frames but a continuous stream of data.
  • the neuromorphic image sensor 13 can, for example, have a dynamic range of approximately 120 dB, a temporal resolution in the microsecond range, an equivalent frame rate of 1,000,000 fps, and / or spatial resolution of 0.1-0.2 MP.
  • the computing unit 11 requires significantly less computing power and can therefore move closer to the location of the image data generation, i.e. the neuromorphic image sensor 13.
  • the computing unit 11 is therefore possible to integrate the computing unit 11 directly into the laser processing head 14 or to mount it on the laser processing head. This can reduce system costs. At the same time, cables can be omitted and / or transmission paths via cables can be reduced, thereby reducing the susceptibility to errors and increasing the ease of maintenance.
  • the neuromorphic image sensor 13 is also mounted on the laser processing head 14 or integrated into the laser processing head 14.
  • the computing unit 11 is arranged on the laser processing head 14 and the neuromorphic image sensor 13 is arranged on an outside of the laser processing head 14.
  • a beam path of the neuromorphic image sensor 13 runs at least partially within the laser processing head 14 and / or coaxially with the laser beam 3.
  • the computing unit 11 is designed as an independent or separate unit from the laser processing head 14 and from the neuromorphic image sensor 13.
  • the beam path of the neuromorphic image sensor 13 runs outside the laser processing head 14.
  • the neuromorphic image sensor 13 can, however, be attached to the laser processing head 14.
  • the computing unit 11 can be combined with the control unit 10 or integrated into it.
  • the functionality of the computing unit 11 can be combined with that of the control unit 10.
  • the neuromorphic image sensor 13 is set up to generate image data from the workpiece surface, and in particular is set up to generate image data from the machining area of the workpiece surface. According to embodiments, the neuromorphic image sensor 13 can in particular be set up to receive image data from a device 4 of the process zone upstream area and / or in the feed direction 4 of the process zone downstream area.
  • the image data of a pixel include, for example, the pixel address or the pixel identity and a time stamp.
  • the image data can also include the polarity (rise or fall) of the change in brightness or a level of the brightness now detected.
  • the information about the laser machining process that is contained in the output data determined by the computing unit 11 can include information about a state of the laser machining process, information about a machining result, a machining error and / or a machining area of the workpiece 2.
  • the processing result can in particular be a current processing result.
  • Embodiments of the present invention therefore preferably use machine learning methods for image data processing or for image data evaluation.
  • the transfer function between the input data and the output data can be formed by a trained neural network.
  • the transfer function can be used for image processing or for image evaluation of the input data.
  • So-called “CNNs” can advantageously be used for image processing and evaluation, “BNNs” for reducing the amount of image data, and “RNNs” for the temporal analysis of events.
  • CNNs can advantageously be used for image processing and evaluation
  • BNNs for reducing the amount of image data
  • RNNs for the temporal analysis of events.
  • the image data are not converted into frames, but rather transferred into a suitable vector space, for example by spatiotemporal filtering in the spike event domain.
  • the neuromorphic image sensors Thanks to the neuromorphic image sensors, smaller models can be used in machine learning methods compared to frame-based cameras in order to achieve comparable performance. Due to the elimination of redundant information in neuromorphic image sensors, the machine learning model has to take fewer features into account, which in the case of a neural network amounts to a reduction in the number of neurons contained in the network. This makes it much easier to train the machine learning models, since smaller models generally require significantly fewer examples to train the model. The elimination of redundant information also enables faster execution of the transfer function or the Algorithm ("inference") for image processing or image evaluation. This enables real-time control of the laser machining process in particular.
  • computing unit 11 can be set up to generate control data based on the output data and to transmit it to control unit 10.
  • the output data are transmitted to the control unit 10 and the control unit 10 can be set up to generate control data.
  • the control unit 10 can furthermore be set up to control and / or regulate the laser machining system or the laser machining process, preferably in real time, based on the output data determined by the computing unit 11.
  • the control unit 10 can be set up to control the laser processing head 14 and / or the laser source 15 based on the output data.
  • the computing unit 11 can also be set up to transmit the determined output data to a unit 12 for quality assurance of the laser processing system.
  • the unit 12 for quality assurance can be set up to determine optimal parameters for at least one step of the laser machining process based on the output data and to transmit them to the control unit 10.
  • Fig. 3 shows a flow chart of a method for monitoring a Laserbearbei processing process for machining a workpiece according to an embodiment.
  • the method 100 comprises the steps of: generating image data of the laser machining process using a neuromorphic image sensor (S 101), determining input data based on the image data (S102), and determining output data based on the input data using a transfer function, the the output data contain information about the laser machining process (S103).
  • the method can also include the regulation, in particular in real time, of at least one parameter of the laser machining process based on the determined output data.
  • the parameter can include the laser power of the laser source, a feed rate, and a focus position.
  • the present invention can advantageously be used to control a laser machining process.
  • the output data are preferably transmitted from the arithmetic unit 11 directly to the control unit 10, which can also be referred to as “machine control”.
  • the control unit 10 can be set up based on the Input data to regulate at least one parameter of the laser machining process or the laser machining system, in particular in real time.
  • the parameter can include the laser power of the laser source, a feed rate and a focus position.
  • the parameters can be adapted to the current process status in real time, which enables better processing results to be achieved. These include, for example, a better surface quality and an increased feed rate and a shorter piercing time for laser cutting.
  • the piercing process can be analyzed and controlled in real time thanks to the extremely high equivalent frame rate and the resulting high temporal resolution of the camera.
  • the high dynamic range of the sensor in combination with the high temporal resolution during a laser cutting process can be used to monitor the cutting front and the process quality can be determined in real time.
  • the cutting process can be regulated by counteracting in the event of reduced process quality by changing, adapting or regulating the parameters of the laser machining process, in particular laser power, feed rate and focus position.
  • the present invention also enables the monitoring of spatter with an extremely high temporal resolution during laser cutting or during laser welding in order to draw conclusions about the process quality.
  • the present invention enables direct monitoring of the weld pool and control of the parameters of the laser welding.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Plasma & Fusion (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Laser Beam Processing (AREA)

Abstract

Es ist ein System zum Überwachen eines Laserbearbeitungsprozesses zum Bearbeiten eines Werkstücks (2) mit einem Laserstrahl offenbart, das System (1) umfassend: einen neuromorphen Bildsensor (13), der eingerichtet ist, um Bilddaten des Laserbearbeitungsprozesses zu erzeugen, und eine Recheneinheit (11), die eingerichtet ist, basierend auf den Bilddaten Eingangsdaten zu bestimmen, und basierend auf den Eingangsdaten mittels einer Übertragungsfunktion Ausgangsdaten zu bestimmen, die Informationen über den Laserbearbeitungsprozess enthalten. Ferner ist ein Laserbearbeitungssystem zum Bearbeiten eines Werkstücks mit einem Laserstrahl offenbart. Darüber hinaus ist ein Verfahren zum Überwachen eines Laserbearbeitungsprozesses zum Bearbeiten eines Werkstücks mit einem Laserstrahl offenbart.

Description

Überwachung eines Laserbearbeitungsprozesses mithilfe eines neuromorphen
Bildsensors
Die vorliegende Offenbarung betrifft ein System zum Überwachen eines Laserbearbei tungsprozesses zum Bearbeiten eines Werkstücks mit einem Laserstrahl und ein Laserbear beitungssystem zum Bearbeiten eines Werkstücks mit einem Laserstrahl, welches ein sol ches System umfasst. Ferner betrifft die vorliegende Offenbarung ein Verfahren zum Über wachen eines Laserbearbeitungsprozesses zum Bearbeiten eines Werkstücks.
Hintergrund und Stand der Technik
In einem Laserbearbeitungssystem zum Bearbeiten eines Werkstücks mit einem Laserstrahl wird der von einer Laserlichtquelle oder einem Ende einer Laserleitfaser austretende Laser strahl mit Hilfe einer Strahlführungs- und Fokussieroptik auf das zu bearbeitende Werk stück fokussiert oder gebündelt. Die Bearbeitung kann beispielsweise ein Laserschneiden oder -schweißen umfassen. Das Laserbearbeitungssystem kann beispielsweise einen Laser bearbeitungskopf umfassen. Bei der Laserbearbeitung eines Werkstücks ist es wichtig, den Bearbeitungsprozess zu überwachen bzw. zu regeln und die Qualität der Bearbeitung zu sichern.
Dies erfolgt beispielsweise durch Aufnahme von Bildern bzw. eines Videos eines Bearbei tungsbereichs der Werkstückoberfläche (auch „Prozesszone“ genannt) und anschließender Bildverarbeitung und -auswertung während des Laserbearbeitungsprozesses zum Überwa chen oder nach Abschluss des Laserbearbeitungsprozesses zur Qualitätssicherung. Der Be arbeitungsbereich kann insbesondere eine Dampfkapillare (auch „Keyhole“ genannt) und das die Dampfkapillare umgebende Schmelzbad umfassen.
Dazu werden üblicherweise sogenannte „framebasierte Kameras“ verwendet. Framebasierte Kameras beruhen auf dem Prinzip, dass zu einem bestimmten Zeitpunkt oder in bestimmten zeitlichen Abständen der komplette Bildsensor der Kamera belichtet wird. Dadurch entsteht ein einzelnes, dem jeweiligen Zeitpunkt zugeordnetes Bild der Werkstückoberfläche. Meh rere solcher Einzelbilder werden vollständig und nacheinander an eine Recheneinheit zur weiteren Bildverarbeitung und -auswertung übertragen oder werden gespeichert. Ein einzel nes Bild wird auch als „Frame“ bezeichnet. Eine Eigenschaft der framebasierten Kameras betrifft die Anzahl von Frames, die pro Sekunde von der jeweiligen Kamera aufgenommen werden können, und wird in „frames per second“ oder kurz „fps“ angegeben. Bei der Bild aufnahme durch eine framebasierte Kamera werden alle Informationen jedes Pixels aufge- nommen und übertragen, was z.B. bei relativ kleinen Änderungen im Bild zu einer enormen Redundanz in der erzeugten und übertragenen Information führt. Dies wiederum führt zu einer großen Menge von erzeugten und übertragenen Bilddaten.
Sowohl während („Online“) als auch nach („Offline“) der Durchführung eines Laserbear beitungsprozesses werden die so erzeugten Bilddaten als Eingangsdaten für eine Bildverar beitung und -auswertung mittels verschiedener Verfahren bzw. Algorithmen genutzt. Off line können die Bilddaten einerseits dazu genutzt werden, um optimale Parameter für unter schiedliche Schritte des Laserbearbeitungsprozesses, insbesondere Einstechen, Schneiden, Schweißen, zu bestimmen, um im nächsten Zug die einzelnen Schritte zu verbessern. Zum anderen können die Daten in Kombination mit verschiedenen Modellen und Algorithmen dazu benutzt werden, um das Ergebnis des Lasermaterialbearbeitungsprozesses zu überwa chen, oder um zu bestimmen, ob ein Bearbeitungsfehler vorliegt und um welche Art von Bearbeitungsfehler es sich handelt. Online können die Bilddaten verwendet werden, um den Laserbearbeitungsprozess zu überwachen und/oder zu regeln, indem Einfluss auf Parameter des Laserbearbeitungsprozesses genommen wird.
Damit bei diesen Verfahren hinreichend gute Ergebnisse zu erzielen, müssen die Bilddaten bestimmte Qualitätsanforderungen erfüllen. Im Bereich der Laserbearbeitungsprozesse bzw. -Systeme ist dies jedoch aus mehreren Gründen schwierig.
Zum einen können die während des Laserbearbeitungsprozesses vorherrschenden schwieri gen Lichtverhältnisse zum Problem werden. Insbesondere können sich die Lichtverhältnisse ständig und/oder abrupt ändern. Um mit framebasierten Kameras für die Überwachung ge eignete Bilder oder Videos zu erzeugen, ist daher im Allgemeinen eine zusätzliche Beleuch tung nötig, oft in Kombination mit einem hochwertigen Bandpassfilter, der insbesondere bei der Wellenlänge der Beleuchtung durchlässig ist, um brauchbare Bilddaten zu erzeugen.
Hinzu kommt, dass die verwendeten Maschinen des Laserbearbeitungssystems stetig schneller werden. Insbesondere können die einzelnen Schritte eines Laserbearbeitungspro zesses immer schneller ablaufen, um gewinnbringender zu produzieren. Dies führt dazu, dass der fps-Wert framebasierter Kameras steigen muss, weshalb einerseits die Belichtungs zeiten für ein einzelnes Frame immer kürzer werden müssen. Der Dynamikumfang frame- basierter Kameras ist dabei begrenzt. Andererseits führt dies zu einem enormen Anstieg der erzeugten und zu verarbeitenden Bilddaten.
Offenbarung der Erfindung Es ist eine Aufgabe der Erfindung, eine Überwachung und/oder eine Regelung eines Laser bearbeitungsprozesses, insbesondere in Echtzeit, zu ermöglichen. Es ist insbesondere eine Aufgabe der Erfindung, eine Regelung von zumindest einem Parameter des Laserbearbei tungsprozesses zu ermöglichen.
Es ist eine weitere Aufgabe der Erfindung, die für die Überwachung eines Laserbearbei tungsprozesses benötigte Rechenleistung, Systemkosten und/oder den Stromverbrauch zu reduzieren. Es ist ferner eine Aufgabe der Erfindung, die bei der Überwachung eines Laser bearbeitungsprozesses anfallende Menge der erzeugten und übertragenen Bilddaten zu re duzieren.
Es ist eine weitere Aufgabe der Erfindung, die Überwachung eines Laserbearbeitungspro zesses ohne zusätzliche Beleuchtungseinheiten zu verbessern.
Diese Aufgaben werden durch den Gegenstand der unabhängigen Ansprüche gelöst. Vor teilhafte Ausführungsformen und Weiterentwicklungen sind Gegenstand der entsprechen den abhängigen Ansprüche.
Die Erfindung beruht auf dem Grundgedanken, zur Überwachung eines Laserbearbeitungs prozesses, etwa Laserschneiden oder Laserschweißen, neuromorphe Bildsensoren einzuset zen. Der neuromorphe Bildsensor kann auch als „eventbasierter Bildsensor“ bezeichnet werden, und kann insbesondere als eine eventbasierte Kamera ausgebildet sein. Dement sprechend kann die Überwachung mit einem neuromorphen Bildsensor als „eventbasierte Überwachung“ bezeichnet werden. Neuromorphe Bildsensoren weisen einen größeren Dy namikbereich und eine höhere äquivalente Framerate und damit eine höhere zeitliche Auflö sung als framebasierte Kameras auf. Zudem werden keine redundanten Informationen bzw. Bilddaten erzeugt oder übertragen. Durch die Verwendung von neuromorphen Bildsensoren wird somit eine verbesserte Überwachung und/oder Regelung von Laserbearbeitungsprozes sen, insbesondere in Echtzeit, ermöglicht. Insbesondere wird eine Überwachung von schnell ablaufenden Laserbearbeitungsprozessen verbessert. Gleichzeitig kann die für eine Bildver arbeitung bzw. -auswertung benötigte Rechenleistung verringert, und der Stromverbrauch reduziert werden. Ferner ist keine separate Beleuchtung des Laserbearbeitungsprozesses nötig. Aufgrund der verringerten Rechenleistung und des verringerten Stromverbrauchs können die für die Bildverarbeitung und -auswertung verwendete Recheneinheiten kleiner bzw. kompakter ausgebildet sein, und können beispielsweise in einem Laserbearbeitungs- köpf integriert sein, wodurch Systemkosten, insbesondere Herstellungskosten, gesenkt wer den können.
Die neuromorphen Bildsensoren können darüber hinaus mit Verfahren bzw. Algorithmen des maschinellen Lernens („Machine Learning“, kurz „ML“) kombiniert werden.
Gemäß einem Aspekt der vorliegenden Erfindung ist ein System zum Überwachen eines Laserbearbeitungsprozesses zum Bearbeiten eines Werkstücks mit einem Laserstrahl ange geben, das System umfassend: einen neuromorphen Bildsensor, der eingerichtet ist, um Bilddaten des Laserbearbeitungsprozesses, insbesondere von einer Oberfläche des Werk stücks, zu erzeugen, und eine Recheneinheit, die eingerichtet ist, basierend auf den Bildda ten Eingangsdaten zu bestimmen, und basierend auf den Eingangsdaten mittels einer Über tragungsfunktion Ausgangsdaten zu bestimmen, die Informationen über den Laserbearbei tungsprozess enthalten. Die Ausgangsdaten können zur Qualitätsüberwachung und/oder Regelung des Laserbearbeitungsprozesses verwendet werden.
Gemäß einem weiteren Aspekt der vorliegenden Erfindung ist ein Laserbearbeitungssystem zum Bearbeiten eines Werkstücks mit einem Laserstrahl angegeben, das Laserbearbeitungs system umfassend: einen Laserbearbeitungskopf zum Einstrahlen eines Laserstrahls auf ein zu bearbeitendes Werkstück; und das vorstehend beschriebene System zum Überwachen eines Laserbearbeitungsprozesses.
Gemäß einem weiteren Aspekt der vorliegenden Erfindung ist ein Verfahren zum Überwa chen eines Laserbearbeitungsprozesses zum Bearbeiten eines Werkstücks mit einem Laser strahl, das Verfahren umfassend die Schritte: Erzeugen von Bilddaten des Laserbearbei tungsprozesses mittels eines neuromorphen Bildsensors, Bestimmen von Eingangsdaten, basierend auf den Bilddaten, und Bestimmen von Ausgangsdaten, basierend auf den Ein gangsdaten mittels einer Übertragungsfunktion, wobei die die Ausgangsdaten Informationen über den Laserbearbeitungsprozess enthalten. Vorzugsweise umfasst das Verfahren ferner den Schritt Regeln, insbesondere in Echtzeit, zumindest eines Parameters des Laserbearbei tungsprozesses basierend auf den bestimmten Ausgangsdaten. Das Verfahren kann das Re geln, insbesondere in Echtzeit, zumindest eines Parameters des Laserbearbeitungsprozesses basierend auf den bestimmten Ausgangsdaten umfassen.
Durch den neuromorphen Bildsensor kann die Werkstückoberfläche, der Laserbearbei tungsprozess, sowie Dampf des schmelzenden Materials sichtbar bzw. abgebildet werden. In einer Ausführungsform kann die spektrale Empfindlichkeit des neuromorphen Bildsensors im sichtbaren Bereich und/oder im Grenzbereich zwischen sichtbaren Bereich und infrarotem Bereich liegen.
Die Recheneinheit des Systems kann eingerichtet sein, das vorstehend beschriebene Verfah ren zum Überwachen eines Laserbearbeitungsprozesses auszuführen. Mit anderen Worten kann das Verfahren durch die Recheneinheit ausgeführt werden.
Die Übertragungsfunktion zwischen den Eingangsdaten und den Ausgangsdaten kann durch ein angelerntes neuronales Netz gebildet sein. Die Recheneinheit kann also durch die Über tragungsfunktion eine Bildverarbeitung bzw. Bildauswertung der von dem neuromorphen Sensor übertragenen Bilddaten ausführen.
Die Recheneinheit kann eingerichtet sein, die Eingangsdaten mittels einer weiteren Übertra gungsfunktion basierend auf den Bilddaten zu erzeugen. Die weitere Übertragungsfunktion kann durch ein weiteres angelerntes neuronales Netz gebildet sein. Die weitere Übertra gungsfunktion kann zur Reduzierung der Menge der Bilddaten verwendet werden. Alterna tiv können die von dem neuromorphen Bildsensor übertragenen Bilddaten die Eingangsda ten sein oder als Eingangsdaten verwendet werden.
Das angelernte neuronale Netz und/oder das weitere angelernte neuronale Netz kann ein faltendes neuronales Netz, CNN („Convolutional Neural Networks“), ein binäres neuronales Netz, BNN („Binarized Neural Networks“), und/oder ein rekurrentes neuronales Netz, RNN („Recurent Neural Networks“) umfassen.
Der neuromorphe Bildsensor kann eingerichtet sein, Bilddaten von einer Werkstückoberflä che zu erzeugen. Der neuromorphe Bildsensor kann insbesondere eingerichtet sein, Bildda ten von einem Bearbeitungsbereich der Werkstückoberfläche zu erzeugen. Der Bearbei tungsbereich der Werkstückoberfläche kann eine Prozesszone, insbesondere eine Dampfka pillare und/oder ein Schmelzbad umfassen. Der neuromorphe Bildsensor kann ferner einge richtet sein, einen in einer Vorschubrichtung dem Bearbeitungsbereich vorgelagerten und/oder in Vorschubrichtung dem Bearbeitungsbereich nachgelagerten Bereich zu erzeu gen.
Der neuromorphe Bildsensor kann eingerichtet sein, kontinuierlich und/oder asynchron Bilddaten an die Recheneinheit zu übertragen. Der neuromorphe Bildsensor kann insbeson dere eingerichtet sein, einen kontinuierlichen Strom der Bilddaten an die Recheneinheit zu übertragen. Der kontinuierliche Strom der Bilddaten kann als ein asynchroner Strom event basierter Bilddaten ausgebildet sein.
Der neuromorphe Bildsensor kann eine Vielzahl von Pixeln umfasst, die unabhängig vonei nander als Reaktion auf von dem jeweiligen Pixel erfasste Helligkeitsänderungen Bilddaten erzeugen. Die Bilddaten eines Pixels können zumindest eine dem Pixel entsprechende Pi xeladresse und einen der erfassten Helligkeitsänderung entsprechenden Zeitstempel umfas sen. Die Bilddaten eines Pixels können ferner eine Polarität der Helligkeitsänderung und/oder ein Helligkeitslevel bzw. eine Helligkeitsstufe umfassen. Der neuromorphe Bildsensor kann eine spektrale Empfindlichkeit im sichtbaren Bereich aufweisen.
Der neuromorphe Bildsensor kann eingerichtet sein, eine Änderung eines Belichtungsni- veaus, d.h. eine Helligkeitsänderung, von jedem der Mehrzahl von Pixeln unabhängig zu detektieren und als sogenanntes Event an die Recheneinheit zu übertragen. Mit anderen Worten kann der neuromorphe Bildsensor eine Mehrzahl von Pixeln umfassen, die unab hängig voneinander Helligkeitsänderungen detektieren und als Event weitergeben, sobald die Helligkeitsänderungen auftreten. Die Pixel können eingerichtet sein, ansonsten keine Bilddaten zu erzeugen oder zu übertragen. Demnach kann der kontinuierliche Strom der Bilddaten einzelne, asynchron übertragene Events umfassen.
Die Informationen über den Laserbearbeitungsprozess können Informationen über einen Zustand des Laserbearbeitungsprozesses, Informationen über ein Bearbeitungsergebnis, einen Bearbeitungsfehler und/oder einen Bearbeitungsbereich des Werkstücks umfassen. Das Bearbeitungsergebnis kann insbesondere ein aktuelles Bearbeitungsergebnis sein. Die Informationen über einen Bearbeitungsfehler können zumindest eine der folgenden Infor mationen enthalten: Vorhandensein mindestens eines Bearbeitungsfehlers, Art des Bearbei tungsfehlers, Position des Bearbeitungsfehlers auf einer Oberfläche eines bearbeiteten Werkstücks, Wahrscheinlichkeit für einen Bearbeitungsfehler einer bestimmten Art, und räumliche und/oder flächige Ausdehnung des Bearbeitungsfehlers auf der Oberfläche des bearbeiteten Werkstücks.
Die Recheneinheit kann eingerichtet sein, die Ausgangsdaten in Echtzeit zu bilden.
Das System zum Überwachen des Laserbearbeitungsprozesses, insbesondere die Rechen einheit des Systems, kann eine Kommunikationsschnittstelle aufweisen, um Daten zu über tragen oder zu empfangen. Die Recheneinheit kann eingerichtet sein, basierend auf den Ausgangsdaten Regelungsdaten zu erzeugen und an das Laserbearbeitungssystem auszugeben bzw. zu übertragen. Alternativ kann die Recheneinheit eingerichtet sein, die Ausgangsdaten an das Laserbearbeitungssys tem zu übertragen.
Das System zum Überwachen des Laserbearbeitungsprozesses kann in ein bestehendes La serbearbeitungssystem integrierbar sein. Die Recheneinheit kann am oder im Laserbearbei tungskopf angeordnet sein. Die Recheneinheit des Systems kann auch in einer Steuereinheit des Laserbearbeitungssystems integriert sein. Der neuromorphe Bildsensor kann an einer Außenseite und/oder am Laserbearbeitungskopf angeordnet sein. Der Strahlengang des neu- romorphen Bildsensor kann zumindest teilweise in den Strahlengang des Laserbearbei tungssystems bzw. des Laserbearbeitungskopfs integriert sein, und z.B. zumindest teilweise koaxial verlaufen.
Das Laserbearbeitungssystem kann eine Steuereinheit umfassen, die eingerichtet ist, um basierend auf den durch die Recheneinheit bestimmten Ausgangsdaten, vorzugsweise in Echtzeit, das Laserbearbeitungssystem zu steuern und/oder den Laserbearbeitungsprozess zu regeln. Die Regelung des Laserbearbeitungsprozesses kann durch Einstellen, Anpassen und/oder Ändern von zumindest einem Parameter des Laserbearbeitungsprozesses erfolgen. Parameter des Laserbearbeitungsprozesses sind beispielsweise Laserleistung, Fokuslage, Vorschubgeschwindigkeit und -richtung, Fokusdurchmesser, Abstand zwischen Laserbear beitungskopf und Werkstück, etc.. Das Laserbearbeitungssystem kann eine Laserquelle um fassen, die eingerichtet ist, um den Laserstrahl für die Laserbearbeitung zu erzeugen. In die sem Fall kann die Steuereinheit eingerichtet sein, die Laserquelle zu steuern.
Die Recheneinheit kann ferner eingerichtet sein, die bestimmen Ausgangsdaten an eine Ein heit zur Qualitätssicherung des Laserbearbeitungssystems zu übertragen. Die Einheit zur Qualitätssicherung kann eingerichtet sein, basierend auf den Ausgangsdaten optimale Para meter für zumindest einen Schritt des Laserbearbeitungsprozesses oder für einen nachfol genden Laserbearbeitungsprozess zu bestimmen.
Die vorliegende Erfindung kann vorteilhafterweise zur Regelung eines Laserbearbeitungs prozesses, insbesondere Laserschneiden oder Laserschweißen, eingesetzt werden. Durch den hohen Dynamikbereich des Sensors in Kombination mit der hohen zeitlichen Auflösung desselben können Parameter des Laserbearbeitungsprozesses vorzugsweise in Echtzeit dem aktuellen Prozesszustand angepasst werden, wodurch bessere Bearbeitungsergebnisse erzielt werden können. Dazu zählen beispielsweise eine bessere Oberflächenqualität und eine er- höhte Vorschubgeschwindigkeit und eine kürzere Einstechzeit. Beim Laserschneiden kann beispielsweise der Einstechprozess in Echtzeit analysiert und präzise geregelt werden. Dar über hinaus kann beim Laserschneiden eine Schneidfront überwacht und die Prozessqualität in Echtzeit bestimmt werden. Ferner ermöglicht die vorliegende Erfindung die Überwa chung von Spritzern mit einer extrem hohen zeitlichen Auflösung, die sowohl beim Laser schneiden als auch beim Laserschweißen genutzt werden kann, um Rückschlüsse auf die Prozessqualität zu gewinnen. Beim Laserschweißen ermöglicht die vorliegende Erfindung die direkte Überwachung des Schmelzbades und die Regelung der Parameter des Laser schweißens.
Durch die hohe zeitliche Auflösung und die hohe Dynamik des neuromorphen Bildsensors und die reduzierte Datenmenge aufgrund der Eventbasierten Datenerzeugung kann eine Überwachung und/oder Regelung eines Laserbearbeitungsprozesses effizienter und schnel ler erfolgen. Insbesondere die Kombination aus neuromorphen Bildsensor (Eventbasierter Sensor) und maschinellem Lernen ermöglicht eine unmittelbare Analyse des Prozesszu stands und eine Echtzeitregelung des Prozesses auf kostengünstige und kompakte Weise.
Kurzbeschreibungen der Zeichnungen
Ausführungsformen der Erfindung werden im Folgenden anhand von Figuren im Detail beschrieben. In den Figuren:
Fig. 1 zeigt eine schematische Darstellung eines Laserbearbeitungssystems zum Bearbeiten eines Werkstücks mit einem Laserstrahl und ein System zum Überwachen eines Laserbear beitungsprozesses gemäß einer ersten Ausführungsform;
Fig. 2 zeigt eine schematische Darstellung eines Laserbearbeitungssystems zum Bearbeiten eines Werkstücks mit einem Laserstrahl und ein System zum Überwachen eines Laserbear beitungsprozesses gemäß einer zweiten Ausführungsform;
Fig. 3 zeigt ein Flussdiagramm eines Verfahrens zum Überwachen eines Laserbearbei tungsprozesses zum Bearbeiten eines Werkstücks gemäß einer Ausführungsform.
Detaillierte Beschreibung der Zeichnungen
Im Folgenden werden, sofern nicht anders vermerkt, für gleiche und gleichwirkende Ele mente gleiche Bezugszeichen verwendet. Fig. 1 zeigt eine schematische Darstellung eines Laserbearbeitungssystems zum Bearbeiten eines Werkstücks mit einem Laserstrahl und ein System zum Überwachen eines Laserbear beitungsprozesses gemäß einer ersten Ausführungsform und Fig. 2 zeigt eine schematische Darstellung eines Laserbearbeitungssystems zum Bearbeiten eines Werkstücks mit einem Laserstrahl und ein System zum Überwachen eines Laserbearbeitungsprozesses gemäß einer zweiten Ausführungsform.
Ein Laserbearbeitungssystem 1 ist zum Bearbeiten eines Werkstücks 2 mit einem Laser strahl 3 eingerichtet. Das Laserbearbeitungssystem 1 umfasst einen Laserbearbeitungskopf 14, wie etwa einen Laserschneid- oder Laserschweißkopf, und eine Laservorrichtung 15, auch „Laserquelle“ genannt, zum Bereitstellen des Laserstrahls 3. Der Laserbearbeitungs kopf 14 ist eingerichtet, den Laserstrahl 3 auf das Werkstück 2 einzustrahlen. Der Laserbe arbeitungskopf 14 kann eine Kollimationsoptik zum Kollimieren des Laserstrahls und/oder eine Fokussieroptik zum Fokussieren des Laserstrahls 3 umfassen. Der Bereich der Werk stückoberfläche, in dem der Laserstrahl 3 auf das Werkstück 2 trifft, kann auch als „Bear beitungsbereich“ oder „Prozesszone“ bezeichnet werden, und kann insbesondere ein Ein stichloch, eine Dampfkapillare und/oder ein Schmelzbad umfassen.
Das Laserbearbeitungssystem 1 oder Teile davon, insbesondere der Laserbearbeitungskopf 14, und das Werkstück 2 können relativ zueinander in einer Bearbeitungs- bzw. Vorschub richtung 4 bewegbar sein. Beispielsweise kann das Laserbearbeitungssystem 1 oder Teile davon, insbesondere der Laserbearbeitungskopf 14, in der Vorschubrichtung 4 bewegt wer den. Alternativ kann das Werkstück 2 in der Vorschubrichtung 4 relativ zum Laserbearbei tungssystem 1 oder zu einem Teil davon, insbesondere zum Laserbearbeitungskopf 14, be wegt werden. Die Vorschubrichtung 4 kann eine Schneid- oder Schweißrichtung sein. Im Allgemeinen ist die Vorschubrichtung 4 eine horizontale Bewegung. Die Geschwindigkeit, mit der sich das Laserbearbeitungssystem 1 und das Werkstück 2 relativ zueinander entlang der Vorschubrichtung 4 bewegen, kann als „Vorschubgeschwindigkeit“ bezeichnet werden.
Das Laserbearbeitungssystem 1 ist eingerichtet, um einen Laserbearbeitungsprozess, z.B. Laserschneiden und Laserschweißen, durchzuführen. Das Laserbearbeitungssystem 1 um fasst eine Steuereinheit 10, die eingerichtet ist, den Bearbeitungskopf 14 und/oder die La servorrichtung 15 zu steuern. Die Steuereinheit 10 kann eingerichtet sein, um den Laserbe arbeitungsprozess zu regeln. Die Regelung umfasst das Ändern, Anpassen oder Einstellen von zumindest einem Parameter des Laserbearbeitungsprozesses. Der zumindest eine Para meter kann beispielsweise die Laserleistung der Laservorrichtung 15, die Vorschubge- schwindigkeit des Laserbearbeitungskopfes 14, und die Fokuslage des Laserstrahls 3 umfas sen.
Das Laserbearbeitungssystem 1 umfasst ferner ein System zum Überwachen eines Laserbe arbeitungsprozesses. Das System zum Überwachen eines Laserbearbeitungsprozesses um fasst einen neuromorphen Bildsensor 13 und eine Recheneinheit 11.
Der neuromorphe Bildsensor 13 ist eingerichtet, um Bilddaten des Laserbearbeitungspro zesses bzw. von einer Oberfläche des Werkstücks 2 zu erzeugen. Die Recheneinheit 11 ist eingerichtet, um basierend auf den Bilddaten Eingangsdaten zu bestimmen, und basierend auf den Eingangsdaten mittels einer Übertragungsfunktion Ausgangsdaten zu bestimmen, die Informationen über den Laserbearbeitungsprozess enthalten. Die Recheneinheit 11 kann eingerichtet sein, die Ausgangsdaten in Echtzeit zu bilden. Die Recheneinheit 11 oder die Steuereinheit 10 kann eingerichtet sein, das nachstehend beschriebene Verfahren zum Überwachen eines Laserbearbeitungsprozesses auszuführen. Mit anderen Worten kann das Verfahren durch die Recheneinheit 11 oder die Steuereinheit 10 ausgeführt werden.
Der neuromorphe Bildsensor 13 basiert auf dem Prinzip, lediglich die Änderung des Belich tungsniveaus jedes einzelnen Pixels auszugeben oder aufzuzeichnen. Neuromorphe Bildsensoren, auch eventbasierte Bildsensoren genannt (englisch: „event-based sensors“), erfassen also Helligkeitsänderungen, sogenannte „Events“. Die Datenübertragung erfolgt in asynchroner Form. Bei eventbasierten Bildsensoren bzw. eventbasierten Kameras findet eine kontinuierliche Übertragung von Informationen über Helligkeitsänderungen statt. Es werden kontinuierlich immer nur die Informationen der Pixel übertragen, die Helligkeitsän derungen erfasst haben. Im Vergleich zu framebasierten Kameras, bei denen bei jeder Auf nahme die Helligkeitswerte für alle Pixel (auch solche, die sich im Vergleich zur vorherge henden Aufnahme nicht geändert haben) übertragen werden, werden also bei neuromorphen Bildsensoren Daten nur dann übertragen, wenn sich die Helligkeit eines Pixels signifikant ändert. Durch die zeitliche Quantifizierung der einzelnen Pixel entstehen weniger Redun danzen als bei framebasierten Bildsensoren oder Kameras. Gleichzeitig ist der Informati onsverlust geringer.
Neuromorphe Bildsensoren weisen eine Vielzahl von Vorteilen auf. Dazu zählt ein hoher Dynamikbereich, z.B. von ca. 100 bis 130 dB, wodurch in den meisten Fällen eine Zusatz beleuchtung überflüssig ist. Zudem weisen neuromorphe Bildsensoren eine hohe zeitliche Auflösung auf und werden nicht durch Über/Unterbelichtung oder schnelle Bewegung be einflusst. Die Aufnahmegeschwindigkeit der neuromorphen Bildsensoren ist vergleichbar mit einer Highspeedkamera, die mehrere tausend fps aufweisen kann, wobei es bei neuro- morphen Bildsensor jedoch keine Frames sondern einen kontinuierlichen Datenstrom gibt. Der neuromorphe Bildsensor 13 kann beispielsweise einen dynamischen Bereich von ca. 120 dB, eine zeitliche Auflösung im Mikrosekundenbereich, eine äquivalente Framerate von 1.000.000 fps, und/oder räumliche Auflösung von 0.1-0.2 MP aufweisen.
Aufgrund der stark reduzierten Datenmenge benötigt die Recheneinheit 11 deutlich weniger Rechenleistung und kann daher näher an den Ort der Bilddatenerzeugung, d.h. den neuro- morphen Bildsensor 13, wandern.
Gemäß der in Fig. 1 gezeigten Ausführungsform ist es daher möglich, die Recheneinheit 11 direkt in den Laserbearbeitungskopf 14 zu integrieren oder am Laserbearbeitungskopf zu montieren. Dadurch können Systemkosten reduziert werden. Gleichzeitig können Kabel weggelassen und/oder Übertragungsstrecken über Kabel reduziert werden, wodurch die Fehleranfälligkeit gesenkt und die Wartungsfreundlichkeit erhöht werden kann. Wie gezeigt ist der neuromorphe Bildsensor 13 ebenfalls am Laserbearbeitungskopf 14 montiert, bzw. in den Laserbearbeitungskopf 14 integriert. In der in Fig. 1 gezeigten Ausführungsform ist die Recheneinheit 11 am Laserbearbeitungskopf 14 angeordnet und der neuromorphe Bildsensor 13 ist an einer Außenseite des Laserbearbeitungskopfes 14 angeordnet. Gemäß der gezeigten Ausführungsform verläuft ein Strahlengang des neuromorphen Bildsensors 13 zumindest teilweise innerhalb des Laserbearbeitungskopfes 14 und/oder koaxial mit dem Laserstrahl 3.
Gemäß der in Fig. 2 gezeigten Ausführungsform hingegen ist die Recheneinheit 11 als ei genständige bzw. separate Einheit vom Laserbearbeitungskopf 14 und vom neuromorphen Bildsensor 13 ausgebildet. Der Strahlengang des neuromorphen Bildsensors 13 verläuft außerhalb des Laserbearbeitungskopfs 14. Der neuromorphe Bildsensor 13 kann aber an dem Laserbearbeitungskopf 14 befestigt sein.
Gemäß Ausführungsformen kann die Recheneinheit 11 mit der Steuereinheit 10 kombiniert oder in diese integriert sein. Mit anderen Worten kann die Funktionalität der Recheneinheit 11 mit derjenigen der Steuereinheit 10 kombiniert sein.
Der neuromorphe Bildsensor 13 ist eingerichtet, um Bilddaten von der Werkstückoberfläche zu erzeugen, und ist insbesondere eingerichtet, um Bilddaten vom Bearbeitungsbereich der Werkstückoberfläche zu erzeugen. Der neuromorphe Bildsensor 13 kann gemäß Ausfüh rungsformen insbesondere eingerichtet sein, um Bilddaten von einem in der Vorschubrich- tung 4 der Prozesszone vorgelagerten Bereich und/oder in Vorschubrichtung 4 der Prozess zone nachgelagerten Bereich zu erzeugen.
Die Bilddaten eines Pixels umfassen beispielsweise die Pixeladresse bzw. die Pixelidentität und einen Zeitstempel. Darüber hinaus können die Bilddaten auch die Polarität (Anstieg oder Abfall) der Helligkeitsänderung oder ein Level der nun erfassten Helligkeit umfassen.
Die Informationen über den Laserbearbeitungsprozess, die in den von der Recheneinheit 11 bestimmten Ausgangsdaten enthalten sind, können Informationen über einen Zustand des Laserbearbeitungsprozesses, Informationen über ein Bearbeitungsergebnis, einen Bearbei tungsfehler und/oder einen Bearbeitungsbereich des Werkstücks 2 umfassen. Das Bearbei tungsergebnis kann insbesondere ein aktuelles Bearbeitungsergebnis sein.
Aufgrund der hohen Aufnahmegeschwindigkeit bringt eine Verarbeitung der Bilddaten des neuromorphen Bildsensors 13 mit herkömmlichen Bildverarbeitungsalgorithmen einen Per formanceverlust mit sich. Daher verwenden Ausführungsformen der vorliegenden Erfin dung zur Bilddatenverarbeitung bzw. zur Bilddatenauswertung vorzugsweise Verfahren des maschinellen Lernens. Beispielsweise kann die Übertragungsfunktion zwischen den Ein gangsdaten und den Ausgangsdaten durch ein angelerntes neuronales Netz gebildet sein. Die Übertragungsfunktion kann zur Bildverarbeitung bzw. zur Bildauswertung der Ein gangsdaten verwendet werden. Für Bildverarbeitung und -auswertung können vorteilhaf terweise sogenannte „CNNs“, für die Reduzierung der Bilddatenmenge „BNNs“, und für die zeitliche Analyse der Events „RNNs“ eingesetzt werden. Dadurch kann insbesondere ein Performanceverlust im Vergleich zu herkömmlichen Verfahren zur Bildverarbeitung bzw. - auswertung vermieden werden. Beispielsweise werden die Bilddaten nicht in Frames kon vertiert, sondern in einen geeigneten Vektorraum transferiert, etwa durch raumzeitliches Filtern in der Spike-Event Domäne.
Durch die neuromorphen Bildsensoren können bei den Verfahren des maschinellen Lernens im Vergleich zu framebasierten Kameras kleinere Modelle verwendet werden, um eine ver gleichbare Performance zu erreichen. Durch den Wegfall der redundanten Informationen bei neuromorphen Bildsensoren muss das Modell des maschinellen Lernens weniger Merkmale („Features“) berücksichtigen, was im Fall eines neuronalen Netzes einer Reduktion der im Netz enthaltenen Neuronen gleichkommt. Dies erleichtert das Anlemen der Modelle des maschinellen Lernens erheblich, da bei kleineren Modellen im Regelfall deutlich weniger Beispiele zum Trainieren des Modells benötigt werden. Der Wegfall redundanter Informati onen ermöglicht außerdem eine schnellere Ausführung der Übertragungsfunktion bzw. des Algorithmus („Inferenz“) zur Bildverarbeitung bzw. Bildauswertung. Dadurch wird insbe sondere eine Echtzeitregelung des Laserbearbeitungsprozesses möglich.
Die Recheneinheit 11 kann gemäß Ausführungsformen eingerichtet sein, um basierend auf den Ausgangsdaten Regelungsdaten zu erzeugen und an die Steuereinheit 10 zu übertragen. Alternativ werden die Ausgangsdaten an die Steuereinheit 10 übertragen und die Steuerein heit 10 kann eingerichtet sein, Regelungsdaten zu erzeugen. Die Steuereinheit 10 kann fer ner eingerichtet sein, um basierend auf den durch die Recheneinheit 11 bestimmten Aus gangsdaten das Laserbearbeitungssystem bzw. den Laserbearbeitungsprozess, vorzugsweise in Echtzeit, zu steuern und/oder zu regeln. Beispielsweise kann die Steuereinheit 10 einge richtet sein, um den Laserbearbeitungskopf 14 und/oder die Laserquelle 15 basierend auf den Ausgangsdaten zu steuern.
Die Recheneinheit 11 kann ferner eingerichtet sein, die bestimmten Ausgangsdaten an eine Einheit 12 zur Qualitätssicherung des Laserbearbeitungssystems zu übertragen. Die Einheit 12 zur Qualitätssicherung kann eingerichtet sein, basierend auf den Ausgangsdaten optimale Parameter für zumindest einen Schritt des Laserbearbeitungsprozesses zu bestimmen und an die Steuereinheit 10 zu übertragen.
Fig. 3 zeigt ein Flussdiagramm eines Verfahrens zum Überwachen eines Laserbearbei tungsprozesses zum Bearbeiten eines Werkstücks gemäß einer Ausführungsform.
Das Verfahren 100 umfasst die Schritte: Erzeugen von Bilddaten des Laserbearbeitungspro zesses mittels eines neuromorphen Bildsensors (S 101), Bestimmen von Eingangsdaten, ba sierend auf den Bilddaten (S102), und Bestimmen von Ausgangsdaten, basierend auf den Eingangsdaten mittels einer Übertragungsfunktion, wobei die die Ausgangsdaten Informati onen über den Laserbearbeitungsprozess enthalten (S103).
Das Verfahren kann ferner das Regeln, insbesondere in Echtzeit, zumindest eines Parame ters des Laserbearbeitungsprozesses basierend auf den bestimmten Ausgangsdaten umfas sen. Der Parameter kann die Laserleistung der Laserquelle, eine Vorschubgeschwindigkeit, und eine Fokuslage umfassen.
Die vorliegende Erfindung kann vorteilhafterweise zur Regelung eines Laserbearbeitungs prozesses eingesetzt werden. Vorzugsweise werden die Ausgangsdaten von der Rechenein heit 11 direkt an die Steuereinheit 10, die auch als „Maschinensteuerung“ bezeichnet wer den kann, übertragen. Die Steuereinheit 10 kann eingerichtet sein, basierend auf den Aus- gangsdaten zumindest einen Parameter des Laserbearbeitungsprozesses bzw. des Laserbear beitungssystems, insbesondere in Echtzeit, zu regeln. Der Parameter kann die Laserleistung der Laserquelle, eine Vorschubgeschwindigkeit und eine Fokuslage umfassen. Dadurch können die Parameter in Echtzeit dem aktuellen Prozesszustand angepasst werden, wodurch bessere Bearbeitungsergebnisse erzielt werden können. Dazu zählen beispielsweise eine bessere Oberflächenqualität und eine erhöhte Vorschubgeschwindigkeit und eine kürzere Einstechzeit beim Laserschneiden.
Beim Laserschneiden kann beispielsweise durch die extrem hohe äquivalente Framerate und die daraus resultierende hohe zeitliche Auflösung der Kamera der Einstechprozess in Echt zeit analysiert und geregelt werden. Darüber hinaus kann der hohe Dynamikumfang des Sensors in Kombination mit der hohen zeitlichen Auflösung während eines Laserschneid vorgangs zum Überwachen der Schneidfront genutzt und die Prozessqualität in Echtzeit bestimmt werden. Dadurch kann beispielsweise der Schneidprozess geregelt werden, indem bei reduzierter Prozessqualität durch Änderung, Anpassung bzw. Regelung der Parameter des Laserbearbeitungsprozesses, insbesondere von Laserleistung, Vorschubgeschwindigkeit und Fokuslage, gegengesteuert wird. Ebenso ermöglicht die vorliegende Erfindung die Überwachung von Spritzern mit einer extrem hohen zeitlichen Auflösung beim Laser schneiden oder beim Laserschweißen, um Rückschlüsse auf die Prozessqualität zu ziehen. Beim Laserschweißen ermöglicht die vorliegende Erfindung die direkte Überwachung des Schmelzbades und die Regelung der Parameter des Laserschweißens.

Claims

Patentansprüche
1. System zum Überwachen eines Laserbearbeitungsprozesses an einem Werkstück (2), das System (1) umfassend: einen neuromorphen Bildsensor (13), der eingerichtet ist, um Bilddaten von einer Oberfläche des Werkstücks (2) zu erzeugen, und eine Recheneinheit (11), die eingerichtet ist, basierend auf den Bilddaten Eingangs daten zu bestimmen, und basierend auf den Eingangsdaten mittels einer Übertragungsfunk tion Ausgangsdaten zu bestimmen, die Informationen über den Laserbearbeitungsprozess enthalten.
2. System gemäß einem der vorstehenden Ansprüche, wobei der neuromorphe
Bildsensor (13) eingerichtet ist, Bilddaten von einem Bearbeitungsbereich, einem dem Be arbeitungsbereich vorgelagerten und/oder einem dem Bearbeitungsbereich nachgelagerten Bereich, zu erzeugen.
3. System gemäß einem der vorstehenden Ansprüche, wobei der neuromorphe
Bildsensor (13) eingerichtet ist, kontinuierlich und/oder asynchron Bilddaten an die Re cheneinheit (11) zu übertragen.
4. System gemäß einem der vorstehenden Ansprüche, wobei der neuromorphe
Bildsensor (13) eine Vielzahl von Pixeln umfasst, die eingerichtet sind, unabhängig vonei nander als Reaktion auf von dem jeweiligen Pixel erfasste Helligkeitsänderungen Bilddaten zu erzeugen.
5. System gemäß Anspruch 4, wobei die Bilddaten eines Pixels zumindest eine dem Pixel entsprechende Pixeladresse und einen der erfassten Helligkeitsänderung entsprechen den Zeitstempel umfassen.
6. System gemäß einem der vorstehenden Ansprüche, wobei die Recheneinheit (11) eingerichtet ist, die Eingangsdaten mittels einer weiteren Übertragungsfunktion basierend auf den Bilddaten zu erzeugen, und/oder wobei die von dem neuromorphen Bildsensor (13) übertragenen Bilddaten die Eingangsdaten sind.
7. System gemäß einem der vorstehenden Ansprüche, wobei die Übertragungsfunktion zwischen den Eingangsdaten und den Ausgangsdaten und/oder die weitere Übertragungs- funktion zwischen den Bilddaten und den Eingangsdaten durch ein angelerntes neuronales Netz gebildet ist.
8. System gemäß Anspruch 7, wobei das angelernte neuronale Netz ein faltendes neu ronales Netz, CNN, ein binäres neuronales Netz, BNN und/oder ein rekurrentes neuronales Netz, RNN, umfasst.
9. System gemäß einem der vorstehenden Ansprüche, wobei die Informationen über den Laserbearbeitungsprozess Informationen über einen Zustand des Laserbearbeitungspro zesses, über ein Bearbeitungsergebnis, über einen Bearbeitungsfehler und/oder über einen Bearbeitungsbereich des Werkstücks (2) umfassen.
10. System gemäß einem der vorstehenden Ansprüche, wobei die Recheneinheit (11) eingerichtet ist, die Ausgangsdaten als Regelungsdaten für ein den Laserbearbeitungspro zess durchführendes Laserbearbeitungssystem auszugeben.
11. Laserbearbeitungssystem (1) zum Bearbeiten eines Werkstücks (2) mit einem Laser strahl (3), das Laserbearbeitungssystem (1) umfassend: einen Laserbearbeitungskopf (14) zum Einstrahlen eines Laserstrahls (3) auf das Werkstück (2); und ein System gemäß einem der vorstehenden Ansprüche.
12. Laserbearbeitungssystem (1) gemäß Anspruch 11, wobei die Recheneinheit (11) am oder im Laserbearbeitungskopf (14) angeordnet ist, und/oder wobei der neuromorphe Bildsensor (13) an einer Außenseite des Laserbearbeitungskopfes (14) und/oder am Laser bearbeitungskopf (14) angeordnet ist.
13. Laserbearbeitungssystem (1) gemäß einem der Ansprüche 11 oder 12, ferner umfas send: eine Laserquelle (15), die eingerichtet ist, um den Laserstrahl (3) zu erzeugen, und eine Steuereinheit (10), die eingerichtet ist, basierend auf den durch die Rechenein heit (11) bestimmten Ausgangsdaten das Laserbearbeitungssystem (1) und/oder den Laser bearbeitungskopf (14) und/oder die Laserquelle (15) zu steuern und/oder den Laserbearbei tungsprozess zu regeln.
14. Verfahren zum Überwachen eines Laserbearbeitungsprozesses an einem Werkstück (2), das Verfahren umfassend die Schritte: Erzeugen von Bilddaten von einer Oberfläche des Werkstücks (2) mittels eines neu- romorphen Bildsensors (13),
Bestimmen von Eingangsdaten basierend auf den Bilddaten, und Bestimmen von Ausgangsdaten basierend auf den Eingangsdaten mittels einer Über tragungsfunktion, wobei die Ausgangsdaten Informationen über den Laserbearbeitungspro zess enthalten.
15. Verfahren gemäß Anspruch 14, ferner umfassend den Schritt:
Regeln, insbesondere in Echtzeit, zumindest eines Parameters des Laserbearbei tungsprozesses basierend auf den bestimmten Ausgangsdaten.
PCT/EP2020/081633 2020-01-09 2020-11-10 Überwachung eines laserbearbeitungsprozesses mithilfe eines neuromorphen bildsensors WO2021139914A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/791,788 US20230036295A1 (en) 2020-01-09 2020-11-10 Monitoring of a laser machining process using a neuromorphic image sensor
CN202080093857.6A CN115175780A (zh) 2020-01-09 2020-11-10 借助神经形态图像传感器对激光加工过程的监控

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020100345.5A DE102020100345B4 (de) 2020-01-09 2020-01-09 System und Verfahren zum Überwachen eines Laserbearbeitungsprozesses sowie dazugehöriges Laserbearbeitungssystem
DE102020100345.5 2020-01-09

Publications (1)

Publication Number Publication Date
WO2021139914A1 true WO2021139914A1 (de) 2021-07-15

Family

ID=73288634

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2020/081633 WO2021139914A1 (de) 2020-01-09 2020-11-10 Überwachung eines laserbearbeitungsprozesses mithilfe eines neuromorphen bildsensors

Country Status (4)

Country Link
US (1) US20230036295A1 (de)
CN (1) CN115175780A (de)
DE (1) DE102020100345B4 (de)
WO (1) WO2021139914A1 (de)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130178953A1 (en) * 2010-06-28 2013-07-11 Precitec Itm Gmbh Method for controlling a laser processing operation by means of a reinforcement learning agent and laser material processing head using the same
US20180341248A1 (en) * 2017-05-24 2018-11-29 Relativity Space, Inc. Real-time adaptive control of additive manufacturing processes using machine learning
RU2696121C1 (ru) * 2018-07-13 2019-07-31 федеральное государственное бюджетное образовательное учреждение высшего образования "Нижегородский государственный технический университет им. Р.Е. Алексеева" (НГТУ) Способ 3D печати на оборудовании с ЧПУ с интеллектуальной оптимизацией режимов
DE102019208037A1 (de) * 2019-06-03 2020-12-03 Robert Bosch Gmbh Verfahren und Vorrichtung zum Verbessern eines Laserstrahlschweißprozesses
DE102019209376A1 (de) * 2019-06-24 2020-12-24 Robert Bosch Gmbh Vorrichtung und Verfahren zur Überwachung eines Laserbearbeitungsprozesses, Verwendung einer ereignisbasierten Kamera, Computerprogramm und Speichermedium
CN112122773A (zh) * 2019-06-24 2020-12-25 罗伯特·博世有限公司 用于激光束焊接过程的质量监视

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010020183B4 (de) 2010-05-11 2013-07-11 Precitec Kg Laserschneidkopf und Verfahren zum Schneiden eines Werkstücks mittels eines Laserschneidkopfes

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130178953A1 (en) * 2010-06-28 2013-07-11 Precitec Itm Gmbh Method for controlling a laser processing operation by means of a reinforcement learning agent and laser material processing head using the same
US20180341248A1 (en) * 2017-05-24 2018-11-29 Relativity Space, Inc. Real-time adaptive control of additive manufacturing processes using machine learning
RU2696121C1 (ru) * 2018-07-13 2019-07-31 федеральное государственное бюджетное образовательное учреждение высшего образования "Нижегородский государственный технический университет им. Р.Е. Алексеева" (НГТУ) Способ 3D печати на оборудовании с ЧПУ с интеллектуальной оптимизацией режимов
DE102019208037A1 (de) * 2019-06-03 2020-12-03 Robert Bosch Gmbh Verfahren und Vorrichtung zum Verbessern eines Laserstrahlschweißprozesses
DE102019209376A1 (de) * 2019-06-24 2020-12-24 Robert Bosch Gmbh Vorrichtung und Verfahren zur Überwachung eines Laserbearbeitungsprozesses, Verwendung einer ereignisbasierten Kamera, Computerprogramm und Speichermedium
CN112122773A (zh) * 2019-06-24 2020-12-25 罗伯特·博世有限公司 用于激光束焊接过程的质量监视

Also Published As

Publication number Publication date
CN115175780A (zh) 2022-10-11
US20230036295A1 (en) 2023-02-02
DE102020100345B4 (de) 2021-11-25
DE102020100345A1 (de) 2021-07-15

Similar Documents

Publication Publication Date Title
DE102018129441B4 (de) System zur Überwachung eines Laserbearbeitungsprozesses, Laserbearbeitungssystem sowie Verfahren zur Überwachung eines Laserbearbeitungsprozesses
EP2365890B1 (de) Verfahren und vorrichtung zur überwachung eines an einem werkstück durchzuführenden laserbearbeitungsvorgangs sowie laserbearbeitungskopf mit einer derartigen vorrichtung
EP2456592B1 (de) Laserbearbeitungskopf und verfahren zur kompensation der fokuslagenänderung bei einem laserbearbeitungskopf
EP2726244B1 (de) Verfahren zum erkennen von fehlern an einer nicht linearen schweissnaht bzw. einem nicht linearen schnittspalt während eines laser-bearbeitungsprozesses sowie entsprechende laser-bearbeitungsvorrichtung
DE102009007514B4 (de) Verfahren und Vorrichtung zum Überwachen einer Schweißsignatur
EP1640101B1 (de) Verfahren zur Regelung eines automatischen Bearbeitungsprozesses
DE102018123363B4 (de) Verfahren zur Kollisionsvermeidung und Laserbearbeitungsmaschine
EP2886239B1 (de) Verfahren und vorrichtung zur überwachung und regelung der bearbeitungsbahn bei einem laser-fügeprozess
EP4146426A1 (de) Verfahren zum analysieren eines laserbearbeitungsprozesses, system zum analysieren eines laserbearbeitungsprozesses und laserbearbeitungssystem mit einem solchen system
DE102019209376A1 (de) Vorrichtung und Verfahren zur Überwachung eines Laserbearbeitungsprozesses, Verwendung einer ereignisbasierten Kamera, Computerprogramm und Speichermedium
DE102020104484A1 (de) Verfahren zur optischen Abstandsmessung für einen Laserbearbeitungsprozess, Messsystem zur optischen Abstandsmessung für eine Laserbearbeitungsvorrichtung und Laserbearbeitungsvorrichtung mit demselben
DE102020100345B4 (de) System und Verfahren zum Überwachen eines Laserbearbeitungsprozesses sowie dazugehöriges Laserbearbeitungssystem
EP3885069A1 (de) Qualitätskontrolle eines laserbearbeitungsprozesses mittels maschinellem lernen
DE102020205641A1 (de) Überwachungseinrichtung für eine Fügevorrichtung, Fügevorrichtung und Verfahren
EP3034984B1 (de) Verfahren und vorrichtung zur lokalen stabilisierung eines strahlungsflecks auf einem entfernten zielobjekt
EP3961559B1 (de) Verfahren und vorrichtung zum ermitteln von defekten während eines oberflächenmodifizierungsverfahrens
EP1457286A2 (de) Verfahren, Überwachungsvorrichtung und deren Anwendung und Laserbearbeitungsanlage mit Fehlstellenüberwachung einer optischen Komponente
WO2023031353A1 (de) Spritzerdetektion durch künstliche intelligenz bei der laserbearbeitung
DE102008038332A1 (de) Verfahren und Vorrichtung zur Regelung eines Schweißprozesses
DE102020205640A1 (de) Überwachungseinrichtung für eine Fertigungsanlage, Fertigungsanlage und Verfahren
DE102019105079B4 (de) Verfahren zur Festlegung einer Bewegungsbahn eines additiv oder subtraktiv wirkenden Werkzeugs, Verfahren zur abtragenden Bearbeitung eines Werkstücks mittels Laserstrahl sowie Anlage hierfür
DE102004057799B4 (de) Verfahren und Vorrichtung zum Regeln eines Pulverbeschichtungsprozesses
DE102020205637A1 (de) Überwachungseinrichtung, Fügevorrichtung mit Überwachungseinrichtung und Verfahren
DE102020211343A1 (de) Verfahren zum Laserschweißen mittels eines in einer Doppelkernfaser geführten Laserstrahls sowie zugehörige Laserschweißmaschine und Computerprogrammprodukt
WO2020069840A1 (de) Verfahren und vorrichtung zur überwachung eines bearbeitungsprozesses eines werkstücks mittels eines laserstrahls

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20804269

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20804269

Country of ref document: EP

Kind code of ref document: A1