WO2022069702A1 - Verfahren, computerprogrammprodukt, und vorrichtung mit einem solchen produkt zum aufzeigen des einflusses von schneidparametern auf eine schnittkante - Google Patents

Verfahren, computerprogrammprodukt, und vorrichtung mit einem solchen produkt zum aufzeigen des einflusses von schneidparametern auf eine schnittkante Download PDF

Info

Publication number
WO2022069702A1
WO2022069702A1 PCT/EP2021/077086 EP2021077086W WO2022069702A1 WO 2022069702 A1 WO2022069702 A1 WO 2022069702A1 EP 2021077086 W EP2021077086 W EP 2021077086W WO 2022069702 A1 WO2022069702 A1 WO 2022069702A1
Authority
WO
WIPO (PCT)
Prior art keywords
cutting
recording
parameters
neural network
method step
Prior art date
Application number
PCT/EP2021/077086
Other languages
English (en)
French (fr)
Inventor
Leonie Felica Tatzel
Original Assignee
Trumpf Werkzeugmaschinen Gmbh + Co. Kg
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Trumpf Werkzeugmaschinen Gmbh + Co. Kg filed Critical Trumpf Werkzeugmaschinen Gmbh + Co. Kg
Priority to JP2022537848A priority Critical patent/JP7481450B2/ja
Priority to EP21786859.5A priority patent/EP4221930A1/de
Priority to CN202180008252.7A priority patent/CN115461186A/zh
Publication of WO2022069702A1 publication Critical patent/WO2022069702A1/de
Priority to US17/861,925 priority patent/US20220339739A1/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K26/00Working by laser beam, e.g. welding, cutting or boring
    • B23K26/36Removing material
    • B23K26/38Removing material by boring or cutting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K26/00Working by laser beam, e.g. welding, cutting or boring
    • B23K26/02Positioning or observing the workpiece, e.g. with respect to the point of impact; Aligning, aiming or focusing the laser beam
    • B23K26/03Observing, e.g. monitoring, the workpiece
    • B23K26/032Observing, e.g. monitoring, the workpiece using optical means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K31/00Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups
    • B23K31/006Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups relating to using of neural networks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4155Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36199Laser cutting

Definitions

  • the invention relates to a method for analyzing a cutting edge created by a machine tool.
  • the invention further relates to a computer program product and a device for carrying out the method.
  • DE 10 2017 105 224 A1 discloses using a neural network to control a laser cutting process.
  • the object of the invention is to provide a method, a computer program product and a device that are able to analyze the influence of the cutting parameters on the cutting edge.
  • the object according to the invention is thus achieved by a method in which a recording, having a plurality of recording pixels, of a cut edge produced with a machine tool is read in.
  • An algorithm with a neural network is used to determine at least one cutting parameter, in particular a plurality of cutting parameters, from the recording.
  • a back propagation takes place in the neural network to determine the relevance of the individual recording pixels for determining the previously determined cutting parameters.
  • the recording is then output with marking of at least some recording pixels, the marking reflecting the previously determined relevance of the recording pixels. All recording pixels are preferably output and marked according to their relevance.
  • a user can therefore immediately see from the marked output how strongly the respective areas of the cutting edge have been influenced by the respective cutting parameter or parameters and can then adjust this cutting parameter or these cutting parameters in order to change a specific area of the cutting edge in a targeted manner.
  • backpropagation-based mechanisms is only used to check whether a neural network has learned the correct relationships.
  • people can easily judge what the correct information is. For example, one can examine whether a neural network that can distinguish dogs from cats really recognizes the dog in the image if it indicates that it is a dog and does not look at the meadow on which the dog is standing. For example, it can happen that instead of a specific animal (e.g. a horse) in the image, the neural network recognizes writing in the image that can be seen on all horse images (so-called “Clever Hans problem").
  • back propagation is used , in order to understand production processes or physical relationships in the cutting process, or at least to be able to make predictions.
  • a neural network is understood to mean an architecture that has at least one, in particular several, data aggregation routines.
  • a da- ten aggregation routine can be designed to aggregate several "determined data" into a new data packet.
  • the new data packet can have one or more numbers or vectors " to provide.
  • Data determined can in particular be cutting parameters or data packets made available by one of the data aggregation routines.
  • the architecture is particularly preferably designed with several connected data aggregation routines. In particular, several hundred, in particular several thousand, of such data aggregations -Routines are connected with each other.This significantly improves the quality of the neural network.
  • the architecture can have a function with weighted variables.
  • One, in particular several, particularly preferably all, data aggregation routines can be designed to combine, in particular to multiply, several "determined data” each with a weighted variable, and thus convert the "determined data” into “combined data” and then to aggregate, in particular to add, the "combined data” into a new data package.
  • data can be multiplied by weights.
  • the information of several neurons can be added.
  • the neural network can have a non-linear activation function.
  • the cutting edge features contained in the recording can themselves be data packets, in particular a number of structured data, in particular data vectors or data arrays, which themselves can represent “determined data”, in particular for the data aggregation routines.
  • the method can be run through with data, in particular cutting parameters, whose association with recordings is known in each case.
  • the neural network is preferably in the form of a convolutional neural network (CNN) with a plurality of layers.
  • the convolutional neural network can have convolutional layers and pooling layers. Pooling layers are typically placed between two consecutive convolutional layers. As an alternative or in addition to this, pooling can be carried out after each convolution.
  • a CNN can have fully connected layers, in particular at the very end of the neural network.
  • the convolutional layer and pooling layer extract features, the fully connected layer can assign the features to the cutting parameters.
  • the neural network can have multiple filters per layer.
  • the structure of a convolutional neural network can be found, for example, in the following articles, in particular the first one mentioned below:
  • LRP layer-wise relevance propagation
  • the back propagation in particular in the form of layer-wise relevance propagation, is preferably based on deep Taylor decomposition (DTD).
  • DTD deep Taylor decomposition
  • the deep taylor decomposition can be found in particular in the following article:
  • the implementation can be done in Python, for example, in the form of the TensorFlow 1.13.1 libraries (see Abadi M, Agarwal A, Barham P, Brevdo E, Chen Z, Citro C, Corrado G, Davis A, Dean J, Devin M, Ghemawat S , Goodfellow I, Harp A, Irving G, Isard M, Jia Y, Jozefowicz R, Kaiser L, Kudlur M, Zheng X (2016) TensorFlow: Large-Scale Machine Learning on Heterogeneous Distributed Systems.arXiv preprint URL https://arxiv .org/pdf/1603.04467.pdf) and Keras 2.2.4 (see Chollet F (2015) Keras.
  • the output is more preferably in the form of a heat map.
  • the heat map can have two colors, in particular red and blue, with which particularly relevant or particularly irrelevant recording pixels are marked. Average relevant recording pixels can be characterized by intermediate tones between the two colors or grey. As a result, the output can be grasped particularly intuitively.
  • the recording is preferably a photo, particularly preferably a color photo, in particular in the form of an RGB photo, or a 3D point cloud.
  • 3D point clouds are a bit more complex to create because they contain depth information.
  • the depth information can be obtained when the recording is made, in particular by light section or by triangulation from different angles.
  • color photos are particularly suitable or sufficient, since the various cutting parameters are recognized by the neural network primarily from the different colors of the cut edge.
  • the recording can be made with a photo and/or video camera.
  • the camera is preferably part of the machine tool in order to ensure that the recording situation remains the same.
  • the camera can be part of a photo booth (photo booth) in order to reduce environmental influences when the picture is taken.
  • the method according to the invention includes creating the cutting edge with the machine tool.
  • the cutting process of the machine tool can be a thermal cutting process, in particular a plasma cutting process, preferably a laser cutting process.
  • the cutting parameters determined in the case of a laser cutting method preferably include beam parameters, in particular focus diameter or laser power; Transport parameters, in particular focus position, nozzle focus distance or feed; Gas dynamic parameters, in particular gas pressure or nozzle-workpiece distance; and/or material parameters, in particular degree of gas purity or melting temperature of the workpiece. These cutting parameters have proven to be particularly formative for the appearance of the cut edge.
  • the object according to the invention is also achieved by a computer program product for carrying out the arithmetic operations described here.
  • the computer program product can be partly, in particular completely, cloud-based in order to enable multiple users to access the computer program product.
  • the neural network can be trained more comprehensively by several users.
  • the object according to the invention is achieved by a device for carrying out the method described here, the device having the machine tool, in particular in the form of a laser cutting machine.
  • the device can have the camera described here.
  • FIG. 1 shows a schematic representation of a machine tool in the form of a laser cutting machine to explain essential cutting parameters.
  • FIG. 4 shows schematically how the neural network and the back propagation function.
  • 5 shows recordings of two cutting edges in the left column and cutting parameters determined and outputs of the recordings in the other columns, with emphasis on the recording pixels relevant to the cutting parameters determined.
  • FIG. 1 shows part of a machine tool 10 in the form of a laser cutting machine.
  • a cutting head 12 runs over a workpiece 14 while the workpiece 14 is irradiated with a laser and gas.
  • a cutting edge 16 is produced in the process.
  • the cutting edge 16 is influenced in particular by the following cutting parameters 18: gas pressure 20, feed rate 22, nozzle-to-workpiece distance 24, nozzle-focus distance 26 and/or focus position 28.
  • the influence of the individual cutting parameters 18 on the appearance of the cutting edge 16 achieved is largely incomprehensible, even for experts. If, for example, scoring occurs on the cut edge 16, the cutting parameters 18 must be varied until the scoring disappears, with the variation being associated on the one hand with a large consumption of material, energy and time, and on the other hand it often happens that the variation creates new artefacts will. There is therefore a need to provide a method and a device that specifically assigns cutting parameters 18 to the features of a cut edge 16 . These cutting parameters 18 can then be changed to change the character of the cutting edge 16 . The invention therefore solves a problem that cannot be solved by human users due to the complexity of the problem (“superhuman performance”).
  • method step A the cutting edge 16 is produced by the machine tool 10 using the cutting parameters 18 .
  • method step B the cut edge 16 (see method step A)) is recorded using a camera 30 .
  • the camera 30 can be in the form of a photo camera and/or a video camera.
  • method step C the recording 32 that has been created is read in.
  • method step D the recording 32 is analyzed by an algorithm 34 .
  • the algorithm 34 includes a neural network 36 .
  • the neural network 36 serves to determine 38 the cutting parameters 18.
  • the determined cutting parameters 18 can be compared with the set cutting parameters 18 (see method step A)), for example to determine a defect in the machine tool 10 (see method step A)).
  • the algorithm 34 backpropagates 40 in the neural network 36.
  • Backpropagation 40 of the cutting parameters 18 for the recording 32 determines the relevance of individual recording pixels 42a, 42b of the recording 40 when determining the cutting parameters 18 in the method step D).
  • the recording pixels 42a, b are displayed (only the recording pixels 42a, b being provided with a reference number in FIG. 2 for reasons of clarity) and marked with their respective relevance.
  • the particularly relevant recording pixel 42a is marked in a first color (for example red) and the particularly irrelevant recording pixel 42b is marked in a second color (for example blue or gray). Due to formal specifications, the different colors are represented by different patterns (hatching) in the present description.
  • a user can immediately identify which areas of the recorded cutting edge 16 (see method step A)) are particularly influenced by the respectively determined cutting parameter 18 (see method step D)).
  • FIG. 3 shows three images 32a, 32b, 32c as an example, the images 32a-c having been created with different cutting parameters 18 (see FIG. 1): Image 32a: gas pressure 20 15 bar
  • Image 32b on the other hand, was created with an increased nozzle focus distance of 26. Recording 32c was created with a reduced feed rate 22 compared to recording 32a. It can be seen from FIG. 3 that the influence of the cutting parameters 18 (see FIG. 1) cannot be directly inferred from the recordings 32a-c for human users.
  • 4 schematically shows the algorithm 34 or the neural network 36.
  • the neural network 36 is constructed in the form of a convolutional neural network with a plurality of blocks 44a, 44b, 44c, 44d, 44e. An input block 44a is provided.
  • the blocks 44b-e each have three convolutional layers 46a, 46b, 46c, 46d, 46e, 46f, 46g, 46h, 46i, 46j, 46k, 461.
  • the blocks 44a-e have filters 48a, 48b, 48c, 48d, 48e.
  • Each layer of the input block 44a has 32 filters 48a.
  • the layers of block 44b also have 32 filters 48b.
  • the layers of block 44c have 64 filters 48c.
  • the layers of block 44d have 128 filters 48d and the layers of block 44e have 256 filters 48e.
  • the filters 48a-e can lead to a reduction in the resolution of the recording 32 (eg from 200 pixels ⁇ 200 pixels to 7 pixels ⁇ 7 pixels) while at the same time increasing the depth (or number of channels).
  • the third layer filters 48a-e of each block 44a-e result in a reduction in resolution.
  • convolutional layers are used for pooling. The depth increases from one block 44a-e to the next.
  • block 44b consists of three convolutional layers, each with 32 filters.
  • the spatial resolution is 112 x 112 pixels.
  • the spatial resolution is reduced from 112 x 112 pixels to 56 x 56 pixels.
  • the depth increases from 32 to 64. The spatial resolution remains the same.
  • the neural network 36 enables a determination 38 of the cutting parameters 18.
  • the layer-wise relevance propagation is used in the back propagation 40. Their results are shown in FIG.
  • the outputs 50 can be in the form of heat maps.
  • the recording pixels 42b that are particularly little influenced by the respective cutting parameter 18 primarily serve to check the plausibility of the outputs 50.
  • the recording pixels 42a that are particularly strongly influenced by the respective cutting parameter 18 are highlighted in the outputs 50 , to make it easier for a user to handle the outputs 50.
  • the invention relates in summary to a method for recognizing cutting parameters 18 which are particularly important for specific features of a cut edge 16 .
  • a recording 32, 32a-c of the cutting edge 16 is analyzed by an algorithm 34 with a neural network 36 to determine 38 the cutting parameters 18.
  • Back propagation 40 of this analysis identifies those recording pixels 42a, b that play a significant role in determining the cutting parameters 18 .
  • the invention also relates to a computer program product and a device for carrying out the method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Optics & Photonics (AREA)
  • General Physics & Mathematics (AREA)
  • Plasma & Fusion (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Laser Beam Processing (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Erkennung von Schneidparametern (18), die für bestimmte Merkmale einer Schnittkante (16) besonders wichtig sind. Dabei wird eine Aufnahme (32) der Schnittkante (16) von einem Algorithmus (34) mit einem neuronalen Netz (36) zur Ermittlung (38) der Schneidparameter (18) analysiert. Durch Rückpropagation (40) dieser Analyse werden diejenigen Aufnahmepixel (42a, b) identifiziert, die für die Bestimmung der Schneidparameter (18) eine signifikante Rolle spielen. Eine Ausgabe (50) in Form einer Darstellung dieser signifikanten Aufnahmepixel (42a, b), insbesondere in Form einer heatmap, zeigt einem Nutzer des Verfahrens auf, welche Schneidparameter (18) zur Verbesserung der Schnittkante (16) geändert werden müssen. Die Erfindung betrifft weiterhin ein Computerprogrammprodukt bzw. eine Vorrichtung zur Durchführung des Verfahrens.

Description

VERFAHREN, COMPUTERPROGRAMMPRODUKT, UND VORRICHTUNG MIT EINEM SOLCHEN PRODUKT ZUM AUFZEIGEN DES EINFLUSSES VON SCHNEIDPARAMETERN AUF EINE SCHNITTKANTE
Hintergrund der Erfindung
Die Erfindung betrifft ein Verfahren zur Analyse einer von einer Werkzeugmaschine erstellten Schnittkante. Die Erfindung betrifft weiterhin ein Computerprogrammprodukt und eine Vorrichtung zur Durchführung des Verfahrens.
Es ist bekannt, das Schneiden von Werkstücken zu optimieren. Beispielsweise offenbart die DE 10 2017 105 224 Al, ein neuronales Netzwerk einzusetzen, um einen Laserschneidprozess zu regeln.
Allerdings sind die meisten Schneidvorgänge bzw. die Einflüsse von Schneidparametern auf die Schnittkanten nicht vollständig verstanden. Dies kann beispielsweise folgenden Artikeln entnommen werden:
Hügel, H., Graf, T. Laser in der Fertigung: Strahlquellen, Systeme, Fertigungsverfahren. Wiesbaden: Vieweg + Teubner, 2009. Petring, D., Schneider, F., Wolf, N. Some answers to frequently asked questions and open issues of laser beam cutting. In: International Congress on Applications of Lasers & Electro-Optics. ICALEOR 2012, Anaheim, California, USA: Laser Institute of America, 2012, S. 43-48
Steen, W. M., Mazumder, J. Laser Material Processing. London: Springer London, 2010.
Auch erfahrene Nutzer der Schneidanlagen können in der Regel nicht Vorhersagen, wie sich die Schneidparameter auf das Aussehen der Schnittkante auswirken. Um das Aussehen einer Schnittkante zu verbessern, insbesondere bei Problemen aufgrund veränderter Materialqualität und/oder bei neuen Prozessen unter Nutzung einer neuen Laserquelle, neuer Blechdicke etc., müssen daher regelmäßig aufwändige Testreihen mit verschieden variierten Schneidparametern durchgeführt werden.
Aufgabe der Erfindung
Es ist demgegenüber Aufgabe der Erfindung, ein Verfahren, ein Computerprogrammprodukt und eine Vorrichtung bereit zu stellen, die in der Lage sind, den Einfluss der Schneidparameter auf die Schnittkante zu analysieren.
Figure imgf000004_0001
Diese Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren gemäß Anspruch 1, ein Computerprogrammprodukt gemäß Anspruch 10 und eine Vorrichtung gemäß Anspruch 11. Die Unteransprüche geben bevorzugte Weiterbildungen wieder.
Die erfindungsgemäße Aufgabe wird somit gelöst durch ein Verfahren, bei dem eine, mehrere Aufnahmepixel aufweisende, Aufnahme einer mit einer Werkzeugmaschine erstellten Schnittkante eingelesen wird. Zur Ermittlung zumindest eines Schneidparameters, insbesondere mehrerer Schneidparameter, aus der Aufnahme wird ein Algorithmus mit einem neuronalen Netz eingesetzt. Anschließend erfolgt eine Rückpropagation im neuronalen Netz zur Bestimmung der Relevanz der ein- zelnen Aufnahmepixel für die Bestimmung der zuvor ermittelten Schneidparameter. Dann erfolgt eine Ausgabe der Aufnahme unter Markierung zumindest einiger Aufnahmepixel, wobei die Markierung die zuvor bestimmte Relevanz der Aufnahmepixel widerspiegelt. Vorzugsweise werden alle Aufnahmepixel ausgegeben und gemäß ihrer Relevanz markiert.
Ein Nutzer sieht somit an der markierten Ausgabe sofort, wie stark die jeweiligen Bereiche der Schnittkante vom jeweiligen Schneidparameter bzw. den jeweiligen Schneidparametern beeinflusst wurde und kann dann eine Anpassung dieses Schneidparameters bzw. dieser Schneidparameter vornehmen, um gezielt einen bestimmten Bereich der Schnittkante zu verändern.
Die Rückpropagation eines neuronalen Netzes ist beispielsweise aus der EP 3 654 248 Al bekannt geworden, deren Inhalt durch Bezugnahme vollinhaltlich in die vorliegende Beschreibung aufgenommen wird.
Üblicherweise wird eine solche Rückpropagation („backpropagation-based mechanisms") nur verwendet, um zu überprüfen, ob ein neuronales Netz die richtigen Zusammenhänge gelernt hat. Dabei geht es um neuronale Netze, die keine „superhuman performance" haben. Der Mensch kann in diesem Fall problemlos beurteilen, was die richtige Information ist. Z.B. kann man so untersuchen, ob ein neuronales Netz, das Hunde von Katzen unterscheiden kann, wirklich den Hund im Bild erkennt, wenn es angibt, dass es sich um einen Hund handelt und nicht die Wiese betrachtet, auf der der Hund steht. Beispielsweise kann es vorkommen, dass das neuronale Netz statt einem bestimmten Tier (z.B. einem Pferd) im Bild einen Schriftzug im Bild erkennt, der auf allen Pferdebildern zu sehen ist (sogenannte „Clever-Hans-Problematik"). Vorliegend wird demgegenüber die Rückpropagation eingesetzt, um Produktionsprozesse bzw. physikalische Zusammenhänge beim Schneidprozess zu verstehen oder zumindest Vorhersagen zu können.
Unter einem neuronalen Netz wird dabei eine Architektur verstanden, die zumindest eine, insbesondere mehrere, Daten-Aggregations-Routinen aufweist. Eine Da- ten-Aggregations-Routine kann ausgelegt sein, mehrere „ermittelte Daten" zu einem neuen Datenpaket zu aggregieren. Das neue Datenpaket kann eine oder mehrere Zahlen oder Vektoren aufweisen. Dem neuen Datenpaket können vollständig oder teilweise weitere Daten-Aggregations-Routinen als „ermittelte Daten" zur Verfügung gestellt werden. „Ermittelte Daten" können insbesondere Schneidparameter oder von einer der Daten-Aggregations-Routinen zur Verfügung gestellte Datenpakete sein. Besonders bevorzugt ist die Architektur mit mehreren verbundenen Daten-Aggregations-Routinen ausgebildet. Insbesondere können mehrere hundert, insbesondere mehrere tausend, solcher Daten-Aggregations-Routinen miteinander verbunden werden. Die Qualität des neuronalen Netzes wird hierdurch deutlich verbessert.
Die Architektur kann dabei eine Funktion mit gewichteten Variablen aufweisen. Eine, insbesondere mehrere, besonders bevorzugt alle, Daten-Aggregations-Routinen können ausgelegt sein, mehrere „ermittelte Daten" jeweils mit einer gewichteten Variablen zu kombinieren, insbesondere zu multiplizieren, und so die „ermittelten Daten" zu „kombinierten Daten" umzuwandeln um dann die „kombinierten Daten" zu einem neuen Datenpaket zu aggregieren, insbesondere zu addieren. Bei dem neuronalen Netz können Daten mit Gewichten multipliziert werden. Die Informationen mehrerer Neuronen können addiert werden. Weiterhin kann das neuronale Netz eine nichtlineare Aktivierungsfunktion aufweisen.
Die in der Aufnahme enthaltenen Schnittkantenmerkmale können hierbei selbst Datenpakete, insbesondere mehrere strukturierte Daten, insbesondere Datenvektoren oder Daten-Arrays, sein, die selbst wieder „ermittelte Daten", insbesondere für die Daten-Aggregations-Routinen, darstellen können.
Zur Ermittlung geeigneter gewichteter Variablen, d.h. zum Training des neuronalen Netzes, kann das Verfahren durchlaufen werden mit Daten, insbesondere Schneidparametern, deren Zusammengehörigkeit zu Aufnahmen jeweils bekannt ist. Das neuronale Netz ist dabei vorzugsweise in Form eines convolutional neural network (CNN) mit mehreren Schichten (layer) ausgebildet. Das convolutional neural network kann convolutional layer und pooling layer aufweisen. Pooling layer sind typischerweise zwischen zwei aufeinanderfolgenden convolutional layer angeordnet. Alternativ oder zusätzlich dazu kann nach jeder Faltung ein Pooling durchgeführt werden.
Zusätzlich zu den convolutional layern und pooling layern kann ein CNN fully connected layer, insbesondere ganz am Ende des neuronalen Netzes, aufweisen. Die convolutional layer und pooling layer extrahieren Merkmale, die fully connected layer können die Merkmale den Schneidparametern zuordnen.
Das neuronale Netz kann mehrere Filter pro layer aufweisen. Der Aufbau eines convolutional neural networks kann beispielsweise folgenden Artikeln, insbesondere dem nachfolgend erstgenannten, entnommen werden:
LeCun Y, Bengio Y, Hinton G (2015) Deep learning; Nature 521 :436{444, DOI 10.1038/naturel4539;
Lin H, Li B, Wang X, Shu Y, Niu S (2019); Automated defect inspection of LED chip using deep convolutional neural network; J Intell Manuf; 30:2525{2534, DOI 10.1007/sl0845-018-1415-x;
Fu G, Sun P, Zhu W, Yang J, Cao Y, Yang MY, Cao Y (2019); A deep-learning-based approach for fast and robust steel surface defects classification; Opt Laser Eng 121:397{405, DOI 10.1016/j.optlaseng.2019.05.005;
Lee KB, Cheon S, Kim CO (2017) A Convolutional Neural Network for Fault Classification and Diagnosis in Semiconductor Manufacturing Processes; IEEE T Semiconduct M 30: 135{142, DOI 10.1109/TSM.2017.2676245; Goncalves DA, Stemmer MR, Pereira M (2020) A convolutional neural network approach on bead geometry estimation for a laser cladding system; Int J Adv Manuf Tech 106:1811{1821, DOI 10.1007/s00170-019-04669-z;
Karatas A, Kölsch D, Schmidt S, Eier M, Seewig J (2019) Development of a convolutional autoencoder using deep neuronal networks for defect detection and generating ideal references for cutting edges; Munich, Germany, DOI 10.1117/12.2525882;
Stahl J, Jauch C (2019) Quick roughness evaluation of cut edges using a convolutional neural network; In: Proceedings SPIE 11172, Munich, Germany, DOI 10.1117/12.2519440.
Zur Rückpropagation hat sich die layer-wise relevance propagation (LRP) als besonders zielführend und gleichzeitig einfach implementierbar erwiesen. Die layer- wise relevance propagation kann insbesondere folgenden Artikeln entnommen werden:
Bach S, Binder A, Montavon G, Klauschen F, Müller KR, Samek W (2015) On Pixel- Wise Explanations for Non-Linear Classifier Decisions by Layer-Wise Relevance Propagation; PLoS ONE 10:e0130140, DOI 10.1371/journal. pone.0130140;
W Samek, A Binder, G Montavon, S Lapuschkin, K Müller (2017) Evaluating the Visualization of What a Deep Neural Network Has Learned. IEEE T Neur Net Lear 28:2660{2673, DOI 10.1109/ TNNLS.2016.2599820;
Montavon G, Lapuschkin S, Binder A, Samek W, Müller KR (2017) Explaining Non- Linear Classification Decisions with Deep Taylor Decomposition; Pattern Recognition 65:211{222, DOI 10.1016/j. patcog.2016.11.008;
Montavon G, Lapuschkin S, Binder A, Samek W, Müller KR (2015) Explaining Non- Linear Classification Decisions with Deep Taylor Decomposition; arXiv preprint URL https://arxiv.org/pdf/1512.02479.pdf; Montavon G, Binder A, Lapuschkin S, Samek W, Müller KR (2019) Layer-Wise Relevance Propagation: An Overview. In: Samek W, Montavon G, Vedaldi A, Hansen LK, Müller KR (eds) Explainable AI: Interpreting, Explaining and Visualizing Deep Learning, Springer, Cham, Switzerland, pp 193{209.
Die Rückpropagation, insbesondere in Form der layer-wise relevance propagation, basiert vorzugsweise auf der deep taylor decomposition (DTD). Die deep taylor decomposition kann insbesondere folgendem Artikel entnommen werden:
Montavon G, Lapuschkin S, Binder A, Samek W, Müller KR (2017) Explaining Non- Linear Classification Decisions with Deep Taylor Decomposition; Pattern Recognition 65:211{222, DOI 10.1016/j. patcog.2016.11.008.
Die Implementierung kann beispielsweise in Python in Form der Bibliotheken Ten- sorFlow 1.13.1 (siehe Abadi M, Agarwal A, Barham P, Brevdo E, Chen Z, Citro C, Corrado G, Davis A, Dean J, Devin M, Ghemawat S, Goodfellow I, Harp A, Irving G, Isard M, Jia Y, Jozefowicz R, Kaiser L, Kudlur M, Zheng X (2016) TensorFlow: Large-Scale Machine Learning on Heterogeneous Distributed Systems. arXiv preprint URL https://arxiv.org/pdf/1603.04467.pdf) und Keras 2.2.4 (siehe Chollet F (2015) Keras. URL https://keras.io) erfolgen. Weiterhin kann die Python-Bibliothek „iNNvestigate" (Alber, M., et al. : iNNvestigate neural networks! . J. Mach. Learn. Res. 20(93), 1-8 (2019)) eingesetzt werden.
Weiter bevorzugt erfolgt die Ausgabe in Form einer heatmap. Die heatmap kann zwei Farben aufweisen, insbesondere rot und blau, mit denen besonders relevante bzw. besonders irrelevante Aufnahmepixel gekennzeichnet werden. Durchschnittlich relevante Aufnahmepixel können durch Zwischentöne zwischen den beiden Farben oder grau gekennzeichnet werden. Hierdurch ist die Ausgabe besonders intuitiv erfassbar.
Bei der Aufnahme handelt es sich vorzugsweise um ein Foto, besonders bevorzugt ein Farbfoto, insbesondere in Form eines RGB-Fotos, oder um eine 3D- Punktwolke. 3D-Punktwolken sind etwas aufwändiger zu erstellen, da sie Tiefeninformationen beinhalten. Die Tiefeninformationen können bei der Erstellung der Aufnahme insbesondere durch Lichtschnitt bzw. durch Triangulation aus unterschiedlichen Winkeln gewonnen werden. Es hat sich jedoch gezeigt, dass Farbfotos besonders geeignet bzw. ausreichend sind, da die verschiedenen Schneidparameter von dem neuronalen Netz vor allem an den unterschiedlichen Färbungen der Schnittkante erkannt werden.
Die Aufnahme kann mit einer Foto- und/oder Videokamera erstellt werden. Vorzugsweise ist die Kamera Teil der Werkzeugmaschine, um eine gleich bleibende Aufnahmesituation sicherzustellen. Alternativ oder zusätzlich dazu kann die Kamera Teil einer Fotobox (photo booth) sein, um Umgebungseinflüsse bei der Erstellung der Aufnahme zu reduzieren.
Weiter bevorzugt umfasst das erfindungsgemäße Verfahren das Erstellen der Schnittkante mit der Werkzeugmaschine. Bei dem Schneidverfahren der Werkzeugmaschine kann es sich um ein thermisches Schneidverfahren, insbesondere ein Plasmaschneidverfahren, vorzugsweise ein Laserschneidverfahren, handeln.
Die ermittelten Schneidparameter im Falle eines Laserschneidverfahrens umfassen vorzugsweise Strahlparameter, insbesondere Fokusdurchmesser bzw. Laserleistung; Transportparameter, insbesondere Fokusposition, Düsen-Fokusabstand bzw. Vorschub; Gasdynamikparameter, insbesondere Gasdruck bzw. Düsen-Werkstück- abstand; und/oder Materialparameter, insbesondere Gas-Reinheitsgrad bzw. Schmelztemperatur des Werkstücks. Diese Schneidparameter haben sich als besonders prägend für das Erscheinungsbild der Schnittkante erwiesen.
Die erfindungsgemäße Aufgabe wird weiterhin gelöst durch ein Computerprogrammprodukt zur Durchführung der hier beschriebenen Rechenoperationen. Das Computerprogrammprodukt kann teilweise, insbesondere vollständig, cloud-ba- siert ausgebildet sein, um mehreren Nutzern den Zugang zum Computerprogrammprodukt zu ermöglichen. Weiterhin kann ein umfassenderes Training des neuronalen Netzes durch mehrere Nutzer erfolgen. Die erfindungsgemäße Aufgabe wird schließlich gelöst durch eine Vorrichtung zur Durchführung des hier beschriebenen Verfahrens, wobei die Vorrichtung die Werkzeugmaschine, insbesondere in Form einer Laserschneidmaschine, aufweist.
Die Vorrichtung kann dabei die hier beschriebene Kamera aufweisen.
Weitere Vorteile der Erfindung ergeben sich aus der Beschreibung und der Zeichnung. Ebenso können die vorstehend genannten und die noch weiter ausgeführten Merkmale erfindungsgemäß jeweils einzeln für sich oder zu mehreren in beliebigen Kombinationen Verwendung finden. Die gezeigten und beschriebenen Ausführungsformen sind nicht als abschließende Aufzählung zu verstehen, sondern haben vielmehr beispielhaften Charakter für die Schilderung der Erfindung.
Detaillierte Beschreibung der Erfindung und Zeichnung
Fig. 1 zeigt eine schematische Darstellung einer Werkzeugmaschine in Form einer Laserschneidmaschine zur Erläuterung wesentlicher Schneidparameter.
Fig. 2 zeigt eine schematische Übersicht des erfindungsgemäßen Verfahrens mit den Verfahrensschritten:
A) Erstellen der Schnittkante mit mehreren Schneidparametern;
B) Erstellen einer Aufnahme der Schnittkante;
C) Einlesen der Aufnahme;
D) Analyse der Aufnahme mit einem neuronalen Netz zur Ermittlung der Schneidparameter;
E) Rückpropagation des neuronalen Netzes zur Ermittlung der Relevanz der Aufnahmepixel bezüglich der ermittelten Schneidparameter; und
F) gekennzeichnete Darstellung der relevanten bzw. irrelevanten Aufnahmepixel.
Fig. 3 zeigt Aufnahmen verschiedener Schnittkanten.
Fig. 4 zeigt schematisch die Funktionsweise des neuronalen Netzes bzw. der Rückpropagation. Fig. 5 zeigt in der linken Spalte Aufnahmen zweier Schnittkanten und in den weiteren Spalten ermittelte Schneidparameter und Ausgaben der Aufnahmen unter Hervorhebung der für die ermittelten Schneidparameter relevanten Aufnahmepixel.
Fig. 1 zeigt einen Teil einer Werkzeugmaschine 10 in Form einer Laserschneidmaschine. Ein Schneidkopf 12 überfährt dabei ein Werkstück 14 unter Laser- und Gasbestrahlung des Werkstücks 14. Hierbei wird eine Schnittkante 16 erzeugt. Die Schnittkante 16 wird insbesondere durch folgende Schneidparameter 18 beeinflusst: Gasdruck 20, Vorschub 22, Düsen-Werkstückabstand 24, Düsen-Fokusab- stand 26 und/oder Fokusposition 28.
Der Einfluss der einzelnen Schneidparameter 18 auf das Aussehen der erzielten Schnittkante 16 ist selbst für Experten weitestgehend nicht nachvollziehbar. Kommt es beispielsweise zur Riefenbildung an der Schnittkante 16, müssen die Schneidparameter 18 variiert werden, bis die Riefenbildung verschwindet, wobei mit der Variation einerseits ein großer Material-, Energie- und Zeitverbrauch einhergeht und es andererseits oftmals vorkommt, dass durch die Variation neue Artefakte geschaffen werden. Es besteht daher das Bedürfnis, ein Verfahren und eine Vorrichtung bereitzustellen, die den Merkmalen einer Schnittkante 16 gezielt Schneidparameter 18 zuordnet. Diese Schneidparameter 18 können dann geändert werden, um das Merkmal der Schnittkante 16 zu ändern. Die Erfindung löst daher ein Problem, das von menschlichen Nutzern aufgrund der Komplexität des Problems nicht gelöst werden kann („superhuman performance").
Fig. 2 zeigt das erfindungsgemäße Verfahren im Überblick. Im Verfahrensschritt A) wird die Schnittkante 16 unter Verwendung der Schneidparameter 18 durch die Werkzeugmaschine 10 erzeugt. Im Verfahrensschritt B) wird die Schnittkante 16 (siehe Verfahrensschritt A)) unter Verwendung einer Kamera 30 aufgenommen. Die Kamera 30 kann in Form einer Fotokamera und/oder einer Videokamera ausgebildet sein. Im Verfahrensschritt C) wird die erstellte Aufnahme 32 eingelesen. Im Verfahrensschritt D) wird die Aufnahme 32 von einem Algorithmus 34 analysiert. Der Algorithmus 34 weist ein neuronales Netz 36 auf. Das neuronale Netz 36 dient der Ermittlung 38 der Schneidparameter 18. Die ermittelten Schneidparameter 18 können mit den eingestellten Schneidparametern 18 (siehe Verfahrensschritt A)) verglichen werden, beispielsweise um einen Defekt der Werkzeugmaschine 10 (siehe Verfahrensschritt A)) zu ermitteln.
Im Verfahrensschritt E) erfolgt durch den Algorithmus 34 eine Rückpropagation 40 im neuronalen Netz 36. Durch die Rückpropagation 40 der Schneidparameter 18 zur Aufnahme 32 wird die Relevanz einzelner Aufnahmepixel 42a, 42b der Aufnahme 40 bei der Ermittlung der Schneidparameter 18 im Verfahrensschritt D) festgestellt. Im Verfahrensschritt F) werden die Aufnahmepixel 42a, b dargestellt (wobei in Fig. 2 aus Gründen der Übersichtlichkeit nur die Aufnahmepixel 42a, b mit einem Bezugszeichen versehen sind) und mit ihrer jeweiligen Relevanz gekennzeichnet. Vorliegend ist das besonders relevante Aufnahmepixel 42a in einer ersten Farbe (beispielsweise rot) und das besonders irrelevante Aufnahmepixel 42b in einer zweiten Farbe (beispielsweise blau oder grau) gekennzeichnet. Aufgrund von Formalvorgaben sind in der vorliegenden Beschreibung die verschiedenen Farben durch verschiedene Muster (Schraffierungen) dargestellt. Anhand der besonders relevanten Aufnahmepixel 42a kann ein Nutzer unmittelbar erkennen, welche Bereiche der aufgenommenen Schnittkante 16 (siehe Verfahrensschritt A)) besonders durch den jeweils ermittelten Schneidparameter 18 (siehe Verfahrensschritt D)) beeinflusst wird.
Fig. 3 zeigt beispielhaft drei Aufnahmen 32a, 32b, 32c, wobei die Aufnahmen 32a-c mit verschiedenen Schneidparametern 18 (siehe Fig. 1) erstellt wurden: Aufnahme 32a: Gasdruck 20 15bar
Vorschub 22 21m/min
Düsen-Werkstückabstand 24 1,5mm
Düsen-Fokusabstand 26 -2mm
Aufnahme 32b wurde demgegenüber mit vergrößertem Düsen-Fokusabstand 26 erstellt. Aufnahme 32c wurde gegenüber Aufnahme 32a mit verringertem Vorschub 22 erstellt. Aus Fig. 3 ist ersichtlich, dass der Einfluss der Schneidparameter 18 (siehe Fig. 1) für menschliche Nutzer nicht unmittelbar den Aufnahmen 32a-c entnehmbar ist. Fig. 4 zeigt schematisch den Algorithmus 34 bzw. das neuronale Netz 36. Das neuronale Netz 36 ist in Form eines convolutional neural network mit mehreren Blöcken 44a, 44b, 44c, 44d, 44e aufgebaut. Dabei ist ein Eingangsblock 44a vorgesehen. Die Blöcke 44b-e weisen jeweils drei convolutional layer 46a, 46b, 46c, 46d, 46e, 46f, 46g, 46h, 46i, 46j, 46k, 461 auf. Die Blöcke 44a-e weisen Filter 48a, 48b, 48c, 48d, 48e auf. Jede Schicht des Eingangsblocks 44a weist 32 Filter 48a auf. Die Schichten des Blocks 44b weisen ebenfalls 32 Filter 48b auf. Die Schichten des Blocks 44c weisen 64 Filter 48c auf. Die Schichten des Blocks 44d weisen 128 Filter 48d auf und die Schichten des Blocks 44e weisen 256 Filter 48e auf. Die Filter 48a-e können zu einer Verringerung der Auflösung der Aufnahme 32 (z.B. von 200 Pixel x 200 Pixel auf 7 Pixel x 7 Pixel) bei gleichzeitiger Erhöhung der Tiefe (bzw. Anzahl der Kanäle) führen. Die Filter 48a-e der dritten Schicht jedes Blocks 44a-e führen zu einer Verringerung der Auflösung. Hier werden convolutional layer auf für das Pooling verwendet. Die Tiefe erhöht sich von einem Block 44a-e zum nächsten. Beispielsweise besteht der Block 44b aus drei convolutional layer, jeweils mit 32 Filtern. In den ersten beiden ist die räumliche Auflösung 112 x 112 Pixel. Von der zweiten zur dritten reduziert sich die räumliche Auflösung von 112 x 112 Pixel auf 56 x 56 Pixel. Beim Übergang von Block 44b (letzte Schicht) zu Block 44c (erste Schicht) vergrößert sich die Tiefe von 32 auf 64. Die räumliche Auflösung bleibt gleich.
Das neuronale Netz 36 ermöglicht hierdurch eine Ermittlung 38 der Schneidparameter 18. Bei der Rückpropagation 40 wird vorliegend die layer-wise relevance propagation eingesetzt. Deren Ergebnisse sind in Fig. 5 dargestellt.
Fig. 5 zeigt in der oberen Spalte die Aufnahme 32a und in der unteren Spalte die Aufnahme 32b. In jeder Spalte sind die Aufnahmen 32a, b mehrfach wiedergegeben, wobei in der zweiten Spalte die vom Vorschub 22 stark oder wenig beeinflussten Aufnahmepixel 42a, b, in der dritten Spalte die von der Fokusposition 28 stark oder wenig beeinflussten Aufnahmepixel 42a, b und in der vierten Spalte die vom Gasdruck 20 stark oder wenig beeinflussten Aufnahmepixel 42a, b hervorgehoben sind. Die Ausgaben 50 können dabei in Form von heatmaps vorliegen. Die vom jeweiligen Schneidparameter 18 (siehe Fig. 1) besonders wenig beeinflussten Aufnahmepixel 42b dienen primär der Überprüfung der Plausibilität der Ausgaben 50. Vorzugsweise werden in den Ausgaben 50 lediglich die besonders stark vom jeweiligen Schneidparameter 18 (siehe Fig. 1) beeinflussten Aufnahmepixel 42a hervorgehoben, um einem Nutzer die Handhabung der Ausgaben 50 zu erleichtern.
Unter Vornahme einer Zusammenschau aller Figuren der Zeichnung betrifft die Erfindung zusammenfassend ein Verfahren zur Erkennung von Schneidparametern 18, die für bestimmte Merkmale einer Schnittkante 16 besonders wichtig sind. Dabei wird eine Aufnahme 32, 32a-c der Schnittkante 16 von einem Algorithmus 34 mit einem neuronalen Netz 36 zur Ermittlung 38 der Schneidparameter 18 analysiert. Durch Rückpropagation 40 dieser Analyse werden diejenigen Aufnahmepixel 42a, b identifiziert, die für die Bestimmung der Schneidparameter 18 eine signifikante Rolle spielen. Eine Ausgabe 50 in Form einer Darstellung dieser signifikanten Aufnahmepixel 42a, b, insbesondere in Form einer heatmap, zeigt einem Nutzer des Verfahrens auf, welche Schneidparameter 18 zur Verbesserung der Schnittkante 16 geändert werden müssen. Die Erfindung betrifft weiterhin ein Computerprogrammprodukt bzw. eine Vorrichtung zur Durchführung des Verfahrens.
Figure imgf000016_0001
10 Werkzeugmaschine
12 Schneidkopf
14 Werkstück
16 Schnittkante
18 Schneidparameter
20 Gasdruck
22 Vorschub
24 Düsen-Werkstückabstand
26 Düsen-Fokusabstand
28 Fokusposition
30 Kamera
32, 32a-c Aufnahme
34 Algorithmus
36 neuronales Netz
38 Ermittlung der Schneidparameter 18
40 Rückpropagation
42a, b Aufnahmepixel
44a-e Blöcke des neuronalen Netzes 36
46a-l layer des neuronalen Netzes 36
48a-e Filter des neuronalen Netzes 36
50 Ausgabe

Claims

Patentansprüche Verfahren zur Analyse einer von einer Werkzeugmaschine (10) erstellten Schnittkante (16), mit den Verfahrensschritten:
C) Einlesen zumindest einer Aufnahme (32, 32a-c) der Schnittkante (16), wobei die Aufnahme (32, 32a-c) eine Vielzahl von Aufnahmepixeln (42a, b) aufweist;
D) Analyse der Aufnahme (32, 32a-c) mit einem trainierten neuronalen Netz (36) zur Ermittlung zumindest eines Schneidparameters (18);
E) Rückpropagation (40) des neuronalen Netzes (36) zur Ermittlung der Relevanz der für die Bestimmung der ermittelten Schneidparameter (18) analysierten Aufnahmepixel (42a, b);
F) Ausgabe der Aufnahme (32, 32a-c) unter Kennzeichnung der im Verfahrensschritt C) bestimmten besonders relevanten und/oder besonders irrelevanten Aufnahmepixel (42a, b). Verfahren nach Anspruch 1, bei dem die Analyse im Verfahrensschritt D) mit einem convolutional neural network mit mehreren layern (46a-l), insbesondere mit mehreren Filtern (48a-e) pro layer (46a-l), erfolgt. Verfahren nach Anspruch 1 oder 2, bei dem die Rückpropagation (40) im Verfahrensschritt E) durch layer-wise relevance propagation erfolgt. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Zuordnung der Relevanz im Verfahrensschritt E) auf deep Taylor decomposition basiert. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Ausgabe im Verfahrensschritt F) in Form einer heatmap erfolgt. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Aufnahme (32, 32a-c) im Verfahrensschritt C) in Form eines RGB-Fotos oder einer 3D-Punktwolke vorliegt. Verfahren nach einem der vorhergehenden Ansprüche, bei dem das Verfahren folgenden Verfahrensschritt aufweist:
B) Erstellen der Aufnahme (32, 32a-c) mit einer Kamera (30), insbesondere mit einer Kamera (30) der Werkzeugmaschine (10). Verfahren nach einem der vorhergehenden Ansprüche, bei dem das Verfahren folgenden Verfahrensschritt aufweist:
A) Erstellen der Schnittkante (16) mit der Werkzeugmaschine (10). Verfahren nach Anspruch 8, bei dem die Werkzeugmaschine (10) in Form einer Laserschneidmaschine ausgebildet ist, wobei im Verfahrensschritt D) insbesondere folgende Schneidparameter (18) ermittelt werden:
• Strahl para meter, insbesondere Fokusdurchmesser und/oder Laserleistung;
• Transportparameter, insbesondere Fokusposition (28), Düsen-Fo- kusabstand (26) und/oder Vorschub (22);
• Gasdynamikparameter, insbesondere Gasdruck (20) und/oder Dü- sen-Werkstückabstand (24); und/oder
• Materialparameter, insbesondere Gas-Reinheitsgrad und/oder Schmelztemperatur des Werkstücks (14). Computerprogrammprodukt zur Durchführung der Verfahrensschritte C) bis F) nach einem der vorhergehenden Ansprüche, wobei das Computerprogrammprodukt das neuronale Netz (36) aufweist. Vorrichtung mit einer Werkzeugmaschine (10), insbesondere in Form einer Laserschneidmaschine, einem Computer und einem Computerprogrammprodukt nach Anspruch 10 zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 9. Vorrichtung nach Anspruch 11 in Verbindung mit Anspruch 7, bei der die Vorrichtung die Kamera (30) aufweist.
PCT/EP2021/077086 2020-10-02 2021-10-01 Verfahren, computerprogrammprodukt, und vorrichtung mit einem solchen produkt zum aufzeigen des einflusses von schneidparametern auf eine schnittkante WO2022069702A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022537848A JP7481450B2 (ja) 2020-10-02 2021-10-01 切断エッジに対する切断パラメータの影響を明らかにするための方法、コンピュータプログラム製品及びデバイス
EP21786859.5A EP4221930A1 (de) 2020-10-02 2021-10-01 Verfahren, computerprogrammprodukt, und vorrichtung mit einem solchen produkt zum aufzeigen des einflusses von schneidparametern auf eine schnittkante
CN202180008252.7A CN115461186A (zh) 2020-10-02 2021-10-01 用于揭示切割参数对切割边缘的影响的方法和设备
US17/861,925 US20220339739A1 (en) 2020-10-02 2022-07-11 Method and device for demonstrating the influence of cutting parameters on a cut edge

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020212510.4A DE102020212510A1 (de) 2020-10-02 2020-10-02 Verfahren und Vorrichtung zum Aufzeigen des Einflusses von Schneidparametern auf eine Schnittkante
DE102020212510.4 2020-10-02

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/861,925 Continuation US20220339739A1 (en) 2020-10-02 2022-07-11 Method and device for demonstrating the influence of cutting parameters on a cut edge

Publications (1)

Publication Number Publication Date
WO2022069702A1 true WO2022069702A1 (de) 2022-04-07

Family

ID=78080298

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2021/077086 WO2022069702A1 (de) 2020-10-02 2021-10-01 Verfahren, computerprogrammprodukt, und vorrichtung mit einem solchen produkt zum aufzeigen des einflusses von schneidparametern auf eine schnittkante

Country Status (6)

Country Link
US (1) US20220339739A1 (de)
EP (1) EP4221930A1 (de)
JP (1) JP7481450B2 (de)
CN (1) CN115461186A (de)
DE (1) DE102020212510A1 (de)
WO (1) WO2022069702A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021127016A1 (de) 2021-10-19 2023-04-20 Precitec Gmbh & Co. Kg Prozesssignalrekonstruktion und Anomalie-Detektion bei Laserbearbeitungsprozessen

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017105224A1 (de) 2016-03-17 2017-09-21 Fanuc Corporation Vorrichtung zum maschinellen lernen, laserbearbeitungssystem und maschinelles lernverfahren
EP3654248A1 (de) 2018-11-19 2020-05-20 Siemens Aktiengesellschaft Überprüfung von klassifizierungsentscheidungen in neuronalen faltungsnetzwerken
DE102018129425A1 (de) * 2018-11-22 2020-05-28 Precitec Gmbh & Co. Kg System zur Erkennung eines Bearbeitungsfehlers für ein Laserbearbeitungssystem zur Bearbeitung eines Werkstücks, Laserbearbeitungssystem zur Bearbeitung eines Werkstücks mittels eines Laserstrahls umfassend dasselbe und Verfahren zur Erkennung eines Bearbeitungsfehlers eines Laserbearbeitungssystems zur Bearbeitung eines Werkstücks

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9373163B2 (en) 2010-06-28 2016-06-21 Precitec Kg Method for controlling a laser processing operation by means of a reinforcement learning agent and laser material processing head using the same
DE102018123363B4 (de) 2018-09-24 2021-01-07 Bystronic Laser Ag Verfahren zur Kollisionsvermeidung und Laserbearbeitungsmaschine
JP6972047B2 (ja) 2019-01-31 2021-11-24 三菱電機株式会社 加工条件解析装置、レーザ加工装置、レーザ加工システムおよび加工条件解析方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017105224A1 (de) 2016-03-17 2017-09-21 Fanuc Corporation Vorrichtung zum maschinellen lernen, laserbearbeitungssystem und maschinelles lernverfahren
EP3654248A1 (de) 2018-11-19 2020-05-20 Siemens Aktiengesellschaft Überprüfung von klassifizierungsentscheidungen in neuronalen faltungsnetzwerken
DE102018129425A1 (de) * 2018-11-22 2020-05-28 Precitec Gmbh & Co. Kg System zur Erkennung eines Bearbeitungsfehlers für ein Laserbearbeitungssystem zur Bearbeitung eines Werkstücks, Laserbearbeitungssystem zur Bearbeitung eines Werkstücks mittels eines Laserstrahls umfassend dasselbe und Verfahren zur Erkennung eines Bearbeitungsfehlers eines Laserbearbeitungssystems zur Bearbeitung eines Werkstücks

Non-Patent Citations (18)

* Cited by examiner, † Cited by third party
Title
ABADI MAGARWAL ABARHAM PBREVDO ECHEN ZCITRO CCORRADO GDAVIS ADEAN JDEVIN M: "TensorFlow: Large-Scale Machine Learning on Heterogeneous Distributed Systems", ARXIV, 2016, Retrieved from the Internet <URL:https://arxiv.org/pdf/1603.04467.pdf>
ALBER, M. ET AL.: "iNNvestigate neural networks!", J. MACH. LEARN. RES., vol. 20, no. 93, 2019, pages 1 - 8
BACH SBINDER AMONTAVON GKLAUSCHEN FMÜLLER KRSAMEK W: "On Pixel-Wise Explanations for Non-Linear Classifier Decisions by Layer-Wise Relevance Propagation", PLOS ONE, vol. 10, 2015, pages e0130140, XP055228790, DOI: 10.1371/journal.pone.0130140
CHOLLET F, KERAS, 2015, Retrieved from the Internet <URL:https://keras.io>
FU GSUN PZHU WYANG JCAO YYANG MYCAO Y: "A deep-learning-based approach for fast and robust steel surface defects classification", OPT LASER ENG, vol. 121, 2019, pages 397 - 405
J. STAHL ET AL: "Quick roughness evaluation of cut edges using a convolutional neural network", SPIE PROCEEDINGS; [PROCEEDINGS OF SPIE ISSN 0277-786X], SPIE, US, vol. 11172, 16 July 2019 (2019-07-16), pages 111720P - 111720P, XP060124902, ISBN: 978-1-5106-3673-6, DOI: 10.1117/12.2519440 *
KARATAS AKÖLSCH DSCHMIDT SEIER MSEEWIG J, DEVELOPMENT OF A CONVOLUTIONAL AUTOENCODER USING DEEP NEURONAL NETWORKS FOR DEFECT DETECTION AND GENERATING IDEAL REFERENCES FOR CUTTING EDGES; MUNICH, GERMANY, 2019
LECUN YBENGIO YHINTON G: "Deep learning", NATURE, vol. 521, 2015, pages 436 - 444, XP055574086, DOI: 10.1038/nature14539
LEE KBCHEON SKIM CO: "A Convolutional Neural Network for Fault Classification and Diagnosis in Semiconductor Manufacturing Processes", IEEE T SEMICONDUCT M, vol. 30, 2017, pages 135 - 142, XP011647960, DOI: 10.1109/TSM.2017.2676245
LIN HLI BWANG XSHU YNIU S: "Automated defect inspection of LED chip using deep convolutional neural network", J INTELL MANUF, vol. 30, 2019, pages 2525 - 2534, XP036830977, DOI: 10.1007/s10845-018-1415-x
MONTAVON GBINDER ALAPUSCHKIN SSAMEK WMÜLLER KR: "Explainable AI: Interpreting, Explaining and Visualizing Deep Learning", 2019, SPRINGER, article "Layer-Wise Relevance Propagation: An Overview", pages: 193 - 209
MONTAVON GLAPUSCHKIN SBINDER ASAMEK WMÜLLER KR: "Explaining Non-Linear Classification Decisions with Deep Taylor Decomposition", ARXIV, 2015, Retrieved from the Internet <URL:https://arxiv.org/pdf/1512.02479.pdf>
MONTAVON GLAPUSCHKIN SBINDER ASAMEK WMÜLLER KR: "Explaining Non-Linear Classification Decisions with Deep Taylor Decomposition", PATTERN RECOGNITION, vol. 65, 2017, pages 211 - 222
PETRING, D.SCHNEIDER, F.WOLF, N: "International Congress on Applications of Lasers & Electro-Optics. ICALEOR", 2012, LASER INSTITUTE OF AMERICA, article "Some answers to frequently asked questions and open issues of laser beam cutting", pages: 43 - 48
S. BACH ET AL: "On Pixel-Wise Explanations for Non-Linear Classifier Decisions by Layer-Wise Relevance Propagation", PLOS ONE, vol. 10, no. 7, 1 January 2015 (2015-01-01), US, pages e0130140, XP055228790, ISSN: 1932-6203, DOI: 10.1371/journal.pone.0130140 *
STAHL JJAUCH C: "Quick roughness evaluation of cut edges using a convolutional neural network", PROCEEDINGS SPIE 11172, MUNICH, GERMANY, 2019
STEEN, W. M.MAZUMDER, J: "Laser Material Processing", 2010, SPRINGER LONDON
W SAMEKA BINDERG MONTAVONS LAPUSCHKINK MÜLLER: "Evaluating the Visualization of What a Deep Neural Network Has Learned", IEEE T NEUR NET LEAR, vol. 28, 2017, pages 2660 - 2673

Also Published As

Publication number Publication date
EP4221930A1 (de) 2023-08-09
US20220339739A1 (en) 2022-10-27
CN115461186A (zh) 2022-12-09
DE102020212510A1 (de) 2022-04-07
JP2023508308A (ja) 2023-03-02
JP7481450B2 (ja) 2024-05-10

Similar Documents

Publication Publication Date Title
DE102018129425B4 (de) System zur Erkennung eines Bearbeitungsfehlers für ein Laserbearbeitungssystem zur Bearbeitung eines Werkstücks, Laserbearbeitungssystem zur Bearbeitung eines Werkstücks mittels eines Laserstrahls umfassend dasselbe und Verfahren zur Erkennung eines Bearbeitungsfehlers eines Laserbearbeitungssystems zur Bearbeitung eines Werkstücks
DE102018128531A1 (de) System und Verfahren zum Analysieren einer durch eine Punktwolke dargestellten dreidimensionalen Umgebung durch tiefes Lernen
WO2020104103A1 (de) Überwachung eines laserarbeitungsprozesses mithilfe von tiefen faltenden neuronalen netzen
DE102018102688A1 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsprogramm und Bildverarbeitungssystem
DE102019127282A1 (de) System und Verfahren zum Analysieren einer dreidimensionalen Umgebung durch tiefes Lernen
DE4008510A1 (de) Regeleinheit mit optimal-entscheidungsmitteln
EP3767403B1 (de) Machine-learning gestützte form- und oberflächenmessung zur produktionsüberwachung
DE112019000093T5 (de) Diskriminierungsvorrichtung und Maschinenlernverfahren
WO2019166361A1 (de) Verfahren zum aufteilen eines oder mehrerer bilder einer probe in nach farbstoffen aufgeteilte bilddaten, computerprogrammprodukt, computerlesbares medium, auf dem das computerprogrammprodukt gespeichert ist, und system zum aufteilen eines oder mehrerer bilder einer probe in nach farbstoffen aufgeteilte bilddaten
EP4221930A1 (de) Verfahren, computerprogrammprodukt, und vorrichtung mit einem solchen produkt zum aufzeigen des einflusses von schneidparametern auf eine schnittkante
EP2787485A1 (de) Verfahren und Vorrichtung zur automatischen Fehlerstellenerkennung bei biegeschlaffen Körpern
DE102015009728A1 (de) Probabilistische Fehlererkennung in verlegten Faserbändchen
DE102017219244B4 (de) Inspektionsbedingungsbestimmungseinrichtung, inspektionsbedingungsbestimmungsverfahren und inspektionsbedingungsbestimmungsprogramm
EP2358601B1 (de) Verfahren zum ausrichten eines behälters und computerprogramm
DE102016100134A1 (de) Verfahren und Vorrichtung zum Untersuchen eines Objekts unter Verwendung von maschinellem Sehen
EP3923193B1 (de) Messung der empfindlichkeit von bildklassifikatoren gegen veränderungen des eingabebildes
EP3174010A2 (de) Verfahren zur erstellung einer 3d-repräsentation und korrespondierende bildaufnahmevorrichtung
DE10013137B4 (de) Verfahren zur bildgesteuerten Prüfung und Bearbeitung von Produkten
EP1139285B1 (de) Verfahren und Vorrichtung zur Prüfung bzw. Untersuchung von Gegenständen
DE102022103844B3 (de) Verfahren zur Optimierung eines Produktionsprozesses auf Basis visueller Informationen und Vorrichtung zur Durchführung des Verfahrens
EP4085794B1 (de) Verfahren zur vorbereitung und durchführung einer qualitätsprüfung von bürsten, insbesondere von zahnbürsten, prüfvorrichtung und bürstenherstellungsmaschine
WO2021123423A1 (de) Verfahren und vorrichtung zur verarbeitung von daten
WO2023046653A1 (de) Verfahren zum bestimmen, ob ein vorgegebenes transportgut in einem überwachungsbereich angeordnet ist
WO2022237930A1 (de) Bauteilklassifizierungsvorrichtung, verfahren zum klassifizieren von bauteilen und verfahren zum trainieren einer bauteilklassifizierungsvorrichtung
WO2022037899A1 (de) Verfahren und vorrichtung zur additiven herstellung eines werkstücks

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21786859

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022537848

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021786859

Country of ref document: EP

Effective date: 20230502