EP3850545A1 - Method and apparatus for identifying an article - Google Patents

Method and apparatus for identifying an article

Info

Publication number
EP3850545A1
EP3850545A1 EP19773741.4A EP19773741A EP3850545A1 EP 3850545 A1 EP3850545 A1 EP 3850545A1 EP 19773741 A EP19773741 A EP 19773741A EP 3850545 A1 EP3850545 A1 EP 3850545A1
Authority
EP
European Patent Office
Prior art keywords
recording
data
features
extraction algorithm
algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP19773741.4A
Other languages
German (de)
French (fr)
Inventor
Manuel Kiefer
Willi Pönitz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Trumpf Werkzeugmaschinen SE and Co KG
Original Assignee
Trumpf Werkzeugmaschinen SE and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Trumpf Werkzeugmaschinen SE and Co KG filed Critical Trumpf Werkzeugmaschinen SE and Co KG
Publication of EP3850545A1 publication Critical patent/EP3850545A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • G06F18/41Interactive pattern learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30136Metal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Definitions

  • the invention relates to a method and a device for identifying an object.
  • the invention further relates to the use of such a method or the use of such a device in industrial production.
  • an object in particular a manufactured sheet metal part
  • Disposing of the item is a waste of resources and also carries the risk that the item will be missing from a particular job.
  • the completely manual identification of the object is complex and can often only successfully carried out by experienced employees who are not always present or who have to be released from other tasks in order to identify the object.
  • a fully automated identification of an object often fails due to inadequate recordings of the object or inadequate identification programs.
  • the invention thus relates to a method for identifying an object.
  • the object can be embodied in the form of an essentially two-dimensional object, for example in the form of a flat sheet metal part, or in the form of a three-dimensional object, for example in the form of a sheet metal part with deformations.
  • Identification is done by assigning a recording of the object to the stored object data.
  • This object data can be stored in the form of CAD data.
  • the process has the following process steps:
  • the invention it is therefore provided to output at least one item of information relating to the assignment of the object to be identified to stored object data.
  • the information is preferably given in the form of probability information, so that it can be seen with what probability the object corresponds to the stored object data.
  • the output can e.g. on a screen, data glasses, or as data transfer.
  • a plurality of assignment information items can be output with an indication of the probability.
  • features are extracted from the image as well as from the stored object data. This enables a particularly reliable assignment of the recording to the stored object data and thus a particularly high probability of identifying the object.
  • the method preferably has the following method step:
  • the method then provides for an evaluation of a user with regard to this assignment information.
  • the evaluation by the user can take place, for example, by data transmission or by an input device, for example a button, touch screen, voice recording, speech recognition or similar input devices. If, for example, the user is shown two or more identification matches, sorted by probability, the user can select the one that they really agree with. He has given a user rating. This can make it possible to improve future allocation information.
  • a recording extraction algorithm can insert data of the recording, process it depending on predefined recording parameters and output recording characteristics in the form of the processed data.
  • the predefined recording parameters can have so-called weighted variables. Their function and determination is explained below.
  • the method can further preferably have the following method step:
  • the parameters can have so-called weighted variables. Their determination and function is explained below.
  • the method step is preferably carried out as follows:
  • G storing the user rating of the assignment information in a user rating result memory.
  • Saving the user rating enables many user ratings to be collected, as a result of which the exposure extraction algorithm, the object extraction algorithm and / or the comparison algorithm can be significantly improved.
  • the user evaluation result memory can be cloud-based.
  • Cloud-based means a storage device, in particular a locally remote, preferably anonymized, storage device in which user ratings of more than one, advantageously several, or several thousand different users are stored.
  • different users can contribute to the optimization of the process regardless of the manufacturing location. It was recognized that the described method was a resounding success, that is to say assignment information with the correct assignment to the Most likely to get it only after tens of thousands, especially hundreds of thousands of user reviews have been read out. Such an amount of data is often not available for a single manufacturing facility in a year. Accordingly, the procedure would probably have remained uninteresting.
  • the recording can be made or recorded in the wavelength range visible to the human eye.
  • the recording can be made in the wavelength range that is not visible to the human eye, for example in the IR range, in the UV range and / or in the ultrasound range.
  • method step A several images of the object can be recorded with the image capturing device.
  • the recording features can be extracted from several recordings.
  • assignment information can be output from several recordings of the stored objects. It has been shown that the creation and processing of a plurality of recordings considerably improves the quality of the assignment information for a user, since in particular the influence of artifacts caused by the recording position is reduced.
  • the image extraction algorithm, the object extraction algorithm and / or the comparison algorithm preferably have an algorithm with a plurality of data aggregation routines.
  • a data aggregation routine can be designed to aggregate several “determined data” into a new data packet.
  • the new data packet can have one or more numbers or vectors.
  • the new data packet can be made available in whole or in part to other data aggregation routines as "determined data”.
  • "Determined data" can be, for example, recording data, object data, or data packets made available by one of the data aggregation routines.
  • the recording / extraction algorithm, the object extraction algorithm and / or the is / are particularly preferred Comparison algorithm in the form of an algorithm with several connected data aggregation routines.
  • the acquisition extraction algorithm, the object extraction algorithm and / or the comparison algorithm can have a function with weighted variables.
  • One, in particular several, particularly preferably all data aggregation routines can be designed to combine, in particular multiply, a plurality of "determined data” with a weighted variable, and thus to convert the "determined data” into combined data "then the combined data 'aggregate to a new data packet, in particular to add.
  • the change in the weighting, in particular the change in the weighted variables is particularly preferably carried out on the basis of the user rating.
  • the exposure extraction algorithm, the object extraction algorithm and / or the comparison algorithm can be run through with data, in particular exposure data and / or object data, the relationship of which is known in each case.
  • the weighted variables can be determined, preferably in a first phase, separately for the exposure extraction algorithm, the object extraction algorithm and the comparison algorithm.
  • the recording features and object features can in this case themselves be data packets, in particular a plurality of structured data, in particular data vectors or data arrays, which in turn themselves contain "determined data” e.g. for the comparison algorithm, in particular for the data aggregation routines of the comparison algorithm.
  • the precise structure of these recording features and object features can change, in particular improve, preferably optimize, through the mechanical evaluation of the user rating.
  • weighted variables By changing, in particular improving, preferably op- timed, weighted variables are managed cloud-based, other users can use them in their algorithms and benefit from the method.
  • the algorithms mentioned or a further secondary or higher-level algorithm can be designed to monitor and recognize when one or all of the algorithms, with a predetermined cluster, output association information that the user assesses as bad, and then output a negative message.
  • the output can be visual, for example on a screen or in another suitable form, for example as data output.
  • the monitoring algorithm can also be designed to respond to the output of such a negative message with an improvement routine that changes further properties or the interaction of one or more of the algorithms mentioned.
  • the object features are in the form of construction data, material data, surface texture data and / or thermal conductivity data.
  • the comparison algorithm can include forming a dot product and / or forming a difference between the recording features and the object features. The aforementioned measures have proven to be particularly effective in assigning the recording characteristics to the object characteristics.
  • the output of the assignment information of the recording further preferably comprises the output of several assignment probabilities to different stored objects.
  • a user can choose from various assignment options.
  • the identification of the object can thus be carried out with a very high probability of success.
  • the object according to the invention is further achieved by a device for identifying an object by assigning the object to stored object data, the device having the following:
  • an image capture device for taking a picture of the object
  • the recording extraction algorithm, the object extraction algorithm and / or the comparison algorithm is designed to be optimizable on the basis of the user rating
  • the device according to the invention is preferably designed to carry out a method described here.
  • the image capture device can be in the form of a camera, in particular for visible light.
  • the device can also have the following:
  • the device can have the following: g) A user rating result storage for storing the user rating of the association information.
  • the user evaluation result memory can be cloud-based.
  • the recording extraction algorithm, the object extraction algorithm and / or the comparison algorithm can be designed in the form of an algorithm with a plurality of connected data aggregation routines.
  • the method and / or the device can be used particularly advantageously in industrial production with a computer-based production control for processing reflective objects, in particular sheet metal parts.
  • reflective objects are meant objects with a smooth surface that reflect the light in such a way that when taking the picture, in addition to the contours, undesired light reflections of other objects can also occur.
  • Such reflective objects are metals, glass, plastics with a smooth surface, coated materials, such as coated plates made of plastic, wood, metal, glass, etc. It is particularly advantageous if the production control is at least partially cloud-based. Then parameters, in particular the weighted variables, for changing, in particular improving, in particular optimizing, the algorithms from a first production site can also be used in other production sites and vice versa. This means that a much larger database is available and the identification for each individual manufacturing company can be significantly improved. Further advantages of the invention result from the description and the drawing. Likewise, according to the invention, the features mentioned above and those which have been elaborated further can be used individually or in combination in any combination. The embodiment shown and described is not to be understood as conclusive, but rather has an exemplary character for the description of the invention.
  • FIG. 1 shows a schematic representation of an embodiment of the method according to the invention or the device according to the invention.
  • FIG. 1 shows a device 10 for identifying an object found without being assigned.
  • the object can be in the form of a sheet metal part.
  • Item data 12 are stored for the item.
  • At least one image 14 is created.
  • the object data 12 are preferably stored in the form of CAD data, in particular in an object database 16 in the form of a CAD database.
  • the image 14 is created with an image capture device 18.
  • the image capturing device 18 can be designed in the form of a camera.
  • the receptacle 14 shown in FIG. 1 indicates that the assignment of such a receptacle 14 can be very difficult. This is particularly the case if - as shown - the receptacle 14 only shows a part of the object, the receptacle 14 is made against an uneasy background and / or the surface properties of the object make the receptacle 14 difficult to create.
  • a recording extraction algorithm 20 is applied to the recording 14 in order to extract recording features 22. This is indicated schematically in FIG. 1 on the basis of the area framed in dash-dotted lines in the receptacle 14.
  • the recording extraction algorithm 20 is in a recording Extraction unit 24 deposited.
  • the recording extraction algorithm 20 can have data aggregation routines which are connected to one another, in particular weighted to one another.
  • An item extraction algorithm 26 is applied to the item data 12 to extract item features 28. This is indicated schematically in FIG. 1 on the basis of the area framed in dot-dash lines in the item data 12.
  • the object extraction algorithm 26 is stored in an object extraction unit 30.
  • the object extraction algorithm 26 can have interconnected, in particular mutually weighted, data aggregation routines.
  • the recording features 22 and the item features 28 are fed to a comparison algorithm 32.
  • the comparison algorithm 32 is stored in a comparison unit 34.
  • the comparison algorithm 32 can have interconnected, in particular mutually weighted, data aggregation routines.
  • the comparison algorithm 32 is preferably designed to form a scalar product or a difference between the recording features 22 and the object features 28.
  • Assignment information 36 is output as a result of the comparison algorithm 32.
  • the assignment information is output in an output unit 38.
  • a plurality of item data here three; not shown in FIG. 1 with a reference symbol
  • the assignment probability in each case (here 60%, 35% and 5%). for the respective item data. This considerably simplifies the assignment of the found object to object data for a user.
  • the device 10 has an input unit 40.
  • the input unit 40 is designed to read out a user rating 42.
  • the user rating 42 is then used to Extraction algorithm 20 to optimize the object extraction algorithm 26 and / or the comparison algorithm 32 or its parameters.
  • the user rating 42 can be stored in a user rating result memory 44, so that the method or the device 10 can be optimized with a large number of user ratings 42. It is particularly preferred that the user evaluation result memory 44 is cloud-based. In this way, user evaluations 42 can be incorporated into the optimization of the method or device 10 across devices.
  • the invention relates to a method and a device 10 for recognizing an object.
  • At least one picture 14, in particular in the form of a photograph, is made of the object.
  • 20 recording features 22 are determined by means of a recording extraction algorithm 20.
  • object features 28 are determined and compared with the recording features 22 in order to output assignment information 36.
  • it is provided in particular to provide a user rating 42 both for improving the exposure extraction algorithm 20 and for the object extraction algorithm 26.
  • it is provided according to the invention in particular to design both the exposure extraction algorithm 20 and the object extraction algorithm 26 based on interconnected, preferably weighted, data aggregation routines.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

The invention relates to a method and an apparatus (10) for recognizing an article. This involves at least one shot (14), in particular in the form of a photograph, of the article being produced. The shot (14) is used to ascertain shot features (22) by means of a shot extraction algorithm (20). Stored article data (12) are used to ascertain article features (28) and to compare them with the shot features (22) in order to output association information (36). There is in particular provision according to the invention for a user rating (42) to be provided to improve both the shot extraction algorithm (20) and the article extraction algorithm (26). Alternatively or additionally, there is in particular provision according to the invention for both the shot extraction algorithm (20) and the article extraction algorithm (26) to be produced on the basis of interconnected, preferably weighted, data aggregation routines.

Description

Verfahren und Vorrichtung zur Identifikation eines Gegenstands  Method and device for identifying an object
Hintergrund der Erfindung Background of the Invention
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Identifikation eines Gegenstands. Die Erfindung betrifft weiterhin die Verwendung eines solchen Ver- fahrens bzw. die Verwendung einer solchen Vorrichtung in einer Industriefertigung.  The invention relates to a method and a device for identifying an object. The invention further relates to the use of such a method or the use of such a device in industrial production.
Bei der Fertigung von Gegenständen, insbesondere bei der Fertigung von Blechteilen, wird oftmals ein Gegenstand, insbesondere ein gefertigtes Blechteil, auf- gefunden, das keinem bestimmten Auftrag zuordenbar ist. Das Entsorgen des Gegenstands stellt eine Ressourcenverschwendung dar und birgt darüber hinaus die Gefahr, dass der Gegenstand bei einem bestimmten Auftrag fehlt. Die vollständig manuelle Identifikation des Gegenstands ist jedoch aufwändig und kann oftmals nur von erfahrenen Mitarbeitern erfolgreich vorgenommen werden, die nicht immer präsent sind oder zur Identifikation des Gegenstands von anderen Aufgaben entbunden werden müssen. Eine vollständig maschinelle Identifikation eines Gegenstands scheitert demgegenüber oftmals an unzureichenden Aufnah- men des Gegenstands oder unzureichenden Identifikationsprogrammen. In the production of objects, in particular in the production of sheet metal parts, an object, in particular a manufactured sheet metal part, is often found that cannot be assigned to a specific order. Disposing of the item is a waste of resources and also carries the risk that the item will be missing from a particular job. However, the completely manual identification of the object is complex and can often only successfully carried out by experienced employees who are not always present or who have to be released from other tasks in order to identify the object. A fully automated identification of an object, on the other hand, often fails due to inadequate recordings of the object or inadequate identification programs.
Aufgabe der Erfindung Object of the invention
Es ist daher Aufgabe der Erfindung, ein Verfahren bzw. eine Vorrichtung bereit zu stellen, die eine effektive Zuordnung eines zufällig aufgefundenen Gegenstands ermöglicht. Weiterhin ist es Aufgabe der Erfindung, eine entsprechende Verwendung des Verfahrens bzw. der Vorrichtung bereitzustellen.  It is therefore an object of the invention to provide a method or a device which enables an effective assignment of an object found by chance. Furthermore, it is an object of the invention to provide a corresponding use of the method or the device.
Beschreibung der Erfindung Description of the invention
Diese Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren gemäß Pa- tentanspruch 1, eine Vorrichtung gemäß Patentanspruch 12 bzw. eine Verwendung gemäß Patentanspruch 16. Die Unteransprüche stellen bevorzugte Weiterbildungen dar.  This object is achieved according to the invention by a method according to patent claim 1, a device according to patent claim 12 or a use according to patent claim 16. The subclaims represent preferred developments.
Die Erfindung betrifft somit ein Verfahren zur Identifikation eines Gegenstands. Der Gegenstand kann in Form eines im Wesentlichen zweidimensionalen Gegenstands, beispielsweise in Form eines ebenen Blechteils, oder in Form eines dreidimensionalen Gegenstands, beispielsweise in Form eines Blechteils mit Umformungen, ausgebildet sein. Die Identifikation erfolgt durch Zuordnung einer Aufnahme des Gegenstands zu hinterlegten Gegenstandsdaten. Diese Gegenstands- daten können in Form von CAD- Daten hinterlegt sein. Das Verfahren weist dabei folgende Verfahrensschritte auf: The invention thus relates to a method for identifying an object. The object can be embodied in the form of an essentially two-dimensional object, for example in the form of a flat sheet metal part, or in the form of a three-dimensional object, for example in the form of a sheet metal part with deformations. Identification is done by assigning a recording of the object to the stored object data. This object data can be stored in the form of CAD data. The process has the following process steps:
A) Erstellen der Aufnahme bzw. Aufnehmen des Gegenstands mit einer Bilder fassungsvorrichtung, wobei die Bilderfassungsvorrichtung in Form einer Kamera ausgebildet sein kann;  A) creating the recording or recording of the object with an image capture device, wherein the image capture device can be designed in the form of a camera;
B) Ableiten von Aufnahme-Merkmalen aus der Aufnahme anhand eines Aufnahme-Extraktionsalgorithmus; B) deriving recording features from the recording using a recording extraction algorithm;
C) Ableiten von Gegenstands-Merkmalen aus den hinterlegten Gegenstandsdaten anhand eines Gegenstands-Extraktionsalgorithmus; D) Vergleichen der Aufnahme-Merkmale mit den Gegenstands-Merkmalen anhand eines Vergleichsalgorithmus; und C) deriving object features from the stored object data using an object extraction algorithm; D) comparing the recording features with the object features using a comparison algorithm; and
E) Ausgeben einer Zuordnungsinformation der Aufnahme zu den hinterlegten Gegenstandsdaten.  E) Outputting assignment information of the recording to the stored object data.
Erfindungsgemäß ist es somit vorgesehen, zumindest eine Information bezüglich der Zuordnung des zu identifizierenden Gegenstands zu hinterlegten Gegenstandsdaten auszugeben. Vorzugsweise wird die Information in Form einer Wahrscheinlichkeitsinformation angegeben, sodass ersichtlich ist, mit welcher Wahr- scheinlichkeit der Gegenstand mit den hinterlegten Gegenstandsdaten übereinstimmt. Die Ausgabe kann z.B. auf einem Bildschirm, einer Datenbrille, oder als Datenübergabe erfolgen. Vorteilhafterweise können mehrere Zuordnungsinformationen mit Angabe der Wahrscheinlichkeit ausgegeben. Es werden erfindungsgemäß sowohl Merkmale aus der Aufnahme als auch aus den hinterlegten Gegenstandsdaten extrahiert. Dies ermöglicht eine besonders zuverlässige Zuordnung der Aufnahme zu den hinterlegten Gegenstandsdaten und somit eine besonders hohe Wahrscheinlichkeit der Identifikation des Gegenstands. According to the invention, it is therefore provided to output at least one item of information relating to the assignment of the object to be identified to stored object data. The information is preferably given in the form of probability information, so that it can be seen with what probability the object corresponds to the stored object data. The output can e.g. on a screen, data glasses, or as data transfer. Advantageously, a plurality of assignment information items can be output with an indication of the probability. According to the invention, features are extracted from the image as well as from the stored object data. This enables a particularly reliable assignment of the recording to the stored object data and thus a particularly high probability of identifying the object.
Bevorzugt weist das Verfahren folgenden Verfahrensschritt auf: The method preferably has the following method step:
F) Auslesen einer Nutzerbewertung der Zuordnungsinformation.  F) Reading out a user rating of the assignment information.
Dann sieht das Verfahren vor, eine Bewertung eines Nutzers bezüglich dieser Zuordnungsinformation auszuiesen. Die Bewertung durch den Nutzer kann z.B. durch Datenübermittlung oder durch eine Eingabevorrichtung, z.B. Taster, Touchscreen, Stimmenaufnahme, Spracherkennung oder ähnliche Eingabevorrichtungen erfolgen. Wenn dem Nutzer zum Beispiel zwei oder mehr Identifikati- onstreffer angezeigt werden, sortiert nach der Wahrscheinlichkeit, so kann der Nutzer diejenige auswählen, die seiner Meinung nach wirklich übereinstimmt. Damit hat er eine Nutzerbewertung abgegeben. Dies kann die Verbesserung zukünftig ausgegebener Zuordnungsinformationen ermöglichen. Ein Aufnahme-Extraktionsalgorithmus kann dabei Daten der Aufnahme einiesen, diese in Abhängigkeit von vorgegebenen Aufnahme-Parametern bearbeiten und Aufnahme-Merkmale in Form von den bearbeiteten Daten ausgeben. Die vorgegebenen Aufnahme-Parameter können sogenannte gewichtete Variablen aufwei- sen. Deren Funktion und Ermittlung wird weiter unten erläutert. The method then provides for an evaluation of a user with regard to this assignment information. The evaluation by the user can take place, for example, by data transmission or by an input device, for example a button, touch screen, voice recording, speech recognition or similar input devices. If, for example, the user is shown two or more identification matches, sorted by probability, the user can select the one that they really agree with. He has given a user rating. This can make it possible to improve future allocation information. A recording extraction algorithm can insert data of the recording, process it depending on predefined recording parameters and output recording characteristics in the form of the processed data. The predefined recording parameters can have so-called weighted variables. Their function and determination is explained below.
Das Verfahren kann weiter bevorzugt folgenden Verfahrensschritt aufweisen :The method can further preferably have the following method step:
H) Verändern, insbesondere Verbessern, insbesondere Optimieren, von Parametern des Aufnahme-Extraktionsalgorithmus, des Gegenstands- Extraktionsalgorithmus und/oder des Vergleichsalgorithmus anhand derH) changing, in particular improving, in particular optimizing, parameters of the exposure extraction algorithm, the object extraction algorithm and / or the comparison algorithm on the basis of the
Nutzerbewertung. User rating.
Die Parameter können sogenannte gewichtete Variablen aufweisen. Deren Ermittlung und Funktion wird weiter unten erläutert. The parameters can have so-called weighted variables. Their determination and function is explained below.
Vor, während und/oder nach dem Verfahrensschritt H) wird vorzugsweise folgen der Verfahrensschritt durchgeführt: Before, during and / or after method step H), the method step is preferably carried out as follows:
G) Speichern der Nutzerbewertung der Zuordnungsinformation in einem Nut- zerbewertungs-Ergebnisspeicher.  G) storing the user rating of the assignment information in a user rating result memory.
Das Speichern der Nutzerbewertung ermöglicht ein Sammeln vieler Nutzerbewertungen, wodurch der Aufnahme-Extraktionsalgorithmus, der Gegenstands- Extraktionsalgorithmus und/oder der Vergleichsalgorithmus signifikant verbesserbar ist/sind. Saving the user rating enables many user ratings to be collected, as a result of which the exposure extraction algorithm, the object extraction algorithm and / or the comparison algorithm can be significantly improved.
Der Nutzerbewertungs-Ergebnisspeicher kann Cloud-basierend ausgebildet sein. Mit Cloud-basierend ist hier eine, insbesondere örtlich entfernte, vorzugsweise anonymisierte, Speichervorrichtung gemeint, in der Nutzerbwertungen von mehr als einer, vorteilhafterweise von mehreren hundert oder mehreren tausend un- terschiedlichen Nutzern gespeichert werden. Hierdurch können verschiedene Nutzer unabhängig vom Fertigungsstandort zur Optimierung des Verfahrens beitragen. Es wurde erkannt, dass die beschriebenen Verfahren durchschlagende Erfolge, also Zuordnungsinformationen mit der richtigen Zuordnung mit der höchsten Wahrscheinlichkeit erst bekommen, wenn mehrere zehntausend, insbesondere mehrere hunderttausend Nutzerbewertungen ausgelesen wurden. Eine solche Datenmenge ist für eine einzelne Fertigungsstätte oftmals in einem Jahr nicht erreichbar. Demnach wäre das Verfahren vermutlich uninteressant geblie- ben. The user evaluation result memory can be cloud-based. Cloud-based here means a storage device, in particular a locally remote, preferably anonymized, storage device in which user ratings of more than one, advantageously several, or several thousand different users are stored. As a result, different users can contribute to the optimization of the process regardless of the manufacturing location. It was recognized that the described method was a resounding success, that is to say assignment information with the correct assignment to the Most likely to get it only after tens of thousands, especially hundreds of thousands of user reviews have been read out. Such an amount of data is often not available for a single manufacturing facility in a year. Accordingly, the procedure would probably have remained uninteresting.
Das Erstellen bzw. Aufnehmen der Aufnahme kann im für das menschliche Auge sichtbaren Wellenlängenbereich erfolgen. Alternativ oder zusätzlich dazu kann das Erstellen der Aufnahme im für das menschliche Auge nicht sichtbaren Wel- lenlängenbereich, beispielsweise im IR-Bereich, im UV-Bereich und/oder im Ultraschall-Bereich, erfolgen. The recording can be made or recorded in the wavelength range visible to the human eye. Alternatively or additionally, the recording can be made in the wavelength range that is not visible to the human eye, for example in the IR range, in the UV range and / or in the ultrasound range.
Im Verfahrensschritt A) können mehrere Aufnahmen des Gegenstands mit der Bilderfassungsvorrichtung aufgenommen werden. Im Verfahrensschritt B) kön- nen die Aufnahme-Merkmale aus mehreren Aufnahmen extrahiert werden. Im Verfahrensschritt E) kann eine Zuordnungsinformation aus mehreren Aufnahmen zu den hinterlegten Gegenständen ausgegeben werden. Es hat sich dabei gezeigt, dass das Erstellen und Verarbeiten mehrerer Aufnahmen die Qualität der Zuordnungsinformation für einen Nutzer erheblich verbessert, da insbesondere der Einfluss von durch die Aufnahmeposition hervorgerufene Artefakte vermindert wird. In method step A), several images of the object can be recorded with the image capturing device. In method step B), the recording features can be extracted from several recordings. In method step E), assignment information can be output from several recordings of the stored objects. It has been shown that the creation and processing of a plurality of recordings considerably improves the quality of the assignment information for a user, since in particular the influence of artifacts caused by the recording position is reduced.
Vorzugsweise weist/weisen der Aufnahme-Extraktionsalgorithmus, der Gegenstands-Extraktionsalgorithmus und/oder der Vergleichsalgorithmus einen Algo- rithmus mit mehreren Daten-Aggregations-Routinen auf. Eine Daten- Aggregations-Routine kann ausgelegt sein, mehrere , ermittelte Daten' zu einem neuen Datenpaket zu aggregieren. Das neue Datenpaket kann eine oder mehrere Zahlen oder Vektoren aufweisen. Das neue Datenpaket kann vollständig oder teilweise weiteren Daten-Aggregations-Routinen als„ermittelte Daten" zur Verfü- gung gestellt werden. , Ermittelte Daten' können z.B Aufnahmedaten, Gegenstandsdaten, oder von einer der Daten-Aggregations-Routinen zur Verfügung gestellte Datenpakete sein. Besonders bevorzugt ist/sind der Aufnahme- Extraktionsalgorithmus, der Gegenstands-Extraktionsalgorithmus und/oder der Vergleichsalgorithmus in Form eines Algorithmus mit mehreren verbundenen Da- ten-Aggregations-Routinen ausgebildet. Insbesondere können mehrere hundert, insbesondere mehrere tausend solcher Daten-Aggregations-Routinen miteinander verbunden werden. Die Qualität und Geschwindigkeit des Algorithmus/der Algo- rithmen wird/werden hierdurch deutlich verbessert. Der Aufnahme- Extraktionsalgorithmus, der Gegenstands-Extraktionsalgorithmus und/oder der Vergleichsalgorithmus kann/können eine Funktion mit gewichteten Variablen aufweisen. Eine, insbesondere mehrere, besonders bevorzugt alle Daten- Aggregations-Routinen können ausgelegt sein, mehrere , ermittelte Daten' jeweils mit einer gewichteten Variablen zu kombinieren, insbesondere zu multiplizieren, und so die , ermittelten Daten' zu kombinierten Daten' umzuwandeln dann die kombinierten Daten' zu einem neuen Datenpaket aggregieren, insbesondere zu addieren. Besonders bevorzugt erfolgt die Veränderung der Gewichtung, insbesondere die Veränderung der gewichteten Variablen, anhand der Nutzerbewer- tung. Zur Ermittlung geeigneter gewichteter Variablen kann der Aufnahme- Extraktionsalgorithmus, der Gegenstands-Extraktionsalgorithmus und/oder der Vergleichsalgorithmus durchlaufen werden mit Daten, insbesondere Aufnahme- daten und/oder Gegenstandsdaten, deren Zusammengehörigkeit jeweils bekannt ist. Die Bestimmung der gewichteten Variablen kann dabei, vorzugsweise in einer ersten Phase, getrennt für den Aufnahme-Extraktionsalgorithmus, den Gegenstands-Extraktionsalgorithmus und den Vergleichsalgorithmus erfolgen. The image extraction algorithm, the object extraction algorithm and / or the comparison algorithm preferably have an algorithm with a plurality of data aggregation routines. A data aggregation routine can be designed to aggregate several “determined data” into a new data packet. The new data packet can have one or more numbers or vectors. The new data packet can be made available in whole or in part to other data aggregation routines as "determined data". "Determined data" can be, for example, recording data, object data, or data packets made available by one of the data aggregation routines. The recording / extraction algorithm, the object extraction algorithm and / or the is / are particularly preferred Comparison algorithm in the form of an algorithm with several connected data aggregation routines. In particular, several hundred, in particular several thousand, of such data aggregation routines can be connected to one another. This significantly improves the quality and speed of the algorithm / algorithms. The acquisition extraction algorithm, the object extraction algorithm and / or the comparison algorithm can have a function with weighted variables. One, in particular several, particularly preferably all data aggregation routines can be designed to combine, in particular multiply, a plurality of "determined data" with a weighted variable, and thus to convert the "determined data" into combined data "then the combined data 'aggregate to a new data packet, in particular to add. The change in the weighting, in particular the change in the weighted variables, is particularly preferably carried out on the basis of the user rating. In order to determine suitable weighted variables, the exposure extraction algorithm, the object extraction algorithm and / or the comparison algorithm can be run through with data, in particular exposure data and / or object data, the relationship of which is known in each case. The weighted variables can be determined, preferably in a first phase, separately for the exposure extraction algorithm, the object extraction algorithm and the comparison algorithm.
Die Aufnahme-Merkmale und Gegenstands-Merkmale können hierbei selbst Datenpakete, insbesondere mehrere strukturierte Daten, insbesondere Datenvekto- ren oder Daten-Arrays, sein, die selbst wieder , ermittelte Daten' z.B. für den Vergleichsalgorithmus, insbesondere für die Daten-Aggregations-Routinen des Vergleichsalgorithmus, darstellen können. Die genaue Struktur dieser Aufnahme- Merkmale und Gegenstands-Merkmale kann sich durch die maschinelle Auswertung der Nutzerbewertung verändern, insbesondere verbessern, vorzugsweise optimieren. The recording features and object features can in this case themselves be data packets, in particular a plurality of structured data, in particular data vectors or data arrays, which in turn themselves contain "determined data" e.g. for the comparison algorithm, in particular for the data aggregation routines of the comparison algorithm. The precise structure of these recording features and object features can change, in particular improve, preferably optimize, through the mechanical evaluation of the user rating.
Indem die durch die Nutzerbewertung eines ersten Nutzers oder einer ersten Gruppe von Nutzern veränderten, insbesondere verbesserten, vorzugsweise op- timierten, gewichteten Variablen cloudbasiert verwaltet werden, können auch weitere Nutzer diese in ihren Algorithmen verwenden und von dem Verfahren profitieren. Die genannten Algorithmen oder ein weiterer neben- oder übergeordneter Algorithmus kann ausgebildet sein, zu überwachen und zu erkennen, wann einer oder alle der Algorithmen mit einer vorgegebenen Häufung Zuordnungsinformationen ausgibt, die vom Nutzer als schlecht bewertet werden, und daraufhin eine Negativmeldung ausgeben. Die Ausgabe kann visuell, z.B. auf einem Bildschirm oder in anderer geeigneter Form, z.B. als Datenausgabe, erfolgen. Der überwachende Algorithmus kann ferner ausgebildet sein, auf die Ausgabe einer solchen Negativmeldung mit einer Verbesserungsroutine zu reagieren, die weitere Eigenschaften oder das Zusammenspiel einer oder mehrerer der genannten Algorithmen verändert. By changing, in particular improving, preferably op- timed, weighted variables are managed cloud-based, other users can use them in their algorithms and benefit from the method. The algorithms mentioned or a further secondary or higher-level algorithm can be designed to monitor and recognize when one or all of the algorithms, with a predetermined cluster, output association information that the user assesses as bad, and then output a negative message. The output can be visual, for example on a screen or in another suitable form, for example as data output. The monitoring algorithm can also be designed to respond to the output of such a negative message with an improvement routine that changes further properties or the interaction of one or more of the algorithms mentioned.
In weiter bevorzugter Ausgestaltung des Verfahrens liegen die Gegenstands- Merkmale in Form von Konstruktionsdaten, Materialdaten, Oberflächenbeschaffenheitsdaten und/oder Wärmeleitfähigkeitsdaten vor. Der Vergleichsalgorithmus kann das Bilden eines Skalarprodukts und/oder das Bilden einer Differenz zwischen den Aufnahme-Merkmalen und den Gegenstands- Merkmalen umfassen. Die vorgenannten Maßnahmen haben sich als besonders effektiv bei der Zuordnung der Aufnahme-Merkmale zu den Gegenstands- Merkmalen erwiesen. In a further preferred embodiment of the method, the object features are in the form of construction data, material data, surface texture data and / or thermal conductivity data. The comparison algorithm can include forming a dot product and / or forming a difference between the recording features and the object features. The aforementioned measures have proven to be particularly effective in assigning the recording characteristics to the object characteristics.
Weiter bevorzugt umfasst das Ausgeben der Zuordnungsinformation der Aufnahme das Ausgeben mehrerer Zuordnungswahrscheinlichkeiten zu verschiedenen hinterlegten Gegenständen. Ein Nutzer kann dadurch aus verschiedenen Zuordnungsmöglichkeiten wählen. Die Identifikation des Gegenstands ist dadurch mit sehr hoher Erfolgswahrscheinlichkeit durchführbar. Die erfindungsgemäße Aufgabe wird weiterhin gelöst durch eine Vorrichtung zur Identifikation eines Gegenstands durch Zuordnung des Gegenstands zu hinterlegten Gegenstandsdaten, wobei die Vorrichtung Folgendes aufweist: The output of the assignment information of the recording further preferably comprises the output of several assignment probabilities to different stored objects. A user can choose from various assignment options. The identification of the object can thus be carried out with a very high probability of success. The object according to the invention is further achieved by a device for identifying an object by assigning the object to stored object data, the device having the following:
a) Eine Bilderfassungsvorrichtung zum Erstellen einer Aufnahme des Gegenstands; a) an image capture device for taking a picture of the object;
b) Eine Aufnahme-Extraktionseinheit mit einem Aufnahme- Extraktionsalgorithmus zum Extrahieren von Aufnahme-Merkmalen aus der Aufnahme; b) a recording extraction unit with a recording extraction algorithm for extracting recording features from the recording;
c) eine Gegenstands-Extraktionseinheit mit einem Gegenstands- Extraktionsalgorithmus zum Extrahieren von Gegenstands-Merkmalen aus den hinterlegten Gegenstandsdaten ; c) an object extraction unit with an object extraction algorithm for extracting object features from the stored object data;
d) eine Vergleichseinheit mit einem Vergleichsalgorithmus zum Vergleichen der Aufnahme-Merkmale mit den Gegenstands-Merkmalen; d) a comparison unit with a comparison algorithm for comparing the recording features with the object features;
wobei der Aufnahme-Extraktionsalgorithmus, der Gegenstands- Extraktionsalgorithmus und/oder der Vergleichsalgorithmus anhand der Nutzerbewertung optimierbar ausgebildet ist; und wherein the recording extraction algorithm, the object extraction algorithm and / or the comparison algorithm is designed to be optimizable on the basis of the user rating; and
e) eine Ausgabeeinheit zur Ausgabe einer Zuordnungsinformation der mit der Bilderfassungsvorrichtung erstellten Aufnahme zu den hinterlegten Gegenstandsdaten. e) an output unit for outputting assignment information of the image created with the image capture device to the stored object data.
Die erfindungsgemäße Vorrichtung ist vorzugsweise zum Durchführen eines hier beschriebenen Verfahrens ausgebildet. The device according to the invention is preferably designed to carry out a method described here.
Die Bilderfassungsvorrichtung kann in Form einer Kamera, insbesondere für sichtbares Licht, ausgebildet sein. The image capture device can be in the form of a camera, in particular for visible light.
Die Vorrichtung kann weiterhin Folgendes aufweisen : The device can also have the following:
f) eine Eingabeeinheit zum Auslesen einer Nutzerbewertung bezüglich der Zuordnungsinformation. f) an input unit for reading out a user rating with regard to the assignment information.
Weiterhin kann die Vorrichtung Folgendes aufweisen : g) Einen Nutzerbewertungs-Ergebnisspeicher zum Speichern der Nutzerbewertung der Zuordnungsinformation. Der Nutzerbewertungs-Ergebnisspeicher kann Cloud-basiert ausgebildet sein. Der Aufnahme-Extraktionsalgorithmus, der Gegenstands-Extra ktionsalgorithmus und/oder der Vergleichsalgorithmus kann/können in Form eines Algorithmus mit mehreren verbundenen Daten-Aggregations-Routinen ausgebildet sein. Furthermore, the device can have the following: g) A user rating result storage for storing the user rating of the association information. The user evaluation result memory can be cloud-based. The recording extraction algorithm, the object extraction algorithm and / or the comparison algorithm can be designed in the form of an algorithm with a plurality of connected data aggregation routines.
Besonders vorteilhaft kann/können das Verfahren und/oder die Vorrichtung in einer Industriefertigung mit einer computerbasierten Fertigungssteuerung zur Bearbeitung von reflektierenden Gegenständen, insbesondere Blechteilen, Verwendung finden. Die Aufnahmen mit einer Bilderfassungsvorrichtung von Blechteilen sind in der Vergangenheit häufig für eine Identifikation nicht von ausreichender Qualität gewesen, weil sich Konturen nur sehr schwer vom Hintergrund unterscheiden lassen und Lichtreflektionen falsche Konturen Vortäuschen. Des wegen führten Verfahren und Vorrichtungen, die Aufnahmedaten mit Gegen standsdaten ohne die beschriebenen Algorithmen verglichen, bislang zu keinem Erfolg in der Industriefertigung. Mit reflektierenden Gegenständen sind Gegenstände gemeint mit einer glatten Oberfläche, die das Licht so reflektieren, dass bei dem Erstellen der Aufnahme neben den Konturen auch unerwünschte Lichtreflektionen anderer Objekte auftreten können. Beispiel für solche reflektierenden Gegenstände sind Metalle, Glas, Kunststoffe mit glatter Oberfläche, beschichtete Materialien, wie z.B. beschichtete Platten aus Kunststoff, Holz, Metall, Glas etc. Besonders vorteilhaft ist es, wenn die Fertigungssteuerung zumindest teilweise cloudbasiert ist. Dann können Parameter, insbesondere die gewichteten Variablen, zur Veränderung, insbesondere Verbesserung, insbesondere Optimierung, der Algorithmen von einer ersten Fertigungsstätte auch in anderen Fertigungsstätten genutzt werden und umgekehrt. Es ist so eine viel größere Datenbasis vorhanden und die Identifikation für jeden einzelnen Fertigungsbetrieb kann deutlich verbessert werden. Weitere Vorteile der Erfindung ergeben sich aus der Beschreibung und der Zeichnung. Ebenso können die vorstehend genannten und die noch weiter ausgeführten Merkmale erfindungsgemäß jeweils einzeln für sich oder zu mehreren in beliebigen Kombinationen Verwendung finden. Die gezeigte und beschriebene Aus- führungsform ist nicht als abschließend zu verstehen, sondern hat vielmehr beispielhaften Charakter für die Schilderung der Erfindung. The method and / or the device can be used particularly advantageously in industrial production with a computer-based production control for processing reflective objects, in particular sheet metal parts. In the past, the recordings of sheet metal parts with an image capturing device were often not of sufficient quality for identification, because contours are very difficult to distinguish from the background and light reflections simulate incorrect contours. Because of this, processes and devices which compared the recording data with object data without the algorithms described have so far not led to any success in industrial production. By reflective objects are meant objects with a smooth surface that reflect the light in such a way that when taking the picture, in addition to the contours, undesired light reflections of other objects can also occur. Examples of such reflective objects are metals, glass, plastics with a smooth surface, coated materials, such as coated plates made of plastic, wood, metal, glass, etc. It is particularly advantageous if the production control is at least partially cloud-based. Then parameters, in particular the weighted variables, for changing, in particular improving, in particular optimizing, the algorithms from a first production site can also be used in other production sites and vice versa. This means that a much larger database is available and the identification for each individual manufacturing company can be significantly improved. Further advantages of the invention result from the description and the drawing. Likewise, according to the invention, the features mentioned above and those which have been elaborated further can be used individually or in combination in any combination. The embodiment shown and described is not to be understood as conclusive, but rather has an exemplary character for the description of the invention.
Detaillierte Beschreibung der Erfindung und Zeichnung Detailed description of the invention and drawing
Figur 1 zeigt eine schematische Darstellung einer Ausgestaltung des erfindungs- gemäßen Verfahrens bzw. der erfindungsgemäßen Vorrichtung.  FIG. 1 shows a schematic representation of an embodiment of the method according to the invention or the device according to the invention.
Figur 1 zeigt eine Vorrichtung 10 zur Identifikation eines ohne Zuordnung aufgefundenen Gegenstands. Der Gegenstand kann in Form eines Blechteils ausgebildet sein. Zu dem Gegenstand sind Gegenstandsdaten 12 hinterlegt. Um den auf- gefundenen Gegenstand den Gegenstandsdaten 12 zuzuordnen und dadurch zu identifizieren, wird zumindest eine Aufnahme 14 erstellt. FIG. 1 shows a device 10 for identifying an object found without being assigned. The object can be in the form of a sheet metal part. Item data 12 are stored for the item. In order to assign the object found to the object data 12 and thereby identify it, at least one image 14 is created.
Vorzugsweise sind die Gegenstandsdaten 12 in Form von CAD-Daten hinterlegt, insbesondere in einer Gegenstandsdatenbank 16 in Form einer CAD-Datenbank. The object data 12 are preferably stored in the form of CAD data, in particular in an object database 16 in the form of a CAD database.
Die Aufnahme 14 wird mit einer Bilderfassungsvorrichtung 18 erstellt. Die Bilderfassungsvorrichtung 18 kann in Form einer Kamera ausgebildet sein. The image 14 is created with an image capture device 18. The image capturing device 18 can be designed in the form of a camera.
Die in Figur 1 dargestellte Aufnahme 14 deutet an, dass die Zuordnung einer sol- chen Aufnahme 14 sehr schwierig sein kann. Dies insbesondere, wenn - wie dargestellt - die Aufnahme 14 nur einen Teil des Gegenstands zeigt, die Aufnah me 14 vor einem unruhigen Hintergrund gemacht wird und/oder die Oberflächenbeschaffenheit des Gegenstands das Erstellen der Aufnahme 14 erschwert. Auf die Aufnahme 14 wird ein Aufnahme-Extraktionsalgorithmus 20 angewendet, um Aufnahme-Merkmale 22 zu extrahieren. Dies ist in Figur 1 schematisch anhand des in der Aufnahme 14 strichpunktiert eingerahmten Bereichs angedeutet. Der Aufnahme-Extraktionsalgorithmus 20 ist in einer Aufnahme- Extraktionseinheit 24 hinterlegt. Der Aufnahme-Extraktionsalgorithmus 20 kann miteinander verbundene, insbesondere zueinander gewichtete, Daten- Aggregations-Routinen aufweisen. Auf die Gegenstandsdaten 12 wird ein Gegenstands-Extraktionsalgorithmus 26 angewendet, um Gegenstands-Merkmale 28 zu extrahieren. Dies ist in Figur 1 schematisch anhand des in den Gegenstandsdaten 12 strichpunktiert eingerahmten Bereichs angedeutet. Der Gegenstands-Extraktionsalgorithmus 26 ist in einer Gegenstands-Extraktionseinheit 30 hinterlegt. Der Gegenstands- Extraktionsalgorithmus 26 kann miteinander verbundene, insbesondere zueinander gewichtete, Daten-Aggregations-Routinen aufweisen. The receptacle 14 shown in FIG. 1 indicates that the assignment of such a receptacle 14 can be very difficult. This is particularly the case if - as shown - the receptacle 14 only shows a part of the object, the receptacle 14 is made against an uneasy background and / or the surface properties of the object make the receptacle 14 difficult to create. A recording extraction algorithm 20 is applied to the recording 14 in order to extract recording features 22. This is indicated schematically in FIG. 1 on the basis of the area framed in dash-dotted lines in the receptacle 14. The recording extraction algorithm 20 is in a recording Extraction unit 24 deposited. The recording extraction algorithm 20 can have data aggregation routines which are connected to one another, in particular weighted to one another. An item extraction algorithm 26 is applied to the item data 12 to extract item features 28. This is indicated schematically in FIG. 1 on the basis of the area framed in dot-dash lines in the item data 12. The object extraction algorithm 26 is stored in an object extraction unit 30. The object extraction algorithm 26 can have interconnected, in particular mutually weighted, data aggregation routines.
Die Aufnahme-Merkmale 22 und die Gegenstands-Merkmale 28 werden einem Vergleichsalgorithmus 32 zugeführt. Der Vergleichsalgorithmus 32 ist in einer Vergleichseinheit 34 hinterlegt. Der Vergleichsalgorithmus 32 kann miteinander verbundene, insbesondere zueinander gewichtete, Daten-Aggregations-Routinen aufweisen. Vorzugsweise ist der Vergleichsalgorithmus 32 zum Bilden eines Ska- larprodukts bzw. einer Differenz zwischen den Aufnahme-Merkmalen 22 und den Gegenstands-Merkmalen28 ausgebildet. The recording features 22 and the item features 28 are fed to a comparison algorithm 32. The comparison algorithm 32 is stored in a comparison unit 34. The comparison algorithm 32 can have interconnected, in particular mutually weighted, data aggregation routines. The comparison algorithm 32 is preferably designed to form a scalar product or a difference between the recording features 22 and the object features 28.
Als Ergebnis des Vergleichsalgorithmus 32 wird eine Zuordnungsinformation 36 ausgegeben. Die Ausgabe der Zuordnungsinformation erfolgt in einer Ausgabeeinheit 38. Wie in Figur 1 dargestellt, können mehrere Gegenstandsdaten (hier drei; in Figur 1 nicht mit einem Bezugszeichen bezeichnet) angezeigt werden, wobei jeweils die Zuordnungswahrscheinlichkeit (hier 60%, 35% und 5%) zu den jeweiligen Gegenstandsdaten ausgegeben wird. Hierdurch wird einem Nutzer die Zuordnung des aufgefundenen Gegenstands zu Gegenstandsdaten erheblich er leichtert. Um künftige Zuordnungen zu verbessern, d.h. die Qualität zukünftiger Zuordnungsinformationen zu erhöhen, weist die Vorrichtung 10 eine Eingabeeinheit 40 auf. Die Eingabeeinheit 40 ist dazu ausgebildet, eine Nutzerbewertung 42 auszulesen. Die Nutzerbewertung 42 wird dann dazu eingesetzt, den Aufnahme- Extraktionsalgorithmus 20, den Gegenstands-Extraktionsalgorithmus 26 und/oder den Vergleichsalgorithmus 32 bzw. dessen/deren Parameter zu opti mieren. Die Nutzerbewertung 42 kann in einem Nutzerbewertungs-Ergebnisspeicher 44 gespeichert werden, sodass das Verfahren bzw. die Vorrichtung 10 mit einer Vielzahl von Nutzerbewertungen 42 optimierbar ist. Besonders bevorzugt ist da bei der Nutzerbewertungs-Ergebnisspeicher 44 Cloud-basierend ausgebildet. Hierdurch können vorrichtungsübergreifend Nutzerbewertungen 42 in die Opti- mierung des Verfahrens bzw. der Vorrichtung 10 einfließen. Assignment information 36 is output as a result of the comparison algorithm 32. The assignment information is output in an output unit 38. As shown in FIG. 1, a plurality of item data (here three; not shown in FIG. 1 with a reference symbol) can be displayed, the assignment probability in each case (here 60%, 35% and 5%). for the respective item data. This considerably simplifies the assignment of the found object to object data for a user. In order to improve future assignments, ie to increase the quality of future assignment information, the device 10 has an input unit 40. The input unit 40 is designed to read out a user rating 42. The user rating 42 is then used to Extraction algorithm 20 to optimize the object extraction algorithm 26 and / or the comparison algorithm 32 or its parameters. The user rating 42 can be stored in a user rating result memory 44, so that the method or the device 10 can be optimized with a large number of user ratings 42. It is particularly preferred that the user evaluation result memory 44 is cloud-based. In this way, user evaluations 42 can be incorporated into the optimization of the method or device 10 across devices.
Die Erfindung betrifft mit anderen Worten ein Verfahren und eine Vorrichtung 10 zur Erkennung eines Gegenstands. Dabei wird zumindest eine Aufnahme 14, ins- besondere in Form einer Fotografie, von dem Gegenstand erstellt. Anhand der Aufnahme 14 werden mittels eines Aufnahme-Extraktionsalgorithmus 20 Aufnahme-Merkmale 22 ermittelt. Anhand hinterlegter Gegenstandsdaten 12 werden Gegenstands-Merkmale 28 ermittelt und mit den Aufnahme-Merkmalen 22 verglichen, um eine Zuordnungsinformation 36 auszugeben. Erfindungsgemäß ist es dabei insbesondere vorgesehen, eine Nutzerbewertung 42 sowohl zur Verbesse- rung des Aufnahme-Extraktionsalgorithmus 20 als auch des Gegenstands- Extraktionsalgorithmus 26 vorzusehen. Alternativ oder zusätzlich dazu ist es er findungsgemäß insbesondere vorgesehen, sowohl den Aufnahme- Extraktionsalgorithmus 20 als auch den Gegenstands-Extraktionsalgorithmus 26 auf miteinander verbundenen, vorzugsweise gewichteten, Daten-Aggregations- Routinen basierend auszubilden. In other words, the invention relates to a method and a device 10 for recognizing an object. At least one picture 14, in particular in the form of a photograph, is made of the object. On the basis of the recording 14, 20 recording features 22 are determined by means of a recording extraction algorithm 20. On the basis of stored object data 12, object features 28 are determined and compared with the recording features 22 in order to output assignment information 36. According to the invention, it is provided in particular to provide a user rating 42 both for improving the exposure extraction algorithm 20 and for the object extraction algorithm 26. As an alternative or in addition to this, it is provided according to the invention in particular to design both the exposure extraction algorithm 20 and the object extraction algorithm 26 based on interconnected, preferably weighted, data aggregation routines.
Bezuqszeichenliste Reference list
10 Vorrichtung 10 device
12 Gegenstandsdaten  12 item data
14 Aufnahme 14 recording
16 Gegenstandsdatenbank  16 Item database
18 Bilderfassungsvorrichtung  18 image capture device
20 Aufnahme-Extraktionsalgorithmus 20 recording extraction algorithm
22 Aufnahme-Merkmale 22 recording characteristics
24 Aufnahme-Extraktionseinheit24 recording extraction unit
26 Gegenstands-Extraktionsalgorithmus26 Object extraction algorithm
28 Gegenstands-Merkmale 28 Item Features
30 Gegenstands-Extraktionseinheit 30 item extraction unit
32 Vergleichsalgorithmus 32 comparison algorithm
34 Vergleichseinheit 34 comparison unit
36 Zuordnungsinformation  36 Allocation information
38 Ausgabeeinheit  38 output unit
40 Eingabeeinheit  40 input unit
42 Nutzerbewertung  42 user rating
44 Nutzerbewertungsergebnisspeicher 44 user evaluation result memory

Claims

Patentansprüche Claims
1 Verfahren zur Identifikation eines Gegenstands durch Zuordnung einer1 Method for identifying an object by assigning a
Aufnahme (14) des Gegenstands zu hinterlegten Gegenstandsdaten (12), mit den Verfahrensschritten : Recording (14) the object for stored object data (12), with the process steps:
A) Erstellen der Aufnahme (14) des Gegenstands mit einer A) Create the recording (14) of the object with a
Bilderfassungsvorrichtung (18);  Image capture device (18);
B) Extrahieren von Aufnahme-Merkmalen (22) aus der Aufnahme (14) anhand eines Aufnahme-Extraktionsalgorithmus (20); B) extracting recording features (22) from the recording (14) using a recording extraction algorithm (20);
C) Extrahieren von Gegenstands-Merkmalen (28) aus den hinterlegten Gegenstandsdaten (12) anhand eines Gegenstands- Extraktionsalgorithmus (26); wobei der Verfahrensschritt C) vor, während und/oder nach der  C) extracting object features (28) from the stored object data (12) using an object extraction algorithm (26); wherein step C) before, during and / or after
Verfahrensschritte A) und B) durch geführt werden kann und wobei anschließend folgende Verfahrensschritte durchgeführt werden :  Process steps A) and B) can be carried out and the following process steps are then carried out:
D) Vergleichen der Aufnahme-Merkmale (22) mit den Gegenstands- Merkmalen (28) anhand eines Vergleichsalgorithmus (32); D) comparing the recording features (22) with the object features (28) using a comparison algorithm (32);
E) Ausgabe einer Zuordnungsinformation (36) der Aufnahme (14) zu den hinterlegten Gegenstandsdaten (12).  E) Output of assignment information (36) of the receptacle (14) to the stored object data (12).
2 Verfahren nach Anspruch 1 mit dem weiteren Verfahrensschritt: 2 Method according to claim 1 with the further step:
F) Auslesen einer Nutzerbewertung (42) der  F) Reading out a user rating (42) of the
Zuordnungsinformation (36).  Association information (36).
3 Verfahren nach Anspruch 1 oder 2 mit dem weiteren Verfahrensschritt: 3 The method of claim 1 or 2 with the further step:
H) Optimieren des Aufnahme- Extra ktionsaigorithmus (20), des  H) Optimizing the recording extraction algorithm (20), the
Gegenstands-Extraktionsalgorithmus (26) und/oder des Vergleichsalgorithmus (32) anhand der Nutzerbewertung (42). Object extraction algorithm (26) and / or the comparison algorithm (32) based on the user rating (42).
4. Verfahren nach Anspruch 3, bei dem vor, während und/oder nach dem Verfahrensschritt H) folgender Verfahrensschritt durchgeführt wird: 4. The method according to claim 3, in which the following method step is carried out before, during and / or after method step H):
G) Speichern der Nutzerbewertung (42) der  G) storing the user rating (42) of the
Zuordnungsinformation (36) in einem Nutzerbewertungs- Ergebnisspeicher (44).  Assignment information (36) in a user evaluation result memory (44).
5. Verfahren nach Anspruch 4, bei dem der Nutzerbewertungs- Ergebnisspeicher (44) Cloud-basierend ausgebildet ist. 5. The method of claim 4, wherein the user evaluation result memory (44) is cloud-based.
6. Verfahren nach einem der vorhergehenden Ansprüche, bei dem das 6. The method according to any one of the preceding claims, wherein the
Erstellen der Aufnahme (14) im für das menschliche Auge sichtbaren Wellenlängenbereich erfolgt.  Creation of the recording (14) takes place in the wavelength range visible to the human eye.
7. Verfahren nach einem der vorhergehenden Ansprüche, bei dem im 7. The method according to any one of the preceding claims, in which
Verfahrensschritt A) mehrere Aufnahmen (14) des Gegenstands mit der Bilderfassungsvorrichtung (18) aufgenommen werden, im  Method step A) several pictures (14) of the object are taken with the image capture device (18), in
Verfahrensschritt B) die Aufnahme-Merkmale (22) aus den mehreren Aufnahmen (14) extrahiert werden und im Verfahrensschritt E) eine Zuordnungsinformation (36) der mehreren Aufnahmen (14) zu den hinterlegten Gegenständen ausgegeben wird.  Process step B) the recording features (22) are extracted from the plurality of recordings (14) and, in process step E), assignment information (36) of the plurality of recordings (14) to the stored objects is output.
8. Verfahren nach einem der Ansprüche 2 bis 7, bei dem der Aufnahme- Extraktionsalgorithmus (20), der Gegenstands-Extraktionsalgorithmus (26) und/oder der Vergleichsalgorithmus (32) miteinander verbundene Daten- Aggregations-Routinen aufweist/aufweisen. 8. The method according to any one of claims 2 to 7, wherein the recording-extraction algorithm (20), the object extraction algorithm (26) and / or the comparison algorithm (32) has / have interconnected data aggregation routines.
9. Verfahren nach einem der Ansprüche 2 bis 8, bei dem die Gegenstands- Merkmale (28) in Form von Konstruktionsdaten, Materialdaten, 9. The method according to any one of claims 2 to 8, wherein the object features (28) in the form of construction data, material data,
Oberflächenbeschaffenheitsdaten und/oder Wärmeleitfähigkeitsdaten vorliegen. Surface quality data and / or thermal conductivity data are available.
10. Verfahren nach einem der Ansprüche 2 bis 9, bei dem der Vergleichsalgorithmus (32) das Bilden eines Skalarprodukts und/oder das Bilden einer Differenz zwischen den Aufnahme-Merkmalen (22) und den Gegenstands-Merkmalen (28) umfasst. 10. The method according to any one of claims 2 to 9, wherein the comparison algorithm (32) comprises forming a dot product and / or forming a difference between the recording features (22) and the object features (28).
11. Verfahren nach einem der vorhergehenden Ansprüche, bei dem das 11. The method according to any one of the preceding claims, wherein the
Ausgeben der Zuordnungsinformation (36) der Aufnahme (14) das Ausgeben von Zuordnungswahrscheinlichkeiten zu verschiedenen hinterlegten Gegenständen umfasst. Outputting the assignment information (36) of the receptacle (14) comprises outputting assignment probabilities to various stored objects.
12. Vorrichtung (10) zur Identifikation eines Gegenstands durch Zuordnung des Gegenstands zu hinterlegten Gegenstandsdaten (12), wobei die Vorrichtung (10) Folgendes aufweist: a) Eine Bilderfassungsvorrichtung (18) zum Erstellen einer 12. Device (10) for identifying an object by assigning the object to stored object data (12), the device (10) comprising the following: a) an image capturing device (18) for creating an
Aufnahme (14) des Gegenstands; b) Eine Aufnahme-Extraktionseinheit (24) mit einem Aufnahme- Extraktionsalgorithmus (20) zum Extrahieren von Aufnahme- Merkmalen (22) aus der Aufnahme (14); c) eine Gegenstands-Extraktionseinheit (30) mit einem Gegenstands- Extraktionsalgorithmus (26) zum Extrahieren von Gegenstands- Merkmalen (28) aus den hinterlegten Gegenstandsdaten;  Receiving (14) the object; b) a recording extraction unit (24) with a recording extraction algorithm (20) for extracting recording features (22) from the recording (14); c) an object extraction unit (30) with an object extraction algorithm (26) for extracting object features (28) from the stored object data;
d) eine Vergleichseinheit (34) mit einem Vergleichsalgorithmus (32) zum Vergleichen der Aufnahme-Merkmale (22) mit den Gegenstands-Merkmalen (28); wobei der Aufnahme-Extraktionsalgorithmus (20), der Gegenstands- d) a comparison unit (34) with a comparison algorithm (32) for comparing the recording features (22) with the object features (28); wherein the recording extraction algorithm (20), the object
Extraktionsalgorithmus (26) und/oder der Vergleichsalgorithmus (32) anhand einer Nutzerbewertung (42) optimierbar ausgebildet ist; Extraction algorithm (26) and / or the comparison algorithm (32) can be optimized based on a user evaluation (42);
e) eine Ausgabeeinheit (38) zur Ausgabe einer  e) an output unit (38) for outputting a
Zuordnungsinformation (36) der mit der  Association information (36) with the
Bilderfassungsvorrichtung (18) erstellten Aufnahme (14) zu den hinterlegten Gegenstandsdaten (12).  Image capture device (18) created image (14) for the stored object data (12).
13. Vorrichtung nach Anspruch 12, wobei die Vorrichtung (10) weiterhin 13. The apparatus of claim 12, wherein the apparatus (10) further
Folgendes aufweist:  Has the following:
f) eine Eingabeeinheit (40) zum Auslesen einer Nutzerbewertung (42) der Zuordnungsinformation (36). f) an input unit (40) for reading out a user rating (42) of the assignment information (36).
14. Vorrichtung nach Anspruch 12 oder 13, wobei die Vorrichtung (10) 14. The apparatus of claim 12 or 13, wherein the device (10)
weiterhin Folgendes aufweist:  also has:
g) Einen Nutzerbewertungs-Ergebnisspeicher (44) zum Speichern der Nutzerbewertung (42) der Zuordnungsinformation (36).  g) a user rating result memory (44) for storing the user rating (42) of the assignment information (36).
15. Vorrichtung nach einem der Ansprüche 12 bis 14, bei der der Aufnahme- Extraktionsalgorithmus (20), der Gegenstands-Extraktionsalgorithmus (26) und/oder der Vergleichsalgorithmus (32) miteinander verbundene Daten- Aggregations-Routinen aufweist/aufweisen. 15. The device according to one of claims 12 to 14, in which the image extraction algorithm (20), the object extraction algorithm (26) and / or the comparison algorithm (32) have / have data aggregation routines connected to one another.
16. Verwendung eines Verfahrens oder einer Vorrichtung nach einem der 16. Use of a method or a device according to one of the
vorhergehenden Ansprüche in einer Industriefertigung, wobei in der Industriefertigung insbesondere reflektierende Gegenstände, vorzugsweise Blechteile, bearbeitet werden.  preceding claims in an industrial production, wherein in particular reflective objects, preferably sheet metal parts, are processed in industrial production.
EP19773741.4A 2018-09-12 2019-09-03 Method and apparatus for identifying an article Pending EP3850545A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102018215538.0A DE102018215538A1 (en) 2018-09-12 2018-09-12 Method and device for identifying an object
PCT/EP2019/073383 WO2020053023A1 (en) 2018-09-12 2019-09-03 Method and apparatus for identifying an article

Publications (1)

Publication Number Publication Date
EP3850545A1 true EP3850545A1 (en) 2021-07-21

Family

ID=68062887

Family Applications (1)

Application Number Title Priority Date Filing Date
EP19773741.4A Pending EP3850545A1 (en) 2018-09-12 2019-09-03 Method and apparatus for identifying an article

Country Status (6)

Country Link
US (1) US11972600B2 (en)
EP (1) EP3850545A1 (en)
JP (1) JP2022500757A (en)
CN (1) CN112703508A (en)
DE (1) DE102018215538A1 (en)
WO (1) WO2020053023A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022115997A1 (en) 2022-06-28 2023-12-28 TRUMPF Werkzeugmaschinen SE + Co. KG Method and system to support the differentiation of sheet metal workpieces

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3053512B2 (en) * 1993-09-22 2000-06-19 三菱電機株式会社 Image processing device
US6975764B1 (en) * 1997-11-26 2005-12-13 Cognex Technology And Investment Corporation Fast high-accuracy multi-dimensional pattern inspection
US6856698B1 (en) * 1997-11-26 2005-02-15 Cognex Corporation Fast high-accuracy multi-dimensional pattern localization
JPH11320143A (en) 1998-05-12 1999-11-24 Amada Co Ltd Device and method for additional processing
JP2002230546A (en) * 2001-01-30 2002-08-16 Fujitsu Ltd Image processing program, computer readable storage medium storing it, and image processing method and device
CN1741046A (en) * 2004-08-27 2006-03-01 鸿富锦精密工业(深圳)有限公司 Sheet metal component Engineering Design Management System and method
US8032469B2 (en) * 2008-05-06 2011-10-04 Microsoft Corporation Recommending similar content identified with a neural network
DE102009012543A1 (en) 2009-03-10 2010-09-23 Esab Cutting Systems Gmbh cutter
US9082086B2 (en) * 2011-05-20 2015-07-14 Microsoft Corporation Adaptively learning a similarity model
JP5929238B2 (en) * 2012-01-27 2016-06-01 オムロン株式会社 Image inspection method and image inspection apparatus
DE102014213518A1 (en) * 2014-07-11 2016-01-14 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Method, processing machine and computer program product for image-based placement of workpiece machining operations
US9440351B2 (en) * 2014-10-30 2016-09-13 International Business Machines Corporation Controlling the operations of a robotic device
CA3195997A1 (en) * 2014-11-21 2016-05-26 Christopher M. Mutti Imaging system for object recognition and assessment
US9483707B2 (en) * 2015-02-04 2016-11-01 GM Global Technology Operations LLC Method and device for recognizing a known object in a field of view of a three-dimensional machine vision system
JP6753105B2 (en) * 2016-03-29 2020-09-09 日本電気株式会社 Identification device
US10249033B1 (en) * 2016-12-20 2019-04-02 Palantir Technologies Inc. User interface for managing defects
US10497257B2 (en) * 2017-08-31 2019-12-03 Nec Corporation Parking lot surveillance with viewpoint invariant object recognition by synthesization and domain adaptation

Also Published As

Publication number Publication date
US11972600B2 (en) 2024-04-30
US20230118305A1 (en) 2023-04-20
WO2020053023A1 (en) 2020-03-19
DE102018215538A1 (en) 2020-03-12
CN112703508A (en) 2021-04-23
JP2022500757A (en) 2022-01-04

Similar Documents

Publication Publication Date Title
EP3797337B1 (en) Method for handling a workpiece with the aid of a removal tool and machine for carrying out the method
DE102004063769A1 (en) Method for automatically and quantitatively determining the amount of seed or grain of required quality comprises recording the seed and grain using an imaging device and further processing
WO2018219551A1 (en) Method and device for automatic gesture recognition
DE102017213583A1 (en) Process for production planning
EP3850545A1 (en) Method and apparatus for identifying an article
WO2004029738A1 (en) Method for the computer-supported generation of prognoses for operative systems and system for the generation of prognoses for operative systems
EP4221930A1 (en) Method, computer program product, and device comprising such a product for displaying the influence of cutting parameters on a cutting edge
DE102020207613A1 (en) Method for evaluating a cutting edge of a body
DE102011121877A1 (en) Method and device for determining classification parameters for the classification of banknotes
EP1392455B1 (en) Method for automatic selection of sheet metal, especially sheet metal for forming components
DE102020208765A1 (en) Image classifier with variable receptive fields in convolutional layers
DE102019208922A1 (en) Method and device for controlling a production process
DE102022103844B3 (en) Method for optimizing a production process based on visual information and device for carrying out the method
DE102021123761A1 (en) Component classification device, method for classifying components and method for training a component classification device
EP4338135A1 (en) Component-classifying apparatus, method for classifying components, and method for training a component-classifying apparatus
WO2021058399A1 (en) Method for assigning a marker of a positioning system to a production task by identifying a workpiece, and device for carrying out the method
DE102021131082A1 (en) Method and AI system for providing a crack formation probability of a deep-drawn component
DE102021211828A1 (en) Computer-implemented method to support planning and organization of a construction project, device for data processing as part of such a method, and computer program for implementing such a method
DE102014016676A1 (en) Method for the computer-aided selection of applicants from a large number of applicants for a given requirement profile
WO2023072775A1 (en) Verifying people in portrait paintings
DE102022121545A1 (en) Microscopy system and method for generating a machine learned model for processing microscope data
DE102021202564A1 (en) Device and in particular computer-implemented method for classifying data sets
DE102023201929A1 (en) Method and device for providing configuration suggestions for a configuration of a modular production system
WO2023198700A1 (en) Computer-implemented method and systems for repositioning defective products
EP4252706A1 (en) Automatic detection of dental indications

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20210112

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

RAP3 Party data changed (applicant data changed or rights of an application transferred)

Owner name: TRUMPF WERKZEUGMASCHINEN SE + CO. KG

17Q First examination report despatched

Effective date: 20230315