WO2007101452A1 - Method and object editing system for creating a model of an object - Google Patents

Method and object editing system for creating a model of an object Download PDF

Info

Publication number
WO2007101452A1
WO2007101452A1 PCT/EP2006/002190 EP2006002190W WO2007101452A1 WO 2007101452 A1 WO2007101452 A1 WO 2007101452A1 EP 2006002190 W EP2006002190 W EP 2006002190W WO 2007101452 A1 WO2007101452 A1 WO 2007101452A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
pattern
pattern image
relevant
model
Prior art date
Application number
PCT/EP2006/002190
Other languages
German (de)
French (fr)
Inventor
Ernst LÜTHE
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Priority to PCT/EP2006/002190 priority Critical patent/WO2007101452A1/en
Publication of WO2007101452A1 publication Critical patent/WO2007101452A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor

Definitions

  • the invention relates to a method for creating a model of an object, wherein a pattern of an object to be recognized, having relevant features in the form of a pattern image is automatically taught and displayed on a display. Moreover, the invention relates to an object processing system which is suitable for carrying out the method.
  • Object recognition systems for example so-called trainable image processing sensors for object finding and verification, usually automatically create a model of a real object.
  • an algorithm searches for relevant features of the recorded object, whereby edges of the object are mostly provided as relevant features. It may happen that the edges are detected erroneously, in particular if the object to be recorded has scratches or shadows or gloss spots caused by unfavorable lighting are recorded on the object by an image recording device, whereby objects are not detected during an evaluation mode other wrong decisions are made.
  • the present invention has for its object to provide a method of the type mentioned, which avoids these disadvantages.
  • an object processing to provide a system which is suitable for carrying out the method.
  • the object is achieved by adding missing relevant features to the pattern image by a user by means of an operating device for creating the model and / or not clearly identifying relevant features of the pattern image as being relevant and / or not belonging to the object relevant features of the sample image are deleted or marked.
  • this object is achieved by the measures specified in claim 2.
  • the pattern image can be subsequently changed by a user.
  • erroneously determined edges caused, for example, by shadow formations, scratches in the object or gloss spots on the object can be corrected.
  • This essentially error-free object model An error-free modified pattern image facilitates the evaluation of object images, which are compared with the object model within the framework of object recognition methods known per se, whereby an overall quality value is determined, which represents a measure of an agreement of an object with the pattern.
  • Figure 1 is a schematic representation of an object processing system
  • Figure 2 is a recorded object
  • Figure 3 processing steps for creating a model.
  • reference numeral 1 designates an object processing system which is provided with an image recording unit 2 and with an image processing unit 3 which is in operative signal communication with the image recording unit 2.
  • an operating device 4 z. B. an operating device in the form of a so-called mouse, and a display 5 is connected, on which a captured by the image pickup unit 2 pattern or object image of a z. B. on a conveyor belt 6 object 7 can be displayed.
  • the image processing unit 3 has a software module 8 known per se for automatically teaching a pattern of the object 7, it being assumed in the following that the object edges are used as relevant features of the object 7 and the software module 8 generates a pattern edge image.
  • the image processing unit 3 is further provided with a software module 9, which is in operative connection with the software module 8 via a further software module 10.
  • the software module 8 transmits to the software module 10 the pattern of the object 7, which can be modified by the software module 9.
  • the software module 9 allows interactive user guidance, whereby a user is provided with different functions for processing the pattern.
  • a user adds missing relevant features (object edges) in the pattern image to the pattern image and / or not clearly identified relevant features in the pattern image as relevant in this characterizes and / or delete not relevant to the object relevant features in the pattern image in this or can mark.
  • the software module 8 transmits the object image to the display 5, and to this object image superimposed on the pattern edge image, whereby the user modifications to the pattern edge image are visually representable.
  • the software module 10 transmits the modification
  • this evaluation module 11 compares the object model with images recorded by the image recording unit 2 of objects which are transported on a conveyor belt, for example, in the context of an object recognition method.
  • the evaluation module 11 need not be part of the object processing system 1, but may be part of a separate object recognition system.
  • the object model can be transmitted online by the object processing system 1 or can be supplied by a data carrier, the image recording unit 2 or another suitable image recording unit transmitting the object images to the object recognition system for the purpose of evaluating object images.
  • the image acquisition unit 2 has taken an object 12 (FIG. 2) and transmitted it to the software module 8 of the object processing system 1. Due to disturbing influences, z. As disturbing influences in the form of shadowing, scratches in the object or gloss spots on the object, a gloss point 13, an edge 14 incomplete and edges 15, 16 completely recorded. In addition, another edge 17 (dashed line) is indistinctly recorded.
  • the software module 8 automatically determines the pattern edge image 18 (FIG. 3), wherein the software module 8 could only partially detect the edge 14, the edge 17 at all, and furthermore the unwanted edges of the highlight 13 as relevant Edge 26 detects.
  • Both the pattern edge image 18 and the object image 12 are displayed on the display 5 (FIG. 1) and the user can interactively change the pattern edge image 18 in processing steps by means of the operating device 4 and the software module 9.
  • the user records, in a first processing step, an edge 19 corresponding to the missing edges 17 in the pattern edge image 18; in a second processing step, the user completes the edge 20 corresponding to the edge 14 and in a further processing step deletes or marks an edge 21 corresponding to the highlight 13 with an identification 22 of the user.
  • the modification is completed and the software module 10 transmits a modified pattern edge image or model 23 to the evaluation -Module 11, wherein for the case that the edge 21 is provided with the mark 22 corresponding to the gloss point 13, the evaluation module 11 evaluates this edge as insignificant edge and not considered for an evaluation of object images.
  • the modules 8, 9, 10 do not need to be designed as software modules, these can of course also be implemented hardware-technically.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)

Abstract

The invention relates to a method and an object editing system for creating a model of an object (7, 12), where a pattern of an object (7, 12) which is to be identified and which has relevant features (14, 15, 16, 17) is automatically learned in the form of a pattern image (18) and shown on a display (5). Suitable measures allow changes to the learned pattern image (18). One advantage is that the pattern image can be changed retrospectively by a user and edges (26) ascertained to be incorrect, for example caused by scratches, shadows or brilliant points (13) on the object (7, 12), can be corrected.

Description

Beschreibungdescription
Verfahren und Objektbearbeitungssystem zum Erstellen eines Modells eines ObjektesMethod and object editing system for creating a model of an object
Die Erfindung betrifft ein Verfahren zum Erstellen eines Modells eines Objektes, wobei ein Muster eines zu erkennenden, relevante Merkmale aufweisenden Objekts in Form eines Musterbildes automatisch eingelernt und auf einer Anzeige dargestellt wird. Darüber hinaus betrifft die Erfindung ein Objektbearbeitungssystem, welches zur Durchführung des Verfahrens geeignet ist.The invention relates to a method for creating a model of an object, wherein a pattern of an object to be recognized, having relevant features in the form of a pattern image is automatically taught and displayed on a display. Moreover, the invention relates to an object processing system which is suitable for carrying out the method.
Es ist bekannt, zur Erkennung von Objekten mittels eines Objekterkennungssystems zunächst das Bild eines zu suchenden Musters in Form eines Musterbildes einzulernen und anschließend aufgenommene Bilder von Objekten, so genannte Objektbilder, mit dem Musterbild zu vergleichen, wobei ein entsprechender Qualitätswert bei dem Vergleich als Maß der Über- einstimmung bestimmt wird.It is known, for detecting objects by means of an object recognition system, first to train the image of a pattern to be searched in the form of a pattern image and then to compare recorded images of objects, so-called object images, with the pattern image, wherein a corresponding quality value in the comparison as a measure of Conformity is determined.
Objekterkennungssysteme, beispielsweise so genannte trainierbare Bildverarbeitungssensoren für die Objektfindung und -prüfung, erstellen gewöhnlich automatisch ein Modell eines realen Objektes. Dazu sucht ein Algorithmus relevante Merkmale des aufgezeichneten Objektes, wobei meistens als relevante Merkmale Kanten des Objekts vorgesehen sind. Dabei kann es vorkommen, dass die Kanten fehlerhaft ermittelt werden, insbesondere wenn das aufzuzeichnende Objekt Kratzer aufweist oder durch eine ungünstige Beleuchtung bewirkte Schatten oder Glanzstellen auf dem Objekt durch eine Bildaufnahmevorrichtung mit aufgezeichnet werden, wodurch während einer Aus- werte-Betriebsart Objekte nicht erkannt oder sonstige Fehlentscheidungen getroffen werden.Object recognition systems, for example so-called trainable image processing sensors for object finding and verification, usually automatically create a model of a real object. For this purpose, an algorithm searches for relevant features of the recorded object, whereby edges of the object are mostly provided as relevant features. It may happen that the edges are detected erroneously, in particular if the object to be recorded has scratches or shadows or gloss spots caused by unfavorable lighting are recorded on the object by an image recording device, whereby objects are not detected during an evaluation mode other wrong decisions are made.
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren der eingangs genannten Art anzugeben, welches diese Nachteile vermeidet. Darüber hinaus ist ein Objektbearbei- tungssystem zu schaffen, welches zur Durchführung des Verfahrens geeignet ist.The present invention has for its object to provide a method of the type mentioned, which avoids these disadvantages. In addition, an object processing to provide a system which is suitable for carrying out the method.
Im Hinblick auf das Verfahren wird die Aufgabe dadurch ge- löst, dass durch einen Anwender mittels einer Bedienvorrichtung zur Erstellung des Modells fehlende relevante Merkmale dem Musterbild hinzugefügt und/oder nicht eindeutig erkannte relevante Merkmale des Musterbildes als relevant gekennzeichnet und/oder nicht zum Objekt gehörige relevante Merkmale des Musterbildes gelöscht oder markiert werden. Im Hinblick auf das Objektbearbeitungssystem wird diese Aufgabe durch die im Anspruch 2 angegebenen Maßnahmen gelöst.With regard to the method, the object is achieved by adding missing relevant features to the pattern image by a user by means of an operating device for creating the model and / or not clearly identifying relevant features of the pattern image as being relevant and / or not belonging to the object relevant features of the sample image are deleted or marked. With regard to the object processing system, this object is achieved by the measures specified in claim 2.
Vorteilhaft ist, dass das Musterbild nachträglich durch einen Anwender geändert werden kann. Dadurch sind beispielsweise durch Schattenbildungen, Kratzer im Objekt oder Glanzstellen auf dem Objekt verursachte, fehlerhaft ermittelte Kanten korrigierbar. Es wird ermöglicht, nicht eindeutig erkannte relevante Merkmale im Musterbild als relevant zu kennzeichnen oder fehlende relevante Merkmale in das Musterbild einzufügen, wodurch ein im Wesentlichen fehlerfreies Modell des Objekts bzw. fehlerfreies „modifiziertes Musterbild" geschaffen wird. Dieses im Wesentlichen fehlerfreie Objektmodell bzw. dieses fehlerfreie modifizierte Musterbild erleichtert die Auswertung von Objektbildern, welche im Rahmen von an sich bekannten Objekterkennungsverfahren mit dem Objektmodell verglichen werden. Dabei wird ein Gesamtqualitätswert bestimmt, welcher ein Maß für eine Übereinstimmung eines Objekts mit dem Muster repräsentiert.It is advantageous that the pattern image can be subsequently changed by a user. As a result, erroneously determined edges caused, for example, by shadow formations, scratches in the object or gloss spots on the object can be corrected. It is made possible to identify relevant features that are not clearly recognized in the pattern image as relevant or to insert missing relevant features into the pattern image, thereby creating a substantially error-free model of the object or error-free "modified pattern image." This essentially error-free object model An error-free modified pattern image facilitates the evaluation of object images, which are compared with the object model within the framework of object recognition methods known per se, whereby an overall quality value is determined, which represents a measure of an agreement of an object with the pattern.
Anhand der Zeichnung, in der ein Ausführungsbeispiel der Erfindung veranschaulicht ist, werden im Folgenden die Erfindung, deren Ausgestaltungen sowie Vorteile näher erläutert.Reference to the drawing, in which an embodiment of the invention is illustrated, the invention, the embodiments and advantages are explained in more detail below.
Es zeigen:Show it:
Figur 1 eine schematische Darstellung eines Objektbearbeitungssystems, Figur 2 ein aufgezeichnetes Objekt und Figur 3 Bearbeitungsschritte zum Erstellen eines Modells.Figure 1 is a schematic representation of an object processing system, Figure 2 is a recorded object and Figure 3 processing steps for creating a model.
In Figur 1 ist mit 1 ein Objektbearbeitungssystem bezeichnet, welches mit einer Bildaufnahmeeinheit 2 und mit einer mit der Bildaufnahmeeinheit 2 in signaltechnischer Wirkverbindung stehenden Bildverarbeitungseinheit 3 versehen ist. An die Bildverarbeitungseinheit 3 ist eine Bedienvorrichtung 4, z. B. eine Bedienvorrichtung in Form einer so genannten Maus, und eine Anzeige 5 angeschlossen, auf welcher ein von der Bildaufnahmeeinheit 2 aufgenommenes Muster- oder Objektbild eines z. B. auf einem Förderband 6 befindlichen Objektes 7 darstellbar ist. Die Bildverarbeitungseinheit 3 weist ein an sich bekanntes Software-Modul 8 zum automatischen Einlernen eines Musters des Objektes 7 auf, wobei im Folgenden angenom- men wird, dass als relevante Merkmale des Objektes 7 die Objektkanten dienen und das Software-Modul 8 ein Musterkantenbild erzeugt. Die Bildverarbeitungseinheit 3 ist ferner mit einem Software-Modul 9 versehen, welches über ein weiteres Software-Modul 10 mit dem Software-Modul 8 in Wirkverbindung steht. Dabei übermittelt das Software-Modul 8 dem Software- Modul 10 das Muster des Objekts 7, welches durch das Software-Modul 9 modifizierbar ist. Dazu ermöglicht das Software- Modul 9 eine interaktive Benutzerführung, wobei einem Anwender unterschiedliche Funktionen zum Bearbeiten des Musters bereitgestellt werden. Insbesondere ist vorgesehen, dass ein Anwender fehlende relevante Merkmale (Objektkanten) im Musterbild dem Musterbild hinzufügt und/oder nicht eindeutig erkannte relevante Merkmale im Musterbild als relevant in diesem kennzeichnet und/oder nicht zum Objekt gehörige rele- vante Merkmale im Musterbild in diesem löschen oder markieren kann. Zur Unterstützung der interaktiven Benutzerführung übermittelt das Software-Modul 8 der Anzeige 5 das Objektbild und dazu diesem Objektbild überlagert das Musterkantenbild, wodurch dem Anwender Modifikationen am Musterkantenbild vi- suell darstellbar sind. Für den Fall, dass die Modifikationen und somit die Modellerstellung abgeschlossen ist, was der Anwender durch eine entsprechende Bedieneingabe dem Software- Modul 9 anzeigt, übermittelt das Software-Modul 10 das modi- fizierte Musterkantenbild (Modell) einem Auswerte-Modul 11. Dieses Auswerte-Modul 11 vergleicht in einer Auswerte- Betriebsart im Rahmen eines Objekterkennungsverfahrens das Objektmodell mit von der Bildaufnahmeeinheit 2 aufgezeichne- ten Bildern von Objekten, die beispielsweise auf einem Förderband transportiert werden. Das Auswerte-Modul 11 braucht nicht Bestandteil des Objektbearbeitungssystems 1 zu sein, sondern kann Teil eines separaten Objekterkennungssystems sein. Diesem kann das Objektmodell durch das Objekt- bearbeitungssysterα 1 online übermittelt oder durch einen Datenträger zugeführt werden, wobei zur Auswertung von Objektbildern dem ObjekterkennungsSystem die Bildaufnahmeeinheit 2 oder eine sonstige geeignete Bildaufnahmeeinheit die Objektbilder überträgt.In FIG. 1, reference numeral 1 designates an object processing system which is provided with an image recording unit 2 and with an image processing unit 3 which is in operative signal communication with the image recording unit 2. To the image processing unit 3 is an operating device 4, z. B. an operating device in the form of a so-called mouse, and a display 5 is connected, on which a captured by the image pickup unit 2 pattern or object image of a z. B. on a conveyor belt 6 object 7 can be displayed. The image processing unit 3 has a software module 8 known per se for automatically teaching a pattern of the object 7, it being assumed in the following that the object edges are used as relevant features of the object 7 and the software module 8 generates a pattern edge image. The image processing unit 3 is further provided with a software module 9, which is in operative connection with the software module 8 via a further software module 10. In this case, the software module 8 transmits to the software module 10 the pattern of the object 7, which can be modified by the software module 9. For this purpose, the software module 9 allows interactive user guidance, whereby a user is provided with different functions for processing the pattern. In particular, it is provided that a user adds missing relevant features (object edges) in the pattern image to the pattern image and / or not clearly identified relevant features in the pattern image as relevant in this characterizes and / or delete not relevant to the object relevant features in the pattern image in this or can mark. In order to support the interactive user guidance, the software module 8 transmits the object image to the display 5, and to this object image superimposed on the pattern edge image, whereby the user modifications to the pattern edge image are visually representable. In the event that the modifications and thus the model creation is completed, what the user indicates to the software module 9 by means of a corresponding operator input, the software module 10 transmits the modification In the evaluation mode, this evaluation module 11 compares the object model with images recorded by the image recording unit 2 of objects which are transported on a conveyor belt, for example, in the context of an object recognition method. The evaluation module 11 need not be part of the object processing system 1, but may be part of a separate object recognition system. The object model can be transmitted online by the object processing system 1 or can be supplied by a data carrier, the image recording unit 2 or another suitable image recording unit transmitting the object images to the object recognition system for the purpose of evaluating object images.
Im Folgenden wird angenommen, dass die Bildaufnahmeeinheit 2 ein Objekt 12 (Figur 2) aufgenommen und dem Software-Modul 8 des Objektbearbeitungssystems 1 übermittelt hat. Aufgrund von störenden Einflüssen, z. B. störende Einflüsse in Form von Schattenbildungen, Kratzer im Objekt oder Glanzstellen auf dem Objekt, sind eine Glanzstelle 13, eine Kante 14 unvollständig sowie Kanten 15, 16 vollständig aufgezeichnet. Darüber hinaus ist eine weitere Kante 17 (gestrichelt gezeichnet) undeutlich aufgezeichnet.In the following, it is assumed that the image acquisition unit 2 has taken an object 12 (FIG. 2) and transmitted it to the software module 8 of the object processing system 1. Due to disturbing influences, z. As disturbing influences in the form of shadowing, scratches in the object or gloss spots on the object, a gloss point 13, an edge 14 incomplete and edges 15, 16 completely recorded. In addition, another edge 17 (dashed line) is indistinctly recorded.
Aus dem aufgezeichneten Objekt 12 ermittelt das Software- Modul 8 automatisch das Musterkantenbild 18 (Figur 3) , wobei das Software-Modul 8 die Kante 14 nur teilweise, die Kante 17 gar nicht ermitteln konnte und ferner die nicht erwünschten Kanten der Glanzstelle 13 als relevante Kanten 26 erkennt. Sowohl das Musterkantenbild 18 als auch das Objektbild 12 wird auf der Anzeige 5 (Figur 1) dargestellt und der Anwender kann in Bearbeitungsschritten mittels der Bedienvorrichtung 4 und dem Software-Modul 9 interaktiv das Musterkantenbild 18 ändern. Dazu zeichnet im vorliegenden Beispiel der Anwender in einem ersten Bearbeitungsschritt eine der fehlenden Kanten 17 entsprechende Kante 19 in das Musterkantenbild 18 ein, in einem zweiten Bearbeitungsschritt vervollständigt der Anwen- der eine der Kante 14 entsprechende Kante 20 und in einem weiteren Bearbeitungsschritt löscht oder markiert mit einer Kennzeichnung 22 der Anwender eine der Glanzstelle 13 entsprechende Kante 21. Die Modifikation ist abgeschlossen und das Software-Modul 10 übermittelt ein modifiziertes Musterkantenbild bzw. Modell 23 dem Auswerte-Modul 11, wobei für den Fall, dass die der Glanzstelle 13 entsprechende Kante 21 mit der Kennzeichnung 22 versehen ist, das Auswerte-Modul 11 diese Kante als unbedeutende Kante bewertet und für eine Auswertung von Objektbildern nicht berücksichtigt.From the recorded object 12, the software module 8 automatically determines the pattern edge image 18 (FIG. 3), wherein the software module 8 could only partially detect the edge 14, the edge 17 at all, and furthermore the unwanted edges of the highlight 13 as relevant Edge 26 detects. Both the pattern edge image 18 and the object image 12 are displayed on the display 5 (FIG. 1) and the user can interactively change the pattern edge image 18 in processing steps by means of the operating device 4 and the software module 9. For this purpose, in the present example the user records, in a first processing step, an edge 19 corresponding to the missing edges 17 in the pattern edge image 18; in a second processing step, the user completes the edge 20 corresponding to the edge 14 and in a further processing step deletes or marks an edge 21 corresponding to the highlight 13 with an identification 22 of the user. The modification is completed and the software module 10 transmits a modified pattern edge image or model 23 to the evaluation -Module 11, wherein for the case that the edge 21 is provided with the mark 22 corresponding to the gloss point 13, the evaluation module 11 evaluates this edge as insignificant edge and not considered for an evaluation of object images.
Die Module 8, 9, 10 brauchen nicht als Software-Module ausgebildet zu sein, diese können selbstverständlich auch hard- ware-technisch verwirklicht werden. The modules 8, 9, 10 do not need to be designed as software modules, these can of course also be implemented hardware-technically.

Claims

Patentansprüche claims
1. Verfahren zum Erstellen eines Modells eines Objektes (7 , 12) , wobei ein Muster eines zu erkennenden, relevante Merk- male (14, 15, 16, 17) aufweisenden Objekts (7, 12) in Form eines Musterbildes (18) automatisch eingelernt und auf einer Anzeige (5) dargestellt wird, dadurch gekennzeichnet, dass durch einen Anwender mittels einer Bedienvorrichtung (2) zur Erstellung des Modells (23) - fehlende relevante Merkmale (19) dem Musterbild (18) hinzugefügt und/oder nicht eindeutig erkannte relevante Merkmale (20) im Musterbild (18) als relevant gekennzeichnet und/oder nicht zum Objekt (7, 12) gehörige relevante Merkmale (21) "im Musterbild (18) gelöscht oder markiert werden.1. A method for creating a model of an object (7, 12), wherein a pattern of an object (7, 12) to be recognized, relevant features (14, 15, 16, 17) in the form of a pattern image (18) automatically is taught and displayed on a display (5), characterized in that by a user by means of an operating device (2) for creating the model (23) - missing relevant features (19) added to the pattern image (18) and / or not clearly identified Relevant features (20) in the pattern image (18) marked as relevant and / or not relevant to the object (7, 12) relevant features (21) "deleted in the pattern image (18) or marked.
2.' Objektbearbeitungssystem mit einer Bildaufnahmeeinheit (2) zur Aufnahme eines Muster- und eines Objektbildes, wobei Mittel (8, 9, 10) des Objektbearbeitungssystems (1) ein2. ' object processing system with an image pickup unit (2) for receiving a pattern and an object image, wherein means (8, 9, 10) of the object processing system (1) a
Muster des zu erkennenden, relevante Merkmale (14, 15, 16, 17) aufweisenden Objekts (5, 12) in Form des Musterbildes (18) automatisch einlernen und auf einer Anzeige (5) des Objekterkennungssystems (1) darstellen, dadurch gekennzeichnet, dass die Mittel (8, 9, 10) derart ausgebildet sind, dass einem Anwender mittels einer Bedienvorrichtung (4) zur Erstellung des Modells (23) ermöglicht wird, fehlende relevante Merkmale (17) dem Musterbild (18) hinzuzufügen und/oder - nicht eindeutig erkannte relevante Merkmale (20) imPattern of the object (5, 12) to be recognized, having relevant features (14, 15, 16, 17) in the form of the pattern image (18) and displayed on a display (5) of the object recognition system (1), characterized in that the means (8, 9, 10) are designed such that a user by means of an operating device (4) for creating the model (23) is allowed to add missing relevant features (17) to the pattern image (18) and / or - not clearly recognized relevant features (20) in
Musterbild (18) als relevant zu kennzeichnen und/oder nicht zum Objekt (5, 12) gehörige relevante Merkmale (21) im Musterbild (18) zu löschen oder zu markieren. Identify pattern image (18) as relevant and / or not relevant to the object (5, 12) relevant features (21) in the pattern image (18) to delete or mark.
PCT/EP2006/002190 2006-03-09 2006-03-09 Method and object editing system for creating a model of an object WO2007101452A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/EP2006/002190 WO2007101452A1 (en) 2006-03-09 2006-03-09 Method and object editing system for creating a model of an object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2006/002190 WO2007101452A1 (en) 2006-03-09 2006-03-09 Method and object editing system for creating a model of an object

Publications (1)

Publication Number Publication Date
WO2007101452A1 true WO2007101452A1 (en) 2007-09-13

Family

ID=37111261

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2006/002190 WO2007101452A1 (en) 2006-03-09 2006-03-09 Method and object editing system for creating a model of an object

Country Status (1)

Country Link
WO (1) WO2007101452A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10110275A1 (en) * 2001-03-02 2002-09-19 Daimler Chrysler Ag Method for semi-automatic recognition or classification of random sample patterns in which a pattern is first accessed by a computer system and a suggestion made, with the suggestion accepted or rejected by an operator

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10110275A1 (en) * 2001-03-02 2002-09-19 Daimler Chrysler Ag Method for semi-automatic recognition or classification of random sample patterns in which a pattern is first accessed by a computer system and a suggestion made, with the suggestion accepted or rejected by an operator

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"OPTISCHE LERNKURVEN", MESSEN UND PRUFEN, IVA INTERNATIONAL, MUNCHEN, DE, vol. 35, no. 5, May 1999 (1999-05-01), pages 32 - 34,36, XP000896548, ISSN: 0937-3446 *
YACHIDA M ET AL: "A versatile machine vision system for complex industrial parts", IEEE TRANSACTIONS ON COMPUTERS, IEEE SERVICE CENTER, LOS ALAMITOS, CA, US, vol. C-26, no. 9, September 1977 (1977-09-01), pages 882 - 894, XP002235040, ISSN: 0018-9340 *

Similar Documents

Publication Publication Date Title
DE102017107264A1 (en) VISIBLE RAIN RECOGNITION USING DEEP LEARNING
DE112007001793B4 (en) Method and device for comparing documents by means of a cross-level comparison
EP1301834A1 (en) Method for providing production-related data, especially of motor vehicles
DE102016115837A1 (en) Procedure for the authorship assessment of a painting and its use
DE102018206193A1 (en) Shape recognition device, shape recognition method and program
DE102014113817A1 (en) Device and method for recognizing an object in an image
DE102006059525B3 (en) Objects i.e. postal items, transport controlling method, involves generating message if no data set is found with image of misrouted object under emitted data set such that delivery point specification of misrouted object is read as false
DE102017209283A1 (en) Method for optimizing a digital map for an automated vehicle
DE102014003005A1 (en) Method for determining a sorting result for a value document and means for carrying out the method
WO2007101452A1 (en) Method and object editing system for creating a model of an object
WO2019063246A1 (en) Detection system, working method and training method for generating a 3d model with reference data
DE102018208481A1 (en) Estimate a course of a rail track
WO2021148392A1 (en) Method and device for object identification on the basis of sensor data
EP3701428B1 (en) Method and apparatus for improving the robustness of a machine learning system
DE102019211557A1 (en) Railway signal detection for autonomous rail vehicles
DE102020215754A1 (en) Optical track detection
DE102009009904A1 (en) Object i.e. road sign, identifying method, involves adding images and classifiers, which contain stored samples and sequences, as another set of samples, if sequences correspond to another set of sequences
EP1988506A2 (en) Method for automatically determining testing areas, testing method and testing system
DE102019206233A1 (en) Method for providing training data for adaptable situation recognition algorithms and methods for automated situation recognition of operating situations of a vehicle for public passenger transport
DE102018008993A1 (en) Method for determining a state of infrastructure objects, control device and computer program product
DE102020120962B4 (en) Recognition method and recognition system for clearly recognizing an object
DE102022203067A1 (en) Method for recognizing objects in image data
EP2926323B1 (en) Method and device for testing a laser marking produced in accordance with an angle on a document surface
DE102018120121B3 (en) Method and device for synchronous feeding to a vehicle test bench
DE102021131750A1 (en) Sensor with extender interface

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06723326

Country of ref document: EP

Kind code of ref document: A1