DE102014108924B4 - A semi-supervised method for training an auxiliary model for multi-pattern recognition and detection - Google Patents
A semi-supervised method for training an auxiliary model for multi-pattern recognition and detection Download PDFInfo
- Publication number
- DE102014108924B4 DE102014108924B4 DE102014108924.3A DE102014108924A DE102014108924B4 DE 102014108924 B4 DE102014108924 B4 DE 102014108924B4 DE 102014108924 A DE102014108924 A DE 102014108924A DE 102014108924 B4 DE102014108924 B4 DE 102014108924B4
- Authority
- DE
- Germany
- Prior art keywords
- model
- pattern
- training
- procedure according
- trained
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
Abstract
Ein Verfahren zum Trainieren eines Modells zum Erkennen und Erfassen eines Musters in einem Maschinensichtsystem, wobei das Verfahren die folgenden Schritte umfasst:- Bereitstellung eines oder mehrerer Initialtrainingsbilder mit einem Bereich, der ein Muster, das trainiert werden soll, bestimmt, wobei das eine oder die mehreren Trainingsbilder von einer Datenbank geliefert werden, die eine Vielzahl von Trainingsbildern enthält;- Trainieren eines ersten Mustermodells aus dem einen oder mehreren Initialtrainingsbildern;- Iterieren über die verbliebenen Bilder und Auswahl der hoch bewerteten Bilder als Eingabe zum Modelltraining; und- Ausgabe eines trainierten Mustermodells, das Merkmale einschließt, die eine vorher bestimmte Anzahl der Vielzahl von Trainingsbildern gemeinsam haben, wobei das trainierte Mustermodell sich vom ersten Mustermodell unterscheidet.A method of training a model for recognizing and capturing a pattern in a machine vision system, the method comprising the steps of:- providing one or more initial training images having an area defining a pattern to be trained, the one or the a plurality of training images are supplied from a database containing a plurality of training images;- training a first sample model from the one or more initial training images;- iterating over the remaining images and selecting the high scoring images as input to model training; and- outputting a trained pattern model including features common to a predetermined number of the plurality of training images, the trained pattern model being different from the first pattern model.
Description
GEBIET DER ERFINDUNGFIELD OF THE INVENTION
Die vorliegende Erfindung bezieht sich auf eine Maschinenvision, bei der Bilder von Objekten mithilfe einer Kamera oder einer anderen Abbildungsvorrichtung erhalten werden, bei dem die Suche nach einem Zielmuster im Bild der Suche nach dem Muster auf dem Objekt, das dargestellt wird, entspricht.The present invention relates to machine vision in which images of objects are obtained using a camera or other imaging device, in which searching for a target pattern in the image corresponds to searching for the pattern on the object being represented.
HINTERGRUND DER ERFINDUNGBACKGROUND OF THE INVENTION
Es ist ein Problem, Maschinenvisionssysteme benutzerfreundlich und einem weiteren Kreis von möglichen Benutzern zugänglich zu machen. Es gibt verschiedene Aspekt, die für Benutzer klar verständlich sind (beispielsweise, wie man einen Satz von Trainingsbildern erzeugt) und was die „Ground Truth“ der Situation ist. Darüber hinaus allerdings ist die Anwendung vieler Aspekte von Training und Laufzeitvorgängen der Maschinenvisionssysteme schwieriger.Making machine vision systems user-friendly and accessible to a wider range of potential users is a problem. There are several aspects that are clear for users to understand (e.g. how to generate a set of training images) and what the "ground truth" of the situation is. In addition, however, many aspects of the training and run-time operations of machine vision systems are more difficult to apply.
Bei Maschinenvisionssystemen, bei denen Bilder von Objekten mithilfe einer Kamera oder einer anderen Abbildungsvorrichtung erhalten werden und bei denen ein Muster auf dem Objekts, das abgebildet ist, mithilfe eines Verfahrens gesucht wird, das auf einem Computer oder einer anderen Rechenvorrichtung ausgeführt wird. Wenn ein Satz Bilder gegeben ist, wobei jedes Bild mindestens ein Beispiel eines Zielmusters enthält, aber bei dem sich das Aussehen des Zielmusters ändern kann, kann es auch eine Herausforderung sein, einen minimalen Satz von Modellen zur Mustererkennung und -Erfassung, der für alle Bilder im Bildersatz anwendbar sind, zu identifizieren und zu trainieren, Das Verfahren zur Mustererkennung und -erfassung ist genauer in den US-Patentanmeldungen mit den Nummern 6.408.109, 6.658.145 und 7.016.539 beschrieben. Wird ein Muster erkannt, bestätigt das Verfahren zur Mustererkennung und -erfassung (oder das „Tool“, bzw. Hilfsprogramm), dass das gesichtete Muster tatsächlich das Muster ist, nach dem das Hilfsprogramm sucht, und fixiert dessen Position, Ausrichtung, Maßstab, Schräglauf und Blickwinkel. Ein Beispiel eines solchen Suchhilfprogramms ist das PatMax® von Cognex Corporation in Natick, Massachusetts, USA. Das Verfahren zur Mustererkennung und -erfassung ist ein Verfahren der geometrischen Mustersuche. Die hier beschriebenen Verfahren werden allgemein auf geometrische Mustersuche angewendet.In machine vision systems, where images of objects are obtained using a camera or other imaging device, and where a pattern on the object being imaged is sought using a method executed on a computer or other computing device. Given a set of images, where each image contains at least one example of a target pattern, but where the appearance of the target pattern may change, it can also be challenging to create a minimal set of pattern recognition and detection models common to all images are applicable in the set of images. The method of pattern recognition and detection is described in more detail in US Patent Application Nos. 6,408,109, 6,658,145 and 7,016,539. When a pattern is recognized, the pattern recognition and capture process (or the "tool" or utility) confirms that the pattern it sees is indeed the pattern the utility is looking for and fixes its position, orientation, scale, skew and perspective. An example of such a search utility is the PatMax® from Cognex Corporation of Natick, Massachusetts, USA. The pattern recognition and detection method is a geometric pattern search method. The methods described here are generally applied to geometric pattern searches.
Weitere lernfähige Systeme und Trainingsverfahren zur Mustererkennung und -erfassung in Bildersätzen sind in
Beispielsweise kann ein Muster aus Elementen, die Kreise und Linien enthalten, bestehen. In Fig. schließt Muster 110 einen Kreis 112 und zwei diesen schneidende Linien 114, 116 ein; Muster 120 schließt einen Kreis 122 und ein Linienpaar 124, 126 ein; und Muster 130 schließt einen Kreis 132 und ein Linienpaar 134, 136 ein. Die Kreise können, was Radius und Liniendicke oder -anzahl betrifft, über den Bildersatz von trainierten Linien variieren. Dies kann insbesondere der Fall auf dem Gebiet von Halbleitern oder anderen Materialien sein, bei denen eine Vielzahl von Schichten auf einem Substrat abgelegt wird, was zu Verzerrungen der Merkmale auf jeder Schicht führen kann. Die Polarität der Muster kann ebenso innerhalb des Bildersatzes variieren (wie im Unterschied zwischen Muster 120 und Muster 130 gezeigt). Die Bilder können auch einen hohen Grad an Rauschen enthalten.For example, a pattern can consist of elements containing circles and lines. In Figure 1,
Das Problem hat mindestens zwei Komponenten. Erstens besteht der Trainingsbildersatz aus Rauschbildern, so dass es schwierig ist, ein sauberes Modell aus einem einzigen Bild zu trainieren. Zweitens hat das Muster im Trainingsbildersatz ein unterschiedliches Aussehen, was das Trainieren eines einzigen Modells schwierig und während der Laufzeit fehlerhaft macht. Es ist daher Aufgabe der Erfindung, ein verbessertes System und Verfahren vorzuschlagen, welches ein einfaches und fehlerfreies Trainieren eines sauberen Modells auch mit einem verrauschten und unterschiedliche Varianten eines Musters enthaltenden Trainingsbildersatz erlaubt.The problem has at least two components. First, the training image set consists of noise images, so it is difficult to train a clean model from a single image. Second, the pattern in the training image set has a different appearance, making training a single model difficult and buggy at runtime. It is therefore the object of the invention to propose an improved system and method which allows simple and error-free training of a clean model even with a noisy training image set containing different variants of a pattern.
DARSTELLUNG DER ERFINDUNGPRESENTATION OF THE INVENTION
Um die Nachteile des Standes der Technik zu überwinden, verwenden die Systeme und Verfahren hier ein Modell zur Mustererkennung und -erfassung, um das Training durchzuführen. Ein Mustersuchmodell ist beispielsweise ein einziges Modell, das aus vielen Trainingsbildern trainiert wird. Bei einigen Ausführungsformen können zusammengesetzte Modelle eingesetzt werden, um entweder die Stabilität über Standardmodelle zur Mustererkennung und -erfassung zu verbessern und/oder um kleine Unterschiede im Aussehen eines Zielbereiches abzubilden. Zur Verbesserung der Stabilität kombinieren zusammengesetzte Modelle Daten von geräuschvollen (und anderweitig verzerrten) Trainingsbildern, die Beispiele von einzelnen darunterliegenden Mustern zeigen, um ein einziges stabiles Modell zu formen. Um das zu erreichen, verwendet ein Trainingselement, welches das Modell zur Mustererkennung und -erfassung einsetzt, die Eingabebilder und eine bekannte relative Lage oder Position (diese ist humanidentifiziert oder computerbestimmt).To overcome the disadvantages of the prior art, the systems and methods herein use a pattern recognition and detection model to perform the training. For example, a pattern search model is a single model that is trained from many training images. In some embodiments, composite models may be employed to either improve stability over standard pattern recognition and detection models and/or to accommodate small differences in appearance of a target area. To improve stability, composite models combine data from noisy (and otherwise distorted) training images showing examples of discrete underlying patterns to form a single stable model. To achieve this, a training element, which uses the model for pattern recognition and recognition, uses the input images and a known relative location or position (this is human-identified or computer-determined).
Um die kleinen Unterschiede im Aussehen eines Zielbereiches zu erklären, wird ein Trainingsverfahren eingesetzt, um einen Satz von Modellen zur Mustererkennung und -Erfassung zu trainieren, der den kompletten Bereich (oder zumindest einen großen Teil des kompletten Bereiches) des Aussehens des Zielmusters im Trainingssatz überspannt. Der Satz von Modellen zur Mustererkennung und -erfassung kann sich entweder als getrennte Beispiele von Mustermodellen zeigen oder als Mehrfachmustermodell. Ein Mehrfachmustermodell ist eine Ansammlung von Modellen zur Mustererkennung und -Erfassung. Die darunterliegenden Modelle können Standardmodelle zur Mustererkennung und -erfassung sein oder ein zusammengesetztes Mustermodell oder eine Kombination von beiden. Das Mehrfachmustermodell ist zum Einsatz bei der Formung von Zielen vorgesehen, deren Aussehen sehr unterschiedlich ist. Das Mehrfachmustermodell kann in verschiedenen modi laufen, um das vorbekannte Wissen des wahrscheinlichen zeitlichen Ablaufes des Aussehens des Modells auszunutzen. Der Einbau von Mehrfachmustermodellen in den Mehrfachmustermodellrahmen kann verwendet werden, um die Menge an Front End Processing zu reduzieren und so schrittweisen Leistungsgewinn über den Lauf von Beispielen separater Mustermodelle zu erhalten. Das Mehrfachmustermodell kann auch Ergebnisse seiner zusammengesetzten Modelle überprüfen, um Überlappung zu filtrieren, wenn beispielsweise Ergebnisse von zwei Modellen mit mehr als einer vom Benutzer bestimmten Schwelle überlappen; dann kann das Mehrfachmustermodell nur das besser passende Ergebnis (oder das mit den mehr Treffern) an den Benutzer zurückschicken.In order to explain the small differences in the appearance of a target area, a training method is used to train a set of pattern recognition and recognition models that span the complete range (or at least a large part of the complete range) of the appearance of the target pattern in the training set . The set of models for pattern recognition and detection can either manifest themselves as separate instances of pattern models or as a multiple pattern model. A multi-pattern model is a collection of models for pattern recognition and detection. The underlying models can be standard models for pattern recognition and detection, or a composite pattern model, or a combination of both. The multi-pattern model is intended for use in sculpting targets that vary widely in appearance. The multi-pattern model can be run in different modes to exploit prior knowledge of the likely timing of the model's appearance. The incorporation of multi-pattern models into the multi-pattern model framework can be used to reduce the amount of front end processing and thus obtain incremental performance gain over the running of instances of separate pattern models. The multi-pattern model can also check results of its composite models to filter overlap when, for example, results from two models overlap with more than a user-specified threshold; then the multi-pattern model can only return the better matching result (or the one with more matches) to the user.
Figurenlistecharacter list
Die untenstehende Erfindungsbeschreibung bezieht sich auf die beigefügten Zeichnungen, von denen
-
1 , bereits beschrieben, drei Beispiele von Bildern zeigt, wobei jedes ein Muster einschließt, gemäß des Verfahrens zur Mustererkennung und -Erfassung; -
2 ein schematisches Blockdiagramm eines Masinenvisionssystem zur Ausführung der Grundsätze der vorliegenden Erfindung gemäß eines Ausführungsbeispiels ist; -
3 ein Flussdiagramm eines Verfahrens zum Trainieren eines einzelnen Modells zur Mustererkennung und -Erfassung gemäß der Ausführungsbeispiele ist; -
4 ein Flussdiagramm eines Verfahrens zum Trainieren eines Mehrfachmustermodells und Messleistung eines gegenwärtig trainierten Ausgabemodells gemäß der Ausführungsbeispiele ist; -
5 ein Flussdiagramm eines Verfahrens zum Vorschlag und Einstufen von Kandidaten zur Addition zu der Ansammlung von Ausgabemodellen gemäß der Ausführungsbeispiele ist; und -
6 ein Flussdiagramm eines Verfahrens ist, um dem Benutzer den Kandidaten mit den meisten Treffern vorzuschlagen und Mehrfachmustermodelle auszugeben, gemäß der Ausführungsbeispiele.
-
1 , already described, shows three examples of images, each including a pattern, according to the pattern recognition and detection method; -
2 Figure 12 is a schematic block diagram of a machine vision system for carrying out the principles of the present invention according to one embodiment; -
3 Figure 12 is a flow chart of a method for training a single model for pattern recognition and detection according to example embodiments; -
4 Figure 12 is a flow chart of a method for training a multi-pattern model and measurement performance of a currently trained output model according to example embodiments; -
5 Figure 12 is a flow chart of a method for proposing and ranking candidates for addition to the aggregation of output models according to the example embodiments; and -
6 Figure 12 is a flow chart of a method for suggesting the most-matching candidate to the user and outputting multiple pattern models, according to example embodiments.
FIGURENBESCHREIBUNGFIGURE DESCRIPTION
Das Bildanalysesystem 225 kann gemäß der Lehren der vorliegenden Erfindung programmiert werden, um ähnliche Merkmale unter der Vielzahl von Bildern zu suchen, um entsprechende Erkennungs- und Erfassungsinformationen zum Trainieren eines Maschinenvisionssystems zu erzeugen. Das Bildanalysesystem 225 kann eine oder mehrere zentrale Verarbeitungseinheiten (Prozessoren) 230, Hauptspeicher 235, Eingabe-/Ausgabesysteme 245 und ein oder mehrere Laufwerke oder eine andere Form der Massenspeicherung 240 aufweisen. Beispielsweise verbindet sich das Eingabe-/Ausgabesystem 245 mit dem Kommunikationspfad 220 zwischen der Erfassungsvorrichtung 205 und dem Bildanalysesystem 225. Das System 225 kann durch Programmierungsanweisungen gemäß der Lehren der vorliegenden Erfindung konfiguriert sein, um die neuartige, durch mehrere Bilder trainierte Mustererkennung und -Erfassung der vorliegenden Erfindung auszuführen. Fachleute werden es zu schätzen wissen, dass alternative Hardware- und/oder Softwarekonfigurationen verwendet werden können, um die Grundlagen der vorliegenden Erfindung umzusetzen. Insbesondere können die Lehren der vorliegenden Erfindung in Software, Hardware, Firmware und/oder all ihren Kombinationen umgesetzt werden. Weiterhin können während der Laufzeit, im Gegensatz zur Trainingszeit, zusätzliche Komponenten ins Maschinenvisionssystem 200 eingefügt werden. Beispielsweise können Objekte 215 auf einem Förderband oder einer anderen Montagelinie usw. gefördert werden.The
Gemäß eines Ausführungsbeispiels der vorliegenden Erfindung, kann das Maschinenvisionssystem 200 verwendet werden, um das Trainingsmodell für ein Laufzeitmaschinenvisionssystem zu erzeugen. So kann das Maschinenvisionssystem 200 verwendet werden, um ein Trainingsmodell zu erzeugen, das in einer Vielzahl von Maschinenvisionssystemen, die ähnliche Komponenten einsetzen, verwendet werden kann.According to an embodiment of the present invention, the
Darüber hinaus sollte festgehalten werden, dass das Musterelement (oder Mustererkennungs- und -Erfassungselement), wie hier gezeigt und beschrieben, und dessen zugehörige Modelle sich im Allgemeinen innerhalb des Bildanalysesystems 225 befinden. Allerdings kann entsprechend durchschnittlichem Fachwissen die Position und Speicherung der Elemente und Modelle höchst unterschiedlich sein.Additionally, it should be noted that the pattern element (or pattern recognition and detection element) as shown and described herein and its associated models reside generally within the
Es sollte festgehalten werden, dass, während die vorliegende Erfindung mit Bezug auf ein Maschinenvisionssystem 200 beschrieben wird, die Grundsätze der vorliegenden Erfindung bei einer Anzahl von verschiedenen Ausführungsformen eingesetzt werden kann. So sollte der Begriff Maschinenvisionssystem alternative Systeme einschließen. Allgemeiner gesagt, können die Grundprinzipien der vorliegenden Erfindung bei jedem System, das Teilmuster in Bildern erfasst, umgesetzt werden. Eine Ausführungsform kann beispielsweise ein herkömmliches Maschinenvisionssystem betreffen, das eine eigenständige Kamera umfasst, die aktiv mit einem eigenständigem Computer verbunden ist, der so programmiert ist, dass es Bilder usw. verarbeitet. Allerdings können die Grundsätze der vorliegenden Erfindung bei anderen Vorrichtungen und/oder Systemen eingesetzt werden, die Teilmuster in Bildern erfassen. Beispielsweise, ein Visionssensor, wie etwa das Produkt Checker, das von Cognex Corporation bezogen werden kann, oder eine andere Vorrichtung, die Beleuchtungsquellen, Bilderfassungsmöglichkeiten und/oder - Verarbeitungsmöglichkeiten umfasst. Solche Visionssensoren können über getrennte Module, wie etwa ein Cognex Vision View, trainiert und/oder konfiguriert werden. Bei solchen Ausführungsformen kann der Benutzer den Visionssensor mithilfe einer Vielzahl von Teilen anstatt mit einem einzigen Teil trainieren. Der Benutzer kann ein erstes Teil wählen, dieses vor dem Sensor platzieren und dem System mitteilen, dass das Trainingsteil in Position ist. Ein zweites (drittes usw.) Teil kann ähnlich trainiert werden. Der Benutzer kann den Trainingsschritt mithilfe beispielsweise eines grafischen Benutzerinterface (GUI) und/oder Knöpfen oder anderen Kontrolloberflächen, die am Trainingsmodul und/oder am Visionssensor selber angeordnet sind, kontrollieren. Weiterhin kann die Funktion der vorliegenden Erfindung in Handgeräte, drahtlose, kompatible Geräte usw. eingebaut werden. Der Begriff Maschinenvisionssystem sollte also breit ausgelegt werden, damit er all diese Systeme und Geräte umfasst, die ein oder mehrere der Lehren der vorliegenden Erfindung einsetzen können.It should be noted that while the present invention will be described with reference to a
Trainieren eines einzelnen Modell zur Mustererkennung und -ErfassungTrain a single model for pattern recognition and capture
Gemäß der Ausführungsbeispiele wird ein Modell zur Mustererkennung und -Erfassung aus vielen Bildern trainiert. Es wird zum Beispiel auf die
Der hier benutzte Begriff „Trainingselement“ (oder Trainingsmodul) bezieht sich auf die nicht transitorische Ausführung der Schritte, die beim Erzeugen eines Trainingsmodells durchgeführt werden. Das Trainingselement ist Teil eines nicht transitorischen Computerprogramms, das ein (oder mehrere) Programm(e) oder Funktionen enthält, die sich der Ausführung einer bestimmten Aufgabe widmen. Jedes hier beschriebene und gezeigte Element (oder Modul) kann allein oder in Kombination mit anderen Modulen innerhalb des Maschinenvisionssystem eingesetzt werden. Das Trainingselement schafft das Trainingsmodell durch Trainieren eines Modellsatzes, der das ganze Spektrum von Trainingsbildern überspannt, die in der Datenbasis enthalten sind. Zusätzlich bezieht sich der hier benutzte Begriff „Modell zur Mustererkennung und -Erfassung“ oder „Mustermodell“ allgemein auf Mustermodelle, die in der Patentschrift '457 veröffentlicht sind, wenn nichts anderes vermerkt ist.As used herein, the term "training element" (or training module) refers to the non-transitory execution of the steps involved in creating a training model. The training element is part of a non-transitory computer program that contains one (or more) program(s) or functions dedicated to performing a specific task. Each element (or module) described and shown herein can be used alone or in combination with other modules within the machine vision system. The training element creates the training model by training a model set that spans the full range of training images contained in the database. Additionally, as used herein, the term “pattern recognition and detection model” or “pattern model” generally refers to pattern models disclosed in the '457 patent unless otherwise noted.
Wie in der
Mit Bezug auf
Trainieren eines Mehrfachmodells zur Mustererkennung und -ErfassungTrain a multiple model for pattern recognition and capture
Das Verfahren verwendet diese Eingaben in Schritt 420, um ein erstes zusammengesetztes „PatMax“-Mustermodell (PCMOUT0) mithilfe des oben beschriebenen Verfahrens zum Trainieren eines einzelnen Modells zur Mustererkennung und -Erfassung, das in
In Schritt 430 verwendet das Verfahren als Nächstes die gleichen Eingaben (aus 410), um ein unterschiedliches (zweites) Modell PCMCAND0 zur Mustererkennung und -Erfassung mithilfe des vorher beschriebenen Algorithmus, der in
Leistungsmessungperformance measurement
Bei Schritt 440 muss das System vor dem Beginn des Verfahrens zur Suche von Musterkandidaten und des Trainierens derjenigen, die als „Beste“ (höchste Trefferquote oder am passendsten) angesehen werden, zuerst die Leistung des gerade trainierten Ausgabemodells, d.h. PMMOUT messen. Um die Leistung zu messen, lässt das Verfahren das Modell über den ganzen Testsatz der Bilder laufen und berechnet eine kombinierte Trefferquote, die auf 0 initialisiert wird. Wenn PMMOUT das Muster in einem Bild mit einer Trefferquote (der Trefferquotenbereich liegt zwischen 0 und 1) größer als die vom Benutzer definierte Vertrauensschwelle findet, dann wird dieser Treffer zum kombinierten Ergebnis hinzugefügt. Wenn allerdings PMMOUT das Muster nicht in einem Bild mit einer Trefferquote größer als die vom Benutzer definierte Vertrauensschwelle findet, wird 1 vom kombinierten Ergebnis abgezogen. Andere, ähnliche Ergebnisfunktionen können von Benutzern mit durchschnittlichem Wissen umgesetzt werden und können eine Messung der Ausrichtungsgenauigkeit einschließen, falls „Ground Truth“-Daten vorliegen.At
Nach der Durchführung der Messung können die verbliebenen Schritte des Verfahrens immer wieder wiederholt werden, und werden so mit der Variablen ,t' bezeichnet. Die
Im Verfahrensschritt 520 schlägt das Mehrfachkandidatenmodell PMMCAND Kandidaten zur Addition zur Ausgabemodellansammlung PMMOUT(t) vor und reiht sie ein. Um das zu erreichen, lässt man das Mehrfachkandidatenmustermodell PMMCAND(t) auf jedem Trainingsbild Ii laufen. Kommt ein annehmbares Ergebnis zurück (das heißt, eine Stelle ist gefunden, wo das Modell eine höhere Trefferquote erzielt als eine vom Benutzer bestimmte Akzeptanzschwelle), dann werden in Schritt 520 der passende Bereich Ri und Ursprung Oi verwendet, um ein zusammengesetztes Kandidatenmustermodell PCMOUT (i) zu trainieren (wie oben beschrieben unter Beachtung des Trainings eines einzelnen Modells für PMMOUT(t)). Daher wird das zusammengesetzte Kandidatenmodell aus dem Kandidatenbereich Ri vom Bild Ii un den entsprechenden Bereichen der am besten passenden Nc-1 Bilder dieses Kandidatenbildbereiches (Ri des Bildes Ii) trainiert.In
In Schritt 530 läuft der Prozess durch den Satz von zusammengesetzten Kandidatenmustermodellen und fügt ihn für jeden zuerst zur Ausgabeansammlung PMMOUT(t)→PMMOUT(t), hinzu, misst dann auf gleiche Weise wie oben in Leistungsmessung beschrieben seine Leistung. Nachdem die Trefferquote für die vorgeschlagene Ausweitung zum Mehrfachausgabemodell PMMOUT(t)', erhalten wurde, wird PCMOUT (i) von PMMOUT (t), → PMMOUT(t) entfernt. In Schritt 534 werden die Kandidaten entsprechend dieser Treffer sortiert (das heißt der PCMOUT (i)).In
Am Ende des Verfahrens 500 hat das System eine Ansammlung von zusammengesetzten Kandidatenmustermodellen in Schritt 540, die alle Trainingsbilder abdecken, bei denen PMMCAND (t) ein annehmbares Ergebnis finden könnte. Das Verfahren stuft diese Modelle entsprechend ihres Grades an Verbesserung an Abdeckung ein, den jedes an die Ansammlung von Ausgabemustermodellen (oder Mehrfachmodellen) PMMOUT(t) liefert. Werden keine Kandidaten gefunden, um die Trefferquote um mehr als eine vom Benutzer definierte Menge zu verbessern, dann kann angenommen werde, dass ein Haltekriterium erfüllt wurde.At the end of the
Wird der Kandidat angenommen, dann wird bei Schritt 640 das angenommene Kandidatenmodell PCMOUT(accepted) zur gegenwärtigen Ansammlung von Ausgabemodellen PMMOUT(t) -> PMMOUT(t+1) hinzugefügt. Die Ansammlung von Kandidatensuchmodellen (oder Mehrfachmodellen) sollte nun wünschenswerter Weise mit einem ähnlichen Modell auf den neuesten Stand gebracht werden. In Schritt 650 wird das Kandidatenmodell PCMCAND (accepted) vom Bereich Raccepted des Bilds Iaccepted mithilfe von Trainingsparametern TPCAND trainiert. PCMCAND (accepted) wird nun zu PMMCAND(t) → PMMCAND(t+1) in Schritt 660 hinzugefügt. Die Ausgaben zur Wiederholung (t) in Schritt 670 sind das Mehrfachkandidatenmodell PMMCAND(t+1) und das Mehrfachausgabemodell PMMOUT(t+1).If the candidate is accepted, then at
Die verschiedenen Ausführungsbeispiele sorgen für die Erzeugung eines Modells zur Mustererkennung und -Erfassung, das jedes Trainingsbild einer Vielzahl von Trainingsbildern durchläuft, um ein Modell zu liefern, das die komplette Datenbasis von Trainingsbildern überspannt (das heisst gültig ist). Das verbessert Stabilität und Effizienz des laufenden Systems.The various embodiments provide for the generation of a pattern recognition and detection model that iterates through each of a plurality of training images to yield a model that spans (i.e., is valid) the entire database of training images. This improves the stability and efficiency of the running system.
Verschiedene Varianten und Zusätze können gemacht werden, ohne vom Sinn und Inhalt dieser Erfindung abzuweichen. Merkmale jeder der verschiedenen oben beschriebenen Ausführungsformen können mit Merkmalen von anderen beschriebenen Ausführungsformen kombiniert werden, die passend sind, um eine Vielzahl neuer Kombinationen von Merkmalen zusammen mit neuen Ausführungsformen zu liefern. Während weiterhin das oben Gesagte eine Anzahl von verschiedenen Ausführungsformen der Vorrichtung und des Verfahrens der vorliegenden Erfindung beschreibt, ist das, was hier beschrieben wurde, nur ein Beispiel der Anwendung der Grundlagen der vorliegenden Erfindung. Die Begriffe „Verfahren“ und/oder „Pozessor“, wie sie beispielsweise hier benutzt werden, sollten weit gefasst werden, um eine Bandbreite von Funktionen, die auf elektronischer Hardware und/oder Software beruhen, zu umfassen. Auch verschiedene Begriffe von Richtung und Orientierung, die hier benutzt wurden, wie etwa „senkrecht“, „waagerecht“, „auf, „unter“, „unten“, „oben“, „Seite“, „vorne“, „hinten“, „links“, „rechts“ und dergleichen, werden nur als relative Übereinkunft und nicht als absolute Orientierung mit Bezug auf ein festes Koordinatensystem, wie etwa Schwerkraft, verwendet. Darüber hinaus kann ein dargestelltes Verfahren oder ein Prozessor mit anderen Verfahren und/oder Prozessoren kombiniert werden oder in verschiedene Hilfsverfahren oder -Prozessoren unterteilt werden. Solche Hilfsverfahren und/oder -Prozessoren können gemäß der Ausführungsbeispiele hier auf verschiedene Weise kombiniert werden. Ebenso wird ausdrücklich in Betracht gezogen, dass alle Funktionen, Verfahren und /oder Prozessoren hier mithilfe elektronischer Hardware, Software, die aus einem nicht transitorischen, computerlesbarem Medium von Programmanweisungen oder einer Kombination von Hardware und Software besteht, umgesetzt werden können. Darüber hinaus wird in Betracht gezogen, dass einige oder alle Verarbeitungsaufgaben des Visionssystems entweder im Hauptmodul oder in einem eigenen Prozessor (z. B. einem Server oder PC), der durch das Schnittstellenmodul wirksam mit dem Hauptmodul über eine drahtlose oder eine Drahtkommunikationsverbindung (Netzwerk) verbunden ist, ausgeführt werden können.Various variations and additions can be made without departing from the spirit and spirit of this invention. Features of each of the various embodiments described above may be combined with features of other described embodiments as appropriate to provide a variety of new combinations of features along with new embodiments. Furthermore, while the above describes a number of different embodiments of the apparatus and method of the present invention, what has been described herein is but one example of the application of the principles of the present invention. The terms "method" and/or "processor", for example as used herein, should be broadly defined to encompass a range of electronic hardware and/or software based functions. Also various terms of direction and orientation used here, such as "vertical", "horizontal", "up", "under", "below", "above", " side", "front", "back", "Left", "right" and the like are used only as a relative convention and not as an absolute orientation with respect to a fixed coordinate system such as gravity. Furthermore, an illustrated method or processor may be combined with other methods and/or processors or broken down into various auxiliary methods or processors. Such auxiliary methods and/or processors can be combined in various ways according to the exemplary embodiments herein. Likewise, it is expressly contemplated that all functions, methods, and/or processors herein may be implemented using electronic hardware, software consisting of a non-transitory computer-readable medium of program instructions, or a combination of hardware and software. In addition, it is contemplated that some or all of the processing tasks of the vision system may reside either in the main module or in a dedicated processor (e.g., a server or PC) that is operably communicated through the interface module with the main module via a wireless or wired communications link (network). connected can be executed.
Claims (26)
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361841142P | 2013-06-28 | 2013-06-28 | |
US61/841,142 | 2013-06-28 | ||
US13/955,120 US9679224B2 (en) | 2013-06-28 | 2013-07-31 | Semi-supervised method for training multiple pattern recognition and registration tool models |
US13/955,120 | 2013-07-31 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102014108924A1 DE102014108924A1 (en) | 2015-01-15 |
DE102014108924B4 true DE102014108924B4 (en) | 2022-07-21 |
Family
ID=52107466
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102014108924.3A Active DE102014108924B4 (en) | 2013-06-28 | 2014-06-25 | A semi-supervised method for training an auxiliary model for multi-pattern recognition and detection |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102014108924B4 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110895691B (en) * | 2018-09-12 | 2023-06-23 | 阿里巴巴集团控股有限公司 | Image processing method and device and electronic equipment |
CN109977815A (en) * | 2019-03-13 | 2019-07-05 | 上海商汤智能科技有限公司 | Image quality evaluating method and device, electronic equipment, storage medium |
CN113706475B (en) * | 2021-08-06 | 2023-07-21 | 福建自贸试验区厦门片区Manteia数据科技有限公司 | Confidence analysis method and device based on image segmentation |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8144976B1 (en) | 2010-12-06 | 2012-03-27 | Seiko Epson Corporation | Cascaded face model |
US8315457B2 (en) | 2007-12-21 | 2012-11-20 | Cognex Corporation | System and method for performing multi-image training for pattern recognition and registration |
US8457390B1 (en) | 2008-10-10 | 2013-06-04 | Cognex Corporation | Method and apparatus for training a probe model based machine vision system |
-
2014
- 2014-06-25 DE DE102014108924.3A patent/DE102014108924B4/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8315457B2 (en) | 2007-12-21 | 2012-11-20 | Cognex Corporation | System and method for performing multi-image training for pattern recognition and registration |
US8457390B1 (en) | 2008-10-10 | 2013-06-04 | Cognex Corporation | Method and apparatus for training a probe model based machine vision system |
US8144976B1 (en) | 2010-12-06 | 2012-03-27 | Seiko Epson Corporation | Cascaded face model |
Also Published As
Publication number | Publication date |
---|---|
DE102014108924A1 (en) | 2015-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102011106050B4 (en) | Shadow removal in an image captured by a vehicle-based camera for detection of a clear path | |
EP3103060A1 (en) | 2d image analyzer | |
DE102016013274A1 (en) | IMAGE PROCESSING DEVICE AND METHOD FOR RECOGNIZING AN IMAGE OF AN OBJECT TO BE DETECTED FROM ENTRY DATA | |
DE112016004266T5 (en) | Procedure for facial alignment | |
DE102016206010B4 (en) | Systems and methods for classifying and aligning highly similar or self-similar patterns | |
DE102015210442A1 (en) | Inspection device, inspection procedure and program | |
DE102019100575A1 (en) | METHOD AND SYSTEM FOR PRODUCING A AREA PICTURE USING LOW DEPTH DATA | |
DE102018102688A1 (en) | Image processing apparatus, image processing program and image processing system | |
DE112013004103T5 (en) | Method and apparatus for generating a disparity card | |
DE112019002848T5 (en) | SYSTEM AND METHOD FOR FINDING AND CLASSIFYING PATTERNS IN AN IMAGE WITH AN IMAGE PROCESSING SYSTEM | |
DE102014108924B4 (en) | A semi-supervised method for training an auxiliary model for multi-pattern recognition and detection | |
WO2014139504A1 (en) | Apparatus for volumetrically measuring an object in the body of an animal for slaughter | |
DE112019007762T5 (en) | Method for training a generative adversarial network, modified image generation module and system for detecting features in an image | |
WO2018073163A1 (en) | Yield prediction for a cornfield | |
DE202014010866U1 (en) | Specifiability of images | |
DE102019104310A1 (en) | System and method for simultaneously viewing edges and normal image features through a vision system | |
DE102011015849A1 (en) | Device and method for automatically monitoring a device for processing meat products | |
DE102016100134A1 (en) | A method and apparatus for inspecting an object using machine vision | |
DE112018001600T5 (en) | SYSTEM AND METHOD FOR 3D PROFILE DETERMINATION USING A MODEL-BASED PEAK SELECTION | |
DE102012200930A1 (en) | Apparatus and method for detecting a plant against a background | |
DE102017009118A1 (en) | IMAGE BALANCE FOR SERIAL PICTURES | |
EP2997543B1 (en) | Device and method for the parameterisation of a plant | |
WO2019183659A1 (en) | Content-based image search | |
Demir | Combination of airborne laser and image data for building detection and 3D roof reconstruction | |
DE102015003537A1 (en) | BLOCKING DETECTION PROCEDURE FOR A CAMERA AND AN ELECTRONIC DEVICE WITH CAMERAS |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R082 | Change of representative |
Representative=s name: PATENTANWAELTE OLBRICHT, BUCHHOLD, KEULERTZ PA, DE |
|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009660000 Ipc: G06V0030194000 |
|
R018 | Grant decision by examination section/examining division | ||
R082 | Change of representative |
Representative=s name: PATENTANWAELTE OLBRICHT, BUCHHOLD, KEULERTZ PA, DE |
|
R020 | Patent grant now final |