DE4406020C1 - Automatic digital image recognition system - Google Patents

Automatic digital image recognition system

Info

Publication number
DE4406020C1
DE4406020C1 DE4406020A DE4406020A DE4406020C1 DE 4406020 C1 DE4406020 C1 DE 4406020C1 DE 4406020 A DE4406020 A DE 4406020A DE 4406020 A DE4406020 A DE 4406020A DE 4406020 C1 DE4406020 C1 DE 4406020C1
Authority
DE
Germany
Prior art keywords
graph
stored
images
camera
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE4406020A
Other languages
German (de)
Inventor
Wolfgang Dr Konen
Jan C Vorbrueggen
Rolf P Wuertz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Idemia Identity and Security Germany AG
Original Assignee
ZENTRUM fur NEUROINFORMATIK G
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZENTRUM fur NEUROINFORMATIK G filed Critical ZENTRUM fur NEUROINFORMATIK G
Priority to DE4406020A priority Critical patent/DE4406020C1/en
Application granted granted Critical
Publication of DE4406020C1 publication Critical patent/DE4406020C1/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1176Recognition of faces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/754Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition

Abstract

The image recognition system uses Gabor filters of different size and orientation for extracting Gabor values which is combined via graphs which can be displaced, altered in scale and deformed, to allow comparison with stored graphs representing other images, using a graph comparison function. The position and scale of the graph are adjusted simultaneously in steps, to obtain the optimum comparison with the stored graph, before comparison of the values provided by each graph, their relative distance compared with a reference value to indicate a significant match.

Description

Die Erfindung betrifft ein automatisiertes bildverarbeitendes Verfahren zur größen- und lageinvarianten Erkennung von intrinsisch deformierbaren Objekten, insbesondere Gesich­ tern.The invention relates to an automated image processing method for size and positionally invariant recognition of intrinsically deformable objects, in particular face you.

Seit einigen Jahren sind auf dem Gebiet der Bildverarbeitung Verfahren bekannt, die eine Erkennung von Objekten aus einzelnen Ansichten (Bildern) dieser Objekte erlauben. Diese Verfahren zeichnen sich durch eine mehr oder weniger starke Robustheit gegenüber Variationen der Objektansichten (Lage, Orientierung im Raum, Größe, objektintrinsische Verzerrungen, Beleuchtung) aus. Insbesondere beschäftigen sich zahlreiche Arbeiten mit dem schwierigen Problem der Erkennung von Gesichtern, welche eine Klasse von Objekten mit zahlreichen intrinsischen Deformationsfreiheitsgraden (Mimik) darstellen.For several years, in the field of image processing methods are known allow recognition of objects from individual views (images) of these objects. These methods are characterized by a more or less strong robustness Variations of object views (position, orientation in space, size, object intrinsic Distortions, lighting). In particular, numerous works deal with the difficult problem of recognizing faces, which is a class of objects with numerous intrinsic deformation degrees of freedom (facial expressions).

In den zahlreichen Arbeiten in einschlägigen Fachzeitschriften, die sich mit der Erken­ nung von Gesichtern beschäftigen und die in einschlägigen Fachzeitschriften publiziert sind, werden folgende Lösungsansätze vorgeschlagen:In the numerous works in relevant trade journals, dealing with the Erken employment of faces and published in relevant journals the following solutions are suggested:

  • 1. Bichsel und Seitz, DAGM, S. 106-113, Springer-Verlag 1990 haben vorgeschlagen, aus Bildern extrahierte Merkmale einem Neuronalen Netz (Mehrlagen-Perzeptron) zu­ zuführen. Ein sehr ähnlicher Ansatz wird in Bouattour, Fogelman-Soulie et al., Artificial Neural Networks 2, S. 456, Elsevier-Verlag 1992 gewählt. In Lampinen, Artificial Neural Networks, S. 328, Elsevier- Verlag 1991 wird zur Merkmalsklassifi­ kation die Faktorenanalyse und ein neuronales Kohonen-Netz benutzt. Der Nachteil all dieser Verfahren ist, daß für jede neu zu erkennende Person eine ganze Reihe von Ansichten aufgenommen werden muß und daß die Neuronalen Netze sodann erneut trainiert werden müssen. Außerdem werden Ergebnisse dieser Verfahren in Form von Erkennungsraten nur für kleine Datenbanken (3-20 Personen) berichtet. Es muß davon ausgegangen werden, daß die Erkennungsrate mit steigender Personen­ zahl abnimmt.1. Bichsel and Seitz, DAGM, pp. 106-113, Springer-Verlag 1990 have proposed Images extracted features a neural network (multi-layer perceptron) too respectively. A very similar approach is described in Bouattour, Fogelman-Soulie et al., Artificial Neural Networks 2, p. 456, Elsevier-Verlag 1992. In Lampinen, Artificial Neural Networks, p. 328, Elsevier-Verlag 1991 becomes a feature classifi cation uses factor analysis and a neural Kohonen network. The disadvantage all of these methods is that for each new person to be recognized a whole series of Views must be recorded and that the neural networks then again have to be trained. In addition, results of these methods are in the form  Detection rates reported only for small databases (3-20 people). It It must be assumed that the recognition rate increases with people number decreases.
  • 2. Aus Lades et al., IEEE Transaction on Computers, 42, 300-311, 1993 [Lades′93] ist ein Ansatz bekannt, bei dem der Vergleich zwischen zu erkennendem und ge­ speichertem Bild durch einen flexiblen Abbildungsmechanismus realisiert wird, wo­ bei die bestmögliche Abbildung durch ein Optimierungsverfahren bestimmt wird. Dieses Verfahren ist sehr leistungsfähig in bezug auf Lage, Orientierung im Raum und objektintrinsische Verzerrungen, ferner werden auch bei großen Personenzahlen (< 100) hohe Erkennungsraten erreicht. Es hat jedoch den Nachteil, daß es keine größeninvariante Erkennung erlaubt.2. From Lades et al., IEEE Transaction on Computers, 42, 300-311, 1993 [Lades'93] an approach is known in which the comparison between to be recognized and ge stored image is realized by a flexible imaging mechanism, where the best possible mapping is determined by an optimization method. This method is very efficient in terms of position, orientation in space and object intrinsic distortions, furthermore, are also in large numbers of people (<100) achieved high detection rates. However, it has the disadvantage that there is no size invariant detection allowed.
  • 3. Ein interessantes Verfahren, das ebenfalls eine Abbildung zwischen Bildern durch ein Optimierungsverfahren realisiert, wird von M. Shackelton, Patentschrift WO 93/15475, 1993 [Shackelton′93] beschrieben. Das Verfahren findet in Bildern auto­ matisch hervorspringende Merkmale und verbindet diese zu einer netzartigen Struk­ tur (Template). Solche Templates können prinzipiell dazu benutzt werden, ähnliche Bilder miteinander zu vergleichen und können somit auch zum Vergleich von Gesich­ tern herangezogen werden. Es werden allerdings in [Shackelton′93] keine weiteren Angaben dazu gemacht, wie ein solcher Vergleich verschiedener Bilder gleicher Ob­ jekte im Detail aussehen kann und welche Güte der Klassifizierung damit erreicht werden kann.3. An interesting method, which is also a mapping between images through an optimization method is realized by M. Shackelton, patent WO 93/15475, 1993 [Shackelton'93]. The procedure takes place in pictures auto matically prominent features and connects them to a net-like structure tur (template). Such templates can be used in principle, similar Compare images with each other and can thus also for comparison of Gesich tern be used. However, there will be no more in [Shackelton'93] Information on how such a comparison of different images of the same Ob projects in detail and which quality of the classification can be achieved can be.

Bezogen auf Personenzugangskontrollen gibt es im Stand der Technik keine gewerbli­ chen Anwendungen, die die automatisierte, lage- und größeninvariante Erkennung von Gesichtern als Kontrollmerkmal einsetzen.With regard to passenger access controls, there are no commercial machines in the prior art applications that require the automated, location and size-invariant detection of Use faces as a control feature.

Zum besseren Verständnis der hier vorliegenden Erfindung wird im folgenden der Stand der Technik, wie er durch [Lades′93] vorgegeben ist, detaillierter dargestellt. Dazu wer­ den zunächst einige für die Erfindung wesentlichen Begriffe und Bezeichnungsweisen zusammengefaßt:For a better understanding of the present invention will be in the following the state The technique as specified by [Lades'93] is shown in more detail. To who the first some terms and notations essential to the invention summarized:

Es ist Stand der Technik, wie er beispielsweise in der Arbeit von D. J. Field, Journal Opt. Soc. Am. A4, S. 2379-2394, 1987 dargestellt ist, daß zur Merkmalsextraktion aus Bildern Filteroperationen (mathematisch: Faltungen) mit bestimmten Filtermasken verwendet werden. Eine bestimmte Klasse von Filtermasken sind die Gabor-Filter. Verschiedene Gabor-Filter unterscheiden sich in Größe und Orientierung in der Bildebene:It is state of the art, as described, for example, in the work of D.J. Field, Journal Opt. Soc. At the. A4, pp. 2379-2394, 1987, that for feature extraction from images Filter operations (mathematically: convolutions) with certain filter masks used become. One particular class of filter masks are the Gabor filters. Various Gabor filters differ in size and orientation in the image plane:

  • - Ein Gabor-Merkmal bezeichnet das Ergebnis einer Faltung des Bildes an einem be­ stimmten Pixel mit einem bestimmten Gabor-Filter.A Gabor feature denotes the result of folding the image on a be tuned pixels with a specific Gabor filter.
  • - Ferner bezeichnet, wenn ein Bild mit k verschiedenen Gabor-Filter gefaltet wurde, ein Jet die Gesamtheit aller Gabor-Merkmale an einem bestimmten Pixel, die in dem Jet zu einem k-komponentigen Vektor zusammengefaßt werden. Further, when an image has been convolved with k different Gabor filters, a jet the entirety of all gabor features at a given pixel in the jet to a k-component vector are summarized.  
  • - Ein regulärer Graph ist die Zusammenfassung von m × n Jets in einer zweidimen­ sionalen, gitterförmigen Anordnung (s. Bild 1a). Jeder Jet ist einem der Knoten des Gitters zugeordnet; benachbarte Knoten werden durch horizontale und verti­ kale Verbindungen miteinander verknüpft. Für zu speichernde Objektbilder wird die Information über ein Objektbild in Form von regulären Graphen abgelegt.- A regular graph is the summary of m × n jets in a two-dimensional grid-like arrangement (see Figure 1a). Each jet is associated with one of the nodes of the grid; adjacent nodes are linked by horizontal and vertical connections. For object images to be stored, the information about an object image is stored in the form of regular graphs.
  • - Ein irregulärer Graph besteht ebenfalls aus m × n Knoten, die in gleicher Topologie wie beim regulären Graphen verknüpft sind, jedoch liegen hier die Knoten nicht notwendigerweise auf einem rechteckigen Gitter, sondern sind beliebig in der Bild­ ebene angeordnet (s. Bild 1b). Es werden den Knoten jeweils die Jets zugeordnet, die zu dem Pixel gehören, auf dem der Knoten zu liegen kommt. - An irregular graph also consists of m × n nodes, which are linked in the same topology as the regular graph, but here the nodes are not necessarily on a rectangular grid, but are arbitrarily arranged in the image plane (see Figure 1b). The nodes are each assigned the jets that belong to the pixel on which the node comes to rest.
  • - Die horizontalen und vertikalen Verbindungen zwischen benachbarten Knoten wer­ den auch als Links bezeichnet.- The horizontal and vertical connections between adjacent nodes also referred to as links.
  • - Zur Bewertung der Ähnlichkeit zweier Graphen (regulär oder irregulär) wird eine Graphen-Vergleichsfunktion E eingeführt: E = Esim + λEtop (1)Diese Funktion nimmt um so niedrigere Werte an, je ähnlicher zwei Graphen sind. Der erste Term Esim bewertet die Ähnlichkeit der Jets an jeweils korrespondie­ renden Knoten der beiden Graphen, indem die jeweils korrespondierenden Gabor- Merkmale miteinander verglichen werden (negativer Kosinus des Winkels zwischen beiden Jets); hohe Ähnlichkeit bedeutet dabei niedrige Werte von Esim. Der zweite Term Etop bewertet die topologische Ähnlichkeit beider Graphen, indem die Beträge der Differenzvektoren jeweils korrespondierender Links aufsummiert werden. (Ein anschauliches Modell besteht darin, sich die Links als mechanische Federn vorzu­ stellen, die in ihren Ruhelagen den ersten der beiden Graphen bilden. Etop ist dann proportional zur Arbeit, die gegen die Federkräfte aufgebracht werden muß, um die Links mit der Topologie des zweiten Graphen zur Deckung zu bringen.)- To evaluate the similarity of two graphs (regular or irregular), a graph comparison function E is introduced: E = E sim + λE top (1) This function assumes lower values the more similar two graphs are. The first term E sim evaluates the similarity of the jets to respective corresponding nodes of the two graphs by comparing the corresponding Gabor features with one another (negative cosine of the angle between the two jets); high similarity means low values of E sim . The second term E top evaluates the topological similarity of both graphs by summing up the amounts of the difference vectors of respective corresponding links. (An illustrative model is to think of the links as mechanical springs, which in their rest positions form the first of the two graphs, and E top is proportional to the work that must be applied against the spring forces to link them to the topology of the graphite to cover up the second graph.)
  • - Werden beim Vergleich eines neuen Objektbildes mit N gespeicherten Objek­ ten N Werte der Graphen-Vergleichsfunktion E₁<E₂< . . . <EN ermittelt, so bezeichnen und σE den Mittelwert und die Standardabweichung der Da­ ten (E₂, . . . , EN), und Objekt 1 ist im Sinne der Vergleichsfunktion das ähnlich­ ste Objekt. Die Ähnlichkeit wird als signifikant bezeichnet und wir sprechen von signifikanter Erkennung, wenn für fest gewählte Parameter s₁, s₂ mindestens eines der Kriterien (E₁-)/σE<s₁ oder (E₁-E₂)/σE<s₂ erfüllt ist. Andernfalls spre­ chen wir von insignifikanter Erkennung, und das neue Objekt wird als unähnlich zu allen gespeicherten Objekten zurückgewiesen.When comparing a new object image with N stored objects, N values of the graph comparison function E₁ <E₂ <are obtained. , , <E N , and σ E denote the mean and standard deviation of the data (E₂, ..., E N ), and object 1 is the most similar object in terms of the comparison function. The similarity is referred to as significant and we speak of significant recognition, if for fixed parameters s₁, s₂ at least one of the criteria (E₁ -) / σ E <s₁ or (E₁-E₂) / σ E <s₂ is satisfied. Otherwise, we are talking about insignificant detection, and the new object is rejected as being dissimilar to all stored objects.

In [Lades′93] wird nun ein Verfahren beschrieben, das Gabor-Merkmale verschiedener Orientierung und Skalierung aus einem Bild extrahiert und diese für jedes Pixel in Form von Jets zusammenfaßt. Für ein zu speicherndes Objektbild werden die Jets in einem regulären Graphen, der auf das Objekt zentriert ist, zusammengefaßt. In einem neuen Bild wird ein optimal zu dem gespeicherten Graphen passender Graph gesucht. Dabei enthält der neue Graph an seinen Knoten jeweils die Jets, die zu dem Pixel am Ort des Knoten gehören. Seine Position und Form wird in einem Zweiphasenverfahren optimiert:In [Lades'93] a method is now described which describes Gabor features of various kinds Orientation and scaling are extracted from an image and these are in shape for each pixel of jets. For an object image to be saved, the jets become one regular graph centered on the object. In a new one Image is searched for a graph optimally matching the stored graph. there The new graph at its nodes contains the jets that go to the pixel at the location of the node Nodes belong. Its position and shape is optimized in a two-phase process:

  • 1. Verschiebung des Graphen als Ganzes (Global Move), bis ein Optimalzustand gefun­ den wird.1. Shift the graph as a whole (Global Move) until an optimal state is found that will.
  • 2. Ausgehend vom Optimalzustand aus 1. werden einzelne Knoten des Graphen ver­ schoben (lokale Verzerrung).2. Starting from the optimal state of 1. individual nodes of the graph ver pushed (local distortion).

In beiden Phasen läuft die Optimierung folgendermaßen ab: Es wird ein zufälliger Verschiebungsvektor ausgewählt und auf den Graphen bzw. einen Knoten des Gra­ phen angewendet. Der Zustand des so veränderten Graphen wird mittels der Graphen- Vergleichsfunktion E bewertet. Nur wenn der neue Zustand eine günstigeren Wert für E hat, wird die Verschiebung akzeptiert.In both phases, the optimization proceeds as follows: It becomes a random one Shift vector selected and on the graph or a node of Gra phen applied. The state of the thus changed graph is determined by means of the graph Comparison function E rated. Only if the new state is a cheaper value for E has, the shift is accepted.

Beide Phasen terminieren, wenn in Vmax aufeinanderfolgenden Verschiebungsschritten keine Verbesserung gefunden wird. Das Ergebnis der Optimierung ist der finale Wert der Graphen-Vergleichsfunktion E. Die Optimierung wird für alle gespeicherten Graphen wiederholt, und man erhält eine Sequenz von Werten E₁ < E₂ < E₃ < . . . anhand welcher bestimmt werden kann, ob eine signifikante Erkennung von Objekt 1 vorliegt.Both phases terminate if no improvement is found in V max consecutive shift steps. The result of the optimization is the final value of the graph comparison function E. The optimization is repeated for all stored graphs, and a sequence of values E₁ <E₂ <E₃ <is obtained. , , on the basis of which it can be determined whether there is a significant recognition of object 1 .

Das beschriebene Verfahren hat jedoch folgende Nachteile:However, the method described has the following disadvantages:

  • - Es ist nicht größeninvariant, da der Graph nur verschoben, nicht skaliert wird. Es wurde bisher in der Literatur (Buhmann et al., IJCNN II, 411-416, IEEE, San Diego, 1990) davon ausgegangen, daß bei Skalierung des Graphen auch die Fil­ terkoeffizienten entsprechend inter- bzw. extrapoliert werden müssen. Ein solches Verfahren ist rechenaufwendig, da nach jedem Optimierungsschritt interpoliert wer­ den muß. Ferner wurde bisher davon ausgegangen, daß die Größenbestimmung nur durch ein hierarchisches Verfahren, das von groben zu feinen Auflösungsstufen fortschreitet, gelingt. Die hier beschriebene Erfindung löst die Aufgabe der größen­ invarianten Erkennung durch ein deutlich vereinfachtes Verfahren.- It is not size invariant because the graph is only shifted, not scaled. It has been previously reported in the literature (Buhmann et al., IJCNN II, 411-416, IEEE, San Diego, 1990) assumed that when scaling the graph, the fil coefficients must be interpolated or extrapolated accordingly. Such Method is computationally intensive, because after each optimization step interpolated who must. Furthermore, it has been assumed that the size determination only through a hierarchical process that ranges from coarse to fine resolution progresses, succeeds. The invention described here solves the problem of sizes invariant recognition through a significantly simplified procedure.
  • - Der Suchaufwand wächst linear mit der Anzahl der gespeicherten Objekte. Ferner wird die korrekte Erkennung mit zunehmender Objektanzahl immer schwieriger. Damit wird der Einsatz in großen Datenbanken problematisch. Die hier darge­ stellte Erfindung beschreibt ein neues Verfahren, die Verifikation, welches die obigen Nachteile vermeidet. Dieses Verfahren läßt sich darüber hinaus besonders gut mit der größeninvarianten Erkennung kombinieren.- The search effort grows linearly with the number of stored objects. Further the correct recognition becomes more and more difficult as the number of objects increases. This makes use in large databases problematic. The here darge invention describes a new method, the verification, which the above Disadvantages avoids. This method is also very good with combine the size-invariant detection.

Die aus dem Stand der Technik bereits bekannten Verfahren weisen eine Reihe von Nachteilen auf und vermögen nicht, in jeder Hinsicht zu befriedigen. Es besteht daher ein ständiger Bedarf an verbesserten Verfahren zur Erkennung intrinsisch deformierbarer Objekte.The already known from the prior art methods have a number of Disadvantages and can not satisfy in every way. It therefore exists a constant need for improved methods of detecting intrinsically deformable Objects.

Aufgabe der vorliegenden Erfindung war es, ein gegenüber dem bekannten Stand der Technik verbessertes Verfahren zur Erkennung von Objekten zur Verfügung zu stellen. Dabei war angestrebt, eine Möglichkeit zur Differenzierung dahingehend zu schaffen, daß verschiedene Bilder desselben Objektes (mit Unterschieden in Lage, Ansicht und Größe des Objektes) als ähnlich erkannt werden, während Bilder von verschiedenen Objekten als unähnlich klassifiziert werden. Object of the present invention was a comparison with the prior art of the Technology to provide improved method for detecting objects. The aim was to create a way to differentiate to the effect that different pictures of the same object (with differences in position, view and size of the object) are recognized as similar while images of different objects classified as dissimilar.  

Eine weitere Zielsetzung bestand darin, eine technische Verwendung dieses Verfahrens als Personenzugangskontrollsystem zu entwickeln, das auf einem verbesserten Verfahren zur Erkennung von Gesichtern basiert. Dabei besteht die Aufgabe insbesondere darin, die Überprüfung der Zugangsberechtigung auch bei einem großen Kreis berechtigter Personen schnell und sicher durchführen zu können.Another objective was a technical use of this method to develop as a personal access control system, based on an improved procedure based on recognition of faces. The task is in particular the, Verification of access authorization even with a large circle of authorized persons to perform quickly and safely.

Überraschenderweise wurde gefunden, daß man die größeninvariante Objekterkennung einfach dadurch deutlich verbessern kann, daß man den Global Move simultan mit einem Global Scale verbindet, indem man den Graphen in jedem Optimierungsschritt sowohl verschiebt als auch mit einem Faktor nahe 1 skaliert. Eine Interpolation der Filterko­ effizienten ist entgegen der Erwartung für einen weiten Bereich von Objektgrößen (von etwa 60% bis 140% der Originalgröße) nicht notwendig. Damit hat man eine gegenüber bestehenden Lösungen beschleunigte Anpassung auf Größenänderungen, wie sie für viele Anwendungen von besonderer Bedeutung sind.Surprisingly, it has been found that the size-invariant object recognition simply by significantly improving that one the Global Move simultaneously with a Global Scale connects by looking at the graph in each optimization step shifts and scales with a factor close to 1. An interpolation of the filterko Efficient is contrary to expectation for a wide range of object sizes (of about 60% to 140% of the original size) is not necessary. With that you have one opposite Existing solutions accelerated adaptation to resizing, as was the case for many Applications of particular importance are.

Gegenstand der vorliegenden Erfindung ist ein Verfahren zur automatisierten Erkennung von Objekten aus Bildern dieser Objekte, wobei man aus einem digitalen Bild mit Gabor- Filtern verschiedener Größe und Orientierung Gabor-Merkmale extrahiert, die in einem verschieb-, skalier- und deformierbarem Graphen G zusammengefaßt werden. Für jeden der gespeicherten Graphen optimiert man die Form und Lage des Graphen G dahingehend, daß die Graphen-Vergleichsfunktion E optimale Werte annimmt. Die Auffindung des optimalen Graphen G führt man dabei für jeden der gespeicherten Graphen in zwei Phasen durch.The subject of the present invention is a method for automated recognition objects from images of these objects, using a digital image with Gabor's Filtering different size and orientation Gabor features extracted in one shift, scaling and deformable graph G are summarized. For each to optimize the shape and position of the graph G to the stored graph, that the graph comparison function E assumes optimal values. The discovery of the For each of the stored graphs, the optimal graph G is divided into two phases by.

Phase 1Phase 1

Auswahl eines zufälligen Verschiebungsvektors und Skalierungsfaktors für den gesamten Graphen. Der so veränderte Graph im neuen Bild wird über die Graphen- Vergleichsfunktion E mit dem gespeicherten Graphen verglichen, wobei die Links des gespeicherten Graphen zuvor mit dem Skalierungsfaktor multipliziert werden. Nur wenn der neue Zustand einen günstigeren Wert für E hat, wird die Veränderung des Graphen akzeptiert.Selection of a random displacement vector and scaling factor for the entire graph. The graph thus changed in the new image is displayed via the graph Comparison function E compared with the stored graph, with the links of the previously stored graphs are multiplied by the scaling factor. Just if the new state has a more favorable value for E, the change in the Graphene accepted.

Phase 2Phase 2

Alle Links des gespeicherten Graphen werden mit dem in Phase 1 ermittel­ ten optimalen Skalierungsfaktor multipliziert. Ausgehend vom in Phase 1 ermit­ telten Optimalzustand des neuen Graphen werden einzelne Knoten dieses Graphen verschoben (lokale Verzerrung), bis ein optimaler irregulärer Graph gefunden wird (Bild 2).All links of the stored graph are multiplied by the optimal scaling factor determined in Phase 1. Starting from the optimal state of the new graph determined in phase 1, individual nodes of this graph are shifted (local distortion) until an optimal irregular graph is found ( Figure 2).

In einer bevorzugten Ausführungsform der vorliegenden Erfindung wird in jedem Opti­ mierungsschritt der Phase 1, ausgehend von der momentanen Graphen-Lage und -Größe, zufällig eine Verschiebung von bis zu 3% der Bildgröße und gleichzeitig eine Skalierung des Graphen von bis zu 10% der Graphengröße gewählt. Allerdings liefert das Verfahren bei den untersuchten Bildern in einem weiten Bereich von Parametern annähernd gleich gute Ergebnisse.In a preferred embodiment of the present invention, in each Opti Stage 1, based on the current graphene location and size, at random a shift of up to 3% of the image size and at the same time a scaling of the graph is chosen up to 10% of the graph size. However, the procedure delivers in the examined images in a wide range of parameters approximately the same good results.

Mit dieser Ausführungsform werden für Bilder, die gespeicherte Objekte in einer um 75% kleineren Skalierung zeigen, die richtigen Skalierungsfaktoren mit einer Genauigkeit von ±2% ermittelt. Dies zeigten Versuche, in denen man 12 Gabor-Filter (4 äquidistante Orientierungen mit je 3 verschiedenen Größen, gekennzeichnet durch ihre Optimalfre­ quenzen f, die, beginnend bei der höchsten Frequenz von f=π/2, im Abstand von halben Oktaven aufeinanderfolgen) verwendet. Die 12-komponentigen Jets werden in ei­ nem 7×10-Graphen angeordnet und als Bildmaterial werden Gesichtsbilder (128×128 Pixel) von Personen vor weißem Hintergrund verwendet, wie sie in [Lades′93] dargestellt sind. Unter diesen Voraussetzungen wird von verschiedenen Anfangslagen und -größen des Graphen G aus die optimale Graphengröße (also hier um 75% kleiner) mit einer Reproduzierbarkeit von ±2% angefahren.With this embodiment, for images, the stored objects in a order 75% smaller scale, showing the right scaling factors with accuracy  of ± 2%. This was shown by experiments in which 12 Gabor filters (4 equidistant Orientations with 3 different sizes, characterized by their optimal freeze f, which, starting at the highest frequency of f = π / 2, at a distance of half octaves). The 12-component jets are in ei arranged on a 7 × 10 graph and as image material face images (128 × 128 Pixel) used by persons in front of white background, as depicted in [Lades'93] are. Under these conditions is different starting positions and sizes of the graph G from the optimal graph size (ie here by 75% smaller) with a Reproducibility approached by ± 2%.

In einer weiteren Ausführungsform der Erfindung wird die Optimierung des Graphen G nur einmal in Hinblick auf einen der gespeicherten Graphen (Referenzgraph) durch­ geführt und bleibt dabei auf die Phase 1 beschränkt. Der so ermittelte optimale Graph G wird dann ohne weitere Optimierungsschritte mit allen gespeicherten Graphen verglichen. Überraschenderweise wurde gefunden, daß trotz des drastisch reduzierten Op­ timierungsaufwand fast gleichbleibend gute Erkennungsleistungen erzielt werden. Diese Ausführungsform hat den Vorteil, daß sie bedeutend schneller durchgeführt werden kann und damit auch in der Anwendung auf große Datenbanken gespeicherter Graphen geeignet ist.In a further embodiment of the invention, the optimization of the graph G only once with respect to one of the stored graphs (reference graph) and remains restricted to Phase 1. The optimal graph thus obtained G then becomes without further optimization steps with all stored graphs compared. Surprisingly, it was found that despite the drastically reduced Op Almost constant good recognition performance can be achieved. These Embodiment has the advantage that it can be carried out much faster and thus also suitable for use on large databases of stored graphs is.

Neben der Erkennung (Suchen eines Objektes unter einer Anzahl gespeicherter Objekt­ bilder) eignet sich das Verfahren auch besonders gut zur Verifikation, d. h. zur Entschei­ dung, ob ein vorgegebenes Objektbild mit einem bestimmten gespeicherten Objektbild B (dessen Graph als Referenzgraph benutzt wird) übereinstimmt. Dazu wird das vor­ gegebene Bild O außer mit dem gespeicherten Bild B auch mit N zufällig ausgewählten anderen gespeicherten Bildern verglichen, um zu entscheiden, ob die Ähnlichkeit zwischen B und O signifikant ist. Dabei ist N eine feste, nicht von der Gesamtgröße der Datenbank abhängige Zahl, so daß in diesem Verfahren der Rechenaufwand unabhängig von der Größe der Datenbank ist. Der Vergleich mit N weiteren gespeicherten Bildern bietet den Vorteil, daß Unterschiede, die durch eine geänderte Aufnahmesituation beim vorgegebenen Bild (z. B. durch andere Beleuchtung) entstehen, getrennt werden von Unterschieden in den Objekten selbst.In addition to detection (finding an object among a number of stored object pictures), the method is also particularly good for verification, d. H. to the decision tion, whether a given object image with a specific stored object image B (whose graph is used as a reference graph) matches. This will be the case given picture O except with the stored picture B also with N randomly selected compared to other stored images to decide if the similarity between B and O is significant. N is a fixed, not the total size of the database dependent number, so that in this method the computational effort is independent of the size the database is. The comparison with N further stored images offers the advantage that differences caused by a changed shooting situation at the given picture (eg caused by other lighting), be separated from differences in the Objects themselves.

Gerade für diese Verifikationsaufgabe eignet sich die oben beschriebene Ausführungs­ form, bei der zur Reduktion des Rechenaufwandes die Optimierung nur mit einem Re­ ferenzgraphen (nämlich B) durchgeführt und bereits nach Phase 1 abgebrochen wird, besonders gut.Especially for this verification task, the embodiment described above is suitable form, in which, to reduce the computational effort, the optimization can only be achieved with one Re graphs (namely B) and is already terminated after phase 1, especially good.

Dies zeigen die folgenden Versuchsergebnisse: 88 Objektbilder von Gesichtern mit ca. 20° zur Seite gedrehtem Kopf werden mit 100 gespeicherten Bildern von geradeaus blickenden Personen verglichen. In einer Ausführungsform der Erfindung werden 40 Gabor-Filter (8 äquidistante Orientierungen mit je 5 verschiedenen Größen, gekennzeichnet durch ihre Optimalfrequenzen f, die, beginnend bei der höchsten Frequenz von f=π/2, im Abstand von halben Oktaven aufeinanderfolgen) und 7×10-Graphen verwendet. Die Schwellen s₁ und s₂ werden so eingestellt, daß Objektbilder zu 100% zurückgewiesen werden, wenn das zugehörige gespeicherte Bild (temporär) aus der Datenbank entfernt ist. Wird nun das zugehörige gespeicherte Bild wieder eingefügt, so ergeben sich mit den gleichen Schwellen folgende Raten der korrekten und signifikanten Erkennung (N=100):This is shown by the following test results: 88 object images of faces with about 20 ° head turned to the side are looking straight ahead with 100 stored images People compared. In one embodiment of the invention, 40 Gabor filters are used (8 equidistant orientations each with 5 different sizes, characterized by their Optimal frequencies f, which, starting at the highest frequency of f = π / 2, in the distance of half octaves) and 7x10 graphene. The thresholds s₁ and s₂ are set so that object images are 100% rejected when the associated stored image (temporary) is removed from the database. Will that be now  associated stored image reinserted, then arise with the same thresholds following rates of correct and significant detection (N = 100):

Erkennung, mit Phase 1 und 2|84%Detection, with phase 1 and 2 | 84% Verifikation, mit Phase 1 und 2Verification, with phase 1 and 2 93%93% Verifikation, nur Phase 1Verification, only phase 1 91%91%

Bei einem Versuch zur größeninvarianten Verifikation, in dem 88 Objektbilder mit 20° Kopfdrehung durch 89 Bilder von Gesichtern in reduzierter Größe (75%) ersetzt werden, ergibt sich eine Verifikationsrate (nur Phase 1) von 83%.In an attempt to size-invariant verification in which 88 object images with 20 ° Head rotation replaced by 89 images of faces in reduced size (75%), results in a verification rate (Phase 1 only) of 83%.

Insgesamt erlaubt das Verfahren somit eine automatisierte Erkennung oder Verifika­ tion von Objekten aus digitalen Bildern dieser Objekte unter Benutzung von Gabor- Merkmalen, welche auf einem verschieb-, skalier- und deformierbarem Gitter, dem Gra­ phen, angeordnet sind, dessen optimale Form durch die zweiphasige Minimierung der Graphen-Vergleichsfunktion bestimmt wird. In der ersten Phase werden sowohl Größe als auch Position des Graphen simultan optimiert.Overall, the method thus allows automated detection or Verifika tion of objects from digital images of these objects using Gabor Characteristics which are displayed on a shiftable, scalable and deformable grid, the Gra phen, whose optimal shape through the two-phase minimization of Graphene comparison function is determined. In the first phase, both size and also optimized the position of the graph simultaneously.

Für viele Anwendungen der visuellen Objekterkennung spielt die Invarianz gegen Größen- und Positionsänderungen von Objekten eine besonderer Rolle. Beispielsweise sind Personen-Zugangskontrollen mit automatischer Kamera ("elektronischer Pförtner") nur dann in der Praxis einsetzbar, wenn Abstand und Position der Person vor der Kamera in bestimmten Grenzen variabel sind. Das hier beschriebene Verfahren eignet sich besonders gut für eine solche Anwendung, zumal auch eine Unterscheidung bei einer großen Zahl von Personen möglich ist. Gegenüber einem menschlichen Pförtner bietet das automatisierte Verfahren die Vorteile größerer Objektivität, Reproduzierbarkeit und Ermüdungsfreiheit.For many applications of visual object recognition, the invariance plays against size and position changes of objects have a special role. For example Personal access control with automatic camera ("electronic gatekeeper") only then usable in practice, if distance and position of the person in front of the camera certain limits are variable. The method described here is particularly suitable good for such an application, especially as a distinction in a large number of Persons is possible. Compared to a human porter, the automated Method the benefits of greater objectivity, reproducibility and fatigue.

Für Personen-Zugangskontrollen müssen hohe Sicherheitsstandards eingehalten werden. Das hier beschriebene Verfahren bietet den Vorteil einer hohen Sicherheit bei der Zurück- Weisung unberechtigter Personen (100% auf dem Testdatenmaterial). Das hier beschrie­ bene Verfahren eignet sich auch dann besonders gut, wenn es in Verbindung mit anderen Zugangskontroll-Maßnahmen (z. B. Codekarten) eingesetzt wird. Durch diese Kombina­ tion entstehen folgende Vorteile:For personal access controls, high safety standards must be adhered to. The method described here offers the advantage of a high level of security in the Instruction of unauthorized persons (100% on the test data). This one described The procedure is also particularly good when used in conjunction with others Access control measures (eg code cards) is used. Through this Kombina tion, the following advantages arise:

  • - Eine Person, die unberechtigterweise in den Besitz einer Codekarte gelangt oder eine solche fälscht, kann alleine durch die Codekarte noch keinen Zugang erlangen. Dies führt zu einer Erhöhung der Sicherheit.- An unjustified person who obtains a code card or one fakes such, can not gain access through the code card alone. This leads to an increase in security.
  • - Durch die Codekarteninformation kann vorgegeben werden, welches der gespeicher­ ten Gesichter zu erkennen ist. Die automatische Erkennung wird reduziert auf die Aufgabe der automatischen Verifikation, ob das aktuelle Bild eine signifikante Ähn­ lichkeit mit dem gespeicherten Bild aufweist. Im Gegensatz zur Erkennung ist der Rechenaufwand für die Verifikation unabhängig von der Größe der Datenbank; das Verfahren kann somit auch für sehr große Datenbanken eingesetzt werden.- By the code card information can be specified which of the stored faces is recognizable. The automatic detection is reduced to the Task of the automatic verification, whether the current image has a significant resemblance having the stored image. In contrast to the detection is the  Computing effort for verification regardless of the size of the database; the The method can thus also be used for very large databases.

Personen-Zugangskontrollen sind nur ein Beispiel für die technische Anwendbarkeit des Gesichtserkennungsverfahrens. Allgemeiner kann ein Verfahren, bei dem mit einer Ka­ mera ein Gesichtsbild aufgenommen und mit gespeicherten Bildern verglichen wird, zur berührungslosen Identitätsüberprüfung einsetzen. Diese kann dazu benutzt werden, per­ sonenbezogene Einstellungen an einem technischen Gerät vorzunehmen (beispielsweise Fahrersitz-Einstellung im Auto) oder personenbezogene Zugangsrechte an einem techni­ schen Gerät einzuräumen.Personal access control is just one example of the technical applicability of the Face recognition method. More generally, a method in which a Ka mera a facial image is taken and compared with stored images, for use non-contact identity verification. This can be used to per to make personal settings on a technical device (for example Driver's seat setting in the car) or personal access rights to a techni to give the device.

Besonders vorteilhaft läßt sich ein solches berührungsloses Kontrollverfahren in Kombi­ nation mit anderen Identifikationsmerkmalen zur Verifikation einsetzen. Es gelten sinn­ gemäß die gleichen Vorteile wie bei der Verifikation in Personen-Zugangskontrollen.Particularly advantageous is such a non-contact control method in combination nation with other identification features for verification. It is meaningful according to the same advantages as for verification in person access controls.

Das beschriebene Verfahren läßt sich auch vorteilhaft für die Bestimmung der Ähnlich­ keit zwischen Objektbildern heranziehen. Als Ähnlichkeitsmaß dient der am Ende der Optimierung erhaltene Wert der Graphen-Vergleichsfunktion. Damit lassen sich große Datenbanken automatisch nach ähnlichen Objekten durchsuchen. Da nur diese für eine weitere (menschliche) Begutachtung herangezogen werden müssen, bedeutet dies einen erheblichen Zeitgewinn. Besonders geeignet ist das Verfahren auch dazu, die Ähnlich­ keit zwischen Phantombildern von Gesichtern und gespeicherten Gesichtsfotografien zu ermitteln.The method described can also be advantageous for the determination of the similar speed between object images. As a measure of similarity serves at the end of Optimization obtained value of graphene comparison function. This can be great Automatically search databases for similar objects. Because only these for one further (human) assessment, this means one considerable time savings. The method is also particularly suitable for the like between phantom images of faces and stored face photographs determine.

Schließlich läßt sich das Verfahren auch zur automatisierten visuellen Qualitätskontrolle einsetzen. In Produktionsprozessen steht man oft vor der Aufgabe, daß die Übereinstim­ mung aktuell vorliegender Teile mit den Sollangaben abgeprüft werden muß (Beispiel Bestückung elektronischer Platinen). Oft scheitert die Automatisierung der visuellen Prüfung an der mangelnden Robustheit der eingesetzten Verfahren. Das hier beschriebene Verfahren läßt sich besonders dann vorteilhaft einsetzen, wenn in ihrer grundsätzlichen Struktur ähnliche Produktionsteile sicher auseinandergehalten werden müssen.Finally, the method can also be used for automated visual quality control use. In production processes one is often faced with the task that the correspondence mung currently existing parts with the specifications must be checked (example Assembly of electronic boards). Often the automation of the visual fails Testing for the lack of robustness of the methods used. The one described here Method can be used particularly advantageous if in their fundamental Structure-related production parts must be kept safe apart.

Claims (9)

1. Verfahren zur automatisierten Erkennung von Objekten aus Bildern die­ ser Objekte, wobei man aus einem digitalen Bild mit Gabor-Filtern ver­ schiedener Größe und Orientierung Gabor-Merkmale extrahiert, die in einem verschieb-, skalier- und deformierbarem Graphen G zusammengefaßt sind und mit gespeicherten Graphen von anderen Bildern verglichen werden, indem eine Graphen-Vergleichsfunktion E, bestehend aus einem die Ähnlichkeit der Gabor-Merkmale bewertenden Anteil und einem die Formerhaltung des Gra­ phen bewertenden Anteil, berechnet wird, dadurch gekennzeichnet, daß man durch schrittweise und simultane Veränderungen von Lage und Größe des Graphen G diesen im Vergleich zu einem gespeicherten Referenzgraph optimal einstellt (Phase 1) und mit diesem G die Werte von E für jeden der gespeicher­ ten Graphen ermittelt, wobei der Abstand des besten Wertes von den übrigen E-Werten eine Entscheidung darüber erlaubt, ob eine signifikante Erkennung vorliegt.1. A method for automated recognition of objects from images of these objects, wherein extracted from a digital image with Gabor filters of different size and orientation Gabor features that are combined in a shift, scalable and deformable graph G and with stored graphs of other images are compared by a graph comparison function E, consisting of a similarity of the Gabor characteristics evaluating proportion and a form preservation of Gra phen-assessing proportion, is calculated, characterized in that by stepwise and simultaneous changes of Position and size of the graph G optimally sets this (phase 1) compared to a stored reference graph and uses this G to determine the values of E for each of the stored graphs, the best value distance from the remaining E values taking a decision about it allows a significant detection. 2. Verfahren nach Anspruch 1, wobei man die Optimierung des Graphen G in Phase 1 dahingehend erweitert, daß für jeden der gespeicherten Graphen schrittweise Formveränderungen (lokale Verzerrungen), die zu einer Verbesse­ rung der Graphen-Vergleichsfunktion E führen, angewandt werden (Phase 2).2. The method of claim 1, wherein the optimization of the graph G extended in phase 1 so that for each of the stored graphs Gradual changes in form (local distortions) that lead to an improvement tion of the graph comparison function E (phase 2). 3. Verfahren nach Anspruch 1 oder 2, wobei man in jedem Optimierungsschritt der Phase 1 zufällig eine Verschiebung von bis zu 3% der Bildgröße und eine Skalierung des Graphen von bis zu 10% einstellt.3. The method of claim 1 or 2, wherein in each optimization step Phase 1 happens to be a shift of up to 3% of the image size and one Scale the graph up to 10%. 4. Verfahren nach einem der Ansprüche 1 bis 3, wobei man die Größen der einge­ setzten Gabor-Filter so wählt, daß ihre jeweiligen Bestfrequenzen im Abstand von Halboktaven aufeinanderfolgen und mindestens drei verschiedene Größen verwendet.4. The method according to any one of claims 1 to 3, wherein the sizes of the inserted Gabor filters set so that their respective best frequencies in the distance of half-octaves and at least three different sizes used. 5. Gerät zur berührungslosen Identitätsüberprüfung, bestehend aus Kamera und Computer, dadurch gekennzeichnet, daß ein durch die Kamera aufgenommenes Gesichtsbild durch eines der in den Ansprüchen 1 bis 4 genannten Verfahren mit allen gespeicherten Gesichtsbildern von Personen automatisch verglichen wird, und bei einer signifikanten Erkennung einer der gespeicherten Personen eine personenbezogene Aktion ausgelöst wird.5. Device for non-contact identity verification, consisting of camera and Computer, characterized in that a recorded by the camera Face image by one of the methods mentioned in claims 1 to 4 automatically compared with all stored facial images of people becomes, and with a significant recognition of one of the stored persons a personal action is triggered. 6. Personen-Zugangskontrolle, bestehend aus Kamera, Computer und elektrischer Zugangsentriegelung, dadurch gekennzeichnet, daß ein durch die Kamera auf­ genommenes Gesichtsbild durch eines der in den Ansprüchen 1 bis 4 genann­ ten Verfahren mit allen gespeicherten Gesichtsbildern von zugangsberechtigten Personen automatisch verglichen wird, und bei einer signifikanten Erkennung eines der gespeicherten Gesichter die Zugangsentriegelung betätigt wird.6. People access control, consisting of camera, computer and electric Access unlocking, characterized in that a through the camera taken face image by one of the claims 1 to 4 mentioned procedures with all stored face images of authorized users People is compared automatically, and at a significant detection one of the stored faces the access release is actuated. 7. Personen-Zugangskontrolle, bestehend aus Kamera, Computer, elektrischer Zugangsentriegelung und einem davon unabhängigen weiteren Kontrollgerät, durch das die Identität der zu erkennenden Person vorgegeben wird, dadurch gekennzeichnet, daß diese Identität verifiziert wird, indem das zugehörige ge­ speicherte Gesichtsbild B mit einem durch die Kamera aufgenommenen aktuel­ len Gesichtsbild nach einem der in den Ansprüchen 1 bis 4 genannten Verfahren verglichen wird und bei positiver Signifikanz die Zugangsentriegelung betätigt wird.7. People access control, consisting of camera, computer, electric Access unlocking and a further independent control device, by which the identity of the person to be recognized is given, thereby  characterized in that this identity is verified by the associated ge saved face image B with a current shot taken by the camera len face image according to one of the methods mentioned in claims 1 to 4 and, if the significance is positive, activates the access release becomes. 8. Verfahren zur Datenbanksuche in Bilddatenbanken, dadurch gekennzeichnet, daß zu einem vorgelegten Bild nach einem der in den Ansprüchen 1 bis 4 beschriebenen Verfahren alle hinreichend ähnlichen Bilder in der Datenbank gefunden werden, welche sich dadurch auszeichnen, daß für sie die Graphen- Vergleichsfunktion niedrigere Werte als für alle anderen Bilder annimmt.8. Method for database search in image databases, characterized that in a submitted image according to one of the claims 1 to 4 described procedures all sufficiently similar images in the database which are distinguished by the fact that for them the graphene Compare function takes lower values than for all other pictures. 9. Automatisierte visuelle Qualitätskontrolle im Produktionsprozeß, bestehend aus Kamera, Computer und Aussonderungsmechanismus, dadurch gekenn­ zeichnet, daß die aktuell produzierten Teile über eines der in den Ansprüchen 1 bis 4 beschriebenen Verfahren mit Sollangaben verglichen werden und bei Vorliegen einer Diskrepanz der Aussonderungsmechanismus betätigt wird.9. Automated visual quality control in the production process, consisting from camera, computer and secretion mechanism, characterized records that the currently produced parts over one of the claims 1 to 4 described methods are compared with nominal values and at Presence of a discrepancy of the screening mechanism is actuated.
DE4406020A 1994-02-24 1994-02-24 Automatic digital image recognition system Expired - Fee Related DE4406020C1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE4406020A DE4406020C1 (en) 1994-02-24 1994-02-24 Automatic digital image recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE4406020A DE4406020C1 (en) 1994-02-24 1994-02-24 Automatic digital image recognition system

Publications (1)

Publication Number Publication Date
DE4406020C1 true DE4406020C1 (en) 1995-06-29

Family

ID=6511121

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4406020A Expired - Fee Related DE4406020C1 (en) 1994-02-24 1994-02-24 Automatic digital image recognition system

Country Status (1)

Country Link
DE (1) DE4406020C1 (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19610066C1 (en) * 1996-03-14 1997-09-18 Siemens Nixdorf Advanced Techn Process for the collection of face-related personal data and their use for the identification or verification of persons
WO1999046737A1 (en) 1998-03-12 1999-09-16 Zentrum Für Neuroinformatik Gmbh Method for verifying the authenticity of an image recorded during a personal identification process
WO1999053427A1 (en) * 1998-04-13 1999-10-21 Eyematic Interfaces, Inc. Face recognition from video images
WO2000010119A1 (en) * 1998-08-14 2000-02-24 Christian Eckes Method for recognizing objects in digitized images
US6192150B1 (en) 1998-11-16 2001-02-20 National University Of Singapore Invariant texture matching method for image retrieval
US6222939B1 (en) 1996-06-25 2001-04-24 Eyematic Interfaces, Inc. Labeled bunch graphs for image analysis
DE19726226C2 (en) * 1997-06-22 2001-07-26 Zentrum Fuer Neuroinformatik G Process for the automated recognition of structures in sections through biological cells or biological tissue
US6272231B1 (en) 1998-11-06 2001-08-07 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
EP1472645A2 (en) * 2001-12-10 2004-11-03 University of York Image recognition
US6834115B2 (en) 2001-08-13 2004-12-21 Nevengineering, Inc. Method for optimizing off-line facial feature tracking
WO2005010803A2 (en) * 2003-07-22 2005-02-03 Cognex Corporation Methods for finding and characterizing a deformed pattern in an image
US6853379B2 (en) 2001-08-13 2005-02-08 Vidiator Enterprises Inc. Method for mapping facial animation values to head mesh positions
US6876364B2 (en) 2001-08-13 2005-04-05 Vidiator Enterprises Inc. Method for mapping facial animation values to head mesh positions
DE10361838B3 (en) * 2003-12-30 2005-05-25 RUHR-UNIVERSITäT BOCHUM Assessing real object similarities involves generating supporting point vector sets with parameterized object data, transforming according to base functions to determine complex coefficients, grouping into characteristic vector components
US6917703B1 (en) 2001-02-28 2005-07-12 Nevengineering, Inc. Method and apparatus for image analysis of a gabor-wavelet transformed image using a neural network
AU2004212509B2 (en) * 1998-04-13 2005-09-08 Google Llc Face recognition from video images
EP1580684A1 (en) * 1998-04-13 2005-09-28 Nevenengineering, Inc. Face recognition from video images
US7050655B2 (en) 1998-11-06 2006-05-23 Nevengineering, Inc. Method for generating an animated three-dimensional video head
US7050624B2 (en) 1998-12-04 2006-05-23 Nevengineering, Inc. System and method for feature location and tracking in multiple dimensions including depth
CN1459761B (en) * 2002-05-24 2010-04-21 清华大学 Character identification technique based on Gabor filter set
US8081820B2 (en) 2003-07-22 2011-12-20 Cognex Technology And Investment Corporation Method for partitioning a pattern into optimized sub-patterns
US8103085B1 (en) 2007-09-25 2012-01-24 Cognex Corporation System and method for detecting flaws in objects using machine vision
US8229222B1 (en) 1998-07-13 2012-07-24 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US8437502B1 (en) 2004-09-25 2013-05-07 Cognex Technology And Investment Corporation General pose refinement and tracking tool
US9659236B2 (en) 2013-06-28 2017-05-23 Cognex Corporation Semi-supervised method for training multiple pattern recognition and registration tool models

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993015475A1 (en) * 1992-01-29 1993-08-05 British Telecommunications Public Limited Company Method of forming a template

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993015475A1 (en) * 1992-01-29 1993-08-05 British Telecommunications Public Limited Company Method of forming a template

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BICHSEL, M., SEITZ, P.: DAGM, Springer-Verlag 1990, S. 106-113 *
BUHMANN et al.: IJCNN II, San Diego 1990, pp. 411-416 *
LODES et al.: IEEE Transaction on Computers, 42, 1993, pp. 300-311 *

Cited By (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19610066C1 (en) * 1996-03-14 1997-09-18 Siemens Nixdorf Advanced Techn Process for the collection of face-related personal data and their use for the identification or verification of persons
US6222939B1 (en) 1996-06-25 2001-04-24 Eyematic Interfaces, Inc. Labeled bunch graphs for image analysis
DE19726226C2 (en) * 1997-06-22 2001-07-26 Zentrum Fuer Neuroinformatik G Process for the automated recognition of structures in sections through biological cells or biological tissue
WO1999046737A1 (en) 1998-03-12 1999-09-16 Zentrum Für Neuroinformatik Gmbh Method for verifying the authenticity of an image recorded during a personal identification process
DE19810792A1 (en) * 1998-03-12 1999-09-16 Zentrum Fuer Neuroinformatik G Personal identity verification method for access control e.g. for automatic banking machine
US6301370B1 (en) 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
WO1999053427A1 (en) * 1998-04-13 1999-10-21 Eyematic Interfaces, Inc. Face recognition from video images
EP1580684A1 (en) * 1998-04-13 2005-09-28 Nevenengineering, Inc. Face recognition from video images
AU2004212509B2 (en) * 1998-04-13 2005-09-08 Google Llc Face recognition from video images
US8363972B1 (en) 1998-07-13 2013-01-29 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US8265395B1 (en) 1998-07-13 2012-09-11 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US8363942B1 (en) 1998-07-13 2013-01-29 Cognex Technology And Investment Corporation Method for fast, robust, multi-dimensional pattern recognition
US8229222B1 (en) 1998-07-13 2012-07-24 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US8335380B1 (en) 1998-07-13 2012-12-18 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US8331673B1 (en) 1998-07-13 2012-12-11 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US8320675B1 (en) 1998-07-13 2012-11-27 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US8295613B1 (en) 1998-07-13 2012-10-23 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US8270748B1 (en) 1998-07-13 2012-09-18 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US8363956B1 (en) 1998-07-13 2013-01-29 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US8254695B1 (en) 1998-07-13 2012-08-28 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US8867847B2 (en) 1998-07-13 2014-10-21 Cognex Technology And Investment Corporation Method for fast, robust, multi-dimensional pattern recognition
US8244041B1 (en) 1998-07-13 2012-08-14 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US8249362B1 (en) 1998-07-13 2012-08-21 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
WO2000010119A1 (en) * 1998-08-14 2000-02-24 Christian Eckes Method for recognizing objects in digitized images
US7113641B1 (en) 1998-08-14 2006-09-26 Christian Eckes Method for recognizing objects in digitized images
DE19837004C1 (en) * 1998-08-14 2000-03-09 Christian Eckes Process for recognizing objects in digitized images
US7050655B2 (en) 1998-11-06 2006-05-23 Nevengineering, Inc. Method for generating an animated three-dimensional video head
US6272231B1 (en) 1998-11-06 2001-08-07 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
US6192150B1 (en) 1998-11-16 2001-02-20 National University Of Singapore Invariant texture matching method for image retrieval
US7050624B2 (en) 1998-12-04 2006-05-23 Nevengineering, Inc. System and method for feature location and tracking in multiple dimensions including depth
US6917703B1 (en) 2001-02-28 2005-07-12 Nevengineering, Inc. Method and apparatus for image analysis of a gabor-wavelet transformed image using a neural network
US6876364B2 (en) 2001-08-13 2005-04-05 Vidiator Enterprises Inc. Method for mapping facial animation values to head mesh positions
US6853379B2 (en) 2001-08-13 2005-02-08 Vidiator Enterprises Inc. Method for mapping facial animation values to head mesh positions
US6834115B2 (en) 2001-08-13 2004-12-21 Nevengineering, Inc. Method for optimizing off-line facial feature tracking
EP1472645A2 (en) * 2001-12-10 2004-11-03 University of York Image recognition
CN1459761B (en) * 2002-05-24 2010-04-21 清华大学 Character identification technique based on Gabor filter set
US8081820B2 (en) 2003-07-22 2011-12-20 Cognex Technology And Investment Corporation Method for partitioning a pattern into optimized sub-patterns
US7190834B2 (en) 2003-07-22 2007-03-13 Cognex Technology And Investment Corporation Methods for finding and characterizing a deformed pattern in an image
WO2005010803A3 (en) * 2003-07-22 2005-06-23 Cognex Corp Methods for finding and characterizing a deformed pattern in an image
US9147252B2 (en) 2003-07-22 2015-09-29 Cognex Technology And Investment Llc Method for partitioning a pattern into optimized sub-patterns
WO2005010803A2 (en) * 2003-07-22 2005-02-03 Cognex Corporation Methods for finding and characterizing a deformed pattern in an image
WO2005064526A1 (en) * 2003-12-30 2005-07-14 RUHR-UNIVERSITäT BOCHUM Method for the assessment of similarities of real objects
DE10361838B3 (en) * 2003-12-30 2005-05-25 RUHR-UNIVERSITäT BOCHUM Assessing real object similarities involves generating supporting point vector sets with parameterized object data, transforming according to base functions to determine complex coefficients, grouping into characteristic vector components
US8437502B1 (en) 2004-09-25 2013-05-07 Cognex Technology And Investment Corporation General pose refinement and tracking tool
US8103085B1 (en) 2007-09-25 2012-01-24 Cognex Corporation System and method for detecting flaws in objects using machine vision
US9659236B2 (en) 2013-06-28 2017-05-23 Cognex Corporation Semi-supervised method for training multiple pattern recognition and registration tool models
US9679224B2 (en) 2013-06-28 2017-06-13 Cognex Corporation Semi-supervised method for training multiple pattern recognition and registration tool models

Similar Documents

Publication Publication Date Title
DE4406020C1 (en) Automatic digital image recognition system
DE69333094T2 (en) Device for extracting features of a face image
DE19837004C1 (en) Process for recognizing objects in digitized images
DE69833999T2 (en) METHOD FOR THE AUTOMATIC DETECTION OF HUMAN EYES IN DIGITAL IMAGES
DE60016589T2 (en) METHOD AND DEVICE FOR GENERATING A COMPOUND FINGER IMPRINT IMAGE
DE69623581T4 (en) Feature extraction for fingerprint recognition
EP2584493B1 (en) Method for distinguishing between a real face and a two-dimensional image of the face in a biometric recording process
DE19614975A1 (en) Facial image processing system
DE102006010607A1 (en) Object localization method, involves calculating probability values for limitation boxes in input image based on probability that object is arranged in these locations, and selecting box with highest probability as location of object
DE102009038364A1 (en) Method and system for automatic object recognition and subsequent object tracking according to the object shape
WO1999046737A1 (en) Method for verifying the authenticity of an image recorded during a personal identification process
DE102007050568A1 (en) Method and device for object recognition in an image
DE102017220752A1 (en) Image processing apparatus, image processing method and image processing program
EP0886833B1 (en) Process for capturing and recording individuals facial data and the use of such data for determining or confirming the identity of persons
DE102006045828B4 (en) Method and device for recognizing a face and a face recognition module
EP2622540A1 (en) Method for classifying patterns in image data records
EP1282070A1 (en) Hierarchical adaptation of an image model
WO2001086585A1 (en) Method and device for determining an object in an image
EP1402460B1 (en) Automatic identification and/or verification of line textures such as fingerprints
DE3238300A1 (en) METHOD AND DEVICE FOR PATTERN OR CHARACTER RECOGNITION
EP1021787B1 (en) Method for localizing objects in still images used to localize faces
DE10126375B4 (en) Object detection method and system
DE10361838B3 (en) Assessing real object similarities involves generating supporting point vector sets with parameterized object data, transforming according to base functions to determine complex coefficients, grouping into characteristic vector components
DE4404775C1 (en) Method for operating a hybrid neural network for automatic object recognition
EP1777643A1 (en) Method for automatically recognising a face on an electronic digitised image

Legal Events

Date Code Title Description
8100 Publication of patent without earlier publication of application
D1 Grant (no unexamined application published) patent law 81
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: ZN VISION TECHNOLOGIES AG, 44801 BOCHUM, DE

8327 Change in the person/name/address of the patent owner

Owner name: VIISAGE TECHNOLOGY AG, 44801 BOCHUM, DE

8339 Ceased/non-payment of the annual fee