DE10024559B4 - Object recognition method - Google Patents

Object recognition method Download PDF

Info

Publication number
DE10024559B4
DE10024559B4 DE10024559A DE10024559A DE10024559B4 DE 10024559 B4 DE10024559 B4 DE 10024559B4 DE 10024559 A DE10024559 A DE 10024559A DE 10024559 A DE10024559 A DE 10024559A DE 10024559 B4 DE10024559 B4 DE 10024559B4
Authority
DE
Germany
Prior art keywords
search
representation
section
learned
search window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE10024559A
Other languages
German (de)
Other versions
DE10024559A1 (en
Inventor
Helmut Krabb
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pepperl and Fuchs SE
Original Assignee
OPTIGRAF AG VADUZ LUGANO PARADISO
OPTIGRAF AG VADUZ
OPTIGRAF AG VADUZ LUGANO PARAD
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by OPTIGRAF AG VADUZ LUGANO PARADISO, OPTIGRAF AG VADUZ, OPTIGRAF AG VADUZ LUGANO PARAD filed Critical OPTIGRAF AG VADUZ LUGANO PARADISO
Priority claimed from DE10066189A external-priority patent/DE10066189B4/en
Priority to DE10066189A priority Critical patent/DE10066189B4/en
Priority to DE10024559A priority patent/DE10024559B4/en
Priority to US09/859,895 priority patent/US7787017B2/en
Priority to EP01112151A priority patent/EP1156445B9/en
Priority to DE50110658T priority patent/DE50110658D1/en
Priority to DE20121522U priority patent/DE20121522U1/en
Priority to AT01112151T priority patent/ATE336049T1/en
Publication of DE10024559A1 publication Critical patent/DE10024559A1/en
Publication of DE10024559B4 publication Critical patent/DE10024559B4/en
Application granted granted Critical
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means

Abstract

Verfahren zur Erkennung von ruhenden oder bewegten Objekten wie Bildern, Texten oder Gegenständen, enthaltend die Schritte:
– Bereitstellen (102) einer zu erlernenden, digitalen Darstellung (308) des Objektes oder eines Teiles des Objektes;
– Auswählen eines Suchfensters (312) innerhalb der zu erlernenden Darstellung (308) oder innerhalb eines Ausschnittes (310) der zu erlernenden Darstellung (308),
dadurch gekennzeichnet, dass ein Suchfenster ausgewählt wird, welches innerhalb der zu erlernenden Darstellung (308) oder innerhalb des Ausschnittes (310) nur einmal vorkommt; und
dass innerhalb des Suchfensters mindestens ein für die Objekterkennung heranzuziehender Suchausschnitt (314, 316, 318) ausgewählt wird, wobei innerhalb einer auszuwertenden, digitalen Darstellung (408) nach einem dem mindestens einem Suchausschnitt (314, 316, 318) entsprechenden Muster (414, 416, 418) gesucht wird,
wobei die Position des Suchausschnittes (314, 316, 318) innerhalb des Suchfensters (312) und/oder die geometrische Gestalt des Suchausschnittes (314, 316, 318) dynamisch in Abhängigkeit vom Inhalt des Suchfensters (312) festgelegt werden.
Method for the detection of stationary or moving objects such as images, texts or objects, comprising the steps:
- Providing (102) a digital representation (308) of the object or a part of the object to be learned;
- selecting a search window (312) within the display (308) to be learned or within a section (310) of the display (308) to be learned,
characterized in that a search window is selected which occurs only once within the representation (308) to be learned or within the section (310); and
that at least one search section (314, 316, 318) to be used for object recognition is selected within the search window, within a digital representation (408) to be evaluated according to a pattern (414, 416) corresponding to the at least one search section (314, 316, 318) , 418) is sought,
wherein the position of the search section (314, 316, 318) within the search window (312) and / or the geometric shape of the search section (314, 316, 318) are determined dynamically as a function of the content of the search window (312).

Figure 00000001
Figure 00000001

Description

Die Erfindung betrifft ein Verfahren zur Erkennung von ruhenden oder bewegten Objekten wie Bildern, Texten oder Gegenständen.The invention relates to a method for the detection of stationary or moving objects such as pictures, texts or objects.

Eine Reihe von beispielsweise industriellen Anwendungen erfordert die Erkennung von Objekten, welche in unterschiedlichen Positionen innerhalb eines Beobachtungsfensters angeordnet sein können. So müssen in der grafischen Industrie im Bereich von Sammellinien oder Zusammentraglinien für Druckbögen schlecht gefalzte oder falsche Druckbögen sicher erkannt und entfernt werden. Die Erkennung schlecht gefalzter oder falscher Druckbögen wird dadurch erschwert, daß sich die einzelnen Druckbögen ständig sowohl in Sammel- oder Zusammentragrichtung als auch senkrecht dazu bewegen und daß aufeinanderfolgende Druckbögen selten vollständig bündig zueinander ausgerichtet sind. Um trotzdem ein sicheres Erkennen von schlecht gefalzten oder falschen Druckbögen zu ermöglichen, sind komplexe und teure Bearbeitungssysteme erforderlich, welche hohe Rechenleistungen benötigen.A number of industrial applications, for example requires the detection of objects that are in different Positions can be arranged within an observation window can. So must in the graphic industry in the area of collecting lines or gathering lines bad for press sheets folded or wrong printed sheets be safely recognized and removed. The detection of poorly folded or wrong printed sheets complicated by the fact that the individual printed sheets constantly both in the direction of collection or collation as well as perpendicular to it move and that successive spreads rarely complete flush are aligned with each other. In order to be able to recognize it reliably enabling poorly folded or false sheets to print is complex and expensive processing systems required, which high computing power need.

Ähnlich gelagerte Problematiken bestehen beispielsweise bei der lagerichtigen Zuführung von zu montierenden Teilen in Fertigungslinien oder bei der oftmals nur visuell durchzuführenden Füllstandskontrolle in der Verpackungsindustrie.Similar stored problems exist, for example, in the correct position feed of parts to be assembled in production lines or at the often only to be carried out visually level control in the packaging industry.

Aus der DE 37 38 304 C2 ist eine Vorrichtung zum Prüfen von Banknoten bekannt, bei der die Banknoten zur Bereitstellung einer zu erlernenden digitalen Darstellung der Banknote oder eines Teils der Banknote bereitgestellt werden. Bei diesem Verfahren wird ein Suchfenster innerhalb der zu erlernenden Darstellung ausgewählt, wobei zur Erkennung ein vorab abgespeichertes Suchfenster ausgewählt wird, welches mit einem aktuell aufgenommenen Suchfenster verglichen wird.From the DE 37 38 304 C2 A device for checking banknotes is known, in which the banknotes are provided to provide a digital representation of the banknote or part of the banknote to be learned. In this method, a search window is selected within the display to be learned, a search window which has been stored in advance being selected for recognition and which is compared with a currently recorded search window.

DE 196 36 074 C2 offenbart ein lernfähiges Bildverarbeitungssystem zur Klassierung von zu prüfenden Teilen anhand von aufgenommenen Bildern, aus denen Merkmale extrahiert werden, die innerhalb einer Bildverarbeitung im Wesentlichen zur Datenreduktion behandelt werden. Das System ist lernfähig, so dass sein Einsatz aus einer Lernphase und einer Prüfphase besteht. Zur Lernphase werden mehrere Muster von Teilen bereit gestellt, die jeweils typisch für eine vorgegebene Entscheidungsklasse sind. Dabei kann der im Prüfprogramm enthaltene Klassifikator sich selbst parametrieren. Das System parametriert sich selbst aus Mustern aller Entscheidungsklassen in der Lernphase und unabhängig von einer xpli-Merkmalstatistik, die eine Entscheidung zu einer Musterklasse treffen würde. Im Lernbetrieb wird eine automatische Bildaufnahme bereitgestellt, und ein einen Klassifikator enthaltendes Prüfprogramm erzeugt automatisch Bildmerkmale, die in einer Merkmalsdatenbank für alle Muster der Stichprobe gespeichert werden. Nach Abschluss einer Lernphase kann in der Prüfphase die automatische Prüfung unbekannter Muster zur Inspektion und Teilerkennung stattfinden. DE 196 36 074 C2 discloses an adaptive image processing system for classifying parts to be inspected on the basis of recorded images from which features are extracted which are essentially treated within an image processing system for data reduction. The system is capable of learning, so that its use consists of a learning phase and a test phase. During the learning phase, several samples of parts are provided, each of which is typical for a given decision class. The classifier contained in the test program can parameterize itself. The system parameterizes itself from samples of all decision classes in the learning phase and independently of xpli characteristic statistics that would make a decision about a sample class. In the learning mode, an automatic image recording is provided, and an inspection program containing a classifier automatically generates image features which are stored in a feature database for all samples in the sample. After completing a learning phase, the automatic testing of unknown samples for inspection and part recognition can take place in the testing phase.

EP 0 628 837 A1 offenbart ein Verfahren zur Ortsbestimmung eines Ziels mittels einer Zielsucheinrichtung, wobei sich das Ziel vor einem festen Hintergrund bewegt. Dabei wird eine zusätzliche Bewegung der Zielsucheinrichtung mittels eines optischen Detektors kompensiert. EP 0 628 837 A1 discloses a method for determining the location of a target by means of a target search device, the target moving against a fixed background. An additional movement of the target search device is compensated for by means of an optical detector.

Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren anzugeben, welches die sichere Erkennung von in unterschiedlichen Positionen innerhalb eines Beobachtungsfensters angeordneten, ruhenden oder bewegten Objekten gestattet, ohne dass die für die Erkennung erforderliche Rechenleistung übermäßig ansteigt.The invention is based on the object Specify the method that the reliable detection of in different Positions arranged within an observation window, at rest or moving objects without allowing for detection required computing power increases excessively.

Diese Aufgabe wird durch ein Verfahren gelöst, bei dem zunächst eine zu erlernende digitale Darstellung des Objektes oder eines Teiles des Objektes bereitgestellt wird. Im Anschluss daran wird innerhalb der zu erlernenden Darstellung oder inner halb eines Ausschnittes der zu erlernenden Darstellung ein Suchfenster ausgewählt, welches innerhalb der zu erlernenden Darstellung oder innerhalb des Ausschnittes nur einmal vorkommt. Daraufhin werden einer oder mehrere Suchausschnitte innerhalb des Suchfensters ausgewählt, welche die Grundlage für die Objekterkennung bilden.This task is accomplished through a process solved, at first a digital representation of the object or one to be learned Part of the object is provided. Following that within the representation to be learned or within a section selected a search window for the display to be learned, which within the representation to be learned or within the section occurs only once. Thereupon one or more search sections selected within the search window, which is the basis for object detection form.

Die Objekterkennung im Anschluß an die Auswahl des mindestens einen Suchausschnittes erfolgen so, daß innerhalb einer auszuwertenden, digitalen Darstellung nach einem Muster gesucht wird, welches inbesondere bezüglich Inhalt und geometrischer Gestalt dem anhand der zu erlernenden Darstellung ermittelten Suchausschnitt entspricht. Die auszuwertende Darstellung fungiert dabei als Beobachtungsfenster, innerhalb dessen das zu erkennende Objekt oder ein Teil des zu erkennenden Objekts in unterschiedlichen Positionen angeordnet sein kann.The object recognition after the selection of the at least one search section are made so that within of a digital representation to be evaluated searched for a pattern which, in particular with regard to The content and the geometrical shape of that based on the illustration to be learned determined search section corresponds. The representation to be evaluated acts as an observation window, within which the recognizing object or part of the object to be recognized in different Positions can be arranged.

Bei dem erfindungsgemäßen Verfahren wird vorteilhafterweise der meiste Rechenaufwand im Vorfeld der eigentlichen Objekterkennung auf das Auffinden eines oder mehrerer zuverlässiger Suchausschnitte verwendet, so daß die Erkennung des Objektes aufgrund der geringen Datenmenge des Suchausschnittes äußerst schnell erfolgen kann. Aufgrund des reduzierten Rechenaufwands für die Objekterkennung kann insbesondere die Echtzeitfähigkeit des erfindungsgemäßen Verfahrens gewährleistet werden.In the method according to the invention most of the computing effort is advantageously in advance of actual object detection on finding one or more reliable Search clippings are used so that the recognition of the object extremely fast due to the small amount of data in the search section can be done. Due to the reduced computing effort for object detection can especially real-time capability of the method according to the invention guaranteed become.

Zur Reduzierung des Rechenaufwandes bei der Auswertung einer das zu erkennende Objekt möglicherweise enthaltenden Darstellung wird in einem ersten Schritt innerhalb der zu erlernenden Darstellung des zu erkennenden Objektes oder eines Ausschnittes hiervon ein verkleinertes, charakteristisches Suchfenster ermittelt. Mit dieser Ermittlung des charakteristischen Suchfensters geht eine erste Reduzierung der für die Objekterkennung auszuwertenden Datenmenge einher. In einem zweiten Schritt wird dieses Suchfenster auf einen Suchausschnitt mit einer bestimmten geometrischen Struktur wie beispielsweise ein Kreuz, ein Ring oder eine Gerade verkleinert. Das Verkleinern des Suchfensters auf den Suchausschnitt geschieht hier derart, daß nur bestimmte Bereiche innerhalb des Suchfensters als Suchausschnitt herangezogen werden. Der Suchausschnitt weist damit vorteilhafterweise eine gegenüber dem Suchfenster nochmals reduzierte Datenmenge auf.In order to reduce the computational effort involved in evaluating a representation that may contain the object to be recognized, the first step within the Dar to be learned is position of the object to be recognized or a section thereof, a reduced, characteristic search window is determined. This determination of the characteristic search window is accompanied by a first reduction in the amount of data to be evaluated for object detection. In a second step, this search window is reduced to a search section with a specific geometric structure, such as a cross, a ring or a straight line. The search window is reduced to the search section in such a way that only certain areas within the search window are used as the search section. The search section thus advantageously has a reduced amount of data compared to the search window.

Zur sicheren Erkennung, ob das zu erfassende Objekt in einer auszuwertenden Darstellung enthalten ist, braucht gemäß einer Ausführungsform der Erfindung daher nur noch festgestellt werden, ob der anhand der zu erlernenden Darstellung ermittelte Suchausschnitt als Muster innerhalb der auszuwertenden Darstellung enthalten ist oder nicht. Aufgrund der geringen Datenmenge des Suchausschnittes und dessen hohen Maßes an Charakteristizität für das zu erfassende Objekt kann die Erkennung schnell und mit großer Sicherheit erfolgen.For reliable detection of whether that is contain the object to be captured in a representation to be evaluated according to one embodiment The invention can therefore only be determined whether the of the search section determined as a pattern is contained within the representation to be evaluated or not. Due to the small amount of data in the search section and its high level of characteristic for the The object to be detected can be recognized quickly and with great certainty respectively.

Innerhalb des Suchfensters können einer oder mehrere Suchausschnitte ausgewählt werden. Die Position jedes Suchausschnittes innerhalb des Suchfensters und die geometrische Gestalt jedes Suchausschnittes werden dynamisch in Abhängigkeit vom Inhalt des Suchfensters festgelegt. Eine dynamische Auswahl der Position eines Suchausschnittes oder der geometrischen Gestalt des Suchausschnittes kann bei vorgegebenem Inhalt des Suchfensters beispielsweise derart erfolgen, daß der Suchausschnitt eine bestimmte, vorgegebene Markanz aufweisen muß.Within the search window, one or selected several search sections become. The position of each search section within the search window and the geometric shape of each search section becomes dynamic dependent on determined by the content of the search window. A dynamic selection the position of a search section or the geometric shape of the search section can, given the content of the search window for example in such a way that the search section contains a specific must have predetermined markings.

Erfindungsgemäß ist die Markanz beispielsweise eines Suchfensters oder eines Suchausschnittes durch die Anzahl vorhandener unterschiedlicher Pixelinhalte und deren Häufigkeitsverteilung charakterisiert. Eine hohe Markanz ist dann gegeben, wenn möglichst viele unterschiedliche Pixelinhalte vorhanden sind und die unterschiedlichen Pixelinhalte mit ungefähr jeweils derselben Häufigkeit auftreten. Eine Binärdarstellung beispielsweise, welche lediglich schwarze und weiße Pixel umfaßt, ist dann optimal markant, wenn die eine Hälfte der Pixel schwarz und die andere Hälfte der Pixel weiß ist. Bei einer dynamischen Auswahl beispielsweise der Position des Suchaus schnittes wird dieser folglich derart innerhalb des Suchfensters plaziert, daß der Suchausschnitt möglichst viele unterschiedliche Pixelinhalte umfaßt, welche jeweils mit ungefähr der gleichen Häufigkeit auftreten.According to the invention, the mark is for example a search window or a search section by the number existing different pixel contents and their frequency distribution characterized. A high mark is given if possible there are many different pixel contents and the different ones Approximate pixel content the same frequency in each case occur. A binary representation for example, which are just black and white pixels comprises is optimally striking if half of the pixels are black and the other half the pixel is white. With a dynamic selection, for example, the position of the search section is consequently placed within the search window in such a way that the Search section if possible comprises many different pixel contents, each with approximately the same frequency occur.

Die geometrische Gestalt des Suchfensters und des Suchausschnittes sind frei wählbar. So können das Suchfenster als Rechteck und der Suchausschnitt als Gerade oder als Ring ausgebildet sein. Vorzugsweise weist der Suchausschnitt eine lineare Gestalt auf, da die Ermittlung eines derartigen Suchausschnittes innerhalb der zu erlernenden Darstellung bzw. eines korrespondierenden Musters innerhalb der auszuwertenden Darstellung den geringsten Rechenaufwand erfordert. So können beispielsweise zwei Suchausschnitte verwendet werden, welche als senkrecht zueinander verlaufende Geraden ausgebildet sind und deren Position innerhalb des Suchfensters dynamisch festgelegt wird.The geometric shape of the search window and of the search section are freely selectable. So can the search window as a rectangle and the search section as a straight line or be designed as a ring. The search section preferably has a linear shape, since the determination of such a search section within the representation to be learned or a corresponding one Pattern within the representation to be evaluated the least amount of computation requires. So can For example, two search sections are used, which are considered vertical straight lines are formed and their position is set dynamically within the search window.

Gemäß einer bevorzugten Ausführungsform wird innerhalb der zu erlernenden, digitalen Darstellung des Objektes zunächst ein im voraus festgelegter Vergleichsausschnitt ausgewählt und innerhalb dieses Vergleichsausschnittes ein charakteristisches Suchfenster ermittelt. Nach der Auswahl eines Suchausschnittes innerhalb des Suchfensters werden die Inhalte des Suchausschnittes und des Vergleichsausschnittes der zu erlernenden Darstellung, innerhalb dessen der Suchausschnitt ermittelt wurde, sowie die relative Lage des Suchausschnittes oder des Suchfensters innerhalb dieses Vergleichsausschnittes abgespeichert. Nachfolgend kann innerhalb einer auszuwertenden Darstellung nach einem dem Suchausschnitt am ehesten entsprechenden Muster gesucht werden.According to a preferred embodiment within the digital representation of the object to be learned first a predefined comparison section is selected and a characteristic search window within this comparison section determined. After selecting a search section within the Search window becomes the content of the search section and the comparison section the display to be learned, within which the search section was determined, as well as the relative position of the search section or of the search window is saved within this comparison section. The following can be used within a display to be evaluated a pattern that most closely matches the search section become.

Auf der Grundlage des dem Suchausschnitt am ehesten entsprechenden Musters kann dann innerhalb der auszuwertenden Darstellung ein Vergleichsausschnitt ermittelt werden, dessen Lage relativ zum gefundenen Muster mit der Lage des Vergleichsausschnittes der zu erlernenden Darstellung relativ zum erlernten Suchausschnitt übereinstimmt. Im Anschluß daran wird der Inhalt des Vergleichsausschnittes der zu erlernenden Darstellung mit dem Inhalt des Vergleichsausschnittes der auszuwertenden Darstellung verglichen. Sollten die beiden Vergleichsausschnitte bis auf eine einstellbare Abweichung übereinstimmen, steht als Ergebnis der Objekterkennung fest, daß das zu erkennende Objekt innerhalb der auszuwertenden Darstellung aufgefunden wurde.Based on the search section on The closest corresponding pattern can then be evaluated within the Representation of a comparison section can be determined, its location relative to the pattern found with the position of the comparison section the representation to be learned corresponds to the learned search section. in the Following it becomes the content of the comparison section of the representation to be learned with the content of the comparison section of the representation to be evaluated compared. If the two comparative sections except for one adjustable deviation match, the result of the object recognition is that the object to be recognized was found within the representation to be evaluated.

Die Zuverlässigkeit der Objekterkennung wird folglich dadurch gesteigert, daß im Falle des Auffindens eines dem erlernten Suchausschnitt entsprechenden Musters innerhalb der auszuwertenden Darstellung überprüft wird, ob an den erlernten Suchausschnitt und das aufgefundene Muster angrenzende Bereiche in Gestalt von Vergleichsausschnitten übereinstimmen. Gemäß der beschriebenen Ausführungsform bestimmt folglich nicht die Übereinstimmung des erlernten Suchausschnittes mit dem oftmals verrauschten Muster das Ergebnis der Objekterkennung, sondern die Übereinstimmung der beiden korrespondierenden Vergleichsausschnitte. Durch diese Maßnahme wird gewährleistet, daß ein Objekt auch dann noch sicher in einer auszuwertenden Darstellung erkannt wird, wenn es im Vergleich zur erlernten Darstellung etwas verdreht ist. Bei herkömmlichen Objekterkennungsverfahren hingegen ist die Erkennung von gegenüber einer erlernten Darstellung verdrehten Objekten nicht oder nur mit sehr großem, eine Echtzeiterkennung ausschließenden Rechenaufwand möglich.The reliability of the object recognition is consequently increased in that if a pattern corresponding to the learned search section is found within the representation to be evaluated, it is checked whether areas adjacent to the learned search section and the pattern found match in the form of comparison sections. According to the described embodiment, it is therefore not the correspondence of the learned search section with the often noisy pattern that determines the result of the object recognition, but rather the correspondence of the two corresponding comparison sections. This measure ensures that an object is still reliably recognized in a representation to be evaluated if it is somewhat twisted in comparison to the learned representation. In contrast, with conventional object recognition methods the detection of objects rotated in relation to a learned representation is not possible or only possible with a very large computing effort that excludes real-time detection.

Vorzugsweise wird die zu erlernende Darstellung des zu erkennenden Objektes vor der Auswahl eines Suchfensters einer Aufbereitung unterzogen. Auch die auszuwertende Darstellung, innerhalb welcher nach dem zu erkennenden Objekt gesucht wird, kann einer entsprechenden Aufbereitung unterzogen werden. Insbesondere bei solchen digitalen Darstellungen, welche beispielsweise aus digitalisierten Videoaufnahmen generiert wurden, ist eine Aufbereitung in der Regel zweckmäßig.Preferably the one to be learned Representation of the object to be recognized before selecting a search window subjected to preparation. Also the representation to be evaluated, within which the object to be recognized is searched for be subjected to an appropriate preparation. In particular in such digital representations, which are digitized, for example Video recordings were generated is usually a preparation appropriate.

Die Aufbereitung der Darstellung kann unterschiedliche Maßnahmen beinhalten. So kann beispielsweise im Falle einer monochromen Darstellung dieser einer Grauwertmanipulation unterzogen werden. Im Falle geringer Kontraste kann so z.B. durch eine Grauwertspreizung, welche die zur Verfügung stehende Anzahl unterschiedlicher Grauwerte voll ausnutzt, eine deutliche Verbesserung der Erkennungswahrscheinlichkeit erzielt werden.The preparation of the presentation can take different measures include. For example, in the case of a monochrome display, this can undergo a gray value manipulation. In the case of less Contrasts can e.g. by a gray value spread, which the available Number of different gray values fully used, a clear one Improvement of the detection probability can be achieved.

Die Zuverlässigkeit des erfindungsgemäßen Erkennungsverfahrens kann durch eine Glättung der digitalen Darstellung weiter verbessert werden. So läßt sich beispielsweise durch eine Binominalfilterung das bei digitalisierten Videoaufnahmen vorhandene Zeilen- und Quantisierungsrauschen deutlich abschwächen.The reliability of the detection method according to the invention can by smoothing the digital representation can be further improved. So you can for example by binomial filtering that in digitized Video recordings significantly attenuate existing line and quantization noise.

Vorteilhafterweise wird die zu erlernende oder die auszuwertende digitale Darstellung einer Kantenextraktion unterzogen, durch welche in homogenen Bildern enthaltene Farb- oder Grauwertübergänge als Kanten erfaßt werden. Vorzugsweise erfolgt eine derartige Aufbereitung der digitalen Darstellung mit Hilfe eines modifizierten Kantenoperators nach Prewitt.Advantageously, the one to be learned or subjected the digital representation to be evaluated to an edge extraction, through which color or gray value transitions contained in homogeneous images as Edges detected become. Such preparation of the digital is preferably carried out Representation using a modified edge operator according to Prewitt.

Eine weitere Steigerung der Erkennungssicherheit läßt sich durch Binärisieren der digitalen Darstellung erreichen. Bei der Binärisierung wird mit Hilfe eines vorab festgelegten Schwellenwertes aus der beispielsweise eine Vielzahl von Grautönen umfassenden digitalen Darstellung eine Schwarz-Weiß-Darstellung generiert.A further increase in the detection reliability let yourself through binarization of the digital representation. During the binarization, a predetermined threshold from the example, a variety of shades of gray comprehensive digital representation a black and white representation generated.

Die vorstehend beschriebenen Schritte zur Aufbereitung der zu erlernenden oder auszuwertenden digitalen Darstellung können in beliebiger Weise kombiniert werden.The steps described above to prepare the digital to be learned or evaluated Representation can can be combined in any way.

Gemäß einer bevorzugten Ausführungsform werden von der auszuwertenden und von der erlernenden Darstellung Histogramme erstellt, welche die Häufigkeit der auftretenden Pixelinhalte wiedergeben. Sollte es einmal nicht möglich sein, einen Suchausschnitt auszuwählen, können diese Histogramme zur Objekterkennung herangezogen werden.According to a preferred embodiment of the histograms to be evaluated and the learning diagram which created the frequency of the occurring pixel contents. Shouldn't possible histograms can be used to select a search section Object recognition can be used.

Weitere Einzelheiten und Vorteile der Erfindung ergeben sich aus der Beschreibung eines bevorzugten Ausführungsbeispieles und den Figuren. Es zeigen:More details and advantages the invention result from the description of a preferred embodiment and the figures. Show it:

1 bis 5: Schematische Flußdiagramme des erfindungsgemäßen Verfahrens zur Erkennung von Objekten; 1 to 5 : Schematic flow diagrams of the inventive method for recognizing objects;

6 bis 10: die Aufbereitung einer zu erlernenden, digitalen Darstellung des zu erkennenden Objektes; 6 to 10 : the preparation of a digital representation of the object to be recognized to be learned;

11 bis 13: die Auswahl eines Suchfensters innerhalb der zu erlernenden Darstellung und die Auswahl eines Suchausschnittes innerhalb des Suchfensters; und 11 to 13 : the selection of a search window within the display to be learned and the selection of a search section within the search window; and

14 und 15: die Erkennung eines Objektes innerhalb einer auszuwertenden Darstellung. 14 and 15 : the detection of an object within a representation to be evaluated.

In den 1 bis 5 ist in Form von Flußdiagrammen ein schematisches Ausführungsbeispiel eines erfindungsgemäßen Verfahrens zur Erkennung von Objekten dargestellt. Die 1 bis 4 zeigen die Auswahl eines Suchfensters und eines Suchausschnittes auf der Grundlage einer zu erlernenden, digitalen Darstellung des Objektes und in der 5 ist der Vorgang des Suchens nach dem zu erkennenden Objekt innerhalb einer auszuwertenden Darstellung skizziert.In the 1 to 5 a schematic exemplary embodiment of a method according to the invention for recognizing objects is shown in the form of flow diagrams. The 1 to 4 show the selection of a search window and a search section on the basis of a digital representation of the object to be learned and in the 5 the process of searching for the object to be recognized is outlined within a representation to be evaluated.

In 1 ist der Vorgang 100 der Auswertung einer zu erlernenden Darstellung im Hinblick auf die Fragestellung, ob innerhalb der zu erlernenden Darstellung ein markanter, rauschfreier Suchausschnitt vorhanden ist, dargestellt.In 1 is the process 100 the evaluation of a representation to be learned with regard to the question of whether a striking, noise-free search section is present within the representation to be learned.

In einem ersten Schritt 102 wird von einer Aufnahmevorrichtung in Gestalt einer Kamera eine analoge Darstellung eines Ausschnittes des zu erkennenden Objektes aufgenommen. Ein Framegrabber eines digitalen Signalprozessors stellt diese analoge Aufnahme dann in Gestalt einer monochromen digitalen Darstellung einer Weiterverarbeitung mit Hilfe einer Datenverarbeitungsanlage zur Verfügung. Anstelle einer analogen Kamera und eines Framegrabbers könnte auch eine Digitalkamera verwendet werden, welche unmittelbar eine digitale Darstellung erstellt.In a first step 102 from a recording device in the form of a camera an analog Representation of a section of the object to be recognized recorded. A frame grabber of a digital signal processor provides this analog The picture is then taken in the form of a monochrome digital representation further processing with the help of a data processing system to disposal. Instead of an analog camera and a frame grabber could also be a digital camera are used, which immediately creates a digital representation.

In einem nachfolgenden Schritt 104 wird diese monochrome Darstellung eines Ausschnittes des zu erkennenden Objektes einer Grauwertmanipulation unterzogen. Dabei werden zunächst der minimale und der maximale Grauwert ermittelt, welche in der zu erlernenden, monochromen Darstellung auftreten. Im Anschluß daran wird zur Verbesserung des Kontrastes der zu erlernenden Darstellung eine lineare Grauwertspreizung durchgeführt. Kommen innerhalb der zu erlernenden Darstellung beispielsweise auf einer Grauwertskala von 0 bis 255 nur Grauwerte von 7 bis 54 vor, so werden ausgehend von dieser ursprünglichen Grauwertdarstellung drei weitere Grauwertdarstellungen mit linearen Grauwertspreizungen von beispielsweise 0 bis 63, 0 bis 127 und 0 bis 255 generiert. Anschließend wird eine Tabelle (Look-up-Table) angelegt, in welcher für jedes Pixel der zu erlernenden Darstellung der ursprüngliche und die drei gespreizten Grauwerte enthalten sind. Diese Tabelle umfaßt folglich verschiedene Grauwertdarstellungen der von der Digitalkamera aufgenommenen Aufnahme.In a subsequent step 104, this monochrome representation of a section of the object to be recognized is subjected to gray value manipulation. First, the minimum and maximum gray values are determined, which appear in the monochrome display to be learned. A linear gray value spread is then carried out to improve the contrast of the display to be learned. If, for example, only gray values from 7 to 54 occur on the gray value scale from 0 to 255 within the display to be learned, three further gray value displays with linear gray value spreads of, for example, 0 to 63, 0 to 127 and 0 to 255 are generated from this original gray value representation. Then a table (look-up table) is created in which the original and the three spread gray values are contained for each pixel of the representation to be learned. This table therefore includes various gray scale representations of those from the digital camera taken recording.

Anschließend wird in Schritt 106 die aktuell zu bearbeitende Grauwertdarstellung geladen.Then in step 106 the Gray value display currently being edited loaded.

In Schritt 108 erfolgt daraufhin eine Klassifikation der Grauwertdarstellungen dahingehend, ob sie einen Suchausschnitt von ausreichender Markanz enthalten. Dazu erfolgt in einem ersten Schritt eine Aufbereitung der geladenen Grauwertdarstellung, um die Suche nach einem charakteristischen Suchfenster und einem markanten Suchausschnitt zu erleichtern.This is followed in step 108 a classification of the gray value representations according to whether they contain a search section of sufficient mark. This is done in a first step a preparation of the loaded gray value display, to search for a characteristic search window and a to facilitate the striking search section.

In Schritt 108 wird in mehreren Durchläufen und bei verschiedenen Aufbereitungsparametern nach einem charakteristischen Suchfenster und einem darin enthaltenen, markanten Suchausschnitt gesucht. Sollte sich herausstellen, daß die aktuell geladene Grauwertdarstellung nicht markant genug ist, um ein Suchfenster oder einen Suchausschnitt ermitteln zu können, so wird die Grauwertdarstellung als monochrom klassifiziert. Sofern jedoch sowohl ein charakteristisches Suchfenster als auch ein darin enthaltener, markanter Suchausschnitt gefunden werden können, erfolgt eine Überprüfung der aktuellen Grauwertdarstellung auf Rauschen. Dazu wird bei den zuletzt eingestellten Aufbereitungsparametern in der aktuellen Grauwertdarstellung mehrmals der Inhalt des Suchausschnittes an identischen Positionen ermittelt. Sofern die jeweils ermittelten Suchausschnittsinhalte stärkere Abweichungen aufweisen, wird die Grauwertdarstellung als verrauscht klassifiziert.In step 108, and with different preparation parameters according to a characteristic Search window and a distinctive search section contained therein. Should it turn out that the currently loaded gray value display is not striking enough to to be able to determine a search window or a search section, so the gray value display is classified as monochrome. Provided however, both a characteristic search window and a search window it contains distinctive search section can be found, the current gray value display for noise. For this, the last set processing parameters in the current gray value display several times the content of the search section at identical positions determined. Provided that the search section contents determined in each case more If there are any deviations, the gray value display is classified as noisy.

Im Anschluß daran erfolgt in Schritt 110 eine Überprüfung der aktuellen Grauwertdarstellung dahingehend, ob sie als monochrom oder verrauscht klassifiziert wurde. Sollte dies der Fall sein, so werden in Schritt 112 entweder die Aufbereitungsparameter geändert oder es wird, falls alle Aufbereitungsparameter bereits durchlaufen sind, die nächste Grauwertdarstellung aus der in Schritt 104 angelegten Tabelle festgelegt. Daraufhin wird wieder bei Schritt 106 fortgefahren, sofern nicht in Schritt 114 festgestellt wird, daß alle Aufbereitungsparameter und alle Grauwertdarstellungen bereits durchlaufen sind.This is followed in step 110 a review of the current gray value representation in terms of whether it is as monochrome or classified as noisy. If that is the case, so in step 112 either the editing parameters are changed or if all processing parameters have already been run through, the next gray value display from the table created in step 104. thereupon is continued again at step 106, if not in step 114 it is found that all Processing parameters and all gray value displays have already been run through.

Sollte sich in Schritt 110 herausstellen, daß die aktuelle Grauwertdarstellung weder monochrom noch verrauscht ist, oder sollte sich in Schritt 114 herausstellen, daß bereits alle Grauwertdarstellungen und alle möglichen Aufbereitungsparameter abgearbeitet wurden, so wird in Schritt 116 überprüft, ob für die zu erlernende Darstellung ein markanter Suchausschnitt festgelegt werden konnte. Sollte dies nicht der Fall sein, so wird in Schritt 118 ein zentraler Bereich der zu erlernenden Darstellung als Vergleichsausschnitts festgelegt und dieser mit Hilfe eines Grauwert-Histogrammes bewertet. Dieses Grauwert-Histogramm wird abgespeichert und bildet nachfolgend die Grundlage für die Objekterkennung in einer auszuwertenden Darstellung. Die Objekterkennung unter Zuhilfenahme von Grauwert-Histogrammen wird weiter unten unter Bezugnahme auf 5 näher beschrieben.If it turns out in step 110 that the current gray value representation is neither monochrome nor noisy, or if it turns out in step 114 that all gray value representations and all possible processing parameters have already been processed, then in step 116 a check is carried out to determine whether the representation to be learned striking search section could be defined. If this is not the case, a central area of the representation to be learned is defined as a comparison section in step 118 and this is evaluated with the aid of a gray value histogram. This gray value histogram is saved and subsequently forms the basis for object detection in a representation to be evaluated. Object recognition using gray scale histograms is described below with reference to FIG 5 described in more detail.

Sollte sich jedoch in Schritt 116 herausstellen, daß die zu erlernende Darstellung die Ermittlung eines markanten Suchausschnittes ermöglicht, so werden in Schritt 120 die Koordinaten und der Inhalt des Suchausschnittes sowie der Inhalt eines den Suchausschnitt enthaltenden Vergleichsausschnittes, der innerhalb der zu erlernenden Darstellung festgelegt wird, abgespeichert. Außerdem werden die Tabelle mit den Grauwertdarstellungen und sowie die verwendeten Aufbereitungsparameter wie Kantendivisor und Binärisierungschwelle abgespeichert.However, in step 116 point out that the presentation to be learned the determination of a distinctive search section allows so in step 120 the coordinates and the content of the search section as well as the content of a comparison section containing the search section, which is defined within the display to be learned. Moreover the table with the gray value displays and as well as the used Processing parameters such as edge divisor and binarization threshold saved.

Im Anschluß an den Schritt 118 oder den Schritt 120 ist der Vorgang 100 der Auswertung der zu erlernenden Darstellung hinsichtlich der Frage, ob ein markanter, rauschfreier Suchausschnitt innerhalb der zu erlernenden Darstellung enthalten ist, beendet. Auszuwertende Darstellungen können jetzt unter Zuhilfenahme entweder des abgespeicherten Suchausschnittes oder des abgespeicherten Histogrammes im Hinblick darauf untersucht werden, ob sie das zu erkennende Objekt enthalten oder nicht. Dieser Vorgang wird weiter unten unter Bezugnahme auf 5 beschrieben. Zunächst wird jedoch anhand von 2 der Vorgang 130 des Klassifizierens der auszuwertenden Darstellung näher erläutert. Dies Vorgang 130 entspricht im wesentlichen den Schritten 106 bis 120 von 1.Following step 118 or step 120 is the process 100 the evaluation of the representation to be learned with regard to the question of whether a striking, noise-free search section is contained within the representation to be learned has ended. Representations to be evaluated can now be examined with the aid of either the saved search section or the stored histogram with regard to whether they contain the object to be recognized or not. This process is described below with reference to 5 described. First, however, using 2 the process 130 the classification of the representation to be evaluated explained in more detail. This process 130 corresponds essentially to steps 106 to 120 of FIG 1 ,

Zunächst wird in Schritt 132 die aktuell aus der Tabelle zu ladende Grauwertdarstellung der zu erlernenden Darstellung festgelegt. Daraufhin wird eine Schwelle für die Binärisierung der auszuwertenden Darstellung auf einen Anfangswert gesetzt.First, in step 132 Grayscale representation of the learners currently to be loaded from the table Representation set. Thereupon becomes a threshold for binaryization the representation to be evaluated is set to an initial value.

Anschließend wird in Schritt 134 ein Kantendivisor für die Kantenextrahierung auf einen Anfangswert gesetzt. Der Kantendivisor gibt an, bei welchem Grauwert im Bereich eines Grauwertüberganges eine Kante festgelegt wird. Je nach Wert des Kantendivisors verschiebt sich die Kante in Richtung auf hellere oder dunklere Grautöne. Bei der Kantenextrahierung wird auf den modifizierten Kantenoperator nach Prewitt zurückgegriffen.Then in step 134 Edge divisor for edge extraction is set to an initial value. The edge divisor specifies the gray value at which a gray value transition occurs Edge is set. Moves depending on the value of the edge divisor the edge towards lighter or darker shades of gray. at the edge extraction is on the modified edge operator resorted to Prewitt.

In einem sich anschließenden Schritt 136 wird zunächst die aktuelle Grauwertdarstellung geladen. Daraufhin wird die aktuelle Grauwertdarstellung einer Glättung durch Binominalfilterung unterzogen. Dann wird in der auszuwertenden Grauwertdar stellung ein zentraler Vergleichsausschnitt festgelegt, innerhalb dessen später das Suchfenster ermittelt wird.In a subsequent step 136 will first the current gray value display is loaded. Then the current one Gray value representation of a smoothing subjected to binomial filtering. Then in the to be evaluated A central comparison section is defined, within that later the search window is determined.

In Schritt 136 wird weiterhin von diesem Vergleichsausschnitt, welcher eine geringere Abmessung und folglich auch eine geringere Datenmenge als die aktuelle Grauwertdarstellung aufweist, ein Histogramm erstellt, welches die Grauwertverteilung des Vergleichsausschnittes angibt.In step 136 continues from this comparison section, which has a smaller dimension and consequently also a smaller amount of data than the current gray value display has created a histogram which shows the gray value distribution of the Indicates comparative section.

Daraufhin wird in Schritt 136 der aktuelle Wert des Kantendivisors halbiert und der Vergleichsausschnitt einer Kantenextrahierung unterzogen. Im Anschluß an die Kantenextrahierung wird der Vergleichsausschnitt auf der Basis der aktuellen Binärisierungsschwelle in eine Binärdarstellung gewandelt. In dieser Binärdarstellung nimmt jedes der Pixel des Vergleichsausschnittes in Abhängigkeit vom Wert der Binärisierungsschwelle einen von zwei möglichen Werten an. Nachfolgend werden diese beiden Werte zur Veranschaulichung als "schwarz" und "weiß" bezeichnet. Abschließend wird in Schritt 136 das Verhältnis von schwarzen zu weißen Pixeln innerhalb des Vergleichsausschnittes berechnet.The current value of the edge divisor is then halved in step 136 and the comparison section is subjected to an edge extraction. Following the edge extraction, the Ver same section converted to a binary representation based on the current binarization threshold. In this binary representation, each of the pixels of the comparison section assumes one of two possible values depending on the value of the binarization threshold. In the following, these two values are referred to as "black" and "white" for illustration. Finally, the ratio of black to white pixels within the comparison section is calculated in step 136.

In Schritt 138 wird überprüft, ob der aktuelle Vergleichsausschnitt eine ausreichend hohe Markanz aufweist. Bei dieser Überprüfung wird festgestellt, ob das in Schritt 136 ermittelte Verhältnis von schwarzen zu weißen Pixeln innerhalb eines einstellbaren Toleranzbereiches um den Optimalwert 0,5 liegt. Sollte die Markanz des aktuellen Vergleichsausschnittes ausreichend hoch sein, so wird in Schritt 140 nach einem charakteristischen Suchfenster innerhalb des aktuellen Vergleichsausschnittes und nach einem markanten Suchausschnitt innerhalb des ermittelten Suchfensters gesucht. Andernfalls erfolgt in Schritt 142 eine Klassifizierung des Vergleichsausschnittes als monochrom.In step 138 it is checked whether the current comparison section has a sufficiently high mark. This review will determined whether the ratio of blacks determined in step 136 too white Pixels within an adjustable tolerance range around the optimal value 0.5 is. Should be the mark of the current comparison section be sufficiently high, then in step 140 after a characteristic Search window within the current comparison section and for a striking search section within the determined search window searched. Otherwise, a classification takes place in step 142 of the comparative section as monochrome.

Im Anschluß an die Suche nach einem markanten Suchausschnitt in Schritt 140 oder an die Klassifizierung des Vergleichsausschnittes als monochrom in Schritt 142 wird in Schritt 144 überprüft, ob ein markanter Suchausschnitt gefunden wurde oder ob der Kantendivisor seinen niedrigstmöglichen Wert annimmt. Sollte diese Überprüfung negativ verlaufen, so wird ab Schritt 136 nochmals eine Schleife mit halbiertem Kantendivisor aber sonst unveränderten Einstellungen durchlaufen.Following the search for a striking one Search section in step 140 or to the classification of the comparison section as a monochrome in step 142 it is checked in step 144 whether a striking search section was found or whether the edge divisor its lowest possible Assumes value. Should this review be negative run, a loop with halved is again from step 136 Edge divisor but otherwise unchanged Go through settings.

Sollte hingegen in Schritt 144 festgestellt werden, daß ein markanter Suchausschnitt gefunden wurde oder daß der Kantendivisor seinen niedrigstmöglichen Wert annimmt, so wird in Schritt 146 überprüft, ob in Schritt 140 ein markanter Suchausschnitt gefunden wurde. Sollte dies der Fall sein, so wird in Schritt 148 dieser Suchausschnitt auf Rauschen getestet. Zu diesem Zweck wird bei den aktuellen Aufbereitungsparametern (Binärisierungsschwelle und Kantendivisor) in der aktuellen Grauwertdarstellung mehrmals der Inhalt eines an identischen Positionen angeordneten Suchausschnittes untersucht. Sofern die Inhalte der an identischen Positionen angeordneten Suchausschnitte keine größeren Abweichungen aufweisen, wird der gefundene Suchausschnitt als rauschfrei klassifiziert, andernfalls als verrauscht.However, if it is determined in step 144 the existence distinctive search section was found or that the edge divisor lowest possible Assumes a value, it is checked in step 146 whether a distinctive one in step 140 Search section was found. If this is the case, then in step 148 this search section was tested for noise. To this The purpose is with the current preparation parameters (binaryization threshold and edge divisor) several times in the current gray value display the content of a search section arranged at identical positions examined. Provided that the contents of those arranged in identical positions Search sections do not show any major deviations, the search section found is classified as noise-free, otherwise as noisy.

Wenn in Schritt 146 festgestellt wird, daß kein markanter Suchausschnitt gefunden wurde, oder wenn in Schritt 146 festgestellt wird, daß ein markanter Suchausschnitt gefunden wurde und dieser Suchausschnitt in Schritt 148 auf Rauschen getestet wurde, wird anschließend in Schritt 150 die Binärisierungsschwelle erhöht.If determined in step 146 will that no distinctive search section was found, or if in step 146 it is found that a striking Search section was found and this search section in step 148 has been tested for noise, the binarization threshold then becomes in step 150 elevated.

Im Anschluß an die Erhöhung der Binärisierungsschwelle in Schritt 150 wird in Schritt 152 überprüft, ob ein markanter und rauschfreier Suchausschnitt gefunden wurde oder ob die Binärisierungsschwelle ihren höchstmöglichen Wert angenommen hat. Falls diese Überprüfung negativ ausfällt, wird eine erneute Schleife ab Schritt 134, in welchem der Kantendivisor wieder auf seinen Anfangswert gesetzt wird, durchlaufen. Andernfalls wird in Schritt 154 der Zähler für die aktuelle Grauwertdarstellung erhöht.Following the increase in binarization in step 150 it is checked in step 152 whether a striking and noise-free Search section was found or whether the binarization threshold is its highest possible Has accepted value. If this check is negative, a loop again from step 134 in which the edge divisor again is set to its initial value. Otherwise it will in step 154 the counter for the current gray value display increased.

Im Anschluß an die Erhöhung des Zählers für die aktuelle Grauwertdarstellung in Schritt 154 wird in Schritt 156 überprüft, ob ein markanter und rauschfreier Suchabschnitt gefunden wurde oder ob die aktuelle Grauwertdarstellung die letzte, in der in Schritt 104 angefertigten Tabelle enthaltene Grauwertdarstellung ist. Falls diese Überprüfung negativ ausfällt, wird eine erneute Schleife ab Schritt 132, in welchem die Binärisierungsschwelle wieder auf ihren Anfangswert gesetzt und die nächste Grauwertdarstellung geladen wird, durchlaufen.Following the increase in counter for the The current gray value display in step 154 is checked in step 156 whether a distinctive and noise-free search section was found or whether the current gray value representation is the last one in step 104 prepared gray scale representation is included. If this review negative fails a new loop from step 132 in which the binarization threshold reset to its initial value and the next gray value display is loaded will go through.

Sollte sich in Schritt 156 dagegen herausstellen, daß ein markanter und rauschfreier Suchausschnitt gefunden wurde oder daß die letzte, in der in Schritt 104 angefertigten Tabelle enthaltene Grauwertdarstellung erreicht ist, so erfolgt in Schritt 158 eine Klassifizierung der zu erlernenden Darstellung. Die zu erlernende Darstellung wird als binär klassifiziert, wenn ein rauschfreier und markanter Suchausschnitt gefunden wurde. Wurde der Suchausschnitt in Schritt 142 als monochrom eingestuft, so wird die zu erlernende Darstellung ebenfalls als monochrom klassifiziert. Wurde in Schritt 148 der Suchausschnitt als verrauscht eingestuft, so wird die zu erlernende Darstellung in Schritt 158 ebenfalls als verrauscht klassifiziert. Nach Abarbeiten des Schrittes 158 ist der Vorgang 130 des Klassifizierens beendet.If, on the other hand, it turns out in step 156 that a distinctive and noise-free search section has been found or that the last gray value representation contained in the table produced in step 104 has been reached, then the representation to be learned is classified in step 158. The representation to be learned is classified as binary if a noise-free and distinctive search section has been found. If the search section was classified as monochrome in step 142, the representation to be learned is also classified as monochrome. If the search section was classified as noisy in step 148, the representation to be learned is also classified as noisy in step 158. After processing step 158, the process is 130 of classification finished.

In 3 ist der Vorgang 170 des Suchens nach einem charakteristischen Suchfenster innerhalb des in Schritt 136 von 2 generierten Vergleichsausschnittes und nach einem Suchausschnitt innerhalb eines aufgefundenen Suchfensters detaillierter dargestellt. Der in 3 dargestellte Vorgang 170 entspricht im wesentlichen dem Schritt 140 von 2.In 3 is the process 170 searching for a characteristic search window within the step 136 of 2 generated comparison section and after a search section within a found search window shown in more detail. The in 3 process shown 170 corresponds essentially to step 140 of FIG 2 ,

Zur Suche nach einem charakteristischen Suchfenster innerhalb des Vergleichsausschnittes werden in Schritt 172 zunächst alle innerhalb dieses Vergleichsausschnittes enthaltenen Suchfenster im Hinblick auf deren Markanz untersucht. Je näher das Verhältnis von schwarzen zu weißen Pixeln eines Suchfensters dabei an dem Optimalwert 0,5 liegt, desto höher ist die Markanz des entsprechenden Suchfensters. Die ermittelte Markanz eines jeden Suchfensters wird abgespeichert.To search for a characteristic search window within the comparison section, all are initially in step 172 Search window contained within this comparison section examined in terms of their branding. The closer the ratio of black to white Pixels of a search window are at the optimal value 0.5, the more is higher the mark of the corresponding search window. The determined markanz of each search window is saved.

Anschließend werden in Schritt 174 alle Suchfenster, welche eine gewisse Ähnlichkeit aufweisen, ausgefiltert, um ein für den Vergleichsausschnitt charakteristisches Suchfenster zu ermitteln. Dabei werden alle Suchfenster als ähnlich eingestuft, bei welchen eine über einem vorbestimmten Schwellwert liegende Anzahl von Pixeln identisch ist.Then in step 174 all search windows that have a certain similarity are filtered out, around one for to determine the comparison section characteristic search window. there all search windows are considered similar classified, in which one over number of pixels lying within a predetermined threshold is.

Daraufhin wird in Schritt 176 von den verbliebenen charakteristischen Suchfenstern das Suchfenster mit der höchsten Markanz ausgewählt. Sollten mehrere charakteristische Suchfenster mit gleich hoher Markanz gefunden werden, so wird innerhalb der zu erlernenden Darstellung das erste dieser Suchfenster ausgewählt. In der Praxis hat sich nämlich herausgestellt, daß sich die Erkennungsquote des erfindungsgemäßen Erkennungsverfahrens nicht wesentlich erhöht, wenn ein anderes Suchfenster mit gleich hoher Markanz ausgewählt wird. Weiterhin werden in Schritt 176 die Koordinaten des ausgewählten charakteristischen Suchfensters abgespeichert.Then in step 176 the remaining selected search window, the search window with the highest mark is selected. If several characteristic search windows with the same high mark are found, the first of these search windows is selected within the display to be learned. In practice, it has been found that the recognition rate of the recognition method according to the invention does not increase significantly if another search window with the same high mark is selected. Furthermore, the coordinates of the selected characteristic search window are stored in step 176.

In Schritt 178 wird überprüft, ob das in Schritt 176 ausgewählte Suchfenster vorgegebenen Markanzkriterien entspricht. Sollte dies nicht der Fall sein, wird das Suchfenster in Schritt 180 als nicht markant klassifiziert. Sollte dagegen in Schritt 178 festgestellt werden, daß das Suchfenster den vorgegebenen Markanzkriterien entspricht, so wird in Schritt 182 für zwei Suchausschnitte in Gestalt von senkrecht zueinander verlaufenden Geraden und für alle möglichen Positionen dieser beiden Geraden innerhalb des Suchfensters die jeweilige Markanz ermittelt.In step 178 it is checked whether the selected in step 176 Search window corresponds to specified mark criteria. Should this be If this is not the case, the search window is not distinctive in step 180 classified. On the other hand, if it is determined in step 178 that this Search window meets the specified mark criteria, so in step 182 for two search sections in the form of perpendicular to each other Straight and for everyone potential Positions of these two lines within the search window respective markings determined.

Daraufhin werden in Schritt 184 die beiden Suchausschnitte ausgewählt, welche die höchste Markanz aufweisen. Außerdem werden die Anfangskoordinaten der beiden ausgewählten Suchausschnitte innerhalb des Suchfensters abgespeichert.Then in step 184 the selected two search sections, which is the highest mark exhibit. Moreover the starting coordinates of the two selected search sections are within of the search window.

Anschließend wird in Schritt 186 überprüft, ob das ausgewählte Suchfenster und die ausgewählten Suchabschnitte jeweils eine Markanz aufweisen, welche über einem voreingestellten Wert liegen. Sollte dies nicht der Fall sein, so wird die auszuwertende Darstellung in Schritt 188 als monochrom klassifiziert. Andernfalls werden in Schritt 190 die Inhalte der beiden Suchausschnitte abgespeichert. Neben dem Inhalt dieser beiden Suchabschnitte, deren Position innerhalb des Suchfensters dynamisch festgelegt wird, wird noch der Inhalt eines dritten, ortsfesten Suchausschnittes in Gestalt einer Geraden abgespeichert, welche das Suchfenster diagonal durchsetzt. Weiterhin wird in Schritt 190 die auszuwertende Darstellung als Binärdarstellung klassifiziert.It is then checked in step 186 whether the selected Search window and the selected ones Search sections each have a mark, which over a preset value. If this is not the case, then the representation to be evaluated becomes monochrome in step 188 classified. Otherwise, in step 190, the contents of the two Search sections saved. In addition to the content of these two search sections, whose position within the search window is determined dynamically, becomes the content of a third, fixed search section saved in the form of a straight line, which diagonally the search window interspersed. Furthermore, the representation to be evaluated is shown in step 190 as a binary representation classified.

In 4 ist der Vorgang 200 des Ausfilterns von ähnlichen Suchfenstern detaillierter dargestellt. Dieser Vorgang entspricht dem in 3 dargestellten Schritt 174.In 4 is the process 200 filtering out similar search windows is shown in more detail. This process corresponds to that in 3 step 174 shown.

Zunächst wird in Schritt 202 der Inhalt eines aktuellen Suchfensters für einen Vergleich gespeichert. Anschließend wird in Schritt 204 der Inhalt dieses Suchfenster mit den Inhalten von allen anderen möglichen Suchfenstern innerhalb des Vergleichsausschnittes verglichen. Sofern ähnliche Suchfenster erkannt werden, werden diese ausmaskiert. Sofern eine Überprüfung im Schritt 206 ergibt, daß mindestens ein zu dem aktuellen Suchfenster ähnliches Suchfenster gefunden wurde, wird das aktuelle Suchfenster in Schritt 208 ebenfalls ausmarkiert. Der Vorgang 200 des Auffindens eines für den jeweiligen Vergleichsausschnitt charakteristischen Suchfensters wird so lange fortgeführt, bis alle möglichen Suchfenster innerhalb des Vergleichsausschnittes auf Ähnlichkeit mit anderen Suchfenstern innerhalb des Vergleichsausschnittes untersucht wurden.First, in step 202, the content of a current search window is saved for comparison. The content of this search window is then compared in step 204 with the contents of all other possible search windows within the comparison section. If similar search windows are recognized, they are masked out. If a check in step 206 shows that at least one search window similar to the current search window has been found, the current search window is also selected in step 208. The process 200 the finding of a search window characteristic of the respective comparison section is continued until all possible search windows within the comparison section have been examined for similarity with other search windows within the comparison section.

Gemäß den in den 1 bis 4 beschriebenen Verfahrensschritten wird eine zu erlernende Darstellung entweder als Binärdarstellung klassifiziert oder aber als verrauscht oder monochrom. Wird die zu erlernende Darstellung als verrauscht oder monochrom klassifiziert, so wird zur Objekterkennung in einer aus zuwertenden Darstellung ein abgespeichertes Grauwert-Histogramm der zu erlernenden Darstellung herangezogen. Im Falle einer Binärdarstellung hingegen erfolgt die Objekterkennung in einer auszuwertenden Darstellung unter Zuhilfenahme der abgespeicherten Suchausschnitte. In 5 ist die erfindungsgemäße Objekterkennung 220 innerhalb einer auszuwertenden Darstellung detaillierter dargestellt.According to the in the 1 to 4 described method steps, a representation to be learned is either classified as a binary representation or as noisy or monochrome. If the representation to be learned is classified as noisy or monochrome, a stored gray value histogram of the representation to be learned is used for object detection in a representation to be evaluated. In the case of a binary representation, on the other hand, the object is recognized in a representation to be evaluated with the aid of the stored search sections. In 5 is the object recognition according to the invention 220 presented in more detail within a representation to be evaluated.

In einem ersten Schritt 220 wird von einer Kamera eine analoge Aufnahme erzeugt, welche auf das Vorhandensein des zu erkennenden Objektes überprüft werden soll. Diese analoge Aufnahme wird von einem Framegrabber eines digitalen Signalprozessors in Form einer auszuwertenden monochromen Darstellung der Weiterverarbeitung zur Verfügung gestellt.In a first step 220 from a camera creates an analog recording, which indicates the presence of the object to be recognized should. This analog recording is made by a frame grabber of a digital Signal processor in the form of a monochrome representation to be evaluated available for further processing posed.

In Schritt 224 wird die auszuwertende Darstellung unter Zuhilfenahme von Binominalkoeffizienten geglättet. Weiterhin wird ein Grauwert-Histogramm der auszuwertenden Darstellung generiert.In step 224 the one to be evaluated Presentation smoothed with the help of binomial coefficients. Farther a gray value histogram of the representation to be evaluated is generated.

In Schritt 226 wird überprüft, ob die erlernte Darstellung als Binärdarstellung klassifiziert wurde. Sofern dies nicht der Fall ist, d.h. sofern das gelernte Bild als verrauscht und monochrom klassifiziert wurde, wird in Schritt 228 das Histogramm der auszuwertenden Darstellung mit dem abgespeicherten Histogramm eines Vergleichsausschnittes der gelernten Darstellung verglichen. In Schritt 230 wird das erhaltene Vergleichsergebnis ausgegeben. Sofern das Grauwert-Diagramm der auszuwertenden Darstellung und das Grauwert-Histogramm des Vergleichsausschnittes der gelernten Darstellung eine einstellbare Ähnlichkeit nicht unterschreiten, ist das Vergleichsergebnis positiv, andernfalls negativ.In step 226 it is checked whether the learned representation as binary representation was classified. If this is not the case, i.e. provided the learned image was classified as noisy and monochrome, in step 228 the histogram of the representation to be evaluated with the saved histogram of a comparison section compared to the learned representation. In step 230, the obtained Comparison result output. If the gray value diagram of the representation to be evaluated and the gray value histogram of the comparison section the learned representation should not be less than an adjustable similarity, the comparison result is positive, otherwise negative.

Sollte hingegen in Schritt 226 gefunden werden, daß die gelernte Darstellung eine Binärdarstellung ist, so wird in Schritt 232 diese Binärdarstellung einer Kantenextrahierung sowie einer Binärisierung unterzogen. Dabei wird der Kantendivisor und die Binärisierungsschwelle verwendet, bei welchen in der zu lernen den Darstellung die Inhalte der Suchausschnitte abgespeichert wurden.On the other hand, should be found in step 226 be that the learned representation a binary representation in step 232, this binary representation of an edge extraction and subjected to binaryization. The edge divisor and the binaryization threshold are used, in which to learn the representation of the contents of the search sections have been saved.

Daraufhin wird ein Schritt 234 nach demjenigen Muster innerhalb der auszuwertenden Darstellung gesucht, welches die größte Übereinstimmung mit der durch die drei gelernten Suchausschnitte definierten Suchstruktur aufweist. Die Koordinaten dieses Musters werden abgespeichert.Thereupon, a step 234 is searched for the pattern within the representation to be evaluated which corresponds most closely to the search sections de learned by the three defined search structure. The coordinates of this pattern are saved.

Anschließend wird in Schritt 236 ein Vergleichsausschnitt innerhalb der auszuwertenden Darstellung derart festgelegt, daß die Position dieses Vergleichsausschnittes der auszuwertenden Darstellung relativ zu dem aufgefunden Muster mit der Position des Vergleichsfensters der zu erlernenden Darstellung relativ zu den erlernten Suchausschnitten übereinstimmt. Beide Vergleichsausschnitte weisen dieselbe Größe auf.Then, in step 236 Comparison section within the representation to be evaluated in this way determined that the Position of this comparison section of the representation to be evaluated relative to the pattern found with the position of the comparison window the representation to be learned corresponds to the learned search sections. Both comparison sections are the same size.

Daraufhin wird in Schritt 238 der Inhalt des Vergleichsausschnittes der auszuwertenden Darstellung mit dem abgespeicherten Inhalt des Vergleichsausschnittes der erlernten Darstellung verglichen.Then in step 238 the Contents of the comparison section of the representation to be evaluated with the saved content of the comparison section of the learned Representation compared.

Das Vergleichsergebnis wird in Schritt 230 ausgegeben. Dabei ist von einer Erkennung des Objektes innerhalb der auszuwertenden Darstellung auszugehen, wenn zwischen dem Vergleichsausschnitt der auszuwertenden Darstellung und dem korrespondierenden Vergleichsausschnitt der erlernten Darstellung lediglich Abweichungen im Hinblick auf eine vorgegebene Anzahl von Pixeln bestehen.The comparison result is in step 230 issued. It is within a recognition of the object the evaluation to be evaluated, if between the comparison section the representation to be evaluated and the corresponding comparison section the learned representation only deviations with regard to there are a predetermined number of pixels.

In den 6 bis 13 ist die Auswahl eines charakteristischen Suchfensters und von markanten Suchausschnitten innerhalb des charakteristisch Suchfensters beispielhaft dargestellt. Die 6 bis 10 zeigen dabei zunächst den Vorgang der Aufbereitung einer Digitalkamera-Aufnahme 300.In the 6 to 13 The selection of a characteristic search window and of distinctive search sections within the characteristic search window is shown as an example. The 6 to 10 first show the process of processing a digital camera image 300 ,

In 6 ist die Aufnahme 300 einer Digitalkamera dargestellt. Die Aufnahme 300 wurde von einer Digitalkamera mit einem her kömmlichen Videomodul erstellt. Die Auflösung der Aufnahme 300 beträgt 580 Pixel × 380 Bildzeilen. Die Digitalkamera stellt ein monochromes Bild des aufgenommenen Objektes zur Verfügung. Bei dem in 6 dargestellten Objekt handelt es sich um einen Ausschnitt aus einer Fotografie, welche als zu erlernende Darstellung herangezogen werden soll.In 6 is the recording 300 represented by a digital camera. The recording 300 was created by a digital camera with a conventional video module. The resolution of the recording 300 is 580 pixels × 380 image lines. The digital camera provides a monochrome image of the captured object. At the in 6 The depicted object is a section of a photograph that should be used as a representation to be learned.

Da die in 6 dargestellte, zu erlernende Darstellung einen vergleichsweise geringen Kontrast aufweist, wird diese Aufnahme zunächst einer Grauwert-Manipulation unterzogen.Since the in 6 If the displayed representation to be learned has a comparatively low contrast, this recording is first subjected to a gray value manipulation.

In 7 ist die einer Grauwert-Spreizung unterzogene, auszuwertende Darstellung 302, welche aus der in 6 dargestellten Aufnahme 300 hervorgegangen ist, dargestellt. Deutlich zu erkennen ist der verbesserte Kontrast.In 7 is the display to be evaluated, which is subjected to a gray value spread 302 which from the in 6 shown recording 300 has emerged. The improved contrast is clearly visible.

Im Anschluß an die Grauwert-Manipulation wird die auszuwertende Darstellung mit Hilfe von Binominalkoeffizienten geglättet. Die geglättete Darstellung 304 ist in 8 dargestellt.Following the gray value manipulation, the representation to be evaluated is smoothed using binominal coefficients. The smoothed representation 304 is in 8th shown.

Anschließend wird die geglättete Darstellung einer Kantenextrahierung unterzogen. Unter Zuhilfenahme eines modifizierten Kantenoperators nach Prewitt entsteht aus der in 8 dargestellten geglätteten Darstellung 304 die in 9 dargestellte Kantendarstellung 306. Die Kantendarstellung 306 enthält im wesentlichen lediglich noch sehr charakteristische Bildinformationen.The smoothed representation is then subjected to an edge extraction. With the help of a modified edge operator according to Prewitt, the in 8th shown smoothed representation 304 in the 9 Edge representation shown 306 , The edge display 306 essentially only contains very characteristic image information.

Als letzter Schritt der Aufbereitung der von der Digitalkamera erstellten Aufnahme wird unter Zuhilfenahme einer geeigneten Binärisierungsschwelle aus der in 9 dargestellten Kantendarstellung 306 die in 10 gezeigte und zu erlernende Binärdarstellung 308 erzeugt. Diese Binärdarstellung 308 bildet die Grundlage für die Ermittlung eines charakteristischen Suchfensters und von markanten Suchausschnitten.As the last step in the processing of the image taken by the digital camera, the in 9 shown edge representation 306 in the 10 binary representation shown and to be learned 308 generated. This binary representation 308 forms the basis for determining a characteristic search window and distinctive search sections.

Die zu erlernende Darstellung 308 von 10 besitzt eine Größe von 104 × 104 Pixel. In der Mitte der Darstellung 308 wird zunächst ein Vergleichsausschnitt 310 von 56 × 56 Pixeln festgelegt. Innerhalb dieses Vergleichsausschnittes 310 wird nachfolgend ein für den Vergleichsausschnitt 310 charakteristisches Suchfenster ermittelt. Da der seitliche sowie der obere und der untere Abstand des Vergleichsausschnittes 310 von den Seiten der Darstellung 308 einen Abstand von jeweils 24 Pixeln aufweisen, läßt sich der in 10 dargestellte Vergleichsausschnitt 310 und somit auch ein in diesem Vergleichsausschnitt 310 angeordnetes Suchfenster selbst dann noch sicher innerhalb einer auszuwertenden Darstellung auffinden, wenn das auszuwertende Objekt im Vergleich zu der Darstellung 308 gemäß 10 um höchstens 24 Pixel nach oben, unten, links oder rechts verschoben ist.The representation to learn 308 of 10 has a size of 104 × 104 pixels. In the middle of the illustration 308 will first be a comparison section 310 of 56 × 56 pixels. Within this comparison section 310 is used below for the comparison section 310 characteristic search window determined. Because the side, top and bottom distance of the comparison section 310 from the sides of the illustration 308 have a distance of 24 pixels each, the in 10 comparison section shown 310 and therefore also one in this comparison section 310 Find the arranged search window safely even within a representation to be evaluated, even if the object to be evaluated is compared to the representation 308 according to 10 is shifted up, down, left, or right by a maximum of 24 pixels.

Wie in 11 dargestellt, wird im Anschluß an das Festlegen eines Vergleichsausschnittes 310 innerhalb der Darstellung 308 ein Suchfenster ermittelt, welches innerhalb des Vergleichsausschnittes 310 lediglich einmal vorkommt und welches daher für den Vergleichsausschnitt charakteristisch ist. Die beiden in 11 beispielhaft dargestellte Suchfenster 312, 312' besitzen eine Größe von 14 × 14 Pixel. Innerhalb des Vergleichsausschnittes 310, welcher eine Größe von 42 × 42 Pixel besitzt, sind daher 1764 mögliche Suchfenster enthalten. Wie in Zusammenhang mit den 3 und 4 erläutert, wird nun jedes der 1764 möglichen Suchfenster auf Markanz und Ungleichheit mit den anderen Suchfenstern überprüft.As in 11 is shown, after the determination of a comparison section 310 within the representation 308 a search window determines which within the comparison section 310 occurs only once and which is therefore characteristic of the comparison section. The two in 11 search window shown as an example 312 . 312 ' have a size of 14 × 14 pixels. Within the comparison section 310 , which has a size of 42 × 42 pixels, contains 1764 possible search windows. As related to the 3 and 4 explained, each of the 1764 possible search windows is now checked for markings and inequality with the other search windows.

In 12 ist ein Suchfenster 312'' abgebildet, welches eine hohe Markanz aufweist und außerdem nur einmal innerhalb des Vergleichsausschnittes 310 vorkommt. Innerhalb dieses Suchfensters 312'' werden nunmehr, wie unter Bezugnahme auf 3 erläutert, drei markante Suchausschnitte ermittelt.In 12 is a search window 312 '' shown, which has a high mark and also only once within the comparison section 310 occurs. Within this search window 312 '' will now, as with reference to 3 explained, three distinctive search sections were determined.

13 entspricht 12, wobei jedoch innerhalb des Suchfensters 312'' drei Suchausschnitte 314, 316, 318 in Gestalt von Geraden plaziert sind. Ein diagonal innerhalb des Suchfensters 312'' verlaufender Suchausschnitt 316 ist stets starr im Suchfenster 312'' verankert. Seine Anfangskoordinaten liegen bei 0, 0 innerhalb des Suchfensters 312''. Die Positionen eines zweiten, horizontalen Suchausschnittes 314 und eines dritten, vertikalen Suchausschnittes 318 werden dagegen dynamisch innerhalb des Suchfensters 312 derart gewählt, daß sie eine möglichst hohe Markanz aufweisen. In dem in 13 dargestellten Beispiel weisen alle drei linienförmigen Suchausschnitte 314, 316, 318 eine annähernd optimale Markanz auf. Dies bedeutet, daß jeder Suchausschnitt 314, 316, 318 jeweils ungefähr zur Hälfte weiße und schwarze Pixel umfaßt. 13 corresponds to 12 , but within the search window 312 '' three search clippings 314 . 316 . 318 are placed in the form of straight lines. A diagonally within the search window 312 '' current search section 316 is always rigid in the search window 312 '' anchored. Its initial coordinates are 0, 0 within the search window 312 '' , The positions of a second, horizontal search section 314 and a third, vertical search section 318 however, become dynamic within the search window 312 chosen such that they have a have the highest possible mark. In the in 13 The example shown shows all three linear search sections 314 . 316 . 318 an almost optimal mark. This means that every search section 314 . 316 . 318 each contains approximately half white and black pixels.

Sowohl die Anfangskoordinaten der drei Suchausschnitte 314, 316, 318 als auch deren Inhalte werden abgespeichert. Der Inhalt des Vergleichsausschnittes 310 sowie die ermittelten Aufbereitungsparameter werden ebenfalls abgespeichert. Damit ist der Vorgang des Auswertens der zu erlernenden Darstellung abgeschlossen.Both the starting coordinates of the three search sections 314 . 316 . 318 as well as their contents are saved. The content of the comparison section 310 and the determined processing parameters are also saved. This concludes the process of evaluating the representation to be learned.

In den 14 und 15 ist die Objekterkennung unter Zuhilfenahme der wie vorstehend erläutert erlernten Suchausschnitte dargestellt. 14 zeigt eine Darstellung 408 desselben Objektes, welches z.B. auch in Figur 308 (13) dargestellt ist. In der Darstellung 408 gemäß 14 ist dieses Objekt jedoch geringfügig nach oben verschoben.In the 14 and 15 the object recognition is shown with the aid of the search sections learned as explained above. 14 shows an illustration 408 of the same object, which, for example, is also shown in Figure 308 ( 13 ) is shown. In the illustration 408 according to 14 however, this object is slightly shifted upwards.

Die von einer Digitalkamera aufgenommene und im Hinblick auf die Anwesenheit des Objektes zu untersuchende Darstellung 408 wurde wie die zu erlernende Darstellung ebenfalls einer Grauwert-Manipulation, einer Glättung, einer Kantenextrahierung und einer Binärisierung unterzogen. Dabei wurden diejenigen Aufbereitungsparameter herangezogen, welche bereits bei der Aufbereitung des auszuwertenden Bildes verwendet wurden.The image recorded by a digital camera and to be examined with regard to the presence of the object 408 was subjected to gray value manipulation, smoothing, edge extraction and binaryization, just like the illustration to be learned. The processing parameters that were already used in the processing of the image to be evaluated were used.

Die auszuwertende Darstellung 408 wird mit Hilfe der erlernten Suchausschnitte daraufhin untersucht, ob sie ein Muster enthält, welches bezüglich Inhalt und Gestalt den drei erlernten Suchausschnitten entspricht. Da die auszuwertende Darstellung 408 tatsächlich ein Muster 414, 416, 418 enthält, welches mit einer Suchstruktur in Gestalt der drei erlernten Suchausschnit te übereinstimmt, wird als nächstes die Position dieses Musters 414, 416, 418 innerhalb der auszuwertenden Darstellung 408 ermittelt. Die Position des Musters 414, 416, 418 gestattet die Ermittlung eines Vergleichsausschnittes 410, dessen relative Lage zum Muster 414, 416, 418 mit der Lage des abgespeicherten Suchausschnittes relativ zu den erlernten Suchausschnitten übereinstimmt.The representation to be evaluated 408 With the help of the learned search sections, it is examined whether it contains a pattern which corresponds in terms of content and shape to the three learned search sections. Because the representation to be evaluated 408 actually a pattern 414 . 416 . 418 contains, which matches a search structure in the form of the three learned search sections, the next position of this pattern 414 . 416 . 418 within the representation to be evaluated 408 determined. The position of the pattern 414 . 416 . 418 allows the determination of a comparison section 410 whose relative position to the pattern 414 . 416 . 418 matches the position of the saved search section relative to the learned search sections.

Nach dem Laden des Vergleichsausschnittes 410 aus der auszuwertenden Darstellung 408 wird der Inhalt dieses Vergleichsausschnittes 410 der auszuwertenden Darstellung 408 mit dem abgespeicherten Inhalt des Vergleichsausschnittes 310 der zu erlernenden Darstellung 308 (13) verglichen. Da die beiden Vergleichsausschnitte 410 und 310 einen übereinstimmenden Inhalt aufweisen, wird das zu erkennende Objekt in der auszuwertenden Darstellung 408 erkannt.After loading the comparison section 410 from the representation to be evaluated 408 becomes the content of this comparison section 410 the representation to be evaluated 408 with the saved content of the comparison section 310 the representation to be learned 308 ( 13 ) compared. Because the two comparative snippets 410 and 310 have a matching content, the object to be recognized will be in the representation to be evaluated 408 recognized.

Das zu erkennende Objekt kann in der auszuwertenden Darstellung 408 auch dann noch sicher erkannt werden, wenn die Lage des zu erkennenden Objektes in der auszuwertenden Darstellung 408 von der Lage des Objektes in der gelernten Darstellung 308 (10 bis 13) lediglich soweit abweicht, daß ein den erlernten Suchausschnitten korrespondierendes Muster noch innerhalb der auszuwertenden Darstellung 408 gefunden werden kann.The object to be recognized can be in the representation to be evaluated 408 can still be reliably recognized even if the position of the object to be recognized in the representation to be evaluated 408 from the position of the object in the learned representation 308 ( 10 to 13 ) deviates only to the extent that a pattern corresponding to the learned search sections is still within the representation to be evaluated 408 can be found.

In 15 ist die Situation dargestellt, daß innerhalb der auszuwertenden Darstellung 508 mit Hilfe der drei abgespeicherten Suchausschnitte zwar ein korrespondierendes Muster 514, 516, 518 gefunden werden kann, der Inhalt des innerhalb der auszuwertenden Darstellung 508 angeordneten Vergleichsausschnittes 510 jedoch nicht mit dem gelernten Vergleichsausschnitt 310 (13) übereinstimmt. Das zu erkennende Objekt wird folglich in der auszuwertenden Darstellung 508 nicht erkannt.In 15 the situation is shown that within the representation to be evaluated 508 with the help of the three saved search sections, a corresponding pattern 514 . 516 . 518 can be found, the content of the within the representation to be evaluated 508 arranged comparison section 510 but not with the learned comparison section 310 ( 13 ) matches. The object to be recognized is consequently in the representation to be evaluated 508 not recognized.

Das vorstehend beschriebene Verfahren eignet sich insbesondere zur Erkennung von Objekten, welche beispielsweise kontinuierlich an einer Aufnahmevorrichtung zur Erstellung einer Aufnahme der Objekte vorbeibewegt werden. Die zu erkennenden Objekte führen in diesem Fall eine Relativbewegung zur Aufnahmevorrichtung aus. Vorzugsweise wird das erfindungsgemäße Verfahren zur Erkennung von Druckbögen, welche im Bereich einer Sammel- oder Zusammentraglinie angeordnet sind, eingesetzt.The procedure described above is particularly suitable for the detection of objects, for example continuously on a cradle to create a Recording of the objects being moved past. The objects to be recognized to lead in this case a relative movement to the receiving device. The method according to the invention is preferably used for detection of printed sheets, which are arranged in the area of a collection or collation line are used.

Claims (15)

Verfahren zur Erkennung von ruhenden oder bewegten Objekten wie Bildern, Texten oder Gegenständen, enthaltend die Schritte: – Bereitstellen (102) einer zu erlernenden, digitalen Darstellung (308) des Objektes oder eines Teiles des Objektes; – Auswählen eines Suchfensters (312) innerhalb der zu erlernenden Darstellung (308) oder innerhalb eines Ausschnittes (310) der zu erlernenden Darstellung (308), dadurch gekennzeichnet, dass ein Suchfenster ausgewählt wird, welches innerhalb der zu erlernenden Darstellung (308) oder innerhalb des Ausschnittes (310) nur einmal vorkommt; und dass innerhalb des Suchfensters mindestens ein für die Objekterkennung heranzuziehender Suchausschnitt (314, 316, 318) ausgewählt wird, wobei innerhalb einer auszuwertenden, digitalen Darstellung (408) nach einem dem mindestens einem Suchausschnitt (314, 316, 318) entsprechenden Muster (414, 416, 418) gesucht wird, wobei die Position des Suchausschnittes (314, 316, 318) innerhalb des Suchfensters (312) und/oder die geometrische Gestalt des Suchausschnittes (314, 316, 318) dynamisch in Abhängigkeit vom Inhalt des Suchfensters (312) festgelegt werden. Method for recognizing stationary or moving objects such as images, text or objects, comprising the steps: 102 ) a digital representation to be learned ( 308 ) the object or part of the object; - Select a search window ( 312 ) within the display to be learned ( 308 ) or within a section ( 310 ) the representation to be learned ( 308 ), characterized in that a search window is selected which within the display to be learned ( 308 ) or within the cutout ( 310 ) occurs only once; and that within the search window at least one search section to be used for object recognition ( 314 . 316 . 318 ) is selected, whereby within a digital representation to be evaluated ( 408 ) according to the at least one search section ( 314 . 316 . 318 ) corresponding pattern ( 414 . 416 . 418 ) is searched, whereby the position of the search section ( 314 . 316 . 318 ) within the search window ( 312 ) and / or the geometric shape of the search section ( 314 . 316 . 318 ) dynamically depending on the content of the search window ( 312 ) be determined. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Position und/oder die geometrische Gestalt des Suchausschnittes (314, 316, 318) im Hinblick auf eine hohe Markanz des Suchausschnittes (314, 316, 318) innerhalb des Suchfensters (312) festgelegt werden.A method according to claim 1, characterized in that the position and / or the geometric shape of the search section ( 314 . 316 . 318 ) with regard to a high degree of highlighting of the search section ( 314 . 316 . 318 ) within the search window ( 312 ) be determined. Verfahren nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, daß die Position des Suchausschnittes (316) innerhalb des Suchfensters (312) und/oder die geometrische Gestalt des Suchausschnittes (316) unabhängig vom Inhalt des Suchfensters (312) fest vorgegeben werden.Method according to one of claims 1 or 2, characterized in that the position of the search section ( 316 ) within the search window ( 312 ) and / or the geometric shape of the search section ( 316 ) regardless of the content of the search window ( 312 ) can be fixed. Verfahren nach einem der Ansprüche 1 bis 3 dadurch gekennzeichnet, daß der Suchausschnitt als Gerade, als zwei senkrecht zueinander verlaufende Geraden oder als Ring ausgebildet wird.Method according to one of claims 1 to 3, characterized in that the Search section as a straight line, as two straight lines running perpendicular to each other or is formed as a ring. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß innerhalb des Suchfensters (312) zwei senkrecht zueinander verlaufende Suchausschnitte (314, 318) in Gestalt von jeweils einer Geraden vorgesehen werden und deren Positionen innerhalb des Suchfensters (312) dynamisch im Hinblick auf eine hohe Markanz der beiden Suchausschnitte (314, 318) festgelegt werden.Method according to one of claims 1 to 4, characterized in that within the search window ( 312 ) two search sections running perpendicular to each other ( 314 . 318 ) in the form of a straight line and their positions within the search window ( 312 ) dynamic with a view to a high mark of the two search sections ( 314 . 318 ) be determined. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß ein das Suchfenster (312) umgebender und innerhalb der zu erlernenden Darstellung (308) angeordneter Vergleichsausschnitt (310) abgespeichert wird. Method according to one of claims 1 to 5, characterized in that a search window ( 312 ) surrounding and within the representation to be learned ( 308 ) arranged comparison section ( 310 ) is saved. Verfahren nach Anspruch 6, dadurch gekennzeichnet, daß innerhalb der auszuwertenden Darstellung (408) ein Vergleichsausschnitt (410) ermittelt wird, dessen Position relativ zu dem aufgefundenen Muster (414, 416, 413) mit der Position des abgespeicherten Vergleichsausschnitts (310) relativ zu dem mindestens einen Suchausschnitt (314, 316, 313) übereinstimmt.Method according to Claim 6, characterized in that within the representation to be evaluated ( 408 ) a comparative excerpt ( 410 ) is determined, its position relative to the pattern found ( 414 . 416 . 413 ) with the position of the saved comparison section ( 310 ) relative to the at least one search section ( 314 . 316 . 313 ) matches. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß der Inhalt des Vergleichsausschnitts (410) der auszuwertenden Darstellung (403) mit dem Inhalt des Vergleichsausschnitts (310) der zu erlernenden Darstellung (303) verglichen wird.A method according to claim 7, characterized in that the content of the comparison section ( 410 ) the representation to be evaluated ( 403 ) with the content of the comparison section ( 310 ) the representation to be learned ( 303 ) is compared. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, daß die zu erlernende Darstellung (308) und/oder die auszuwertende Darstellung (408) einer Bildaufbereitung unterzogen werden.Method according to one of claims 1 to 8, characterized in that the representation to be learned ( 308 ) and / or the representation to be evaluated ( 408 ) undergo image processing. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß bei der Bildaufbereitung eine Kantenextrahierung (136, 232) durchgeführt wird.A method according to claim 9, characterized in that an edge extraction ( 136 . 232 ) is carried out. Verfahren nach einem der Ansprüche 9 oder 10, dadurch gekennzeichnet, daß bei der Bildaufbereitung eine Binärisierung (136, 232) durchgeführt wird.Method according to one of Claims 9 or 10, characterized in that a binaryization ( 136 . 232 ) is carried out. Verfahren nach einem der Ansprüche 9 bis 11, dadurch gekennzeichnet, daß bei der Bildaufbereitung eine Grauwert-Manipulation (104) und/oder eine Glättung (136, 224) durchgeführt wird.Method according to one of claims 9 to 11, characterized in that a gray value manipulation ( 104 ) and / or a smoothing ( 136 . 224 ) is carried out. Verfahren nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, daß ein Histogramm der zu erlernenden Darstellung (308) angefertigt wird (120, 136), welches für den Fall, daß kein Suchausschnitt zur Verfügung steht, zur Objekterkennung herangezogen wird. Method according to one of Claims 1 to 13, characterized in that a histogram of the representation to be learned ( 308 ) is made ( 120 . 136 ), which is used for object detection in the event that no search section is available. Verfahren nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, daß die zu erkennenden Objekte eine Relativbewegung zu einer Aufnahmevorrichtung für die zu erkennenden Objekte ausführen.Method according to one of claims 1 to 13, characterized in that that the objects to be recognized a relative movement to a recording device for the Execute objects to be recognized. Verfahren nach Anspruch 14, dadurch gekennzeichnet, daß das Verfahren zur Erkennung von Druckbögen, welche im Bereich einer Sammel- oder Zusammentraglinie angeordnet sind, eingesetzt wird.A method according to claim 14, characterized in that the method for the detection of printed sheets, which are arranged in the area of a collection or collation line are used.
DE10024559A 2000-05-18 2000-05-18 Object recognition method Expired - Fee Related DE10024559B4 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
DE10066189A DE10066189B4 (en) 2000-05-18 2000-05-18 Detecting stationary or moving objects such as images or texts by selecting search section within search window
DE10024559A DE10024559B4 (en) 2000-05-18 2000-05-18 Object recognition method
US09/859,895 US7787017B2 (en) 2000-05-18 2001-05-16 Digital camera and method for identification of objects
DE50110658T DE50110658D1 (en) 2000-05-18 2001-05-17 Method of detecting objects and digital camera therefor
EP01112151A EP1156445B9 (en) 2000-05-18 2001-05-17 Object recognition method and digital camera using that method
DE20121522U DE20121522U1 (en) 2000-05-18 2001-05-17 Digital camera has extra green light illumination of the image recording area to improve color shade recognition for use in quality control in printing and other industrial processes
AT01112151T ATE336049T1 (en) 2000-05-18 2001-05-17 METHOD FOR DETECTING OBJECTS AND DIGITAL CAMERA THEREFOR

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10066189A DE10066189B4 (en) 2000-05-18 2000-05-18 Detecting stationary or moving objects such as images or texts by selecting search section within search window
DE10024559A DE10024559B4 (en) 2000-05-18 2000-05-18 Object recognition method

Publications (2)

Publication Number Publication Date
DE10024559A1 DE10024559A1 (en) 2001-11-22
DE10024559B4 true DE10024559B4 (en) 2004-03-11

Family

ID=31716552

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10024559A Expired - Fee Related DE10024559B4 (en) 2000-05-18 2000-05-18 Object recognition method

Country Status (1)

Country Link
DE (1) DE10024559B4 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10358738B3 (en) * 2003-12-11 2005-06-02 Smiths Heimann Biometrics Gmbh Method and arrangement for electronically recording unrolled fingerprints
DE102007050568A1 (en) * 2007-08-04 2009-02-05 Continental Teves Ag & Co. Ohg Method and device for object recognition in an image
DE102011115354B4 (en) * 2011-10-07 2017-01-05 Telejet Kommunikations Gmbh Navigation based on random patterns

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0628837A1 (en) * 1993-06-11 1994-12-14 AEROSPATIALE Société Nationale Industrielle Method and device for determining the location of a target
DE19636074C2 (en) * 1996-09-05 1999-08-12 Siemens Ag Learning-capable image processing system for classification

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0628837A1 (en) * 1993-06-11 1994-12-14 AEROSPATIALE Société Nationale Industrielle Method and device for determining the location of a target
DE19636074C2 (en) * 1996-09-05 1999-08-12 Siemens Ag Learning-capable image processing system for classification

Also Published As

Publication number Publication date
DE10024559A1 (en) 2001-11-22

Similar Documents

Publication Publication Date Title
DE19521346C2 (en) Image examination / recognition method, method used therein for generating reference data and devices therefor
DE2831582C2 (en) Method for identifying a person and device for carrying out the method
DE102007035884B4 (en) Line noise suppression device, method and program
DE69822608T2 (en) Binarization method in a character recognition system
EP2787485B1 (en) Method and device for automatic detection of defects in flexible bodies
DE102010007730B4 (en) Method and device for setting a suitable evaluation parameter for a fluorescence microscope
WO2006133974A1 (en) Method and device for recognising a coin by using the embossed pattern thereof
DE102005025220B4 (en) Apparatus, method and program for removing pores
DE102020120887B4 (en) METHOD OF DETECTING A HANGING POSITION OF A SUPPORT BAR AND FLAT BED MACHINE TOOL
DE10024559B4 (en) Object recognition method
DE10066189B4 (en) Detecting stationary or moving objects such as images or texts by selecting search section within search window
EP1329856A2 (en) Method of detecting surface relief on coins in coin actuated machines
DE4434505C2 (en) Image processing system and method
WO1998031136A1 (en) Method for determining the geometrical data of scanned documents
EP1156445B1 (en) Object recognition method and digital camera using that method
EP1139285B1 (en) Method and apparatus for testing or inspection of articles
DE2217281A1 (en) Density measurement through image analysis. >
DE19717814B4 (en) Method for segmenting characters and symbols on license plates and formatted data carriers and for segmentation of patterns in complex scenes
DE19810162C2 (en) Process for image analysis according to stochastic properties
AT511399B1 (en) METHOD FOR THE AUTOMATED CLASSIFICATION OF INCLUSIONS
AT507266B1 (en) METHOD FOR AUTOMATICALLY DETECTING A DEFECT IN AN ELECTRONIC REPRESENTATION
DE10326031A1 (en) Method for adaptive edge detection
DE10301634B4 (en) Local-adaptive object recognition for digital image material
DE102021117716A1 (en) Method, computer-readable storage medium, apparatus and system for selecting a photograph
EP4277259A1 (en) Image capture and brightness adjustment

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8127 New person/name/address of the applicant

Owner name: OPTIGRAF AG VADUZ, LUGANO PARADISO, CH

8181 Inventor (new situation)

Free format text: KRABB, HELMUT, 5760 SAALFELDEN, AT

8172 Supplementary division/partition in:

Ref document number: 10066189

Country of ref document: DE

Kind code of ref document: P

Q171 Divided out to:

Ref document number: 10066189

Country of ref document: DE

Kind code of ref document: P

8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: OPTIGRAF SAGL, MENDRISIO, CH

8328 Change in the person/name/address of the agent

Representative=s name: WEBER & HEIM PATENTANWAELTE, 81479 MUENCHEN

8327 Change in the person/name/address of the patent owner

Owner name: PEPPERL + FUCHS GMBH, 68307 MANNHEIM, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee