DE10024559A1 - Detecting stationary or moving objects such as images or texts by selecting search section within search window - Google Patents

Detecting stationary or moving objects such as images or texts by selecting search section within search window

Info

Publication number
DE10024559A1
DE10024559A1 DE10024559A DE10024559A DE10024559A1 DE 10024559 A1 DE10024559 A1 DE 10024559A1 DE 10024559 A DE10024559 A DE 10024559A DE 10024559 A DE10024559 A DE 10024559A DE 10024559 A1 DE10024559 A1 DE 10024559A1
Authority
DE
Germany
Prior art keywords
search
representation
section
learned
search window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10024559A
Other languages
German (de)
Other versions
DE10024559B4 (en
Inventor
Helmut Krabb
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pepperl and Fuchs SE
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority claimed from DE10066189A external-priority patent/DE10066189B4/en
Priority to DE10066189A priority Critical patent/DE10066189B4/en
Priority to DE10024559A priority patent/DE10024559B4/en
Priority to US09/859,895 priority patent/US7787017B2/en
Priority to DE50110658T priority patent/DE50110658D1/en
Priority to EP01112151A priority patent/EP1156445B9/en
Priority to AT01112151T priority patent/ATE336049T1/en
Priority to DE20121522U priority patent/DE20121522U1/en
Publication of DE10024559A1 publication Critical patent/DE10024559A1/en
Publication of DE10024559B4 publication Critical patent/DE10024559B4/en
Application granted granted Critical
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Vascular Medicine (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

The method involves providing a digital representation of the object, selecting a search window within the representation or a section of the representation that only appears once within the representation. At least one search section within the search window is then selected. The position of the search section within the window and/or the geometric shape of the search section may be determined dynamically based on the contents of the search window. Independent claims are also included for a digital camera and a system for detecting objects.

Description

Die Erfindung betrifft ein Verfahren zur Erkennung von ruhenden oder bewegten Objekten wie Bildern, Texten oder Gegenständen.The invention relates to a method for the detection of dormant or moving objects such as pictures, texts or objects.

Eine Reihe von beispielsweise industriellen Anwendungen erfor­ dert die Erkennung von Objekten, welche in unterschiedlichen Positionen innerhalb eines Beobachtungsfensters angeordnet sein können. So müssen in der grafischen Industrie im Bereich von Sammellinien oder Zusammentraglinien für Druckbögen schlecht gefalzte oder falsche Druckbögen sicher erkannt und entfernt werden. Die Erkennung schlecht gefalzter oder falscher Druckbö­ gen wird dadurch erschwert, daß sich die einzelnen Druckbögen ständig sowohl in Sammel- oder Zusammentragrichtung als auch senkrecht dazu bewegen und daß aufeinanderfolgende Druckbögen selten vollständig bündig zueinander ausgerichtet sind. Um trotzdem ein sicheres Erkennen von schlecht gefalzten oder falschen Druckbögen zu ermöglichen, sind komplexe und teure Bearbeitungssysteme erforderlich, welche hohe Rechenleistungen benötigen.A number of industrial applications, for example, are required changes the detection of objects in different Positions can be arranged within an observation window can. So in the graphic industry in the area of Bad lines or collation lines for printed sheets are bad Folded or incorrect printed sheets are reliably recognized and removed become. The detection of poorly folded or incorrect pressure gusts gene is made more difficult by the fact that the individual printed sheets constantly in the direction of collection or gathering as well move perpendicular to it and that successive signatures are rarely completely flush with each other. Around nevertheless a reliable detection of badly folded or Enabling the wrong sheets is complex and expensive Machining systems required what high computing power need.

Ähnlich gelagerte Problematiken bestehen beispielsweise bei der lagerichtigen Zuführung von zu montierenden Teilen in Ferti­ gungslinien oder bei der oftmals nur visuell durchzuführenden Füllstandskontrolle in der Verpackungsindustrie.Similar problems exist for example with the correct supply of parts to be assembled in Ferti lines or the often only visually Level control in the packaging industry.

Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren anzuge­ ben, welches die sichere Erkennung von in unterschiedlichen Positionen innerhalb eines Beobachtungsfensters angeordneten, ruhenden oder bewegten Objekten gestattet, ohne daß die für die Erkennung erforderliche Rechenleistung übermäßig ansteigt.The invention has for its object to provide a method ben, which the reliable detection of in different Positions arranged within an observation window, stationary or moving objects allowed without the for the Detection required computing power increases excessively.

Diese Aufgabe wird durch ein Verfahren gelöst, bei dem zunächst eine zu erlernende, digitale Darstellung des Objektes oder eines Teiles des Objektes bereitgestellt wird. Im Anschluß daran wird innerhalb der zu erlernenden Darstellung oder inner­ halb eines Ausschnittes der zu erlernenden Darstellung ein Suchfenster ausgewählt, welches innerhalb der zu erlernenden Darstellung oder innerhalb des Ausschnittes nur einmal vor­ kommt. Daraufhin werden einer oder mehrere Suchausschnitte innerhalb des Suchfensters ausgewählt, welche die Grundlage für die Objekterkennung bilden.This problem is solved by a process in which initially a digital representation of the object to be learned or part of the object is provided. In connection this is within the presentation to be learned or within  half of a section of the representation to be learned Search window selected, which within the to be learned Presentation or within the section only once is coming. Then one or more search clippings selected within the search window, which is the basis for form the object recognition.

Die Objekterkennung kann im Anschluß an die Auswahl des minde­ stens einen Suchausschnittes beispielsweise derart erfolgen, daß innerhalb einer auszuwertenden, digitalen Darstellung nach einem Muster gesucht wird, welches bezüglich Inhalt und geome­ trischer Gestalt dem anhand der zu erlernenden Darstellung ermittelten Suchausschnitt am entspricht. Die auszuwertende Darstellung fungiert dabei als Beobachtungsfenster, innerhalb dessen das zu erkennende Objekt oder ein Teil des zu erkennen­ den Objekts in unterschiedlichen Positionen angeordnet sein kann.The object recognition can be done after the selection of the min at least one search excerpt is made, for example, that within a digital representation to be evaluated a pattern is sought, which regarding content and geome trical shape based on the representation to be learned determined search section on corresponds. The one to be evaluated Representation acts as an observation window, within of which to recognize the object to be recognized or a part of it the object can be arranged in different positions can.

Bei dem erfindungsgemäßen Verfahren wird vorteilhafterweise der meiste Rechenaufwand im Vorfeld der eigentlichen Objekterken­ nung auf das Auffinden eines oder mehrerer zuverlässiger Suchausschnitte verwendet, so daß die Erkennung des Objektes aufgrund der geringen Datenmenge des Suchausschnittes äußerst schnell erfolgen kann. Aufgrund des reduzierten Rechenaufwands für die Objekterkennung kann insbesondere die Echtzeitfähigkeit des erfindungsgemäßen Verfahrens gewährleistet werden.In the method according to the invention, the most computing effort in advance of the actual object detection on finding one or more reliable Search clippings are used so that the recognition of the object extremely due to the small amount of data in the search section can be done quickly. Because of the reduced computing effort real-time capability can in particular be used for object recognition of the method according to the invention can be guaranteed.

Zur Reduzierung des Rechenaufwandes bei der Auswertung einer das zu erkennende Objekt möglicherweise enthaltenden Darstel­ lung wird in einem ersten Schritt innerhalb der zu erlernenden Darstellung des zu erkennenden Objektes oder eines Ausschnittes hiervon ein verkleinertes, charakteristisches Suchfenster ermittelt. Mit dieser Ermittlung des charakteristischen Such­ fensters geht eine erste Reduzierung der für die Objekterken­ nung auszuwertenden Datenmenge einher. In einem zweiten Schritt wird dieses Suchfenster auf einen Suchausschnitt mit einer bestimmten geometrischen Struktur wie beispielsweise ein Kreuz, ein Ring oder eine Gerade verkleinert. Das Verkleinern des Suchfensters auf den Suchausschnitt geschieht hier derart, daß nur bestimmte Bereiche innerhalb des Suchfensters als Suchaus­ schnitt herangezogen werden. Der Suchausschnitt weist damit vorteilhafterweise eine gegenüber dem Suchfenster nochmals reduzierte Datenmenge auf.To reduce the computing effort when evaluating a the representation possibly containing the object to be recognized in a first step within the learning process Representation of the object to be recognized or a section a smaller, characteristic search window determined. With this determination of the characteristic search window is a first reduction in object recognition amount of data to be evaluated. In a second step this search window is converted to a search section with a certain geometric structure such as a cross, reduced a ring or a straight line. Shrinking the  Search window on the search section happens here in such a way that only certain areas within the search window as search out cut can be used. The search section thus points advantageously one more compared to the search window reduced amount of data.

Zur sicheren Erkennung, ob das zu erfassende Objekt in einer auszuwertenden Darstellung enthalten ist, braucht gemäß einer Ausführungsform der Erfindung daher nur noch festgestellt werden, ob der anhand der zu erlernenden Darstellung ermittelte Suchausschnitt als Muster innerhalb der auszuwertenden Darstel­ lung enthalten ist oder nicht. Aufgrund der geringen Datenmenge des Suchausschnittes und dessen hohen Maßes an Charakteristizi­ tät für das zu erfassende Objekt kann die Erkennung schnell und mit großer Sicherheit erfolgen.For reliable detection of whether the object to be detected is in a is to be evaluated, according to a Embodiment of the invention therefore only found whether the one determined based on the representation to be learned Search section as a pattern within the display to be evaluated is included or not. Because of the small amount of data of the search section and its high degree of characteristics Detection for the object to be detected can be carried out quickly and done with great certainty.

Innerhalb des Suchfensters können einer oder mehrere Suchaus­ schnitte ausgewählt werden. Die Position jedes Suchausschnittes innerhalb des Suchfensters und die geometrische Gestalt jedes Suchausschnittes können unabhängig vom Inhalt des Suchfensters fest vorgegeben werden oder aber dynamisch in Abhängigkeit vom Inhalt des Suchfensters festgelegt werden. Eine dynamische Auswahl der Position eines Suchausschnittes oder der geometri­ schen Gestalt des Suchausschnittes kann bei vorgegebenem Inhalt des Suchfensters beispielsweise derart erfolgen, daß der Such­ ausschnitt eine bestimmte, vorgegebene Markanz aufweisen muß.One or more searches can be carried out within the search window cuts can be selected. The position of each search section within the search window and the geometric shape of each Search section can be independent of the content of the search window fixed or dynamic depending on the Content of the search window. A dynamic one Selection of the position of a search section or the geometri The shape of the search section can be given a given content the search window, for example, be such that the search section must have a certain, predetermined mark.

Erfindungsgemäß ist die Markanz beispielsweise eines Suchfen­ sters oder eines Suchausschnittes durch die Anzahl vorhandener unterschiedlicher Pixelinhalte und deren Häufigkeitsverteilung charakterisiert. Eine hohe Markanz ist dann gegeben, wenn möglichst viele unterschiedliche Pixelinhalte vorhanden sind und die unterschiedlichen Pixelinhalte mit ungefähr jeweils derselben Häufigkeit auftreten. Eine Binärdarstellung bei­ spielsweise, welche lediglich schwarze und weiße Pixel umfaßt, ist dann optimal markant, wenn die eine Hälfte der Pixel schwarz und die andere Hälfte der Pixel weiß ist. Bei einer dynamischen Auswahl beispielsweise der Position des Suchaus­ schnittes wird dieser folglich derart innerhalb des Suchfen­ sters plaziert, daß der Suchausschnitt möglichst viele unter­ schiedliche Pixelinhalte umfaßt, welche jeweils mit ungefähr der gleichen Häufigkeit auftreten.According to the invention, the mark is for example a search sters or a search section by the number of available different pixel contents and their frequency distribution characterized. A high mark is given if there are as many different pixel contents as possible and the different pixel contents with approximately each occur at the same frequency. A binary representation at for example, which only comprises black and white pixels, is optimally striking if half of the pixels is black and the other half of the pixels is white. At a dynamic selection, for example the position of the search  This is thus cut within the search sters placed that the search section under as many as possible includes different pixel contents, each with approximately occur at the same frequency.

Die geometrische Gestalt des Suchfensters und des Suchaus­ schnittes sind frei wählbar. So können das Suchfenster als Rechteck und der Suchausschnitt als Gerade oder als Ring ausge­ bildet sein. Vorzugsweise weist der Suchausschnitt eine lineare Gestalt auf, da die Ermittlung eines derartigen Suchausschnit­ tes innerhalb der zu erlernenden Darstellung bzw. eines korre­ spondierenden Musters innerhalb der auszuwertenden Darstellung den geringsten Rechenaufwand erfordert. So können beispielswei­ se zwei Suchausschnitte verwendet werden, welche als senkrecht zueinander verlaufende Geraden ausgebildet sind und deren Position innerhalb des Suchfensters dynamisch festgelegt wird.The geometric shape of the search window and the search window cuts are freely selectable. So the search window as Rectangle and the search section as a straight line or as a ring be educated. The search section preferably has a linear one Shape up because the determination of such a search section tes within the representation to be learned or a correct sponding pattern within the representation to be evaluated requires the least amount of computation. For example se two search sections are used, which are considered vertical straight lines are formed and their Position within the search window is determined dynamically.

Gemäß einer bevorzugten Ausführungsform wird innerhalb der zu erlernenden, digitalen Darstellung des Objektes zunächst ein im voraus festgelegter Vergleichsausschnitt ausgewählt und inner­ halb dieses Vergleichsausschnittes ein charakteristisches Suchfenster ermittelt. Nach der Auswahl eines Suchausschnittes innerhalb des Suchfensters werden die Inhalte des Suchaus­ schnittes und des Vergleichsausschnittes der zu erlernenden Darstellung, innerhalb dessen der Suchausschnitt ermittelt wurde, sowie die relative Lage des Suchausschnittes oder des Suchfensters innerhalb dieses Vergleichsausschnittes abgespei­ chert. Nachfolgend kann innerhalb einer auszuwertenden Darstel­ lung nach einem dem Suchausschnitt am ehesten entsprechenden Muster gesucht werden.According to a preferred embodiment, within the learning, digital representation of the object first in predefined comparison section selected and internal a characteristic half of this comparative section Search window determined. After selecting a search section within the search window are the contents of the search section and the comparison section of the learners Representation within which the search section is determined was, and the relative location of the search section or Search window within this comparison section saved chert. Below can be within a display to be evaluated the search for one that most closely matches the search section Patterns are searched.

Auf der Grundlage des dem Suchausschnitt am ehesten entspre­ chenden Musters kann dann innerhalb der auszuwertenden Darstel­ lung ein Vergleichsausschnitt ermittelt werden, dessen Lage relativ zum gefundenen Muster mit der Lage des Vergleichsaus­ schnittes der zu erlernenden Darstellung relativ zum erlernten Suchausschnitt übereinstimmt. Im Anschluß daran wird der Inhalt des Vergleichsausschnittes der zu erlernenden Darstellung mit dem Inhalt des Vergleichsausschnittes der auszuwertenden Dar­ stellung verglichen. Sollten die beiden Vergleichsausschnitte bis auf eine einstellbare Abweichung übereinstimmen, steht als Ergebnis der Objekterkennung fest, daß das zu erkennende Objekt innerhalb der auszuwertenden Darstellung aufgefunden wurde.Based on the closest match to the search clipping The corresponding pattern can then be within the display to be evaluated a comparison section can be determined, its location relative to the pattern found with the position of the comparison section of the representation to be learned relative to the learned Search section matches. After that the content the comparison section of the representation to be learned with  the content of the comparison section of the Dar to be evaluated position compared. Should the two comparison snippets apart from an adjustable deviation, stands as Result of object detection determines that the object to be recognized was found within the representation to be evaluated.

Die Zuverlässigkeit der Objekterkennung wird folglich dadurch gesteigert, daß im Falle des Auffindens eines dem erlernten Suchausschnitt entsprechenden Musters innerhalb der auszuwer­ tenden Darstellung überprüft wird, ob an den erlernten Suchaus­ schnitt und das aufgefundene Muster angrenzende Bereiche in Gestalt von Vergleichsausschnitten übereinstimmen. Gemäß der beschriebenen Ausführungsform bestimmt folglich nicht die Übereinstimmung des erlernten Suchausschnittes mit dem oftmals verrauschten Muster das Ergebnis der Objekterkennung, sondern die Übereinstimmung der beiden korrespondierenden Vergleich­ sausschnitte. Durch diese Maßnahme wird gewährleistet, daß ein Objekt auch dann noch sicher in einer auszuwertenden Darstel­ lung erkannt wird, wenn es im Vergleich zur erlernten Darstel­ lung etwas verdreht ist. Bei herkömmlichen Objekterkennungsver­ fahren hingegen ist die Erkennung von gegenüber einer erlernten Darstellung verdrehten Objekten nicht oder nur mit sehr großem, eine Echtzeiterkennung ausschließenden Rechenaufwand möglich.The reliability of object detection is consequently thereby increased that if one is found one of the learned Search section of the corresponding pattern to be evaluated tending representation is checked whether the learned search results cut and the pattern found in adjacent areas Match the shape of comparison sections. According to the described embodiment therefore does not determine the Agreement of the learned search section with the often noisy patterns the result of object detection, but the agreement of the two corresponding comparisons cutouts. This measure ensures that a Object still safe in a display to be evaluated lung is recognized when it is compared to the learned representation is a little twisted. With conventional object recognition ver driving, on the other hand, is the recognition of a learned one Representation of twisted objects not or only with a very large, real-time detection excludes computational effort possible.

Vorzugsweise wird die zu erlernende Darstellung des zu erken­ nenden Objektes vor der Auswahl eines Suchfensters einer Aufbe­ reitung unterzogen. Auch die auszuwertende Darstellung, inner­ halb welcher nach dem zu erkennenden Objekt gesucht wird, kann einer entsprechenden Aufbereitung unterzogen werden. Insbeson­ dere bei solchen digitalen Darstellungen, welche beispielsweise aus digitalisierten Videoaufnahmen generiert wurden, ist eine Aufbereitung in der Regel zweckmäßig.The representation to be learned is preferably to be recognized object before selecting a search window of an editor horse riding. Also the representation to be evaluated, inner half which is searched for the object to be recognized be subjected to appropriate processing. In particular with such digital representations, which for example generated from digitized video recordings is one Processing usually advisable.

Die Aufbereitung der Darstellung kann unterschiedliche Maßnah­ men beinhalten. So kann beispielsweise im Falle einer monochro­ men Darstellung dieser einer Grauwertmanipulation unterzogen werden. Im Falle geringer Kontraste kann so z. B. durch eine Grauwertspreizung, welche die zur Verfügung stehende Anzahl unterschiedlicher Grauwerte voll ausnutzt, eine deutliche Verbesserung der Erkennungswahrscheinlichkeit erzielt werden.The preparation of the representation can take different measures men include. For example, in the case of a monochrome Men presentation subjected to a gray value manipulation become. In the case of low contrasts, z. B. by a Gray value spread, which is the number available  full use of different gray values, a clear one Improvement of the detection probability can be achieved.

Die Zuverlässigkeit des erfindungsgemäßen Erkennungsverfahrens kann durch eine Glättung der digitalen Darstellung weiter verbessert werden. So läßt sich beispielsweise durch eine Binominalfilterung das bei digitalisierten Videoaufnahmen vorhandene Zeilen- und Quantisierungsrauschen deutlich abschwä­ chen.The reliability of the detection method according to the invention can continue by smoothing the digital representation be improved. For example, a Binominal filtering that with digitized video recordings existing line and quantization noise significantly decrease chen.

Vorteilhafterweise wird die zu erlernende oder die auszuwerten­ de digitale Darstellung einer Kantenextraktion unterzogen, durch welche in homogenen Bildern enthaltene Farb- oder Grau­ wertübergänge als Kanten erfaßt werden. Vorzugsweise erfolgt eine derartige Aufbereitung der digitalen Darstellung mit Hilfe eines modifizierten Kantenoperators nach Prewitt.The one to be learned or the one to be evaluated is advantageously used subjected digital extraction to edge extraction, through which color or gray contained in homogeneous images value transitions are recorded as edges. Preferably done such preparation of the digital representation with the help a modified edge operator according to Prewitt.

Eine weitere Steigerung der Erkennungssicherheit läßt sich durch Binärisieren der digitalen Darstellung erreichen. Bei der Binärisierung wird mit Hilfe eines vorab festgelegten Schwel­ lenwertes aus der beispielsweise eine Vielzahl von Grautönen umfassenden digitalen Darstellung eine Schwarz-Weiß-Darstellung generiert.A further increase in the detection security can be by binarizing the digital representation. In the Binaryization is done with the help of a predetermined smolder from a variety of shades of gray, for example comprehensive digital representation a black and white representation generated.

Die vorstehend beschriebenen Schritte zur Aufbereitung der zu erlernenden oder auszuwertenden digitalen Darstellung können in beliebiger Weise kombiniert werden.The steps described above for processing the learning or evaluating digital representation can in can be combined in any way.

Gemäß einer bevorzugten Ausführungsform werden von der auszu­ wertenden und von der erlernenden Darstellung Histogramme erstellt, welche die Häufigkeit der auftretenden Pixelinhalte wiedergeben. Sollte es einmal nicht möglich sein, einen Suchausschnitt auszuwählen, können diese Histogramme zur Objek­ terkennung herangezogen werden.According to a preferred embodiment of the evaluating and from the learning display histograms created the frequency of the occurring pixel content play. Should it ever be impossible to get one To select a search section, these histograms can be t detection can be used.

Weitere Einzelheiten und Vorteile der Erfindung ergeben sich 3 aus der Beschreibung eines bevorzugten Ausführungsbeispieles und den Figuren. Es zeigen: Further details and advantages of the invention result from FIG. 3 from the description of a preferred embodiment and the figures. Show it:  

Fig. 1 bis 5 Schematische Flußdiagramme des erfindungsgemä­ ßen Verfahrens zur Erkennung von Objekten; Figs. 1 to 5 are schematic flow diagrams of the inventive method for recognizing objects SEN;

Fig. 6 bis 10 die Aufbereitung einer zu erlernenden, digita­ len Darstellung des zu erkennenden Objektes; Fig. 6 to 10, the preparation of a learnable, digita len representation of the object to be recognized;

Fig. 11 bis 13 die Auswahl eines Suchfensters innerhalb der zu erlernenden Darstellung und die Auswahl eines Suchausschnittes innerhalb des Suchfensters; und Fig. 11 to 13, the selection of a search window within the representation to be learned and selecting a search section within the search window; and

Fig. 14 und 15 die Erkennung eines Objektes innerhalb einer auszuwertenden Darstellung. Fig. 14 and 15, the detection of an object within a representation to be evaluated.

In den Fig. 1 bis 5 ist in Form von Flußdiagrammen ein schematisches Ausführungsbeispiel eines erfindungsgemäßen Verfahrens zur Erkennung von Objekten dargestellt. Die Fig. 1 bis 4 zeigen die Auswahl eines Suchfensters und eines Such­ ausschnittes auf der Grundlage einer zu erlernenden, digitalen Darstellung des Objektes und in der Fig. 5 ist der Vorgang des Suchens nach dem zu erkennenden Objekt innerhalb einer auszu­ wertenden Darstellung skizziert.In Figs. 1 to 5 in the form of flow charts is a schematic exemplary embodiment of an inventive method for recognizing objects. Figs. 1 to 4 show the selection of a search window and a search section based on a to-learn, digital representation of the object and in the Fig. 5, the process of searching is sketched after the object to be detected within a for For judgmental representation.

In Fig. 1 ist der Vorgang 100 der Auswertung einer zu erlernen­ den Darstellung im Hinblick auf die Fragestellung, ob innerhalb der zu erlernenden Darstellung ein markanter, rauschfreier Suchausschnitt vorhanden ist, dargestellt.In Fig. 1, the process 100 is shown the evaluation of a learning the representation with respect to the question of whether a marked, noiseless search detail is present within the representation to be learned.

In einem ersten Schritt 102 wird von einer Aufnahmevorrichtung in Gestalt einer Kamera eine analoge Darstellung eines Aus­ schnittes des zu erkennenden Objektes aufgenommen. Ein Frame­ grabber eines digitalen Signalprozessors stellt diese analoge Aufnahme dann in Gestalt einer monochromen digitalen Darstel­ lung einer Weiterverarbeitung mit Hilfe einer Datenverarbei­ tungsanlage zur Verfügung. Anstelle einer analogen Kamera und eines Framegrabbers könnte auch eine Digitalkamera verwendet werden, welche unmittelbar eine digitale Darstellung erstellt. In a first step 102 , a recording device in the form of a camera records an analog representation of a section of the object to be recognized. A frame grabber of a digital signal processor then provides this analog recording in the form of a monochrome digital representation of further processing with the aid of a data processing system. Instead of an analog camera and a frame grabber, a digital camera could also be used, which immediately creates a digital representation.

In einem nachfolgenden Schritt 104 wird diese monochrome Dar­ stellung eines Ausschnittes des zu erkennenden Objektes einer Grauwertmanipulation unterzogen. Dabei werden zunächst der minimale und der maximale Grauwert ermittelt, welche in der zu erlernenden, monochromen Darstellung auftreten. Im Anschluß daran wird zur Verbesserung des Kontrastes der zu erlernenden Darstellung eine lineare Grauwertspreizung durchgeführt. Kommen innerhalb der zu erlernenden Darstellung beispielsweise auf einer Grauwertskala von 0 bis 255 nur Grauwerte von 7 bis 54 vor, so werden ausgehend von dieser ursprünglichen Grauwertdar­ stellung drei weitere Grauwertdarstellungen mit linearen Grau­ wertspreizungen von beispielsweise 0 bis 63, 0 bis 127 und 0 bis 255 generiert. Anschließend wird eine Tabelle (Look-up- Table) angelegt, in welcher für jedes Pixel der zu erlernenden Darstellung der ursprüngliche und die drei gespreizten Grauwer­ te enthalten sind. Diese Tabelle umfaßt folglich verschiedene Grauwertdarstellungen der von der Digitalkamera aufgenommenen Aufnahme.In a subsequent step 104 , this monochrome representation of a section of the object to be recognized is subjected to gray value manipulation. First, the minimum and maximum gray values are determined, which appear in the monochrome display to be learned. A linear gray value spread is then carried out to improve the contrast of the display to be learned. If, for example, only gray values from 7 to 54 occur on the gray value scale from 0 to 255 within the display to be learned, three further gray value representations with linear gray value spreads of, for example, 0 to 63, 0 to 127 and 0 to 255 are made from this original gray value representation generated. Then a table (look-up table) is created in which the original and the three spread gray values are contained for each pixel of the representation to be learned. This table consequently includes various gray value representations of the picture taken by the digital camera.

Anschließend wird in Schritt 106 die aktuell zu bearbeitende Grauwertdarstellung geladen.The gray value display currently to be processed is then loaded in step 106 .

In Schritt 108 erfolgt daraufhin eine Klassifikation der Grau­ wertdarstellungen dahingehend, ob sie einen Suchausschnitt von ausreichender Markanz enthalten. Dazu erfolgt in einem ersten Schritt eine Aufbereitung der geladenen Grauwertdarstellung, um die Suche nach einem charakteristischen Suchfenster und einem markanten Suchausschnitt zu erleichtern.In step 108 , the gray value representations are then classified according to whether they contain a search section of sufficient mark. For this purpose, in a first step, the loaded gray value display is prepared in order to facilitate the search for a characteristic search window and a distinctive search section.

In Schritt 108 wird in mehreren Durchläufen und bei verschiede­ nen Aufbereitungsparametern nach einem charakteristischen Suchfenster und einem darin enthaltenen, markanten Suchaus­ schnitt gesucht. Sollte sich herausstellen, daß die aktuell geladene Grauwertdarstellung nicht markant genug ist, um ein Suchfenster oder einen Suchausschnitt ermitteln zu können, so wird die Grauwertdarstellung als monochrom klassifiziert. Sofern jedoch sowohl ein charakteristisches Suchfenster als auch ein darin enthaltener, markanter Suchausschnitt gefunden werden können, erfolgt eine Überprüfung der aktuellen Grauwert­ darstellung auf Rauschen. Dazu wird bei den zuletzt eingestell­ ten Aufbereitungsparametern in der aktuellen Grauwertdarstel­ lung mehrmals der Inhalt des Suchausschnittes an identischen Positionen ermittelt. Sofern die jeweils ermittelten Suchaus­ schnittsinhalte stärkere Abweichungen aufweisen, wird die Grauwertdarstellung als verrauscht klassifiziert.In step 108 , a characteristic search window and a distinctive search section contained therein are searched for in several runs and with different processing parameters. If it turns out that the currently loaded gray value display is not distinctive enough to be able to determine a search window or a search section, the gray value display is classified as monochrome. However, if both a characteristic search window and a distinctive search section contained therein can be found, the current gray value display is checked for noise. For this purpose, the content of the search section is determined several times at identical positions in the most recently edited processing parameters in the current gray value display. If the search section contents determined in each case show greater deviations, the gray value display is classified as noisy.

Im Anschluß daran erfolgt in Schritt 110 eine Überprüfung der aktuellen Grauwertdarstellung dahingehend, ob sie als monochrom oder verrauscht klassifiziert wurde. Sollte dies der Fall sein, so werden in Schritt 112 entweder die Aufbereitungsparameter geändert oder es wird, falls alle Aufbereitungsparameter be­ reits durchlaufen sind, die nächste Grauwertdarstellung aus der in Schritt 104 angelegten Tabelle festgelegt. Daraufhin wird wieder bei Schritt 106 fortgefahren, sofern nicht in Schritt 114 festgestellt wird, daß alle Aufbereitungsparameter und alle Grauwertdarstellungen bereits durchlaufen sind.The current gray value representation is then checked in step 110 to determine whether it was classified as monochrome or noisy. If this is the case, then either the processing parameters are changed in step 112 or, if all processing parameters have already been run through, the next gray value representation from the table created in step 104 is determined. The process is then continued again at step 106 , unless it is not determined in step 114 that all processing parameters and all gray value representations have already been run through.

Sollte sich in Schritt 110 herausstellen, daß die aktuelle Grauwertdarstellung weder monochrom noch verrauscht ist, oder sollte sich in Schritt 114 herausstellen, daß bereits alle Grauwertdarstellungen und alle möglichen Aufbereitungsparameter abgearbeitet wurden, so wird in Schritt 116 überprüft, ob für die zu erlernende Darstellung ein markanter Suchausschnitt festgelegt werden konnte. Sollte dies nicht der Fall sein, so wird in Schritt 118 ein zentraler Bereich der zu erlernenden Darstellung als Vergleichsausschnitts festgelegt und dieser mit Hilfe eines Grauwert-Histogrammes bewertet. Dieses Grauwert- Histogramm wird abgespeichert und bildet nachfolgend die Grund­ lage für die Objekterkennung in einer auszuwertenden Darstel­ lung. Die Objekterkennung unter Zuhilfenahme von Grauwert- Histogrammen wird weiter unten unter Bezugnahme auf Fig. 5 näher beschrieben.If it turns out in step 110 that the current gray value representation is neither monochrome nor noisy, or if it turns out in step 114 that all gray value representations and all possible processing parameters have already been processed, then in step 116 it is checked whether there is a need for the representation to be learned striking search section could be set. If this is not the case, a central area of the display to be learned is defined as a comparison section in step 118 and this is evaluated with the aid of a gray value histogram. This gray value histogram is stored and subsequently forms the basis for object detection in a representation to be evaluated. The object detection with the aid of gray value histograms is described in more detail below with reference to FIG. 5.

Sollte sich jedoch in Schritt 116 herausstellen, daß die zu erlernende Darstellung die Ermittlung eines markanten Suchaus­ schnittes ermöglicht, so werden in Schritt 120 die Koordinaten und der Inhalt des Suchausschnittes sowie der Inhalt eines den Suchausschnitt enthaltenden Vergleichsausschnittes, der inner­ halb der zu erlernenden Darstellung festgelegt wird, abgespei­ chert. Außerdem werden die Tabelle mit den Grauwertdarstellun­ gen und sowie die verwendeten Aufbereitungsparameter wie Kan­ tendivisor und Binärisierungschwelle abgespeichert.However, if it turns out in step 116 that the display to be learned enables the determination of a distinctive search section, the coordinates and the content of the search section and the content of a comparison section containing the search section are determined in step 120 within the display to be learned is saved. In addition, the table with the gray value representations and the processing parameters used, such as edge divisor and binarization threshold, are saved.

Im Anschluß an den Schritt 118 oder den Schritt 120 ist der Vorgang 100 der Auswertung der zu erlernenden Darstellung hinsichtlich der Frage, ob ein markanter, rauschfreier Suchaus­ schnitt innerhalb der zu erlernenden Darstellung enthalten ist, beendet. Auszuwertende Darstellungen können jetzt unter Zuhil­ fenahme entweder des abgespeicherten Suchausschnittes oder des abgespeicherten Histogrammes im Hinblick darauf untersucht werden, ob sie das zu erkennende Objekt enthalten oder nicht. Dieser Vorgang wird weiter unten unter Bezugnahme auf Fig. 5 beschrieben. Zunächst wird jedoch anhand von Fig. 2 der Vorgang 130 des Klassifizierens der auszuwertenden Darstellung näher erläutert. Dies Vorgang 130 entspricht im wesentlichen den Schritten 106 bis 120 von Fig. 1.Following step 118 or step 120 , the process 100 of evaluating the representation to be learned with regard to the question of whether a striking, noise-free search cutout is contained within the representation to be learned has ended. Representations to be evaluated can now be examined with the aid of either the saved search section or the stored histogram with regard to whether they contain the object to be recognized or not. This process is described below with reference to FIG. 5. First, however, the process 130 of classifying the representation to be evaluated is explained in more detail with reference to FIG. 2. This process 130 corresponds essentially to steps 106 to 120 in FIG. 1.

Zunächst wird in Schritt 132 die aktuell aus der Tabelle zu ladende Grauwertdarstellung der zu erlernenden Darstellung festgelegt. Daraufhin wird eine Schwelle für die Binärisierung der auszuwertenden Darstellung auf einen Anfangswert gesetzt.First, in step 132, the gray value representation of the representation to be learned that is currently to be loaded from the table is determined. A threshold for the binaryization of the representation to be evaluated is then set to an initial value.

Anschließend wird in Schritt 134 ein Kantendivisor für die Kantenextrahierung auf einen Anfangswert gesetzt. Der Kantendi­ visor gibt an, bei welchem Grauwert im Bereich eines Grauwert­ überganges eine Kante festgelegt wird. Je nach Wert des Kanten­ divisors verschiebt sich die Kante in Richtung auf hellere oder dunklere Grautöne. Bei der Kantenextrahierung wird auf den modifizierten Kantenoperator nach Prewitt zurückgegriffen.Then, in step 134, an edge divisor for the edge extraction is set to an initial value. The edge viewer specifies the gray value at which an edge is defined in the area of a gray value transition. Depending on the value of the edge divisor, the edge shifts in the direction of lighter or darker shades of gray. The modified edge operator according to Prewitt is used for edge extraction.

In einem sich anschließenden Schritt 136 wird zunächst die aktuelle Grauwertdarstellung geladen. Daraufhin wird die aktu­ elle Grauwertdarstellung einer Glättung durch Binominalfilte­ rung unterzogen. Dann wird in der auszuwertenden Grauwertdar­ stellung ein zentraler Vergleichsausschnitt festgelegt, inner­ halb dessen später das Suchfenster ermittelt wird.In a subsequent step 136 , the current gray value representation is first loaded. The current gray value display is then subjected to smoothing by binomial filtering. A central comparison section is then defined in the gray value representation to be evaluated, within which the search window is later determined.

In Schritt 136 wird weiterhin von diesem Vergleichsausschnitt, welcher eine geringere Abmessung und folglich auch eine gerin­ gere Datenmenge als die aktuelle Grauwertdarstellung aufweist, ein Histogramm erstellt, welches die Grauwertverteilung des Vergleichsausschnittes angibt.In step 136 a histogram is further created from this comparison section, which has a smaller dimension and consequently also a smaller amount of data than the current gray value representation, which indicates the gray value distribution of the comparison section.

Daraufhin wird in Schritt 136 der aktuelle Wert des Kantendivi­ sors halbiert und der Vergleichsausschnitt einer Kantenextra­ hierung unterzogen. Im Anschluß an die Kantenextrahierung wird der Vergleichsausschnitt auf der Basis der aktuellen Binärisie­ rungsschwelle in eine Binärdarstellung gewandelt. In dieser Binärdarstellung nimmt jedes der Pixel des Vergleichsausschnit­ tes in Abhängigkeit vom Wert der Binärisierungsschwelle einen von zwei möglichen Werten an. Nachfolgend werden diese beiden Werte zur Veranschaulichung als "schwarz" und "weiß" bezeich­ net. Abschließend wird in Schritt 136 das Verhältnis von schwarzen zu weißen Pixeln innerhalb des Vergleichsausschnittes berechnet.The current value of the edge divider is then halved in step 136 and the comparison section is subjected to an edge extraction. Following the edge extraction, the comparison section is converted into a binary representation on the basis of the current binaryization threshold. In this binary representation, each of the pixels of the comparison section assumes one of two possible values depending on the value of the binarization threshold. In the following, these two values are referred to as "black" and "white" for illustration. Finally, the ratio of black to white pixels within the comparison section is calculated in step 136 .

In Schritt 138 wird überprüft, ob der aktuelle Vergleichsaus­ schnitt eine ausreichend hohe Markanz aufweist. Bei dieser Überprüfung wird festgestellt, ob das in Schritt 136 ermittelte Verhältnis von schwarzen zu weißen Pixeln innerhalb eines ein­ stellbaren Toleranzbereiches um den Optimalwert 0,5 liegt. Sollte die Markanz des aktuellen Vergleichsausschnittes ausrei­ chend hoch sein, so wird in Schritt 140 nach einem charakteri­ stischen Suchfenster innerhalb des aktuellen Vergleichsaus­ schnittes und nach einem markanten Suchausschnitt innerhalb des ermittelten Suchfensters gesucht. Andernfalls erfolgt in Schritt 142 eine Klassifizierung des Vergleichsausschnittes als monochrom.In step 138 it is checked whether the current comparison section has a sufficiently high mark. This check determines whether the ratio of black to white pixels determined in step 136 is within an adjustable tolerance range around the optimum value 0.5. If the mark of the current comparison section is sufficiently high, in step 140 a characteristic search window within the current comparison section and a distinctive search section within the determined search window are searched for. Otherwise, in step 142 the comparison section is classified as monochrome.

Im Anschluß an die Suche nach einem markanten Suchausschnitt in Schritt 140 oder an die Klassifizierung des Vergleichsaus­ schnittes als monochrom in Schritt 142 wird in Schritt 144 überprüft, ob ein markanter Suchausschnitt gefunden wurde oder ob der Kantendivisor seinen niedrigstmöglichen Wert annimmt. Sollte diese Überprüfung negativ verlaufen, so wird ab Schritt 136 nochmals eine Schleife mit halbiertem Kantendivisor aber sonst unveränderten Einstellungen durchlaufen.Following the search for a distinctive search section in step 140 or the classification of the comparison section as monochrome in step 142 , it is checked in step 144 whether a distinctive search section has been found or whether the edge divisor is assuming its lowest possible value. If this check is negative, a loop with halved edge divisor but otherwise unchanged settings is run again from step 136 .

Sollte hingegen in Schritt 144 festgestellt werden, daß ein markanter Suchausschnitt gefunden wurde oder daß der Kantendi­ visor seinen niedrigstmöglichen Wert annimmt, so wird in Schritt 146 überprüft, ob in Schritt 140 ein markanter Suchaus­ schnitt gefunden wurde. Sollte dies der Fall sein, so wird in Schritt 148 dieser Suchausschnitt auf Rauschen getestet. Zu diesem Zweck wird bei den aktuellen Aufbereitungsparametern (Binärisierungsschwelle und Kantendivisor) in der aktuellen Grauwertdarstellung mehrmals der Inhalt eines an identischen Positionen angeordneten Suchausschnittes untersucht. Sofern die Inhalte der an identischen Positionen angeordneten Suchaus­ schnitte keine größeren Abweichungen aufweisen, wird der gefun­ dene Suchausschnitt als rauschfrei klassifiziert, andernfalls als verrauscht.If, on the other hand, it is determined in step 144 that a striking search section has been found or that the edge divider is assuming its lowest possible value, then in step 146 it is checked whether a striking search section was found in step 140 . If this is the case, this search section is tested for noise in step 148 . For this purpose, the content of a search section arranged at identical positions is examined several times with the current preparation parameters (binarization threshold and edge divisor) in the current gray value display. If the contents of the search sections arranged at identical positions show no major deviations, the search section found is classified as noise-free, otherwise as noisy.

Wenn in Schritt 146 festgestellt wird, daß kein markanter Suchausschnitt gefunden wurde, oder wenn in Schritt 146 festge­ stellt wird, daß ein markanter Suchausschnitt gefunden wurde und dieser Suchausschnitt in Schritt 148 auf Rauschen getestet wurde, wird anschließend in Schritt 150 die Binärisierungs­ schwelle erhöht.If it is determined in step 146 that no distinctive search section has been found, or if it is determined in step 146 that a distinctive search section has been found and this search section has been tested for noise in step 148 , then the binarization threshold is increased in step 150 .

Im Anschluß an die Erhöhung der Binärisierungsschwelle in Schritt 150 wird in Schritt 152 überprüft, ob ein markanter und rauschfreier Suchausschnitt gefunden wurde oder ob die Binäri­ sierungsschwelle ihren höchstmöglichen Wert angenommen hat. Falls diese Überprüfung negativ ausfällt, wird eine erneute Schleife ab Schritt 134, in welchem der Kantendivisor wieder auf seinen Anfangswert gesetzt wird, durchlaufen. Andernfalls wird in Schritt 154 der Zähler für die aktuelle Grauwertdar­ stellung erhöht. Following the increase in the binarization threshold in step 150 , it is checked in step 152 whether a striking and noise-free search section has been found or whether the binarization threshold has reached its highest possible value. If this check is negative, a new loop is run from step 134 , in which the edge divisor is reset to its initial value. Otherwise, the counter for the current gray value display is increased in step 154 .

Im Anschluß an die Erhöhung des Zählers für die aktuelle Grau­ wertdarstellung in Schritt 154 wird in Schritt 156 überprüft, ob ein markanter und rauschfreier Suchabschnitt gefunden wurde oder ob die aktuelle Grauwertdarstellung die letzte, in der in Schritt 104 angefertigten Tabelle enthaltene Grauwertdarstel­ lung ist. Falls diese Überprüfung negativ ausfällt, wird eine erneute Schleife ab Schritt 132, in welchem die Binärisierungs­ schwelle wieder auf ihren Anfangswert gesetzt und die nächste Grauwertdarstellung geladen wird, durchlaufen.Following the increase in the counter for the current gray value display in step 154 , it is checked in step 156 whether a distinctive and noise-free search section has been found or whether the current gray value display is the last gray value display contained in the table produced in step 104 . If this check is negative, a new loop is carried out from step 132 , in which the binarization threshold is reset to its initial value and the next gray value representation is loaded.

Sollte sich in Schritt 156 dagegen herausstellen, daß ein markanter und rauschfreier Suchausschnitt gefunden wurde oder daß die letzte, in der in Schritt 104 angefertigten Tabelle enthaltene Grauwertdarstellung erreicht ist, so erfolgt in Schritt 158 eine Klassifizierung der zu erlernenden Darstel­ lung. Die zu erlernende Darstellung wird als binär klassifi­ ziert, wenn ein rauschfreier und markanter Suchausschnitt gefunden wurde. Wurde der Suchausschnitt in Schritt 142 als monochrom eingestuft, so wird die zu erlernende Darstellung ebenfalls als monochrom klassifiziert. Wurde in Schritt 148 der Suchausschnitt als verrauscht eingestuft, so wird die zu erler­ nende Darstellung in Schritt 158 ebenfalls als verrauscht klassifiziert. Nach Abarbeiten des Schrittes 158 ist der Vor­ gang 130 des Klassifizierens beendet.If, on the other hand, it turns out in step 156 that a distinctive and noise-free search section has been found or that the last gray value display contained in the table prepared in step 104 has been reached, then the display to be learned is classified in step 158 . The display to be learned is classified as binary if a noise-free and distinctive search section has been found. If the search section was classified as monochrome in step 142 , the representation to be learned is also classified as monochrome. If the search section was classified as noisy in step 148 , the representation to be learned is also classified as noisy in step 158 . After execution of step 158 , the process 130 of classification is ended.

In Fig. 3 ist der Vorgang 170 des Suchens nach einem charakte­ ristischen Suchfenster innerhalb des in Schritt 136 von Fig. 2 generierten Vergleichsausschnittes und nach einem Suchaus­ schnitt innerhalb eines aufgefundenen Suchfensters detaillier­ ter dargestellt. Der in Fig. 3 dargestellte Vorgang 170 ent­ spricht im wesentlichen dem Schritt 140 von Fig. 2. FIG. 3 shows the process 170 of searching for a characteristic search window within the comparison section generated in step 136 of FIG. 2 and for a search section within a search window found. The process 170 shown in FIG. 3 corresponds essentially to step 140 of FIG. 2.

Zur Suche nach einem charakteristischen Suchfenster innerhalb des Vergleichsausschnittes werden in Schritt 172 zunächst alle innerhalb dieses Vergleichsausschnittes enthaltenen Suchfenster im Hinblick auf deren Markanz untersucht. Je näher das Verhält­ nis von schwarzen zu weißen Pixeln eines Suchfensters dabei an dem Optimalwert 0,5 liegt, desto höher ist die Markanz des entsprechenden Suchfensters. Die ermittelte Markanz eines jeden Suchfensters wird abgespeichert.To search for a characteristic search window within the comparison cutout are first examines all search windows contained within this comparison cutout in view of their prominence in step 172nd The closer the ratio of black to white pixels of a search window is to the optimal value 0.5, the higher the mark of the corresponding search window. The determined mark of each search window is saved.

Anschließend werden in Schritt 174 alle Suchfenster, welche eine gewisse Ähnlichkeit aufweisen, ausgefiltert, um ein für den Vergleichsausschnitt charakteristisches Suchfenster zu ermitteln. Dabei werden alle Suchfenster als ähnlich einge­ stuft, bei welchen eine über einem vorbestimmten Schwellwert liegende Anzahl von Pixeln identisch ist.Then, in step 174, all search windows which have a certain similarity are filtered out in order to determine a search window which is characteristic of the comparison section. All search windows are classified as similar, in which a number of pixels lying above a predetermined threshold value is identical.

Daraufhin wird in Schritt 176 von den verbliebenen charakteri­ stischen Suchfenstern das Suchfenster mit der höchsten Markanz ausgewählt. Sollten mehrere charakteristische Suchfenster mit gleich hoher Markanz gefunden werden, so wird innerhalb der zu erlernenden Darstellung das erste dieser Suchfenster ausge­ wählt. In der Praxis hat sich nämlich herausgestellt, daß sich die Erkennungsquote des erfindungsgemäßen Erkennungsverfahrens nicht wesentlich erhöht, wenn ein anderes Suchfenster mit gleich hoher Markanz ausgewählt wird. Weiterhin werden in Schritt 176 die Koordinaten des ausgewählten charakteristischen Suchfensters abgespeichert.Then, in step 176, the search window with the highest mark is selected from the remaining characteristic search windows. If several characteristic search windows with the same high mark are found, the first of these search windows is selected from the display to be learned. In practice, it has been found that the recognition rate of the recognition method according to the invention does not increase significantly if another search window with the same high mark is selected. Furthermore, the coordinates of the selected characteristic search window are stored in step 176 .

In Schritt 178 wird überprüft, ob das in Schritt 176 ausgewähl­ te Suchfenster vorgegebenen Markanzkriterien entspricht. Sollte dies nicht der Fall sein, wird das Suchfenster in Schritt 180 als nicht markant klassifiziert. Sollte dagegen in Schritt 178 festgestellt werden, daß das Suchfenster den vorgegebenen Markanzkriterien entspricht, so wird in Schritt 182 für zwei Suchausschnitte in Gestalt von senkrecht zueinander verlaufen­ den Geraden und für alle möglichen Positionen dieser beiden Geraden innerhalb des Suchfensters die jeweilige Markanz ermit­ telt.In step 178 it is checked whether the search window selected in step 176 corresponds to the specified mark criteria. If this is not the case, the search window is classified as non-distinctive in step 180 . If, on the other hand, it is determined in step 178 that the search window corresponds to the specified mark criteria, then in step 182 the respective mark is determined for two search sections in the form of straight lines running perpendicular to one another and for all possible positions of these two lines within the search window.

Daraufhin werden in Schritt 184 die beiden Suchausschnitte ausgewählt, welche die höchste Markanz aufweisen. Außerdem werden die Anfangskoordinaten der beiden ausgewählten Suchaus­ schnitte innerhalb des Suchfensters abgespeichert. Then, in step 184, the two search sections that have the highest mark are selected. In addition, the start coordinates of the two selected search sections are saved within the search window.

Anschließend wird in Schritt 186 überprüft, ob das ausgewählte Suchfenster und die ausgewählten Suchabschnitte jeweils eine Markanz aufweisen, welche über einem voreingestellten Wert liegen. Sollte dies nicht der Fall sein, so wird die auszuwer­ tende Darstellung in Schritt 188 als monochrom klassifiziert. Andernfalls werden in Schritt 190 die Inhalte der beiden Suchausschnitte abgespeichert. Neben dem Inhalt dieser beiden Suchabschnitte, deren Position innerhalb des Suchfensters dynamisch festgelegt wird, wird noch der Inhalt eines dritten, ortsfesten Suchausschnittes in Gestalt einer Geraden abgespei­ chert, welche das Suchfenster diagonal durchsetzt. Weiterhin wird in Schritt 190 die auszuwertende Darstellung als Binärdar­ stellung klassifiziert.It is then checked in step 186 whether the selected search window and the selected search sections each have a mark which is above a preset value. If this is not the case, the representation to be evaluated is classified as monochrome in step 188 . Otherwise, the contents of the two search sections are stored in step 190 . In addition to the content of these two search sections, the position of which is determined dynamically within the search window, the content of a third, fixed search section is stored in the form of a straight line which passes through the search window diagonally. Furthermore, in step 190, the representation to be evaluated is classified as a binary representation.

In Fig. 4 ist der Vorgang 200 des Ausfilterns von ähnlichen Suchfenstern detaillierter dargestellt. Dieser Vorgang ent­ spricht dem in Fig. 3 dargestellten Schritt 174.In FIG. 4, operation 200 of filtering of similar search windows shown in more detail. This process corresponds to step 174 shown in FIG. 3.

Zunächst wird in Schritt 202 der Inhalt eines aktuellen Such­ fensters für einen Vergleich gespeichert. Anschließend wird in Schritt 204 der Inhalt dieses Suchfenster mit den Inhalten von allen anderen möglichen Suchfenstern innerhalb des Vergleich­ sausschnittes verglichen. Sofern ähnliche Suchfenster erkannt werden, werden diese ausmaskiert. Sofern eine Überprüfung im Schritt 206 ergibt, daß mindestens ein zu dem aktuellen Such­ fenster ähnliches Suchfenster gefunden wurde, wird das aktuelle Suchfenster in Schritt 208 ebenfalls ausmarkiert. Der Vorgang 200 des Auffindens eines für den jeweiligen Vergleichsaus­ schnitt charakteristischen Suchfensters wird so lange fortge­ führt, bis alle möglichen Suchfenster innerhalb des Vergleichs­ ausschnittes auf Ähnlichkeit mit anderen Suchfenstern innerhalb des Vergleichsausschnittes untersucht wurden.First, in step 202, the content of a current search window is saved for comparison. The content of this search window is then compared in step 204 with the content of all other possible search windows within the comparison section. If similar search windows are recognized, they are masked out. If a check in step 206 shows that at least one search window similar to the current search window has been found, the current search window is also selected in step 208 . The process 200 of finding a search window which is characteristic of the respective comparison section is continued until all possible search windows within the comparison section have been examined for similarity with other search windows within the comparison section.

Gemäß den in den Fig. 1 bis 4 beschriebenen Verfahrensschritten wird eine zu erlernende Darstellung entweder als Binärdarstel­ lung klassifiziert oder aber als verrauscht oder monochrom. Wird die zu erlernende Darstellung als verrauscht oder mono­ chrom klassifiziert, so wird zur Objekterkennung in einer aus­ zuwertenden Darstellung ein abgespeichertes Grauwert-Histogramm der zu erlernenden Darstellung herangezogen. Im Falle einer Binärdarstellung hingegen erfolgt die Objekterkennung in einer auszuwertenden Darstellung unter Zuhilfenahme der abgespeicher­ ten Suchausschnitte. In Fig. 5 ist die erfindungsgemäße Objekt­ erkennung 220 innerhalb einer auszuwertenden Darstellung de­ taillierter dargestellt.According to the method steps described in FIGS. 1 to 4, a representation to be learned is classified either as a binary representation or as noisy or monochrome. If the representation to be learned is classified as noisy or monochrome, a stored gray value histogram of the representation to be learned is used for object detection in a representation to be evaluated. In the case of a binary representation, on the other hand, the object is recognized in a representation to be evaluated with the aid of the stored search sections. In FIG. 5, the object of the invention is detection 220 de within a representation to be evaluated waisted shown.

In einem ersten Schritt 220 wird von einer Kamera eine analoge Aufnahme erzeugt, welche auf das Vorhandensein des zu erkennen­ den Objektes überprüft werden soll. Diese analoge Aufnahme wird von einem Framegrabber eines digitalen Signalprozessors in Form einer auszuwertenden monochromen Darstellung der Weiterverar­ beitung zur Verfügung gestellt.In a first step 220 , an analog image is generated by a camera, which is to be checked for the presence of the object to be recognized. This analog recording is made available by a frame grabber of a digital signal processor in the form of a monochrome representation of the further processing to be evaluated.

In Schritt 224 wird die auszuwertende Darstellung unter Zuhil­ fenahme von Binominalkoeffizienten geglättet. Weiterhin wird ein Grauwert-Histogramm der auszuwertenden Darstellung gene­ riert.In step 224 , the representation to be evaluated is smoothed with the aid of binomial coefficients. Furthermore, a gray value histogram of the representation to be evaluated is generated.

In Schritt 226 wird überprüft, ob die erlernte Darstellung als Binärdarstellung klassifiziert wurde. Sofern dies nicht der Fall ist, d. h. sofern das gelernte Bild als verrauscht und monochrom klassifiziert wurde, wird in Schritt 228 das Histo­ gramm der auszuwertenden Darstellung mit dem abgespeicherten Histogramm eines Vergleichsausschnittes der gelernten Darstel­ lung verglichen. In Schritt 230 wird das erhaltene Vergleichs­ ergebnis ausgegeben. Sofern das Grauwert-Diagramm der auszuwer­ tenden Darstellung und das Grauwert-Histogramm des Vergleich­ sausschnittes der gelernten Darstellung eine einstellbare Ähnlichkeit nicht unterschreiten, ist das Vergleichsergebnis positiv, andernfalls negativ.In step 226 it is checked whether the learned representation has been classified as a binary representation. If this is not the case, ie if the learned image has been classified as noisy and monochrome, the histogram of the representation to be evaluated is compared in step 228 with the stored histogram of a comparison section of the learned representation. In step 230 , the comparison result obtained is output. If the gray value diagram of the representation to be evaluated and the gray value histogram of the comparison section of the learned representation do not fall below an adjustable similarity, the comparison result is positive, otherwise negative.

Sollte hingegen in Schritt 226 gefunden werden, daß die gelern­ te Darstellung eine Binärdarstellung ist, so wird in Schritt 232 diese Binärdarstellung einer Kantenextrahierung sowie einer Binärisierung unterzogen. Dabei wird der Kantendivisor und die Binärisierungsschwelle verwendet, bei welchen in der zu lernen­ den Darstellung die Inhalte der Suchausschnitte abgespeichert wurden.If, on the other hand, it is found in step 226 that the learned representation is a binary representation, then in step 232 this binary representation is subjected to an edge extraction and a binarization. In this case, the edge divisor and the binarization threshold are used, at which the content of the search sections was stored in the representation to be learned.

Daraufhin wird ein Schritt 234 nach demjenigen Muster innerhalb der auszuwertenden Darstellung gesucht, welches die größte Übereinstimmung mit der durch die drei gelernten Suchausschnit­ te definierten Suchstruktur aufweist. Die Koordinaten dieses Musters werden abgespeichert.Then a step 234 is searched for the pattern within the representation to be evaluated which has the greatest correspondence with the search structure defined by the three learned search sections. The coordinates of this pattern are saved.

Anschließend wird in Schritt 236 ein Vergleichsausschnitt in­ nerhalb der auszuwertenden Darstellung derart festgelegt, daß die Position dieses Vergleichsausschnittes der auszuwertenden Darstellung relativ zu dem aufgefunden Muster mit der Position des Vergleichsfensters der zu erlernenden Darstellung relativ zu den erlernten Suchausschnitten übereinstimmt. Beide Ver­ gleichsausschnitte weisen dieselbe Größe auf.Then, in step 236, a comparison section is defined within the representation to be evaluated such that the position of this comparison section of the representation to be evaluated relative to the pattern found matches the position of the comparison window of the representation to be learned relative to the learned search sections. Both comparison sections have the same size.

Daraufhin wird in Schritt 238 der Inhalt des Vergleichsaus­ schnittes der auszuwertenden Darstellung mit dem abgespeicher­ ten Inhalt des Vergleichsausschnittes der erlernten Darstellung verglichen.Then, in step 238, the content of the comparison section of the representation to be evaluated is compared with the stored content of the comparison section of the learned representation.

Das Vergleichsergebnis wird in Schritt 230 ausgegeben. Dabei ist von einer Erkennung des Objektes innerhalb der auszuwerten­ den Darstellung auszugehen, wenn zwischen dem Vergleichsaus­ schnitt der auszuwertenden Darstellung und dem korrespondieren­ den Vergleichsausschnitt der erlernten Darstellung lediglich Abweichungen im Hinblick auf eine vorgegebene Anzahl von Pixeln bestehen.The comparison result is output in step 230 . It is to be assumed that the object is recognized within the representation to be evaluated if there are only deviations with respect to a predetermined number of pixels between the comparison section of the representation to be evaluated and the corresponding comparison section of the learned representation.

In den Fig. 6 bis 13 ist die Auswahl eines charakteristischen Suchfensters und von markanten Suchausschnitten innerhalb des charakteristisch Suchfensters beispielhaft dargestellt. Die Fig. 6 bis 10 zeigen dabei zunächst den Vorgang der Aufberei­ tung einer Digitalkamera-Aufnahme 300.In Figs. 6 to 13 the selection of a characteristic search window and is exemplified by a striking Web clippings within the characteristic search window. FIGS. 6 to 10 show first case the operation of a digital camera Aufberei tung-consumption 300.

In Fig. 6 ist die Aufnahme 300 einer Digitalkamera dargestellt. Die Aufnahme 300 wurde von einer Digitalkamera mit einem her­ kömmlichen Videomodul erstellt. Die Auflösung der Aufnahme 300 beträgt 580 Pixel × 380 Bildzeilen. Die Digitalkamera stellt ein monochromes Bild des aufgenommenen Objektes zur Verfügung. Bei dem in Fig. 6 dargestellten Objekt handelt es sich um einen Ausschnitt aus einer Fotografie, welche als zu erlernende Darstellung herangezogen werden soll.In FIG. 6, the receptacle 300 is shown a digital camera. The picture 300 was created by a digital camera with a conventional video module. The resolution of the image 300 is 580 pixels × 380 image lines. The digital camera provides a monochrome image of the captured object. The object shown in FIG. 6 is a section of a photograph which is to be used as a representation to be learned.

Da die in Fig. 6 dargestellte, zu erlernende Darstellung einen vergleichsweise geringen Kontrast aufweist, wird diese Aufnahme zunächst einer Grauwert-Manipulation unterzogen.Since the representation to be learned shown in FIG. 6 has a comparatively low contrast, this recording is first subjected to a gray value manipulation.

In Fig. 7 ist die einer Grauwert-Spreizung unterzogene, auszu­ wertende Darstellung 302, welche aus der in Fig. 6 dargestell­ ten Aufnahme 300 hervorgegangen ist, dargestellt. Deutlich zu erkennen ist der verbesserte Kontrast.In FIG. 7, the display 302 to be evaluated, which is subjected to a gray value spread and which has emerged from the receptacle 300 shown in FIG. 6, is shown. The improved contrast is clearly visible.

Im Anschluß an die Grauwert-Manipulation wird die auszuwertende Darstellung mit Hilfe von Binominalkoeffizienten geglättet. Die geglättete Darstellung 304 ist in Fig. 8 dargestellt.Following the gray value manipulation, the representation to be evaluated is smoothed using binominal coefficients. The smoothed representation 304 is shown in FIG. 8.

Anschließend wird die geglättete Darstellung einer Kantenextra­ hierung unterzogen. Unter Zuhilfenahme eines modifizierten Kantenoperators nach Prewitt entsteht aus der in Fig. 8 darge­ stellten geglätteten Darstellung 304 die in Fig. 9 dargestellte Kantendarstellung 306. Die Kantendarstellung 306 enthält im wesentlichen lediglich noch sehr charakteristische Bildinforma­ tionen.The smoothed representation is then subjected to an edge extraction. With the aid of a modified edge operator according to Prewitt, the smoothed representation 304 shown in FIG. 8 produces the edge representation 306 shown in FIG. 9. The edge display 306 essentially only contains very characteristic image information.

Als letzter Schritt der Aufbereitung der von der Digitalkamera erstellten Aufnahme wird unter Zuhilfenahme einer geeigneten Binärisierungsschwelle aus der in Fig. 9 dargestellten Kanten­ darstellung 306 die in Fig. 10 gezeigte und zu erlernende Binärdarstellung 308 erzeugt. Diese Binärdarstellung 308 bildet die Grundlage für die Ermittlung eines charakteristischen Such­ fensters und von markanten Suchausschnitten.As the last step in the preparation of the image created by the digital camera, the binary representation 308 shown in FIG. 10 and to be learned is generated from the edge representation 306 shown in FIG. 9 with the aid of a suitable binarization threshold. This binary representation 308 forms the basis for determining a characteristic search window and distinctive search sections.

Die zu erlernende Darstellung 308 von Fig. 10 besitzt eine Größe von 104 × 104 Pixel. In der Mitte der Darstellung 308 wird zunächst ein Vergleichsausschnitt 310 von 56 × 56 Pixeln festgelegt. Innerhalb dieses Vergleichsausschnittes 310 wird nachfolgend ein für den Vergleichsausschnitt 310 charakteristi­ sches Suchfenster ermittelt. Da der seitliche sowie der obere und der untere Abstand des Vergleichsausschnittes 310 von den Seiten der Darstellung 308 einen Abstand von jeweils 24 Pixeln aufweisen, läßt sich der in Fig. 10 dargestellte Vergleichs­ ausschnitt 310 und somit auch ein in diesem Vergleichsaus­ schnitt 310 angeordnetes Suchfenster selbst dann noch sicher innerhalb einer auszuwertenden Darstellung auffinden, wenn das auszuwertende Objekt im Vergleich zu der Darstellung 308 gemäß Fig. 10 um höchstens 24 Pixel nach oben, unten, links oder rechts verschoben ist.The representation 308 to be learned from FIG. 10 has a size of 104 × 104 pixels. A comparison section 310 of 56 × 56 pixels is first defined in the middle of the representation 308 . Within this comparison cutout 310 charac ULTRASONIC for comparing segment 310, search window is determined below. Since the lateral and the upper and the lower distance of the comparative cut-310,308 have a distance of each of 24 pixels from the sides of the illustration, the comparison shown in Fig. 10 can be cutout 310 and thus a cut in this Vergleichsaus 310 arranged search window itself then find it safely within a representation to be evaluated if the object to be evaluated is shifted up, down, left or right by at most 24 pixels compared to representation 308 according to FIG .

Wie in Fig. 11 dargestellt, wird im Anschluß an das Festlegen eines Vergleichsausschnittes 310 innerhalb der Darstellung 308 ein Suchfenster ermittelt, welches innerhalb des Vergleichsaus­ schnittes 310 lediglich einmal vorkommt und welches daher für den Vergleichsausschnitt charakteristisch ist. Die beiden in Fig. 11 beispielhaft dargestellte Suchfenster 312, 312' besit­ zen eine Größe von 14 × 14 Pixel. Innerhalb des Vergleichsaus­ schnittes 310, welcher eine Größe von 42 × 42 Pixel besitzt, sind daher 1764 mögliche Suchfenster enthalten. Wie in Zusam­ menhang mit den Fig. 3 und 4 erläutert, wird nun jedes der 1764 möglichen Suchfenster auf Markanz und Ungleichheit mit den anderen Suchfenstern überprüft.As shown in FIG. 11, following the determination of a comparison section 310 within the representation 308, a search window is determined which occurs only once within the comparison section 310 and which is therefore characteristic of the comparison section. The two search windows 312 , 312 'shown by way of example in FIG. 11 have a size of 14 × 14 pixels. The comparison section 310 , which has a size of 42 × 42 pixels, therefore contains 1764 possible search windows. As explained in connection with FIGS . 3 and 4, each of the 1764 possible search windows is now checked for markings and inequality with the other search windows.

In Fig. 12 ist ein Suchfenster 312'' abgebildet, welches eine hohe Markanz aufweist und außerdem nur einmal innerhalb des Vergleichsausschnittes 310 vorkommt. Innerhalb dieses Suchfen­ sters 312'' werden nunmehr, wie unter Bezugnahme auf Fig. 3 erläutert, drei markante Suchausschnitte ermittelt.A search window 312 ″ is shown in FIG. 12, which has a high mark and also only occurs once within the comparison section 310 . Within this search window 312 ″, three striking search sections are now determined, as explained with reference to FIG. 3.

Fig. 13 entspricht Fig. 12, wobei jedoch innerhalb des Suchfen­ sters 312'' drei Suchausschnitte 314, 316, 318 in Gestalt von Geraden plaziert sind. Ein diagonal innerhalb des Suchfensters 312'' verlaufender Suchausschnitt 316 ist stets starr im Such­ fenster 312'' verankert. Seine Anfangskoordinaten liegen bei 0, 0 innerhalb des Suchfensters 312''. Die Positionen eines zwei­ ten, horizontalen Suchausschnittes 314 und eines dritten, vertikalen Suchausschnittes 318 werden dagegen dynamisch inner­ halb des Suchfensters 312 derart gewählt, daß sie eine mög­ lichst hohe Markanz aufweisen. In dem in Fig. 13 dargestellten Beispiel weisen alle drei linienförmigen Suchausschnitte 314, 316, 318 eine annähernd optimale Markanz auf. Dies bedeutet, daß jeder Suchausschnitt 314, 316, 318 jeweils ungefähr zur Hälfte weiße und schwarze Pixel umfaßt. Fig. 13 corresponds to Fig. 12, but within the search window 312 '' three search sections 314 , 316 , 318 are placed in the form of straight lines. A search section 316 running diagonally within the search window 312 ″ is always rigidly anchored in the search window 312 ″. Its initial coordinates are 0, 0 within the search window 312 ''. The positions of a second, horizontal search section 314 and a third, vertical search section 318 , on the other hand, are selected dynamically within the search window 312 such that they have the highest possible mark. In the example shown in FIG. 13, all three linear search sections 314 , 316 , 318 have an approximately optimal mark. This means that each search section 314 , 316 , 318 each comprises approximately half white and black pixels.

Sowohl die Anfangskoordinaten der drei Suchausschnitte 314, 316, 318 als auch deren Inhalte werden abgespeichert. Der Inhalt des Vergleichsausschnittes 310 sowie die ermittelten Aufbereitungsparameter werden ebenfalls abgespeichert. Damit ist der Vorgang des Auswertens der zu erlernenden Darstellung abgeschlossen.Both the start coordinates of the three search sections 314 , 316 , 318 and their contents are stored. The content of the comparison section 310 as well as the determined processing parameters are also stored. This concludes the process of evaluating the representation to be learned.

In den Fig. 14 und 15 ist die Objekterkennung unter Zuhilfenah­ me der wie vorstehend erläutert erlernten Suchausschnitte dar­ gestellt. Fig. 14 zeigt eine Darstellung 408 desselben Objek­ tes, welches z. B. auch in Fig. 308 (Fig. 13) dargestellt ist. In der Darstellung 408 gemäß Fig. 14 ist dieses Objekt jedoch geringfügig nach oben verschoben.In Figs. 14 and 15, the object detection is under Zuhilfenah me the above explained learned search cutouts are provided. Fig. 14 shows a representation 408 of the same object tes z. B. is also shown in Fig. 308 ( Fig. 13). In the representation 408 according to FIG. 14, however, this object is shifted slightly upwards.

Die von einer Digitalkamera aufgenommene und im Hinblick auf die Anwesenheit des Objektes zu untersuchende Darstellung 408 wurde wie die zu erlernende Darstellung ebenfalls einer Grau­ wert-Manipulation, einer Glättung, einer Kantenextrahierung und einer Binärisierung unterzogen. Dabei wurden diejenigen Aufbe­ reitungsparameter herangezogen, welche bereits bei der Aufbe­ reitung des auszuwertenden Bildes verwendet wurden.The representation 408 , recorded by a digital camera and to be examined with regard to the presence of the object, was likewise subjected to gray value manipulation, smoothing, edge extraction and binaryization, just like the representation to be learned. The processing parameters that were already used in the processing of the image to be evaluated were used.

Die auszuwertende Darstellung 408 wird mit Hilfe der erlernten Suchausschnitte daraufhin untersucht, ob sie ein Muster ent­ hält, welches bezüglich Inhalt und Gestalt den drei erlernten Suchausschnitten entspricht. Da die auszuwertende Darstellung 408 tatsächlich ein Muster 414, 416, 418 enthält, welches mit einer Suchstruktur in Gestalt der drei erlernten Suchausschnit­ te übereinstimmt, wird als nächstes die Position dieses Musters 414, 416, 418 innerhalb der auszuwertenden Darstellung 408 ermittelt. Die Position des Musters 414, 416, 418 gestattet die Ermittlung eines Vergleichsausschnittes 410, dessen relative Lage zum Muster 414, 416, 418 mit der Lage des abgespeicherten Suchausschnittes relativ zu den erlernten Suchausschnitten übereinstimmt.The representation 408 to be evaluated is examined with the aid of the learned search sections whether it contains a pattern which corresponds in terms of content and shape to the three learned search sections. Since the representation 408 to be evaluated actually contains a pattern 414 , 416 , 418 , which matches a search structure in the form of the three learned search sections, the position of this pattern 414 , 416 , 418 within the representation 408 to be evaluated is next determined. The position of the pattern 414 , 416 , 418 permits the determination of a comparison section 410 , the position of which in relation to the pattern 414 , 416 , 418 corresponds to the position of the stored search section relative to the learned search sections.

Nach dem Laden des Vergleichsausschnittes 410 aus der auszuwer­ tenden Darstellung 408 wird der Inhalt dieses Vergleichsaus­ schnittes 410 der auszuwertenden Darstellung 408 mit dem abge­ speicherten Inhalt des Vergleichsausschnittes 310 der zu erler­ nenden Darstellung 308 (Fig. 13) verglichen. Da die beiden Vergleichsausschnitte 410 und 310 einen übereinstimmenden Inhalt aufweisen, wird das zu erkennende Objekt in der auszu­ wertenden Darstellung 408 erkannt.After loading the comparison section 410 from the evaluation 408 to be evaluated, the content of this comparison section 410 of the display 408 to be evaluated is compared with the stored content of the comparison section 310 of the display 308 to be learned ( FIG. 13). Since the two comparison sections 410 and 310 have the same content, the object to be recognized is recognized in the representation 408 to be evaluated.

Das zu erkennende Objekt kann in der auszuwertenden Darstellung 408 auch dann noch sicher erkannt werden, wenn die Lage des zu erkennenden Objektes in der auszuwertenden Darstellung 408 von der Lage des Objektes in der gelernten Darstellung 308 (Fig. 10 bis 13) lediglich soweit abweicht, daß ein den erlernten Suchausschnitten korrespondierendes Muster noch innerhalb der auszuwertenden Darstellung 408 gefunden werden kann.The object to be recognized can also be reliably recognized in the representation 408 to be evaluated if the position of the object to be recognized in the representation 408 to be evaluated only deviates from the position of the object in the learned representation 308 ( FIGS. 10 to 13), that a pattern corresponding to the learned search sections can still be found within the representation 408 to be evaluated.

In Fig. 15 ist die Situation dargestellt, daß innerhalb der auszuwertenden Darstellung 508 mit Hilfe der drei abgespeicher­ ten Suchausschnitte zwar ein korrespondierendes Muster 514, 516, 518 gefunden werden kann, der Inhalt des innerhalb der auszuwertenden Darstellung 508 angeordneten Vergleichsaus­ schnittes 510 jedoch nicht mit dem gelernten Vergleichsaus­ schnitt 310 (Fig. 13) übereinstimmt. Das zu erkennende Objekt wird folglich in der auszuwertenden Darstellung 508 nicht erkannt.In Fig. 15 the situation is shown that the cut within the representation to be evaluated 508 using the three abgespeicher th Web clippings while a corresponding pattern 514, 516, 518 can be found, the content of which is arranged within the representation to be evaluated 508 Vergleichsaus 510 but not with the learned comparative section 310 ( FIG. 13) matches. The object to be recognized is consequently not recognized in the representation 508 to be evaluated.

Das vorstehend beschriebene Verfahren eignet sich insbesondere zur Erkennung von Objekten, welche beispielsweise kontinuier­ lich an einer Aufnahmevorrichtung zur Erstellung einer Aufnahme der Objekte vorbeibewegt werden. Die zu erkennenden Objekte führen in diesem Fall eine Relativbewegung zur Aufnahmevorrich­ tung aus. Vorzugsweise wird das erfindungsgemäße Verfahren zur Erkennung von Druckbögen, welche im Bereich einer Sammel- oder Zusammentraglinie angeordnet sind, eingesetzt.The method described above is particularly suitable for the detection of objects which, for example, are continuous Lich on a recording device to create a recording  the objects are moved past. The objects to be recognized in this case lead to a relative movement to the receiving device tung from. The method according to the invention is preferably used for Detection of printed sheets which are in the area of a collection or Collation line are arranged, used.

Claims (17)

1. Verfahren zur Erkennung von ruhenden oder bewegten Objek­ ten wie Bildern, Texten oder Gegenständen, enthaltend die Schritte:
  • - Bereitstellen (102) einer zu erlernenden, digitalen Darstel­ lung (308) des Objektes oder eines Teiles des Objektes;
  • - Auswählen eines Suchfensters (312) innerhalb der zu erlernen­ den Darstellung (308) oder innerhalb eines Ausschnittes (310) der zu erlernenden Darstellung (308), welches innerhalb der zu erlernenden Darstellung (308) oder innerhalb des Ausschnittes (310) nur einmal vorkommt; und
  • - Auswählen (180) mindestens eines für die Objekterkennung heranzuziehenden Suchausschnittes (314, 316, 318) innerhalb des Suchfensters.
1. A method for recognizing stationary or moving objects such as images, texts or objects, comprising the steps:
  • - Providing ( 102 ) a digital representation ( 308 ) of the object or a part of the object to be learned;
  • - Selecting a search window ( 312 ) within the representation ( 308 ) to be learned or within a section ( 310 ) of the representation ( 308 ) to be learned, which occurs only once within the representation ( 308 ) to be learned or within the section ( 310 ) ; and
  • - Selecting ( 180 ) at least one search section ( 314 , 316 , 318 ) to be used for object recognition within the search window.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Position des Suchausschnittes (314, 316, 318) innerhalb des Suchfensters (312) und/oder die geometrische Gestalt des Suchausschnittes (314, 316, 318) dynamisch in Abhängigkeit vom Inhalt des Suchfensters (312) festgelegt werden.2. The method according to claim 1, characterized in that the position of the search section ( 314 , 316 , 318 ) within the search window ( 312 ) and / or the geometric shape of the search section ( 314 , 316 , 318 ) dynamically depending on the content of the search window ( 312 ) can be specified. 3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß die Position und/oder die geometrische Gestalt des Suchausschnittes (314, 316, 318) im Hinblick auf eine hohe Markanz des Suchaus­ schnittes (314, 316, 318) innerhalb des Suchfensters (312) festgelegt werden.3. The method according to claim 2, characterized in that the position and / or the geometric shape of the search section ( 314 , 316 , 318 ) with regard to a high mark of the search section ( 314 , 316 , 318 ) within the search window ( 312 ) be determined. 4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch ge­ kennzeichnet, daß die Position des Suchausschnittes (316) innerhalb des Suchfensters (312) und/oder die geometrische Gestalt des Suchausschnittes (316) unabhängig vom Inhalt des Suchfensters (312) fest vorgegeben werden. 4. The method according to any one of claims 1 to 3, characterized in that the position of the search section ( 316 ) within the search window ( 312 ) and / or the geometric shape of the search section ( 316 ) regardless of the content of the search window ( 312 ) fixed become. 5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch ge­ kennzeichnet, daß der Suchausschnitt als Gerade, als zwei senkrecht zueinander verlaufende Geraden oder als Ring ausge­ bildet wird.5. The method according to any one of claims 1 to 4, characterized ge indicates that the search section as a straight line, as two straight lines running perpendicular to each other or as a ring is forming. 6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch ge­ kennzeichnet, daß innerhalb des Suchfensters (312) zwei senk­ recht zueinander verlaufende Suchausschnitte (314, 318) in Gestalt von jeweils einer Geraden vorgesehen werden und deren Positionen innerhalb des Suchfensters (312) dynamisch im Hin­ blick auf eine hohe Markanz der beiden Suchausschnitte (314, 318) festgelegt werden.6. The method according to any one of claims 1 to 5, characterized in that within the search window ( 312 ) two perpendicular to each other search cutouts ( 314 , 318 ) are provided in the form of a straight line and their positions within the search window ( 312 ) be set dynamically with a view to a high mark of the two search sections ( 314 , 318 ). 7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch ge­ kennzeichnet, daß ein das Suchfenster (312) umgebender und innerhalb der zu erlernenden Darstellung (308) angeordneter Vergleichsausschnitt (310) abgespeichert wird.7. The method according to any one of claims 1 to 6, characterized in that a comparison section ( 310 ) surrounding the search window ( 312 ) and arranged within the display ( 308 ) to be learned is stored. 8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch ge­ kennzeichnet, daß innerhalb einer auszuwertenden, digitalen Darstellung (408) nach einem dem mindestens einen Suchaus­ schnitt (314, 316, 318) entsprechenden Muster (414, 416, 418) gesucht wird.8. The method according to any one of claims 1 to 7, characterized in that within a digital representation ( 408 ) to be evaluated, a pattern ( 414 , 416 , 418 ) corresponding to the at least one search cutout ( 314 , 316 , 318 ) is sought . 9. Verfahren nach Anspruch 7 und 8, dadurch gekennzeichnet, daß innerhalb der auszuwertenden Darstellung (408) ein Ver­ gleichsausschnitt (410) ermittelt wird, dessen Position relativ zu dem aufgefundenen Muster (414, 416, 418) mit der Position des abgespeicherten Vergleichsausschnitts (310) relativ zu dem mindestens einen Suchausschnitt (314, 316, 318) übereinstimmt.9. The method according to claim 7 and 8, characterized in that a comparison section ( 410 ) is determined within the representation to be evaluated ( 408 ), whose position relative to the pattern found ( 414 , 416 , 418 ) with the position of the stored comparison section ( 310 ) relative to the at least one search section ( 314 , 316 , 318 ). 10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß der Inhalt des Vergleichsausschnitts (410) der auszuwertenden Darstellung (408) mit dem Inhalt des Vergleichsausschnitts (310) der zu erlernenden Darstellung (308) verglichen wird. 10. The method according to claim 9, characterized in that the content of the comparison section ( 410 ) of the display ( 408 ) to be evaluated is compared with the content of the comparison section ( 310 ) of the display ( 308 ) to be learned. 11. Verfahren nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, daß die zu erlernende Darstellung (308) und/oder die auszuwertende Darstellung (408) einer Bildaufbe­ reitung unterzogen werden.11. The method according to any one of claims 1 to 10, characterized in that the representation to be learned ( 308 ) and / or the representation to be evaluated ( 408 ) are subjected to image processing. 12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, daß bei der Bildaufbereitung eine Kantenextrahierung (136, 232) durchgeführt wird.12. The method according to claim 11, characterized in that an edge extraction ( 136 , 232 ) is carried out in the image processing. 13. Verfahren nach einem der Ansprüche 11 oder 12, dadurch gekennzeichnet, daß bei der Bildaufbereitung eine Binärisierung (136, 232) durchgeführt wird.13. The method according to any one of claims 11 or 12, characterized in that a binaryization ( 136 , 232 ) is carried out in the image processing. 14. Verfahren nach einem der Ansprüche 11 bis 13, dadurch gekennzeichnet, daß bei der Bildaufbereitung eine Grauwert- Manipulation (104) und/oder eine Glättung (136, 224) durchge­ führt wird.14. The method according to any one of claims 11 to 13, characterized in that a gray value manipulation ( 104 ) and / or a smoothing ( 136 , 224 ) is performed in the image processing. 15. Verfahren nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, daß ein Histogramm der zu erlernenden Darstel­ lung (308) angefertigt wird (120, 136), welches für den Fall, daß kein Suchausschnitt zur Verfügung steht, zur Objekterken­ nung herangezogen wird.15. The method according to any one of claims 1 to 14, characterized in that a histogram of the presentation to be learned ( 308 ) is made ( 120 , 136 ), which is used for the object detection in the event that no search section is available . 16. Verfahren nach einem der Ansprüche 1 bis 15, dadurch gekennzeichnet, daß die zu erkennenden Objekte eine Relativbe­ wegung zu einer Aufnahmevorrichtung für die zu erkennenden Objekte ausführen.16. The method according to any one of claims 1 to 15, characterized characterized in that the objects to be recognized a Relativbe movement to a recording device for those to be recognized Execute objects. 17. Verfahren nach Anspruch 16, dadurch gekennzeichnet, daß das Verfahren zur Erkennung von Druckbögen, welche im Bereich einer Sammel- oder Zusammentraglinie angeordnet sind, einge­ setzt wird.17. The method according to claim 16, characterized in that the process for the detection of printed sheets in the area a collection or collation line are arranged is set.
DE10024559A 2000-05-18 2000-05-18 Object recognition method Expired - Fee Related DE10024559B4 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
DE10066189A DE10066189B4 (en) 2000-05-18 2000-05-18 Detecting stationary or moving objects such as images or texts by selecting search section within search window
DE10024559A DE10024559B4 (en) 2000-05-18 2000-05-18 Object recognition method
US09/859,895 US7787017B2 (en) 2000-05-18 2001-05-16 Digital camera and method for identification of objects
EP01112151A EP1156445B9 (en) 2000-05-18 2001-05-17 Object recognition method and digital camera using that method
DE50110658T DE50110658D1 (en) 2000-05-18 2001-05-17 Method of detecting objects and digital camera therefor
AT01112151T ATE336049T1 (en) 2000-05-18 2001-05-17 METHOD FOR DETECTING OBJECTS AND DIGITAL CAMERA THEREFOR
DE20121522U DE20121522U1 (en) 2000-05-18 2001-05-17 Digital camera has extra green light illumination of the image recording area to improve color shade recognition for use in quality control in printing and other industrial processes

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10066189A DE10066189B4 (en) 2000-05-18 2000-05-18 Detecting stationary or moving objects such as images or texts by selecting search section within search window
DE10024559A DE10024559B4 (en) 2000-05-18 2000-05-18 Object recognition method

Publications (2)

Publication Number Publication Date
DE10024559A1 true DE10024559A1 (en) 2001-11-22
DE10024559B4 DE10024559B4 (en) 2004-03-11

Family

ID=31716552

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10024559A Expired - Fee Related DE10024559B4 (en) 2000-05-18 2000-05-18 Object recognition method

Country Status (1)

Country Link
DE (1) DE10024559B4 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10358738B3 (en) * 2003-12-11 2005-06-02 Smiths Heimann Biometrics Gmbh Method and arrangement for electronically recording unrolled fingerprints
DE102007050568A1 (en) * 2007-08-04 2009-02-05 Continental Teves Ag & Co. Ohg Method and device for object recognition in an image
DE102011115354A1 (en) * 2011-10-07 2013-04-11 Telejet Kommunikations Gmbh Method for absolute position determination for navigating trailer on base of e.g. factory, involves moving vehicle at maximum speed based on calculated rotational position

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19636074C2 (en) * 1996-09-05 1999-08-12 Siemens Ag Learning-capable image processing system for classification

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2706721B1 (en) * 1993-06-11 1995-08-18 Aerospatiale Method and device for determining the location of a target.

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19636074C2 (en) * 1996-09-05 1999-08-12 Siemens Ag Learning-capable image processing system for classification

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10358738B3 (en) * 2003-12-11 2005-06-02 Smiths Heimann Biometrics Gmbh Method and arrangement for electronically recording unrolled fingerprints
US7613334B2 (en) 2003-12-11 2009-11-03 Cross Match Technologies Gmbh Method and arrangement for electronic recording of rolled fingerprints
DE102007050568A1 (en) * 2007-08-04 2009-02-05 Continental Teves Ag & Co. Ohg Method and device for object recognition in an image
DE102011115354A1 (en) * 2011-10-07 2013-04-11 Telejet Kommunikations Gmbh Method for absolute position determination for navigating trailer on base of e.g. factory, involves moving vehicle at maximum speed based on calculated rotational position
DE102011115354B4 (en) * 2011-10-07 2017-01-05 Telejet Kommunikations Gmbh Navigation based on random patterns

Also Published As

Publication number Publication date
DE10024559B4 (en) 2004-03-11

Similar Documents

Publication Publication Date Title
DE102007035884B4 (en) Line noise suppression device, method and program
DE19521346C2 (en) Image examination / recognition method, method used therein for generating reference data and devices therefor
EP2140403B1 (en) Device and method for determining an edge histogram, device and method for storing an image in an image database, device and method for finding two similar images and computer program
DE69937530T2 (en) Method for automatically classifying images by events
DE60114469T2 (en) Method and device for determining interesting images and for image transmission
DE2831582C2 (en) Method for identifying a person and device for carrying out the method
DE69822608T2 (en) Binarization method in a character recognition system
DE19634768A1 (en) Face identification system using video image analysis
DE102007040070B4 (en) Image density conversion method, image enhancement processing device and program therefor
DE102008013789A1 (en) Apparatus, method and program for eliminating character disturbances
DE102013005489B4 (en) Method and device for the automatic detection of defects in limp bodies
DE102005025220B4 (en) Apparatus, method and program for removing pores
DE102016100134B4 (en) Method and device for examining an object using computer vision
DE112012004847T5 (en) Dynamic line detection system for processors with limited internal memory
DE10024559A1 (en) Detecting stationary or moving objects such as images or texts by selecting search section within search window
DE10066189B4 (en) Detecting stationary or moving objects such as images or texts by selecting search section within search window
EP1156445B1 (en) Object recognition method and digital camera using that method
DE69531412T2 (en) Image coding based on image areas and their segmented border lines
EP1139285B1 (en) Method and apparatus for testing or inspection of articles
DE19921095B4 (en) Method and system for detecting road areas
DE19810162C2 (en) Process for image analysis according to stochastic properties
EP2113120B1 (en) Device and method for adapting a mask image
DE4404775C1 (en) Method for operating a hybrid neural network for automatic object recognition
DE10326031A1 (en) Method for adaptive edge detection
DE10301634B4 (en) Local-adaptive object recognition for digital image material

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8127 New person/name/address of the applicant

Owner name: OPTIGRAF AG VADUZ, LUGANO PARADISO, CH

8181 Inventor (new situation)

Free format text: KRABB, HELMUT, 5760 SAALFELDEN, AT

8172 Supplementary division/partition in:

Ref document number: 10066189

Country of ref document: DE

Kind code of ref document: P

Q171 Divided out to:

Ref document number: 10066189

Country of ref document: DE

Kind code of ref document: P

8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: OPTIGRAF SAGL, MENDRISIO, CH

8328 Change in the person/name/address of the agent

Representative=s name: WEBER & HEIM PATENTANWAELTE, 81479 MUENCHEN

8327 Change in the person/name/address of the patent owner

Owner name: PEPPERL + FUCHS GMBH, 68307 MANNHEIM, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee