DE10066189B4 - Verfahren zur Erkennung von Objekten - Google Patents

Verfahren zur Erkennung von Objekten Download PDF

Info

Publication number
DE10066189B4
DE10066189B4 DE10066189A DE10066189A DE10066189B4 DE 10066189 B4 DE10066189 B4 DE 10066189B4 DE 10066189 A DE10066189 A DE 10066189A DE 10066189 A DE10066189 A DE 10066189A DE 10066189 B4 DE10066189 B4 DE 10066189B4
Authority
DE
Germany
Prior art keywords
search
representation
section
learned
search window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE10066189A
Other languages
English (en)
Inventor
Helmut Krabb
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pepperl and Fuchs SE
Original Assignee
OPTIGRAF AG VADUZ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by OPTIGRAF AG VADUZ filed Critical OPTIGRAF AG VADUZ
Priority to DE10024559A priority Critical patent/DE10024559B4/de
Priority claimed from DE10024559A external-priority patent/DE10024559B4/de
Application granted granted Critical
Publication of DE10066189B4 publication Critical patent/DE10066189B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Abstract

Verfahren zur Erkennung von ruhenden oder bewegten Objekten wie Bildern, Texten oder Gegenständen, enthaltend die Schritte:
– Bereitstellen (102) einer zu erlernenden, digitalen Darstellung (308) des Objektes oder eines Teiles des Objektes;
– Auswählen eines Suchfensters (312) innerhalb der zu erlernenden Darstellung (308) oder innerhalb eines Ausschnittes (310) der zu erlernenden Darstellung (308),
dadurch gekennzeichnet, dass
ein Suchfenster ausgewählt wird, welches innerhalb der zu erlernenden Darstellung (308) oder innerhalb des Ausschnittes (310) markant ist, ausgenommen ein Suchfenster, das innerhalb der zu erlernenden Darstellung (308) oder innerhalb des Ausschnittes (310) nur einmal vorkommt und dabei die Position des Suchausschnittes (314, 316, 318) innerhalb des Suchfensters (312) und/oder die geometrische Gestalt des Suchausschnittes (314, 316, 318) dynamisch in Abhängigkeit vom Inhalt des Suchfensters (312) festgelegt werden; und
dass innerhalb des Suchfensters mindestens ein für die Objekterkennung heranzuziehender Suchausschnitt (314, 316, 318) ausgewählt wird,
wobei innerhalb einer...

Description

  • Die Erfindung betrifft ein Verfahren zur Erkennung von ruhenden oder bewegten Objekten wie Bildern, Texten oder Gegenständen.
  • Eine Reihe von beispielsweise industriellen Anwendungen erfordert die Erkennung von Objekten, welche in unterschiedlichen Positionen innerhalb eines Beobachtungsfensters angeordnet sein können. So müssen in der grafischen Industrie im Bereich von Sammellinien oder Zusammentraglinien für Druckbögen schlecht gefalzte oder falsche Druckbögen sicher erkannt und entfernt werden. Die Erkennung schlecht gefalzter oder falscher Druckbögen wird dadurch erschwert, dass sich die einzelnen Druckbögen ständig sowohl in Sammel- oder Zusammentragrichtung als auch senkrecht dazu bewegen und dass aufeinanderfolgende Druckbögen selten vollständig bündig zueinander ausgerichtet sind. Um trotzdem ein sicheres Erkennen von schlecht gefalzten oder falschen Druckbögen zu ermöglichen, sind komplexe und teure Bearbeitungssysteme erforderlich, welche hohe Rechenleistungen benötigen.
  • Ähnlich gelagerte Problematiken bestehen beispielsweise bei der lagerichtigen Zuführung von zu montierenden Teilen in Fertigungslinien oder bei der oftmals nur visuell durchzuführenden Füllstandskontrolle in der Verpackungsindustrie.
  • Aus der DE 37 38 304 C2 ist eine Vorrichtung zum Prüfen von Banknoten bekannt, bei der die Banknoten zur Bereitstellung einer zu erlernenden digitalen Darstellung der Banknote oder eines Teils der Banknote bereitgestellt werden. Bei diesem Verfahren wird ein Suchfenster innerhalb der zu erlernenden Darstellung ausgewählt, wobei zur Erkennung ein vorab abgespeichertes Suchfenster ausgewählt wird, welches mit einem aktuell aufgenommenen Suchfenster verglichen wird.
  • DE 196 36 074 C2 offenbart ein lernfähiges Bildverarbeitungssystem zur Klassierung von zu prüfenden Teilen anhand von aufgenommenen Bildern, aus denen Merkmale extrahiert werden, die innerhalb einer Bildverarbeitung im Wesentlichen zur Datenreduktion behandelt werden. Das System ist lernfähig, so dass sein Einsatz aus einer Lernphase und einer Prüfphase besteht. Zur Lernphase werden mehrere Muster von Teilen bereit gestellt, die jeweils typisch für eine vorgegebene Entscheidungsklasse sind. Dabei kann der im Prüfprogramm enthaltene Klassifikator sich selbst parametrieren. Das System parametriert sich selbst aus Mustern aller Entscheidungsklassen in der Lernphase und unabhängig von einer xpli-Merkmalstatistik, die eine Entscheidung zu einer Musterklasse treffen würde. Im Lernbetrieb wird eine automatische Bildaufnahme bereitgestellt, und ein einen Klassifikator enthaltendes Prüfprogramm erzeugt automatisch Bildmerkmale, die in einer Merkmalsdatenbank für alle. Muster der Stichprobe gespeichert werden. Nach Abschluss einer Lernphase kann in der Prüfphase die automatische Prüfung unbekannter Muster zur Inspektion und Teilerkennung stattfinden.
  • EP 0 628 83 7 A1 offenbart ein Verfahren zur Ortsbestimmung eines Ziels mittels einer Zielsucheinrichtung, wobei sich das Ziel vor einem festen Hintergrund bewegt.
  • Dabei wird eine zusätzliche Bewegung der Zielsucheinrichtung mittels eines optischen Detektors kompensiert.
  • Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren anzugeben, welches die sichere Erkennung von in unterschiedlichen Positionen innerhalb eines Beobachtungsfensters angeordneten, ruhenden oder bewegten Objekten gestattet, ohne dass die für die Erkennung erforderliche Rechenleistung übermäßig ansteigt.
  • Gelöst wird diese Aufgabe durch die Merkmale des Anspruchs 1. Vorteilhafte Weiterbildungen der Erfindung sind in den Unteransprüchen angegeben.
  • In Übereinstimmung mit dem Verfahren wird zunächst eine zu erlernende digitale Darstellung des Objektes oder eines Teiles des Objektes bereitgestellt. Im Anschluss daran wird innerhalb der zu erlernenden Darstellung oder inner halb eines Ausschnittes der zu erlernenden Darstellung ein Suchfenster ausgewählt, welches innerhalb der zu erlernenden Darstellung oder innerhalb des Ausschnittes nur einmal vorkommt. Daraufhin werden einer oder mehrere Suchausschnitte innerhalb des Suchfensters ausgewählt, welche die Grundlage für die Objekterkennung bilden.
  • Die Objekterkennung kann im Anschluß an die Auswahl des mindestens einen Suchausschnittes beispielsweise derart erfolgen, daß innerhalb einer auszuwertenden, digitalen Darstellung nach einem Muster gesucht wird, welches bezüglich Inhalt und geometrischer Gestalt dem anhand der zu erlernenden Darstellung ermittelten Suchausschnitt am entspricht. Die auszuwertende Darstellung fungiert dabei als Beobachtungsfenster, innerhalb dessen das zu erkennende Objekt oder ein Teil des zu erkennenden Objekts in unterschiedlichen Positionen angeordnet sein kann.
  • Bei dem erfindungsgemäßen Verfahren wird vorteilhafterweise der meiste Rechenaufwand im Vorfeld der eigentlichen Objekterkennung auf das Auffinden eines oder mehrerer zuverlässiger Suchausschnitte verwendet, so daß die Erkennung des Objektes aufgrund der geringen Datenmenge des Suchausschnittes äußerst schnell erfolgen kann. Aufgrund des reduzierten Rechenaufwands für die Objekterkennung kann insbesondere die Echtzeitfähigkeit des erfindungsgemäßen Verfahrens gewährleistet werden.
  • Zur Reduzierung des Rechenaufwandes bei der Auswertung einer das zu erkennende Objekt möglicherweise enthaltenden Darstellung wird in einem ersten Schritt innerhalb der zu erlernenden Darstellung des zu erkennenden Objektes oder eines Ausschnittes hiervon ein verkleinertes, charakteristisches Suchfenster ermittelt. Mit dieser Ermittlung des charakteristischen Suchfensters geht eine erste Reduzierung der für die Objekterkennung auszuwertenden Datenmenge einher. In einem zweiten Schritt wird dieses Suchfenster auf einen Suchausschnitt mit einer bestimmten geometrischen Struktur wie beispielsweise ein Kreuz, ein Ring oder eine Gerade verkleinert. Das Verkleinern des Suchfensters auf den Suchausschnitt geschieht hier derart, daß nur bestimmte Bereiche innerhalb des Suchfensters als Suchausschnitt herangezogen werden. Der Suchausschnitt weist damit vorteilhafterweise eine gegenüber dem Suchfenster nochmals reduzierte Datenmenge auf.
  • Zur sicheren Erkennung, ob das zu erfassende Objekt in einer auszuwertenden Darstellung enthalten ist, braucht gemäß einer Ausführungsform der Erfindung daher nur noch festgestellt werden, ob der anhand der zu erlernenden Darstellung ermittelte Suchausschnitt als Muster innerhalb der auszuwertenden Darstellung enthalten ist oder nicht. Aufgrund der geringen Datenmenge des Suchausschnittes und dessen hohen Maßes an Charakteristizität für das zu erfassende Objekt kann die Erkennung schnell und mit großer Sicherheit erfolgen.
  • Innerhalb des Suchfensters können einer oder mehrere Suchausschnitte ausgewählt werden. Die Position jedes Suchausschnittes innerhalb des Suchfensters und die geometrische Gestalt jedes Suchausschnittes können unabhängig vom Inhalt des Suchfensters fest vorgegeben werden oder aber dynamisch in Abhängigkeit vom Inhalt des Suchfensters festgelegt werden. Eine dynamische Auswahl der Position eines Suchausschnittes oder der geometrischen Gestalt des Suchausschnittes kann bei vorgegebenem Inhalt des Suchfensters beispielsweise derart erfolgen, daß der Suchausschnitt eine bestimmte, vorgegebene Markanz aufweisen muß.
  • Erfindungsgemäß ist die Markanz beispielsweise eines Suchfensters oder eines Suchausschnittes durch die Anzahl vorhandener unterschiedlicher Pixelinhalte und deren Häufigkeitsverteilung charakterisiert. Eine hohe Markanz ist dann gegeben, wenn möglichst viele unterschiedliche Pixelinhalte vorhanden sind und die unterschiedlichen Pixelinhalte mit ungefähr jeweils derselben Häufigkeit auftreten. Eine Binärdarstellung beispielsweise, welche lediglich schwarze und weiße Pixel umfaßt, ist dann optimal markant, wenn die eine Hälfte der Pixel schwarz und die andere Hälfte der Pixel weiß ist. Bei einer dynamischen Auswahl beispielsweise der Position des Suchaus schnittes wird dieser folglich derart innerhalb des Suchfensters plaziert, daß der Suchausschnitt möglichst viele unterschiedliche Pixelinhalte umfaßt, welche jeweils mit ungefähr der gleichen Häufigkeit auftreten.
  • Die geometrische Gestalt des Suchfensters und des Suchausschnittes sind frei wählbar. So können das Suchfenster als Rechteck und der Suchausschnitt als Gerade oder als Ring ausgebildet sein. Vorzugsweise weist der Suchausschnitt eine lineare Gestalt auf, da die Ermittlung eines derartigen Suchausschnittes innerhalb der zu erlernenden Darstellung bzw. eines korrespondierenden Musters innerhalb der auszuwertenden Darstellung den geringsten Rechenaufwand erfordert. So können beispielsweise zwei Suchausschnitte verwendet werden, welche als senkrecht zueinander verlaufende Geraden ausgebildet sind und deren Position innerhalb des Suchfensters dynamisch festgelegt wird.
  • Gemäß einer bevorzugten Ausführungsform wird innerhalb der zu erlernenden, digitalen Darstellung des Objektes zunächst ein im voraus festgelegter Vergleichsausschnitt ausgewählt und innerhalb dieses Vergleichsausschnittes ein charakteristisches Suchfenster ermittelt. Nach der Auswahl eines Suchausschnittes innerhalb des Suchfensters werden die Inhalte des Suchausschnittes und des Vergleichsausschnittes der zu erlernenden Darstellung, innerhalb dessen der Suchausschnitt ermittelt wurde, sowie die relative Lage des Suchausschnittes oder des Suchfensters innerhalb dieses Vergleichsausschnittes abgespeichert. Nachfolgend kann innerhalb einer auszuwertenden Darstellung nach einem dem Suchausschnitt am ehesten entsprechenden Muster gesucht werden.
  • Auf der Grundlage des dem Suchausschnitt am ehesten entsprechenden Musters kann dann innerhalb der auszuwertenden Darstellung ein Vergleichsausschnitt ermittelt werden, dessen Lage relativ zum gefundenen Muster mit der Lage des Vergleichsausschnittes der zu erlernenden Darstellung relativ zum erlernten Suchausschnitt übereinstimmt. Im Anschluß daran wird der Inhalt des Vergleichsausschnittes der zu erlernenden Darstellung mit dem Inhalt des Vergleichsausschnittes der auszuwertenden Darstellung verglichen. Sollten die beiden Vergleichsausschnitte bis auf eine einstellbare Abweichung übereinstimmen, steht als Ergebnis der Objekterkennung fest, daß das zu erkennende Objekt innerhalb der auszuwertenden Darstellung aufgefunden wurde.
  • Die Zuverlässigkeit der Objekterkennung wird folglich dadurch gesteigert, daß im Falle des Auffindens eines dem erlernten Suchausschnitt entsprechenden Musters innerhalb der auszuwertenden Darstellung überprüft wird, ob an den erlernten Suchausschnitt und das aufgefundene Muster angrenzende Bereiche in Gestalt von Vergleichsausschnitten übereinstimmen. Gemäß der beschriebenen Ausführungsform bestimmt folglich nicht die Übereinstimmung des erlernten Suchausschnittes mit dem oftmals verrauschten Muster das Ergebnis der Objekterkennung, sondern die Übereinstimmung der beiden korrespondierenden Vergleichsausschnitte. Durch diese Maßnahme wird gewährleistet, daß ein Objekt auch dann noch sicher in einer auszuwertenden Darstellung erkannt wird, wenn es im Vergleich zur erlernten Darstellung etwas verdreht ist. Bei herkömmlichen Objekterkennungsverfahren hingegen ist die Erkennung von gegenüber einer erlernten Darstellung verdrehten Objekten nicht oder nur mit sehr großem, eine Echtzeiterkennung ausschließenden Rechenaufwand möglich.
  • Vorzugsweise wird die zu erlernende Darstellung des zu erkennenden Objektes vor der Auswahl eines Suchfensters einer Aufbereitung unterzogen. Auch die auszuwertende Darstellung, innerhalb welcher nach dem zu erkennenden Objekt gesucht wird, kann einer entsprechenden Aufbereitung unterzogen werden. Insbesondere bei solchen digitalen Darstellungen, welche beispielsweise aus digitalisierten Videoaufnahmen generiert wurden, ist eine Aufbereitung in der Regel zweckmäßig.
  • Die Aufbereitung der Darstellung kann unterschiedliche Maßnahmen beinhalten. So kann beispielsweise im Falle einer monochromen Darstellung dieser einer Grauwertmanipulation unterzogen werden. Im Falle geringer Kontraste kann so z.B. durch eine Grauwertspreizung, welche die zur Verfügung stehende Anzahl unterschiedlicher Grauwerte voll ausnutzt, eine deutliche Verbesserung der Erkennungswahrscheinlichkeit erzielt werden.
  • Die Zuverlässigkeit des erfindungsgemäßen Erkennungsverfahrens kann durch eine Glättung der digitalen Darstellung weiter verbessert werden. So läßt sich beispielsweise durch eine Binominalfilterung das bei digitalisierten Videoaufnahmen. vorhandene Zeilen- und Quantisierungsrauschen deutlich abschwächen.
  • Vorteilhafterweise wird die zu erlernende oder die auszuwertende digitale Darstellung einer Kantenextraktion unterzogen, durch welche in homogenen Bildern enthaltene Farb- oder Grauwertübergänge als Kanten erfaßt werden. Vorzugsweise erfolgt eine derartige Aufbereitung der digitalen Darstellung mit Hilfe eines modifizierten Kantenoperators nach Prewitt.
  • Eine weitere Steigerung der Erkennungssicherheit läßt sich durch Binärisieren der digitalen Darstellung erreichen. Bei der Binärisierung wird mit Hilfe eines vorab festgelegten Schwellenwertes aus der beispielsweise eine Vielzahl von Grautönen umfassenden digitalen Darstellung eine Schwarz-Weiß-Darstellung generiert.
  • Die vorstehend beschriebenen Schritte zur Aufbereitung der zu erlernenden oder auszuwertenden digitalen Darstellung können in beliebiger Weise kombiniert werden.
  • Gemäß einer bevorzugten Ausführungsform werden von der auszuwertenden und von der erlernenden Darstellung Histogramme erstellt, welche die Häufigkeit der auftretenden Pixelinhalte wiedergeben. Sollte es einmal nicht möglich sein, einen Suchausschnitt auszuwählen, können diese Histogramme zur Objekterkennung herangezogen werden.
  • Weitere Einzelheiten und Vorteile der Erfindung ergeben sich aus der Beschreibung eines bevorzugten Ausführungsbeispieles und den Figuren. Es zeigen:
  • 1 bis 5: Schematische Flußdiagramme des erfindungsgemäßen Verfahrens zur Erkennung von Objekten;
  • 6 bis 10: die Aufbereitung einer zu erlernenden, digitalen Darstellung des zu erkennenden Objektes;
  • 11 bis 13: die Auswahl eines Suchfensters innerhalb der zu erlernenden Darstellung und die Auswahl eines Suchausschnittes innerhalb des Suchfensters; und
  • 14 und 15: die Erkennung eines Objektes innerhalb einer auszuwertenden Darstellung.
  • In den 1 bis 5 ist in Form von Flußdiagrammen ein schematisches Ausführungsbeispiel eines erfindungsgemäßen Verfahrens zur Erkennung von Objekten dargestellt. Die 1 bis 4 zeigen die Auswahl eines Suchfensters und eines Suchausschnittes auf der Grundlage einer zu erlernenden, digitalen Darstellung des Objektes und in der 5 ist der Vorgang des Suchens nach dem zu erkennenden Objekt innerhalb einer auszuwertenden Darstellung skizziert.
  • In 1 ist der Vorgang 100 der Auswertung einer zu erlernenden Darstellung im Hinblick auf die Fragestellung, ob innerhalb der zu erlernenden Darstellung ein markanter, rauschfreier Suchausschnitt vorhanden ist, dargestellt.
  • In einem ersten Schritt 102 wird von einer Aufnahmevorrichtung in Gestalt einer Kamera eine analoge Darstellung eines Ausschnittes des zu erkennenden Objektes aufgenommen. Ein Framegrabber eines digitalen Signalprozessors stellt diese analoge Aufnahme dann in Gestalt einer monochromen digitalen Darstellung einer Weiterverarbeitung mit Hilfe einer Datenverarbeitungsanlage zur Verfügung. Anstelle einer analogen Kamera und eines Framegrabbers könnte auch eine Digitalkamera verwendet werden, welche unmittelbar eine digitale Darstellung erstellt.
  • In einem nachfolgenden Schritt 104 wird diese monochrome Darstellung eines Ausschnittes des zu erkennenden Objektes einer Grauwertmanipulation unterzogen. Dabei werden zunächst der minimale und der maximale Grauwert ermittelt, welche in der zu erlernenden, monochromen Darstellung auftreten. Im Anschluß daran wird zur Verbesserung des Kontrastes der zu erlernenden Darstellung eine lineare Grauwertspreizung durchgeführt. Kommen innerhalb der zu erlernenden Darstellung beispielsweise auf einer Grauwertskala von 0 bis 255 nur Grauwerte von 7 bis 54 vor, so werden ausgehend von dieser ursprünglichen Grauwertdarstellung drei weitere Grauwertdarstellungen mit linearen Grauwertspreizungen von beispielsweise 0 bis 63, 0 bis 127 und 0 bis 255 generiert. Anschließend wird eine Tabelle (Look-up-Table) angelegt, in welcher für jedes Pixel der zu erlernenden Darstellung der ursprüngliche und die drei gespreizten Grauwerte enthalten sind. Diese Tabelle umfaßt folglich verschiedene Grauwertdarstellungen der von der Digitalkamera aufgenommenen Aufnahme.
  • Anschließend wird in Schritt 106 die aktuell zu bearbeitende Grauwertdarstellung geladen.
  • In Schritt 108 erfolgt daraufhin eine Klassifikation der Grauwertdarstellungen dahingehend, ob sie einen Suchausschnitt von ausreichender Markanz enthalten. Dazu erfolgt in einem ersten Schritt eine Aufbereitung der geladenen Grauwertdarstellung, um die Suche nach einem charakteristischen Suchfenster und einem markanten Suchausschnitt zu erleichtern.
  • In Schritt 108 wird in mehreren Durchläufen und bei verschiedenen Aufbereitungsparametern nach einem charakteristischen Suchfenster und einem darin enthaltenen, markanten Suchausschnitt gesucht. Sollte sich herausstellen, daß die aktuell geladene Grauwertdarstellung nicht markant genug ist, um ein Suchfenster oder einen Suchausschnitt ermitteln zu können, so wird die Grauwertdarstellung als monochrom klassifiziert. Sofern jedoch sowohl ein charakteristisches Suchfenster als auch ein darin enthaltener, markanter Suchausschnitt gefunden werden können, erfolgt eine Überprüfung der aktuellen Grauwertdarstellung auf Rauschen. Dazu wird bei den zuletzt eingestellten Aufbereitungsparametern in der aktuellen Grauwertdarstellung mehrmals der Inhalt des Suchausschnittes an identischen Positionen ermittelt. Sofern die jeweils ermittelten Suchausschnittsinhalte stärkere Abweichungen aufweisen, wird die Grauwertdarstellung als verrauscht klassifiziert.
  • Im Anschluß daran erfolgt in Schritt 110 eine Überprüfung der aktuellen Grauwertdarstellung dahingehend, ob sie als monochrom oder verrauscht klassifiziert wurde. Sollte dies der Fall sein, so werden in Schritt 112 entweder die Aufbereitungsparameter geändert oder es wird, falls alle Aufbereitungsparameter bereits durchlaufen sind, die nächste Grauwertdarstellung aus der in Schritt 104 angelegten Tabelle festgelegt. Daraufhin wird wieder bei Schritt 106 fortgefahren, sofern nicht in Schritt 114 festgestellt wird, daß alle Aufbereitungsparameter und alle Grauwertdarstellungen bereits durchlaufen sind.
  • Sollte sich in Schritt 110 herausstellen, daß die aktuelle Grauwertdarstellung weder monochrom noch verrauscht ist, oder sollte sich in Schritt 114 herausstellen, daß bereits alle Grauwertdarstellungen und alle möglichen Aufbereitungsparameter abgearbeitet wurden, so wird in Schritt 116 überprüft, ob für die zu erlernende Darstellung ein markanter Suchausschnitt festgelegt werden konnte. Sollte dies nicht der Fall sein, so wird in Schritt 118 ein zentraler Bereich der zu erlernenden Darstellung als Vergleichsausschnitts festgelegt und dieser mit Hilfe eines Grauwert-Histogrammes bewertet. Dieses Grauwert-Histogramm wird abgespeichert und bildet nachfolgend die Grundlage für die Objekterkennung in einer auszuwertenden Darstellung. Die Objekterkennung unter Zuhilfenahme von Grauwert-Histogrammen wird weiter unten unter Bezugnahme auf 5 näher beschrieben.
  • Sollte sich jedoch in Schritt 116 herausstellen, daß die zu erlernende Darstellung die Ermittlung eines markanten Suchausschnittes ermöglicht, so werden in Schritt 120 die Koordinaten und der Inhalt des Suchausschnittes sowie der Inhalt eines den Suchausschnitt enthaltenden Vergleichsausschnittes, der innerhalb der zu erlernenden Darstellung festgelegt wird, abgespeichert. Außerdem werden die Tabelle mit den Grauwertdarstellungen und sowie die verwendeten Aufbereitungsparameter wie Kantendivisor und Binärisierungschwelle abgespeichert.
  • Im Anschluß an den Schritt 118 oder den Schritt 120 ist der Vorgang 100 der Auswertung der zu erlernenden Darstellung hinsichtlich der Frage, ob ein markanter, rauschfreier Suchausschnitt innerhalb der zu erlernenden Darstellung enthalten ist, beendet. Auszuwertende Darstellungen können jetzt unter Zuhilfenahme entweder des abgespeicherten Suchausschnittes oder des abgespeicherten Histogrammes im Hinblick darauf untersucht werden, ob sie das zu erkennende Objekt enthalten oder nicht. Dieser Vorgang wird weiter unten unter Bezugnahme auf 5 beschrieben. Zunächst wird jedoch anhand von 2 der Vorgang 130 des Klassifizierens der auszuwertenden Darstellung näher erläutert. Dies Vorgang 130 entspricht im wesentlichen den Schritten 106 bis 120 von 1.
  • Zunächst wird in Schritt 132 die aktuell aus der Tabelle zu ladende Grauwertdarstellung der zu erlernenden Darstellung festgelegt. Daraufhin wird eine Schwelle für die Binärisierung der auszuwertenden Darstellung auf einen Anfangswert gesetzt.
  • Anschließend wird in Schritt 134 ein Kantendivisor für die Kantenextrahierung auf einen Anfangswert gesetzt. Der Kantendivisor gibt an, bei welchem Grauwert im Bereich eines Grauwertüberganges eine Kante festgelegt wird. Je nach Wert des Kantendivisors verschiebt sich die Kante in Richtung auf hellere oder dunklere Grautöne. Bei der Kantenextrahierung wird auf den modifizierten Kantenoperator nach Prewitt zurückgegriffen.
  • In einem sich anschließenden Schritt 136 wird zunächst die aktuelle Grauwertdarstellung geladen. Daraufhin wird die aktuelle Grauwertdarstellung einer Glättung durch Binominalfilterung unterzogen. Dann wird in der auszuwertenden Grauwertdar stellung ein zentraler Vergleichsausschnitt festgelegt, innerhalb dessen später das Suchfenster ermittelt wird.
  • In Schritt 136 wird weiterhin von diesem Vergleichsausschnitt, welcher eine geringere Abmessung und folglich auch eine geringere Datenmenge als die aktuelle Grauwertdarstellung aufweist, ein Histogramm erstellt, welches die Grauwertverteilung des Vergleichsausschnittes angibt.
  • Daraufhin wird in Schritt 136 der aktuelle Wert des Kantendivisors halbiert und der Vergleichsausschnitt einer Kantenextrahierung unterzogen. Im Anschluß an die Kantenextrahierung wird der Vergleichsausschnitt auf der Basis der aktuellen Binärisierungsschwelle in eine Binärdarstellung gewandelt. In dieser Binärdarstellung nimmt jedes der Pixel des Vergleichsausschnittes in Abhängigkeit vom Wert der Binärisierungsschwelle einen von zwei möglichen Werten an. Nachfolgend werden diese beiden Werte zur Veranschaulichung als "schwarz" und "weiß" bezeichnet. Abschließend wird in Schritt 136 das Verhältnis von schwarzen zu weißen Pixeln innerhalb des Vergleichsausschnittes berechnet.
  • In Schritt 138 wird überprüft, ob der aktuelle Vergleichsausschnitt eine ausreichend hohe Markanz aufweist. Bei dieser Überprüfung wird festgestellt, ob das in Schritt 136 ermittelte Verhältnis von schwarzen zu weißen Pixeln innerhalb eines einstellbaren Toleranzbereiches um den Optimalwert 0,5 liegt. Sollte die Markanz des aktuellen Vergleichsausschnittes ausreichend hoch sein, so wird in Schritt 140 nach einem charakteristischen Suchfenster innerhalb des aktuellen Vergleichsausschnittes und nach einem markanten Suchausschnitt innerhalb des ermittelten Suchfensters gesucht. Andernfalls erfolgt in Schritt 142 eine Klassifizierung des Vergleichsausschnittes als monochrom.
  • Im Anschluß an die Suche nach einem markanten Suchausschnitt in Schritt 140 oder an die Klassifizierung des Vergleichsausschnittes als monochrom in Schritt 142 wird in Schritt 144 überprüft, ob ein markanter Suchausschnitt gefunden wurde oder ob der Kantendivisor seinen niedrigstmöglichen Wert annimmt. Sollte diese Überprüfung negativ verlaufen, so wird ab Schritt 136 nochmals eine Schleife mit halbiertem Kantendivisor aber sonst unveränderten Einstellungen durchlaufen.
  • Sollte hingegen in Schritt 144 festgestellt werden, daß ein markanter Suchausschnitt gefunden wurde oder daß der Kantendivisor seinen niedrigstmöglichen Wert annimmt, so wird in Schritt 146 überprüft, ob in Schritt 140 ein markanter Suchausschnitt gefunden wurde. Sollte dies der Fall sein, so wird in Schritt 148 dieser Suchausschnitt auf Rauschen getestet. Zu diesem Zweck wird bei den aktuellen Aufbereitungsparametern (Binärisierungsschwelle und Kantendivisor) in der aktuellen Grauwertdarstellung mehrmals der Inhalt eines an identischen Positionen angeordneten Suchausschnittes untersucht. Sofern die Inhalte der an identischen Positionen angeordneten Suchausschnitte keine größeren Abweichungen aufweisen, wird der gefundene Suchausschnitt als rauschfrei klassifiziert, andernfalls als verrauscht.
  • Wenn in Schritt 146 festgestellt wird, daß kein markanter Suchausschnitt gefunden wurde, oder wenn in Schritt 146 festgestellt wird, daß ein markanter Suchausschnitt gefunden wurde und dieser Suchausschnitt in Schritt 148 auf Rauschen getestet wurde, wird anschließend in Schritt 150 die Binärisierungsschwelle erhöht.
  • Im Anschluß an die Erhöhung der Binärisierungsschwelle in Schritt 150 wird in Schritt 152 überprüft, ob ein markanter und rauschfreier Suchausschnitt gefunden wurde oder ob die Binärisierungsschwelle ihren höchstmöglichen Wert angenommen hat. Falls diese Überprüfung negativ ausfällt, wird eine erneute Schleife ab Schritt 134, in welchem der Kantendivisor wieder auf seinen Anfangswert gesetzt wird, durchlaufen. Andernfalls wird in Schritt 154 der Zähler für die aktuelle Grauwertdarstellung erhöht.
  • Im Anschluß an die Erhöhung des Zählers für die aktuelle Grauwertdarstellung in Schritt 154 wird in Schritt 156 überprüft, ob ein markanter und rauschfreier Suchabschnitt gefunden wurde oder ob die aktuelle Grauwertdarstellung die letzte, in der in Schritt 104 angefertigten Tabelle enthaltene Grauwertdarstellung ist. Falls diese Überprüfung negativ ausfällt, wird eine erneute Schleife ab Schritt 132, in welchem die Binärisierungsschwelle wieder auf ihren Anfangswert gesetzt und die nächste Grauwertdarstellung geladen wird, durchlaufen.
  • Sollte sich in Schritt 156 dagegen herausstellen, daß ein markanter und rauschfreier Suchausschnitt gefunden wurde oder daß die letzte, in der in Schritt 104 angefertigten Tabelle enthaltene Grauwertdarstellung erreicht ist, so erfolgt in Schritt 158 eine Klassifizierung der zu erlernenden Darstellung. Die zu erlernende Darstellung wird als binär klassifiziert, wenn ein rauschfreier und markanter Suchausschnitt gefunden wurde. Wurde der Suchausschnitt in Schritt 142 als monochrom eingestuft, so wird die zu erlernende Darstellung ebenfalls als monochrom klassifiziert. Wurde in Schritt 148 der Suchausschnitt als verrauscht eingestuft, so wird die zu erlernende Darstellung in Schritt 158 ebenfalls als verrauscht klassifiziert. Nach Abarbeiten des Schrittes 158 ist der Vorgang 130 des Klassifizieruns beendet.
  • In 3 ist der Vorgang 170 des Suchens nach einem charakteristischen Suchfenster innerhalb des in Schritt 136 von 2 generierten Vergleichsausschnittes und nach einem Suchausschnitt innerhalb eines aufgefundenen Suchfensters detaillierter dargestellt. Der in 3 dargestellte Vorgang 170 entspricht im wesentlichen dem Schritt 140 von 2.
  • Zur Suche nach einem charakteristischen Suchfenster innerhalb des Vergleichsausschnittes werden in Schritt 172 zunächst alle innerhalb dieses Vergleichsausschnittes enthaltenen Suchfenster im Hinblick auf deren Markanz untersucht. Je näher das Verhältnis von schwarzen zu weißen Pixeln eines Suchfensters dabei an dem Optimalwert 0,5 liegt, desto höher ist die Markanz des entsprechenden Suchfensters. Die ermittelte Markanz eines jeden Suchfensters wird abgespeichert.
  • Anschließend werden in Schritt 174 alle Suchfenster, welche eine gewisse Ähnlichkeit aufweisen, ausgefiltert, um ein für den Vergleichsausschnitt charakteristisches Suchfenster zu ermitteln. Dabei werden alle Suchfenster als ähnlich eingestuft, bei welchen eine über einem vorbestimmten Schwellwert liegende Anzahl von Pixeln identisch ist.
  • Daraufhin wird in Schritt 176 von den verbliebenen charakteristischen Suchfenstern das Suchfenster mit der höchsten Markanz ausgewählt. Sollten mehrere charakteristische Suchfenster mit gleich hoher Markanz gefunden werden, so wird innerhalb der zu erlernenden Darstellung das erste dieser Suchfenster ausgewählt. In der Praxis hat sich nämlich herausgestellt, daß sich die Erkennungsquote des erfindungsgemäßen Erkennungsverfahrens nicht wesentlich erhöht, wenn ein anderes Suchfenster mit gleich hoher Markanz ausgewählt wird. Weiterhin werden in Schritt 176 die Koordinaten des ausgewählten charakteristischen Suchfensters abgespeichert.
  • In Schritt 178 wird überprüft, ob das in Schritt 176 ausgewählte Suchfenster vorgegebenen Markanzkriterien entspricht. Sollte dies nicht der Fall sein, wird das Suchfenster in Schritt 180 als nicht markant klassifiziert. Sollte dagegen in Schritt 178 festgestellt werden, daß das Suchfenster den vorgegebenen Markanzkriterien entspricht, so wird in Schritt 182 für zwei Suchausschnitte in Gestalt von senkrecht zueinander verlaufenden Geraden und für alle möglichen Positionen dieser beiden Geraden innerhalb des Suchfensters die jeweilige Markanz ermittelt.
  • Daraufhin werden in Schritt 184 die beiden Suchausschnitte ausgewählt, welche die höchste Markanz aufweisen. Außerdem werden die Anfangskoordinaten der beiden ausgewählten Suchausschnitte innerhalb des Suchfensters abgespeichert.
  • Anschließend wird in Schritt 186 überprüft, ob das ausgewählte Suchfenster und die ausgewählten Suchabschnitte jeweils eine Markanz aufweisen, welche über einem voreingestellten Wert liegen. Sollte dies nicht der Fall sein, so wird die auszuwertende Darstellung in Schritt 188 als monochrom klassifiziert. Andernfalls werden in Schritt 190 die Inhalte der beiden Suchausschnitte abgespeichert. Neben dem Inhalt dieser beiden Suchabschnitte, deren Position innerhalb des Suchfensters dynamisch festgelegt wird, wird noch der Inhalt eines dritten, ortsfesten Suchausschnittes in Gestalt einer Geraden abgespeichert, welche das Suchfenster diagonal durchsetzt. Weiterhin wird in Schritt 190 die auszuwertende Darstellung als Binärdarstellung klassifiziert.
  • In 4 ist der Vorgang 200 des Ausfilterns von ähnlichen Suchfenstern detaillierter dargestellt. Dieser Vorgang entspricht dem in 3 dargestellten Schritt 174.
  • Zunächst wird in Schritt 202 der Inhalt eines aktuellen Suchfensters für einen Vergleich gespeichert. Anschließend wird in Schritt 204 der Inhalt dieses Suchfenster mit den Inhalten von allen anderen möglichen Suchfenstern innerhalb des Vergleichsausschnittes verglichen. Sofern ähnliche Suchfenster erkannt werden, werden diese ausmaskiert. Sofern eine Überprüfung im Schritt 206 ergibt, daß mindestens ein zu dem aktuellen Suchfenster ähnliches Suchfenster gefunden wurde, wird das aktuelle Suchfenster in Schritt 208 ebenfalls ausmarkiert. Der Vorgang 200 des Auffindens eines für den jeweiligen Vergleichsausschnitt charakteristischen Suchfensters wird so lange fortgeführt, bis alle möglichen Suchfenster innerhalb des Vergleichsausschnittes auf Ähnlichkeit mit anderen Suchfenstern innerhalb des Vergleichsausschnittes untersucht wurden.
  • Gemäß den in den 1 bis 4 beschriebenen Verfahrensschritten wird eine zu erlernende Darstellung entweder als Binärdarstellung klassifiziert oder aber als verrauscht oder monochrom. Wird die zu erlernende Darstellung als verrauscht oder monochrom klassifiziert, so wird zur Objekterkennung in einer aus zuwertenden Darstellung ein abgespeichertes Grauwert-Histogramm der zu erlernenden Darstellung herangezogen. Im Falle einer Binärdarstellung hingegen erfolgt die Objekterkennung in einer auszuwertenden Darstellung unter Zuhilfenahme der abgespeicherten Suchausschnitte. In 5 ist die erfindungsgemäße Objekterkennung 220 innerhalb einer auszuwertenden Darstellung detaillierter dargestellt.
  • In einem ersten Schritt 220 wird von einer Kamera eine analoge Aufnahme erzeugt, welche auf das Vorhandensein des zu erkennenden Objektes überprüft werden soll. Diese analoge Aufnahme wird von einem Framegrabber eines digitalen Signalprozessors in Form einer auszuwertenden monochromen Darstellung der Weiterverarbeitung zur Verfügung gestellt.
  • In Schritt 224 wird die auszuwertende Darstellung unter Zuhilfenahme von Binominalkoeffizienten geglättet. Weiterhin wird ein Grauwert-Histogramm der auszuwertenden Darstellung generiert.
  • In Schritt 226 wird überprüft, ob die erlernte Darstellung als Binärdarstellung klassifiziert wurde. Sofern dies nicht der Fall ist, d.h. sofern das gelernte Bild als verrauscht und monochrom klassifiziert wurde, wird in Schritt 228 das Histogramm der auszuwertenden Darstellung mit dem abgespeicherten Histogramm eines Vergleichsausschnittes der gelernten Darstellung verglichen. In Schritt 230 wird das erhaltene Vergleichsergebnis ausgegeben. Sofern das Grauwert-Diagramm der auszuwertenden Darstellung und das Grauwert-Histogramm des Vergleichsausschnittes der gelernten Darstellung eine einstellbare Ähnlichkeit nicht unterschreiten, ist das Vergleichsergebnis positiv, andernfalls negativ.
  • Sollte hingegen in Schritt 22b gefunden werden, daß die gelernte Darstellung eine Binärdarstellung ist, so wird in Schritt 232 diese Binärdarstellung einer Kantenextrahierung sowie einer Binärisierung unterzogen. Dabei wird der Kantendivisor und die Binärisierungsschwelle verwendet, bei welchen in der zu lernen den Darstellung die Inhalte der Suchausschnitte abgespeichert wurden.
  • Daraufhin wird ein Schritt 234 nach demjenigen Muster innerhalb der auszuwertenden Darstellung gesucht, welches die größte Übereinstimmung mit der durch die drei gelernten Suchausschnitte definierten Suchstruktur aufweist. Die Koordinaten dieses Musters werden abgespeichert.
  • Anschließend wird in Schritt 236 ein Vergleichsausschnitt innerhalb der auszuwertenden Darstellung derart festgelegt, daß die Position dieses Vergleichsausschnittes der auszuwertenden Darstellung relativ zu dem aufgefunden Muster mit der Position des Vergleichsfensters der zu erlernenden Darstellung relativ zu den erlernten Suchausschnitten übereinstimmt. Beide Vergleichsausschnitte weisen dieselbe Größe auf.
  • Daraufhin wird in Schritt 238 der Inhalt des Vergleichsausschnittes der auszuwertenden Darstellung mit dem abgespeicherten Inhalt des Vergleichsausschnittes der erlernten Darstellung verglichen.
  • Das Vergleichsergebnis wird in Schritt 230 ausgegeben. Dabei ist von einer Erkennung des Objektes innerhalb der auszuwertenden Darstellung auszugehen, wenn zwischen dem Vergleichsausschnitt der auszuwertenden Darstellung und dem korrespondierenden Vergleichsausschnitt der erlernten Darstellung lediglich Abweichungen im Hinblick auf eine vorgegebene Anzahl von Pixeln bestehen.
  • In den 6 bis 13 ist die Auswahl eines charakteristischen Suchfensters und von markanten Suchausschnitten innerhalb des charakteristisch Suchfensters beispielhaft dargestellt. Die 6 bis 10 zeigen dabei zunächst den Vorgang der Aufbereitung einer Digitalkamera-Aufnahme 300.
  • In 6 ist die Aufnahme 300 einer Digitalkamera dargestellt. Die Aufnahme 300 wurde von einer Digitalkamera mit einem her kömmlichen Videomodul erstellt. Die Auflösung der Aufnahme 300 beträgt 580 Pixel × 380 Bildzeilen. Die Digitalkamera stellt ein monochromes Bild des aufgenommenen Objektes zur Verfügung. Bei dem in 6 dargestellten Objekt handelt es sich um einen Ausschnitt aus einer Fotografie, welche als zu erlernende Darstellung herangezogen werden soll.
  • Da die in 6 dargestellte, zu erlernende Darstellung einen vergleichsweise geringen Kontrast aufweist, wird diese Aufnahme zunächst einer Grauwert-Manipulation unterzogen.
  • In 7 ist die einer Grauwert-Spreizung unterzogene, auszuwertende Darstellung 302, welche aus der in 6 dargestellten Aufnahme 300 hervorgegangen ist, dargestellt. Deutlich zu erkennen ist der verbesserte Kontrast.
  • Im Anschluß an die Grauwert-Manipulation wird die auszuwertende Darstellung mit Hilfe von Binominalkoeffizienten geglättet. Die geglättete Darstellung 304 ist in 8 dargestellt.
  • Anschließend wird die geglättete Darstellung einer Kantenextrahierung unterzogen. Unter Zuhilfenahme eines modifizierten Kantenoperators nach Prewitt entsteht aus der in 8 dargestellten geglätteten Darstellung 304 die in 9 dargestellte Kantendarstellung 306. Die Kantendarstellung 306 enthält im wesentlichen lediglich noch sehr charakteristische Bildinformationen.
  • Als letzter Schritt der Aufbereitung der von der Digitalkamera erstellten Aufnahme wird unter Zuhilfenahme einer geeigneten Binärisierungsschwelle aus der in 9 dargestellten Kantendarstellung 306 die in 10 gezeigte und zu erlernende Binärdarstellung 308 erzeugt. Diese Binärdarstellung 308 bildet die Grundlage für die Ermittlung eines charakteristischen Suchfensters und von markanten Suchausschnitten.
  • Die zu erlernende Darstellung 308 von 10 besitzt eine Größe von 104 × 104 Pixel. In der Mitte der Darstellung 308 wird zunächst ein Vergleichsausschnitt 310 von 56 × 56 Pixeln festgelegt. Innerhalb dieses Vergleichsausschnittes 310 wird nachfolgend ein für den Vergleichsausschnitt 310 charakteristisches Suchfenster ermittelt. Da der seitliche sowie der obere und der untere Abstand des Vergleichsausschnittes 310 von den Seiten der Darstellung 308 einen Abstand von jeweils 24 Pixeln aufweisen, läßt sich der in 10 dargestellte Vergleichsausschnitt 310 und somit auch ein in diesem Vergleichsausschnitt 310 angeordnetes Suchfenster selbst dann noch sicher innerhalb einer auszuwertenden Darstellung auffinden, wenn das auszuwertende Objekt im Vergleich zu der Darstellung 308 gemäß 10 um höchstens 24 Pixel nach oben, unten, links oder rechts verschoben ist.
  • Wie in 11 dargestellt, wird im Anschluß an das Festlegen eines Vergleichsausschnittes 310 innerhalb der Darstellung 308 ein Suchfenster ermittelt, welches innerhalb des Vergleichsausschnittes 310 lediglich einmal vorkommt und welches daher für den Vergleichsausschnitt charakteristisch ist. Die beiden in 11 beispielhaft dargestellte Suchfenster 312, 312' besitzen eine Größe von 14 × 14 Pixel. Innerhalb des Vergleichsausschnittes 310, welcher eine Größe von 42 × 42 Pixel besitzt, sind daher 1764 mögliche Suchfenster enthalten. Wie in Zusammenhang mit den 3 und 4 erläutert, wird nun jedes der 1764 möglichen Suchfenster auf Markanz und Ungleichheit mit den anderen Suchfenstern überprüft.
  • In 12 ist ein Suchfenster 312'' abgebildet, welches eine hohe Markanz aufweist und außerdem nur einmal innerhalb des Vergleichsausschnittes 310 vorkommt. Innerhalb dieses Suchfensters 312'' werden nunmehr, wie unter Bezugnahme auf 3 erläutert, drei markante Suchausschnitte ermittelt.
  • 13 entspricht 12, wobei jedoch innerhalb des Suchfensters 312'' drei Suchausschnitte 314, 316, 318 in Gestalt von Geraden plaziert sind. Ein diagonal innerhalb des Suchfensters 312'' verlaufender Suchausschnitt 31b ist stets starr im Suchfenster 312'' verankert. Seine Anfangskoordinaten liegen bei 0, 0 innerhalb des Suchfensters 312''. Die Positionen eines zweiten, horizontalen Suchausschnittes 314 und eines dritten, vertikalen Suchausschnittes 318 werden dagegen dynamisch innerhalb des Suchfensters 312 derart gewählt, daß sie eine möglichst hohe Markanz aufweisen. In dem in 13 dargestellten Beispiel weisen alle drei linienförmigen Suchausschnitte 314, 316, 318 eine annähernd optimale Markanz auf. Dies bedeutet, daß jeder Suchausschnitt 314, 316, 318 jeweils ungefähr zur Hälfte weiße und schwarze Pixel umfaßt.
  • Sowohl die Anfangskoordinaten der drei Suchausschnitte 314, 316, 318 als auch deren Inhalte werden abgespeichert. Der Inhalt des Vergleichsausschnittes 310 sowie die ermittelten Aufbereitungsparameter werden ebenfalls abgespeichert. Damit ist der Vorgang des Auswertens der zu erlernenden Darstellung abgeschlossen.
  • In den 14 und 15 ist die Objekterkennung unter Zuhilfenahme der wie vorstehend erläutert erlernten Suchausschnitte dargestellt. 14 zeigt eine Darstellung 408 desselben Objektes, welches z.B. auch in Figur 308 (13) dargestellt ist. In der Darstellung 408 gemäß 14 ist dieses Objekt jedoch geringfügig nach oben verschoben.
  • Die von einer Digitalkamera aufgenommene und im Hinblick auf die Anwesenheit des Objektes zu untersuchende Darstellung 408 wurde wie die zu erlernende Darstellung ebenfalls einer Grauwert-Manipulation, einer Glättung, einer Kantenextrahierung und einer Binärisierung unterzogen. Dabei wurden diejenigen Aufbereitungsparameter herangezogen, welche bereits bei der Aufbereitung des auszuwertenden Bildes verwendet wurden.
  • Die auszuwertende Darstellung 408 wird mit Hilfe der erlernten Suchausschnitte daraufhin untersucht, ob sie ein Muster enthält, welches bezüglich Inhalt und Gestalt den drei erlernten Suchausschnitten entspricht. Da die auszuwertende Darstellung 408 tatsächlich ein Muster 414, 416, 418 enthält, welches mit einer Suchstruktur in Gestalt der drei erlernten Suchausschnit te übereinstimmt, wird als nächstes die Position dieses Musters 414, 416, 418 innerhalb der auszuwertenden Darstellung 408 ermittelt. Die Position des Musters 414, 416, 418 gestattet die Ermittlung eines Vergleichsausschnittes 410, dessen relative Lage zum Muster 414, 416, 418 mit der Lage des abgespeicherten Suchausschnittes relativ zu den erlernten Suchausschnitten übereinstimmt.
  • Nach dem Laden des Vergleichsausschnittes 410 aus der auszuwertenden Darstellung 408 wird der Inhalt dieses Vergleichsausschnittes 410 der auszuwertenden Darstellung 408 mit dem abgespeicherten Inhalt des Vergleichsausschnittes 310 der zu erlernenden Darstellung 308 (13) verglichen. Da die beiden Vergleichsausschnitte 410 und 310 einen übereinstimmenden Inhalt aufweisen, wird das zu erkennende Objekt in der auszuwertenden Darstellung 408 erkannt.
  • Das zu erkennende Objekt kann in der auszuwertenden Darstellung 408 auch dann noch sicher erkannt werden, wenn die Lage des zu erkennenden Objektes in der auszuwertenden Darstellung 408 von der Lage des Objektes in der gelernten Darstellung 308 (10 bis 13) lediglich soweit abweicht, daß ein den erlernten Suchausschnitten korrespondierendes Muster noch innerhalb der auszuwertenden Darstellung 408 gefunden werden kann.
  • In 15 ist die Situation dargestellt, daß innerhalb der auszuwertenden Darstellung 508 mit Hilfe der drei abgespeicherten Suchausschnitte zwar ein korrespondierendes Muster 514, 516, 518 gefunden werden kann, der Inhalt des innerhalb der auszuwertenden Darstellung 508 angeordneten Vergleichsausschnittes 510 jedoch nicht mit dem gelernten Vergleichsausschnitt 310 (13) übereinstimmt. Das zu erkennende Objekt wird folglich in der auszuwertenden Darstellung 508 nicht erkannt.
  • Das vorstehend beschriebene Verfahren eignet sich insbesondere zur Erkennung von Objekten, welche beispielsweise kontinuierlich an einer Aufnahmevorrichtung zur Erstellung einer Aufnahme der Objekte vorbeibewegt werden. Die zu erkennenden Objekte führen in diesem Fall eine Relativbewegung zur Aufnahmevorrichtung aus. Vorzugsweise wird das erfindungsgemäße Verfahren zur Erkennung von Druckbögen, welche im Bereich einer Sammel- oder Zusammentraglinie angeordnet sind, eingesetzt.

Claims (15)

  1. Verfahren zur Erkennung von ruhenden oder bewegten Objekten wie Bildern, Texten oder Gegenständen, enthaltend die Schritte: – Bereitstellen (102) einer zu erlernenden, digitalen Darstellung (308) des Objektes oder eines Teiles des Objektes; – Auswählen eines Suchfensters (312) innerhalb der zu erlernenden Darstellung (308) oder innerhalb eines Ausschnittes (310) der zu erlernenden Darstellung (308), dadurch gekennzeichnet, dass ein Suchfenster ausgewählt wird, welches innerhalb der zu erlernenden Darstellung (308) oder innerhalb des Ausschnittes (310) markant ist, ausgenommen ein Suchfenster, das innerhalb der zu erlernenden Darstellung (308) oder innerhalb des Ausschnittes (310) nur einmal vorkommt und dabei die Position des Suchausschnittes (314, 316, 318) innerhalb des Suchfensters (312) und/oder die geometrische Gestalt des Suchausschnittes (314, 316, 318) dynamisch in Abhängigkeit vom Inhalt des Suchfensters (312) festgelegt werden; und dass innerhalb des Suchfensters mindestens ein für die Objekterkennung heranzuziehender Suchausschnitt (314, 316, 318) ausgewählt wird, wobei innerhalb einer auszuwertenden, digitalen Darstellung (408) nach einem dem mindestens einem Suchausschnitt (314, 316, 318) entsprechenden Muster (414, 416, 418) gesucht wird, wobei die Position des Suchausschnittes (314, 316, 318) innerhalb des Suchfensters (312) und/oder die geometrische Gestalt des Suchausschnittes (314, 316, 318) fest vorgegeben oder dynamisch in Abhängigkeit vom Inhalt des Suchfensters (312) festgelegt werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Position und/oder die geometrische Gestalt des Suchausschnittes (314, 316, 318) im Hinblick auf eine hohe Markanz des Suchausschnittes (314, 316, 318) innerhalb des Suchfensters (312) festgelegt werden.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Position des Suchausschnittes (316) innerhalb des Suchfensters (312) und/oder die geometrische Gestalt des Suchausschnittes (316) unabhängig vom Inhalt des Suchfensters (312) fest vorgegeben werden.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass der Suchausschnitt als Gerade, als zwei senkrecht zueinander verlaufende Geraden oder als Ring ausgebildet wird.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass innerhalb des Suchfensters (312) zwei senkrecht zueinander verlaufende Suchausschnitte (314, 318) in Gestalt von jeweils einer Geraden vorgesehen werden und deren Positionen innerhalb des Suchfensters (312) dynamisch im Hinblick auf eine hohe Markanz der beiden Suchausschnitte (314, 318) festgelegt werden.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass ein das Suchfenster (312) umgebender und innerhalb der zu erlernenden Darstellung (308) angeordneter Vergleichsausschnitt (310) abgespeichert wird.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass innerhalb der auszuwertenden Darstellung (408) ein Vergleichsausschnitt (410) ermittelt wird, dessen Position relativ zu dem aufgefundenen Muster (414, 416, 418) mit der Position des abgespeicherten Vergleichsausschnitts (310) relativ zu dem mindestens einen Suchausschnitt (314, 316, 318) übereinstimmt.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass der Inhalt des Vergleichsausschnitts (410) der auszuwertenden Darstellung (408) mit dem Inhalt des Vergleichsausschnitts (310) der zu erlernenden Darstellung (308) verglichen wird.
  9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass die zu erlernende Darstellung (308) und/oder die auszuwertende Darstellung (408) einer Bildaufbereitung unterzogen werden.
  10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass bei der Bildaufbereitung eine Kantenextrahierung (136, 232) durchgeführt wird.
  11. Verfahren nach einem der Ansprüche 9 oder 10, dadurch gekennzeichnet, dass bei der Bildaufbereitung eine Binärisierung (136, 232) durchgeführt wird.
  12. Verfahren nach einem der Ansprüche 9 bis 11, dadurch gekennzeichnet, dass bei der Bildaufbereitung eine Grauwert- Manipulation (104) und/oder eine Glättung (136, 224) durchgeführt wird.
  13. Verfahren nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, dass ein Histogramm der zu erlernenden Darstellung (308) angefertigt wird (120, 136), welches für den Fall, dass kein Suchausschnitt zur Verfügung steht, zur Objekterkennung herangezogen wird.
  14. Verfahren nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, dass die zu erkennenden Objekte eine Relativbewegung zu einer Aufnahmevorrichtung für die zu erkennenden Objekte ausführen.
  15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, dass das Verfahren zur Erkennung von Druckbögen, welche im Bereich einer Sammel- oder Zusammentraglinie angeordnet sind, eingesetzt wird.
DE10066189A 2000-05-18 2000-05-18 Verfahren zur Erkennung von Objekten Expired - Fee Related DE10066189B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE10024559A DE10024559B4 (de) 2000-05-18 2000-05-18 Verfahren zur Erkennung von Objekten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10024559A DE10024559B4 (de) 2000-05-18 2000-05-18 Verfahren zur Erkennung von Objekten

Publications (1)

Publication Number Publication Date
DE10066189B4 true DE10066189B4 (de) 2006-09-07

Family

ID=36848373

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10066189A Expired - Fee Related DE10066189B4 (de) 2000-05-18 2000-05-18 Verfahren zur Erkennung von Objekten

Country Status (1)

Country Link
DE (1) DE10066189B4 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015171084A1 (en) * 2014-05-08 2015-11-12 Aselsan Elektronik Sanayi Ve Ticaret Anonim Şirketi A real- time, semi-automatic method for target tracking window initialization in thermal imagery
DE102014110527A1 (de) * 2014-07-25 2016-01-28 Connaught Electronics Ltd. Verfahren zum Bestimmen von charakteristischen Bildpunkten für ein Kamerasystem eines Kraftfahrzeugs, Kamerasystem, Fahrassistenzsystem und Kraftfahrzeug
DE102014113174A1 (de) * 2014-09-12 2016-03-17 Connaught Electronics Ltd. Verfahren zum Bestimmen von charakteristischen Bildpunkten, Fahrerassistenzsystem und Kraftfahrzeug

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0628837A1 (de) * 1993-06-11 1994-12-14 AEROSPATIALE Société Nationale Industrielle Verfahren und Anordnung zur Ortsbestimmung eines Zieles
DE19636074C2 (de) * 1996-09-05 1999-08-12 Siemens Ag Lernfähiges Bildverarbeitungssystem zur Klassierung

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0628837A1 (de) * 1993-06-11 1994-12-14 AEROSPATIALE Société Nationale Industrielle Verfahren und Anordnung zur Ortsbestimmung eines Zieles
DE19636074C2 (de) * 1996-09-05 1999-08-12 Siemens Ag Lernfähiges Bildverarbeitungssystem zur Klassierung

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015171084A1 (en) * 2014-05-08 2015-11-12 Aselsan Elektronik Sanayi Ve Ticaret Anonim Şirketi A real- time, semi-automatic method for target tracking window initialization in thermal imagery
US10055666B2 (en) 2014-05-08 2018-08-21 Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi Real-time, semi-automatic method for target tracking window initialization in thermal imagery
DE102014110527A1 (de) * 2014-07-25 2016-01-28 Connaught Electronics Ltd. Verfahren zum Bestimmen von charakteristischen Bildpunkten für ein Kamerasystem eines Kraftfahrzeugs, Kamerasystem, Fahrassistenzsystem und Kraftfahrzeug
DE102014113174A1 (de) * 2014-09-12 2016-03-17 Connaught Electronics Ltd. Verfahren zum Bestimmen von charakteristischen Bildpunkten, Fahrerassistenzsystem und Kraftfahrzeug

Similar Documents

Publication Publication Date Title
DE19521346C2 (de) Bilduntersuchungs/-Erkennungsverfahren, darin verwendetes Verfahren zur Erzeugung von Referenzdaten und Vorrichtungen dafür
DE102007035884B4 (de) Linienrauschunterdrückungsvorrichtung, -verfahren und -programm
EP1610270A2 (de) Verfahren zur qualitativen Beurteilung eines Materials mit mindestens einem Erkennungsmerkmal
EP1897067B1 (de) Verfahren und vorrichtung zur erkennung einer münze unter verwendung ihres prägebildes
EP2787485B1 (de) Verfahren und Vorrichtung zur automatischen Fehlerstellenerkennung bei biegeschlaffen Körpern
EP3287951A1 (de) Verfahren für die urheberschaftsbewertung eines gemäldes sowie eine entsprechende verwendung
DE102010007730B4 (de) Verfahren und Vorrichtung zum Einstellen eines geeigneten Auswerteparameters für ein Fluoreszenzmikroskop
EP1865462A1 (de) Verfahren zur Binarisierung eines digitalen Grauwertbildes
DE102020120887B4 (de) Verfahren zum erfassen einer einhängeposition eines auflagestegs und flachbettwerkzeugmaschine
DE10066189B4 (de) Verfahren zur Erkennung von Objekten
DE10024559B4 (de) Verfahren zur Erkennung von Objekten
EP1329856A2 (de) Verfahren zur Erkennung eines Prägebildes einer Münze in einem Münzautomaten
WO2009127572A1 (de) Inspektionssystem und -verfahren für die optische untersuchung von objektoberflächen, insbesondere von waferoberflächen
DE102015200434A1 (de) Verfahren und Vorrichtung zur Verbesserung der Objekterkennung bei unterschiedlichenBeleuchtungssituationen
EP1156445B1 (de) Verfahren zur Erkennung von Objekten und Digitalkamera hierfür
EP3482348A1 (de) Verfahren und einrichtung zur kategorisierung einer bruchfläche eines bauteils
DE102016109027A1 (de) Verfahren zur Lageüberprüfung charakteristischer Punkte in Lichtverteilungen
EP1139285B1 (de) Verfahren und Vorrichtung zur Prüfung bzw. Untersuchung von Gegenständen
DE10326031B4 (de) Verfahren zur adaptiven Kantenerkennung
DE19717814B4 (de) Verfahren zur Segmentierung von Schriftzeichen und Symbolen auf Kfz-Kennzeichenschildern und formatierten Datenträgern sowie zur Segmentierung von Mustern in komplexen Szenen
DE19810162C2 (de) Verfahren zur Bildanalyse nach stochastischen Eigenschaften
EP4285319A1 (de) Erzeugung von trainingsdaten für zweidimensionale scans eines bodenradar-systems
WO2023104767A1 (de) Verfahren und vorrichtung zur erkennung von objekten an einem industriellen arbeitsplatz
WO2022233621A1 (de) Verfahren zum auslesen eines insbesondere biologischen arrays und prozessierungseinrichtung
EP4205091A1 (de) Vorrichtung zum erzeugen einer digitalen kennung von einem mindestens ein druckbild aufweisenden exemplar eines druckerzeugnisses, smartphone oder tablet mit dieser vorrichtung und verfahren zur verwendung dieser vorrichtung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
Q172 Divided out of (supplement):

Ref document number: 10024559

Country of ref document: DE

Kind code of ref document: P

8110 Request for examination paragraph 44
AC Divided out of

Ref document number: 10024559

Country of ref document: DE

Kind code of ref document: P

AC Divided out of

Ref document number: 10024559

Country of ref document: DE

Kind code of ref document: P

8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: OPTIGRAF SAGL, MENDRISIO, CH

8328 Change in the person/name/address of the agent

Representative=s name: WEBER & HEIM PATENTANWAELTE, 81479 MUENCHEN

8327 Change in the person/name/address of the patent owner

Owner name: PEPPERL + FUCHS GMBH, 68307 MANNHEIM, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee