DE10123365A1 - Verfahren und Vorrichtung zum Ermitteln von Bewegung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern, Computerlesbares Speichermedium und Computerprogramm-Element - Google Patents

Verfahren und Vorrichtung zum Ermitteln von Bewegung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern, Computerlesbares Speichermedium und Computerprogramm-Element

Info

Publication number
DE10123365A1
DE10123365A1 DE10123365A DE10123365A DE10123365A1 DE 10123365 A1 DE10123365 A1 DE 10123365A1 DE 10123365 A DE10123365 A DE 10123365A DE 10123365 A DE10123365 A DE 10123365A DE 10123365 A1 DE10123365 A1 DE 10123365A1
Authority
DE
Germany
Prior art keywords
contour
image
movement
determined
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE10123365A
Other languages
English (en)
Inventor
Axel Techmer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Infineon Technologies AG
Original Assignee
Infineon Technologies AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Infineon Technologies AG filed Critical Infineon Technologies AG
Priority to DE10123365A priority Critical patent/DE10123365A1/de
Priority to US10/476,690 priority patent/US20050008073A1/en
Priority to EP02740306A priority patent/EP1396153A2/de
Priority to PCT/DE2002/001585 priority patent/WO2002093931A2/de
Publication of DE10123365A1 publication Critical patent/DE10123365A1/de
Ceased legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Unter Verwendung der Codierungsinformation wird in einem ersten Bild mindestens eine Kontur mit einer Vielzahl von auf der Kontur sich befindenden Kontur-Bildpunkten ermittelt und unter Verwendung der Kontur-Bildpunkte wird eine Bewegungsermittlung durchgeführt bezüglich einer in einem zweiten Bild enthaltenen Referenz-Kontur mit Referenz-Kontur-Bildpunkten.

Description

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Ermittlung von Bewegung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern, ein Computerlesbares Speichermedium sowie ein Computerprogramm-Element.
Im Rahmen der digitalen Bildverarbeitung ist die Ermittlung von Bewegung in zeitlich aufeinander folgenden Bildern, üblicherweise auch als Bewegungsschätzung bezeichnet, eine wesentliche Information zum Ermitteln des Inhalts von digitalen Bildern. So wird beispielsweise auch im visuellen System eines Menschen die Bestimmung der Bewegung von wahrgenommenen Objekten als ein früher Verarbeitungsschritt in der menschlichen Sinneswahrnehmung ausgeführt.
In der digitalen Bildverarbeitung ist jedoch die Bestimmung der Bildbewegung ein sehr rechenintensiver und somit kostenintensiver Prozess.
Insbesondere um eine Ermittlung der Bildbewegung in Echtzeit durchführen zu können und damit die Anwendung von Bildverarbeitungsverfahren in Echtzeitanwendungen verlässlich gewährleisten zu können, müssen gemäß dem Stand der Technik aufgrund der Komplexität der bekannten Verfahren sehr kostenintensive Hardwareelemente eingesetzt werden, beispielsweise spezielle Grafikprozessoren oder Grafikkarten (vor allem auch Bildverarbeitungskarten). Alternativ ist es bekannt, die Bestimmung der Bildbewegung lediglich anhand einiger weniger Bildpunkte in dem digitalen Bild durchzuführen, um somit die entsprechende Rechenzeit einzusparen.
Auf den oben genannten Prinzipien beruhende Verfahren zur Ermittlung der Bildbewegung in einer zeitlichen Folge digitaler Bilder sind in [1], [2] und [3] beschrieben.
Der Einsatz kostenintensiver Hardware ist jedoch sehr nachteilig und ferner nur in bestimmten Anwendungen überhaupt möglich.
Ferner führt die Beschränkung auf einzelne Bildpunkte bei der Ermittlung der Bildbewegung dazu, dass lediglich ein kleines Feld von Bildpunkten mit den Bildpunkten zugeordneten Codierungsinformationen bei der Bewegungsermittlung berücksichtigt werden, wobei die einzelnen Bildpunkte spärlich über das gesamte Bild verteilt sind.
Unter Codierungsinformation ist im weiteren eine Helligkeitsinformation (Luminanzinformation) und/oder eine Farbinformation (Chrominanzinformation) zu verstehen, die jeweils einem oder mehreren Bildpunkten zugeordnet ist/sind.
Diese geringe berücksichtigte Informationsmenge macht jedoch die anschließende Auswertung der Bildinformation schwierig und fehlerbehaftet, beispielsweise wenn es darum geht, ein Fahrzeug als ein zusammenhängendes Objekt anhand der Bewegungsinformation in einer Folge digitaler Bilder zu ermitteln und dessen Bewegung über mehrere digitale Bilder hinweg zu beschreiben.
Üblicherweise werden die ausgewählten Bildpunkte, die im Rahmen der Bewegungsermittlung in zeitlich aufeinander folgenden digitalen Bildern berücksichtigt werden, über Grauwertecken definiert, das heißt über Bildpunkte, die sich in einem Eckbereich von sprunghaften Übergängen in den den jeweiligen Bildpunkten zugeordneten Luminanzwerten befinden. Diese Grauwertecken sind jedoch nicht notwendigerweise objektspezifisch. Dies gilt vor allen an den Objektgrenzen, da an den Objektgrenzen die Grauwertecken durch den Grauwertverlauf von Hintergrund und Objekt bestimmt werden. Da der Hintergrund jedoch nicht gleichförmig im Bild sein muss, führt in diesem Fall die zeitliche Zuordnung der Grauwertecken zu falschen Bewegungsinformationen.
In [4] und [5] sind Verfahren zur Ermittlung einer Kontur mit Kontur-Bildpunkten in einem digitalen Bild mit Bildpunkten, denen Codierungsinformation zugeordnet ist, beschrieben.
In [6] ist ferner eine Distanztransformation als morphologische Operation zur Bestimmung minimaler Abstände von Punkten einer betrachteten örtlichen Umgebung zu einer Kontur mit Kontur-Bildpunkten bekannt. In [7] und [8] sind zwei alternative Implementierungen der Distanztransformation aus [6] beschrieben.
Weiterhin ist es aus [9] bekannt, dass es möglich ist, lediglich aus einer Konturrepräsentation eines digitalen Bildes das gesamte digitale Bild wieder zu rekonstruieren.
Der Erfindung liegt das Problem zugrunde, eine vereinfachte und somit schnellere und kostengünstigere Ermittlung der Bewegung in einer Folge zeitlich aufeinander folgender Bilder anzugeben.
Das Problem wird durch das Verfahren und die Vorrichtung zur Ermittlung der Bewegung in mindestes zwei zeitlich aufeinander folgenden digitalen Bildern, das Computerlesbare Speichermedium und das Computerprogramm-Element mit den Merkmalen gemäß den unabhängigen Patentansprüchen gelöst.
Bei einem Verfahren zur Ermittlung der Bewegung in mindestens zwei zeitlich aufeinander folgenden Bildern sind in den digitalen Bildern Bildpunkte vorhanden, denen jeweils Codierungsinformation zugeordnet ist. Unter Verwendung der Codierungsinformationen wird in einem ersten Bild mindestens eine Kontur mit einer Vielzahl von auf der Kontur sich befindenden Kontur-Bildpunkten ermittelt. Unter Verwendung der auf der ermittelten Kontur des ersten Bildes sich befindenden Kontur-Bildpunkten wird eine Ermittlung der Bewegung bezüglich einer in einem zweiten Bild enthaltenen Referenz-Kontur mit Referenz-Kontur-Bildpunkten durchgeführt.
Eine Vorrichtung zur Ermittlung der Bewegung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern weist einen Prozessor auf, der derart eingerichtet ist, dass die oben beschriebenen Verfahrensschritte durchführbar sind.
Auf einem computerlesbaren Speichermedium ist ein Programm gespeichert, das es einem Computer ermöglicht, nachdem es in einen Speicher des Computers geladen worden ist, die oben beschriebenen Verfahrensschritte durchzuführen zur Ermittlung der Bewegung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern.
Ein Computerprogramm-Element weist die oben beschriebenen Verfahrensschritte auf, nachdem es in einem Speicher des Computer geladen worden ist und von dem Computer ausgeführt wird zur Ermittlung der Bewegung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern.
Anschaulich kann die Erfindung darin gesehen werden, dass die Ermittlung der Bewegung anhand der ermittelten, das heißt aus einem digitalen Bild extrahierten, Kontur in einem digitalen Bild bestimmt wird bezüglich einer Referenzkontur in einem zeitlich vorangegangenen oder zeitlich nachfolgenden Bild.
Im Weiteren wird unter einer Kontur eine zusammenhängende, das heißt eine Folge von in einem Bild örtlich benachbarter Kontur-Bildpunkten bezeichnet. Anders ausgedrückt sind Bildpunkte zusammenhängend und bilden somit eine Kontur, wenn sie auf dem Bildraster, das heißt in dem digitalen Bild, unmittelbar benachbart zueinander angeordnet sind.
Die Verwendung der ermittelten Konturen und der sich darin befindenden Kontur-Bildpunkte im Rahmen der Bewegungsermittlung in einer Folge digitaler Bilder erlaubt eine zeitliche Stabilisierung der ermittelten Bewegungsinformation und außerdem auch die Ermittlung und Erfassung selbst kleiner Bewegungen in der Folge zeitlich aufeinander folgender digitaler Bilder. Dies wird insbesondere dadurch ermöglicht, dass mittels der Ermittlung der Konturen und der Berücksichtigung der Konturen in der Bewegungsermittlung üblicherweise eine zeitliche Integration über die im Weiteren erläuterte anschaulich definierte Fläche durchgeführt wird, die durch die Verschiebung von Konturen in zeitlich aufeinander folgenden digitalen Bildern zwischen den beiden berücksichtigten Konturen gebildet wird.
Dies ist insbesondere vorteilhaft für die Bewegungsbestimmung im Fernfeld einer Videosequenz, das heißt insbesondere im Bildhintergrund einer Folge digitaler Bilder.
Aufgrund der Perspektive liegen Bewegungen im Fernfeld einer Videosequenz, das heißt Bewegungen zwischen zwei aufeinander folgenden digitalen Bildern, üblicherweise unterhalb der Bildauflösung und können somit mit den üblicherweise durchgeführten Verfahren häufig gar nicht erst ermittelt werden.
Weiterhin führt die sehr gezielte Auswahl von im Rahmen der Bewegungsermittlung berücksichtigten Bildpunkten, nämlich die Berücksichtigung von zuvor in einem ersten Extraktionsschritt ermittelten Kontur-Bildpunkten, dazu, dass eine Ermittlung der Bewegung selbst in Echzeitanwendungen bei Einsatz üblicher Personal Computer ohne zusätzliche aufwendige Spezial-Hardware ermöglicht wird.
In diesem Zusammenhang ist anzumerken, dass Echtzeit kein eindeutig definierter Leistungsbegriff ist. Im Weiteren wird unter Echtzeit eine Verarbeitungszeit verstanden, die im Wesentlich kleiner als 40 ms beträgt. Ein Zeitintervall von 40 ms entspricht dem Zeitversatz zweier digitaler Einzelbilder einer analogen Videosequenz.
Bevorzugte Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen.
Die im Weiteren beschriebenen Ausgestaltungen der Erfindung gelten für das Verfahren, die Vorrichtung, das Computerprogramm-Element als auch für das computerlesbare Speichermedium.
Gemäß einer Ausgestaltung der Erfindung wird unter Verwendung der Codierungsinformation in dem zweiten Bild mindestens eine Referenzkontur mit einer Vielzahl von auf der Kontur sich befindenden Referenz-Kontur-Bildpunkten ermittelt.
Die Bewegungsermittlung kann sowohl ausgehend von einem zeitlich vorangegangenen Bild als auch von einem zeitlich nachfolgenden Bild durchgeführt werden, das heißt es kann sowohl eine Bewegungsprädiktion als auch eine Bewegungsermittlung in zeitlich rückschauender Betrachtung durchgeführt werden.
Anders ausgedrückt bedeutet dies, dass das zweite Bild als Referenzbild mit der Referenz-Kontur das gegenüber dem ersten Bild mit der extrahierten, bei der Bildbewegung berücksichtigten Kontur, zeitlich vorangegangene oder auch zeitlich nachfolgende Bild sein kann.
Bei der Ermittlung der Bildbewegung kann für die Referenz- Kontur und die sich auf der Referenz-Kontur befindenden Referenz-Kontur-Bildpunkten mittels einer morphologischen Operation ein Minimal-Abstandsbild ermittelt werden, das heißt anschaulich ein Feld von Werten, mit denen jeweils ein Minimal-Abstand eines Bildpunktes in dem Minimal-Abstandsbild zu einem Referenz-Kontur-Bildpunkt angegeben wird.
Als morphologische Operation kann eine Distanztransformation eingesetzt werden, wobei es sich herausgestellt hat, dass insbesondere die in [6] beschriebene Distanztransformation sehr geeignet ist und zu sehr guten Ergebnissen führt.
Ein Minimal-Abstandswert für einen Referenz-Kontur-Bildpunkt zu einem Zeitpunkt t zu einem Bildpunkt in einem Abstandsbild wird gemäß einer Ausgestaltung der Erfindung gemäß folgender Vorschrift ermittelt:
D(l)(x, y, t) = ∥[x, y]T - v'(l, t)∥,
wobei mit
  • - D(l)(x, y, t) ein Minimal-Abstandswert zwischen dem Bildpunkt [x, y] und einem Referenz-Kontur-Bildpunkt auf der Referenz-Kontur in dem zweiten Bild,
  • - [x, y] ein Bildpunkt in dem Abstandsbild,
  • v'(l, t) ein Referenz-Kontur-Bildpunkt in dem zweiten Bild,
  • - l ein Referenz-Kontur-Bildpunktindex zur eindeutigen Identifizierung eines Referenz-Kontur-Bildpunkts auf der Referenz-Kontur in dem zweiten Bild,
  • - t ein Zeitpunkt, zu dem die Ermittlung durchgeführt wird,
bezeichnet wird.
Gemäß einer weiteren Ausgestaltung der Erfindung ist es vorteilhaft, zusätzlich die Konturrichtung, das heißt die Richtung, in welcher die Kontrastveränderung entlang einer Kontur verläuft, zu berücksichtigen.
Durch diese Ausgestaltung der Erfindung wird die Verlässlichkeit der ermittelten Bewegung weiter erhöht.
Die Erfindung eignet sich insbesondere zum Einsatz im Bereich der Erfassung von bewegten Objekten in einem Szenario, in dem es gilt, eine Vielzahl von bewegten Objekten voneinander und von nicht bewegten Objekten zu unterscheiden.
Ein sehr geeignetes Einsatzgebiet ist insbesondere die Verkehrsüberwachung bzw. die Ermittlung der Bewegung in Szenen, die von einer in einem fahrenden Fahrzeug installierten digitalen Kamera aufgenommen werden.
Ein Ausführungsbeispiel der Erfindung ist in den Figuren dargestellt und wird im Weiteren näher erläutert.
Es zeigen
Fig. 1 ein Blockdiagramm, in dem die einzelnen Verfahrensschritte der Bestimmung der Bildbewegung gemäß einem Ausführungsbeispiel der Erfindung dargestellt sind;
Fig. 2 ein Ablaufdiagramm, in dem die Verfahrensschritte zur Ermittlung der Bildbewegung gemäß einem Ausführungsbeispiel der Erfindung im Detail dargestellt sind;
Fig. 3 eine Darstellung eines Abstandsbildes mit einer Referenz-Kontur, mit der Referenz-Kontur zugeordneten Höhenlinien, sowie mit einer Kontur;
Fig. 4a bis 4c Ergebnisse der erfindungsgemäßen konturbasierten Bewegungsbestimmung für unterschiedliche Szenen.
Gemäß dem Ausführungsbeispiel ist eine Digitalkamera an einem Fahrzeug installiert und nimmt in Fahrtrichtung des sich bewegenden Fahrzeuges einen Aufnahmebereich auf.
Es wird somit mittels der Digitalkamera eine Folge digitaler Bilder erzeugt, wobei jedes digitale Bild eine Vielzahl von Bildpunkten und den Bildpunkten zugeordneten Codierungsinformationen, gemäß diesem Ausführungsbeispiel den Bildpunkten zugeordnete Helligkeitswerte, aufweist.
Ein Helligkeitswert, der einem Bildpunkt, gekennzeichnet durch zwei Koordinaten x und y zu einem Zeitpunkt t identifizierten digitalen Bild zugeordnet ist, wird mit I(x, y, t) bezeichnet (vgl. Fig. 1).
Gemäß diesem Ausführungsbeispiel wird für jeweils ein digitales Bild, gemäß diesem Ausführungsbeispiel im Weiteren bezeichnet als erstes digitales Bild, mit den Helligkeitswerten I(x, y, t) eine Konturextraktion durchgeführt. Anders ausgedrückt werden für das erste Bild Konturen ermittelt (Block 101 in dem Blockdiagramm 100 in Fig. 1).
Dies erfolgt dadurch, dass Kanten in dem digitalen Bild detektiert werden. Kanten markieren Kontrastsprünge in dem Verlauf der Helligkeitsinformation in dem digitalen Bild.
Wie oben schon dargelegt, werden im Weiteren zusammenhängende Ketten von Konturpunkten, das heißt als zusammenhängende Kanten, das heißt als eine zusammenhängende Folge von örtlich unmittelbar benachbarten Konturpunkten als Konturen bezeichnet.
Gemäß diesem Ausführungsbeispiel der Erfindung wird zur Konturextraktion das in [4], alternativ dazu das in [5] beschriebene Verfahren, durchgeführt.
Fig. 2 zeigt den Schritt der Konturextraktion 101 für ein digitales Bild 201 im Detail in einem Ablaufdiagramm 200.
Für das digitale Bild 201 wird gemäß dem in Fig. 2 dargestellten Ablaufdiagramm 200 eine Gradientenfilterung (Schritt 202) und anschließend eine gradientenbasierte Linienverdünnung (Schritt 203) durchgeführt.
In einem weiteren Schritt werden ermittelte Kanten-Bildpunkte e(x, y, t) von ermittelten Linien in dem digitalen Bild 201 miteinander verknüpft und es wird eine Kontur, im allgemeinen Fall eine Vielzahl von N Konturen in jedem digitalen Bild 201, ermittelt (Schritt 205).
Als Ergebnis der Konturextraktion 101 liegt somit gemäß diesem Ausführungsbeispiel der Erfindung eine Datenstruktur v N(t) vor, in der die N extrahierten Konturen in dem berücksichtigten digitalen Bild 201 enthalten und gespeichert sind, auf die im Folgenden direkt zugegriffen werden kann.
In einem weiteren Schritt erfolgt die Konturzuordnung (Schritt 102 in Fig. 1).
Im Rahmen der Konturzuordnung 102 wird für jeden ermittelten Konturpunkt einer Kontur v N(t) ein korrespondierender Punkt in einer Referenz-Kontur in einem zeitlich vorangegangenen digitalen Bild, das heißt ein Referenz-Kontur-Bildpunkt, ermittelt. Der Referenz-Kontur-Bildpunkt befindet sich auf einer Referenzkontur in dem zeitlich vorangegangenen Bild. v M(t - 1) bezeichnet somit die in dem vorangegangenen Zeitschritt ermittelte Konturstruktur.
Allgemein wird die Korrespondenz für jeden Kontur-Bildpunkt der Kontur über einen Verschiebungsvektor, auch Translationsvektor genannt, ausgedrückt.
Für den Translationsvektor soll gelten, dass mittels des jeweiligen Translationsvektors die Konturumgebung möglichst gut auf Referenz-Kontur-Bildpunkte aus dem vorangegangenen digitalen Bild abgebildet werden können.
Es wird die Annahme verwendet, dass die zeitliche Veränderung von Konturen näherungsweise durch eine Translation beschrieben wird. Die Verschiebung ist dann optimal, wenn die Summe der minimalen Abstände zwischen Punkten der betrachteten Konturumgebung und Referenz-Kontur-Bildpunkten der Referenz-Kontur v M(t - 1) minimal wird.
Zur Bestimmung der minimalen Abstände wird erfindungsgemäß eine morphologische Operation, gemäß diesem Ausführungsbeispiel die in [6] beschriebene Distanztransformation, eingesetzt.
Fig. 3 zeigt zur weiteren Veranschaulichung das Prinzip der Zuordnung für zwei zeitlich aufeinander folgende Konturen, das heißt für Konturen aus zwei zeitlich aufeinander folgenden Bildern, für die jeweils eine Bewegungsbestimmung durchgeführt wird. Fig. 3 zeigt ein Abstandsbild 300 mit einer Referenz-Kontur 301, sowie mit Höhenlinien 302, die mittels der in [6] beschriebenen Distanztransformation gebildet werden. Unter Höhenlinien werden im Weiteren diejenigen Linien in dem Abstandsbild verstanden, die einen konstanten minimalen Abstand zu der Referenz-Kontur, d. h. zu einem Referenz-Kontur-Bildpunkt auf der Referenz-Kontur aufweisen.
Die Distanztransformation wird für jede Referenz-Kontur, die im Rahmen der Bewegungsermittlung berücksichtigt wird, durchgeführt. Ergebnis der im Weiteren im Detail erläuterten Distanztransformation angewendet auf die Referenz-Kontur v'(l, t - 1) ist in Fig. 3 mittels der Höhenlinien 302 verdeutlicht.
Die Umgebung v i(k, t) eines Bildpunktes in dem mittels der Distanztransformation gebildeten und in Fig. 3 dargestellten Minimal-Abstandsbild 300 wird zur Bewegungsermittlung bezüglich einer Kontur 303, für welche die Bewegung ermittelt werden soll, verschoben.
Für jede dieser Verschiebungen kann an jedem Konturpunkt der minimale Abstand zu der Referenz-Kontur v'(l, t - 1) anhand der Höhenlinie 302 angegeben werden.
Die minimale Summe dieser ermittelten Abstände führt dann auf die optimale Verschiebung, näherungsweise auf die optimale Translation, in Fig. 3 symbolisiert dargestellt mittels Translationsvektoren 304.
Dieses Prinzip der Konturzuordnung hat gegenüber einem direkten Vergleich von Konturen den Vorteil, dass Fehler bei der Konturdetektion einen geringeren Einfluss auf die Qualität der Bewegungsermittlung besitzen. Dies ist insbesondere dann von Bedeutung, wenn Konturen unvollständig oder in ihrem Verlauf unterbrochen sind.
Im Weiteren wird die Konturzuordnung 102 im Detail näher erläutert. In dem in Fig. 2 dargestellten zweiten Block, das heißt der in dem Block der Konturzuordnung 102, wird die eigentliche Bewegung entlang der Konturen berechnet.
Um eine effiziente Verarbeitung der Konturen im Rahmen der digitalen Bildverarbeitung zu ermöglichen, wird im Weiteren die Bildrepräsentation in eine Datenstruktur überführt, die den direkten Zugriff auf Konturen als eine Kette von Konturpunkten ermöglicht.
Zur Konturrepräsentation wird somit jede Kontur mit v n(t) bezeichnet. Der Konturindex n ist eine natürliche Zahl im Bereich von zwischen 1 und N, wobei mit N die Anzahl der in der Datenstruktur enthaltenen Konturen bezeichnet wird.
Nach der Generierung der Konturstruktur folgt in einem weiteren Schritt die zeitliche Zuordnung der Konturen.
Im Rahmen der Konturzuordnung wird für jeden Konturpunkt eine optimale Zuordnung bestimmt.
Werden zwei zeitlich aufeinander folgende Konturen, das heißt eine Kontur in einem ersten Bild v(k, t) und eine Referenz- Kontur v(l, t - 1) betrachtet, so wird das oben beschriebene Optimierungskriterium gemäß folgender Energieminimierung formuliert:
wobei mit
  • - i ein Translationsvektor-Index zur eindeutigen Identifizierung eines Translationsvektors,
  • T i ein i-ter Translationsvektor,
  • v i(k) ein Kontur-Bildpunkt in dem ersten Bild,
  • - k ein Kontur-Bildpunktindex zur eindeutigen Identifizierung eines Kontur-Bildpunkts in dem ersten Bild,
  • v'(l) ein Referenz-Kontur-Bildpunkt in dem zweiten Bild,
  • - l ein Referenz-Kontur-Bildpunktindex zur eindeutigen Identifizierung eines Referenz-Kontur-Bildpunkts auf der Referenz-Kontur in dem zweiten Bild,
  • - ki0 ein erster Referenz-Kontur-Bildpunkt,
  • - kit ein zweiter Referenz-Kontur-Bildpunkt, und
  • - E(T i) ein minimaler Energiewert,
bezeichnet wird.
Gemäß Vorschrift (1) wird die Differenzfläche zwischen zwei Konturen, das heißt zwischen der Kontur v(k, t) und der Referenz-Kontur v(l, t - 1) mittels der Summe der minimalen Abstände approximiert.
Die optimale Translation ergibt sich aus der minimalen Energie E(T i) zu:
wobei mit i eine optimale Translation bezeichnet wird.
Mit Hilfe der Distanztransformation, wie Sie im Weiteren näher erläutert wird, erfolgt die Bestimmung der minimalen Abstände sehr effizient.
Mittels der Distanztransformation, welche auf die Referenz- Kontur v(l, t - 1) gemäß dem in [6] beschriebenen Verfahren angewendet wird, wird ein Minimal-Abstandsbild 300 mit Minimal-Abstandswerten D(l)(x, y, t - 1) erzeugt, wie es in Fig. 3 beispielhaft dargestellt ist.
Jeder Bildwert, d. h. jeder Minimal-Abstandswert D(l)(x, y, t - 1) in dem Abstandsbild 300 enthält die Information des minimalen Abstandes, das heißt anders ausgedrückt den minimalen Abstandswert D(l)(x, y, t - 1) eines Bildpunkts in dem Minimal-Anstandsbild 300 zu einem Referenz- Kontur-Bildpunkt der Referenz-Kontur v(l, t - 1).
Die Distanztransformation wird gemäß folgender Vorschrift auf jeden Referenz-Konturpunkt und den entsprechenden Bildpunkt in dem Abstandsbild D(l)(x, y, t - 1) 300 angewendet gemäß:
D(l)(x, y, t - 1) = ∥[x, y]T - v'(l, t - 1)∥, (3)
wobei mit
  • - D(l)(x, y, t - 1) ein Minimal-Abstandswert zwischen dem Bildpunkt [x, y] und einem Referenz-Kontur-Bildpunkts auf der Referenz-Kontur in dem zweiten Bild,
  • - [x, y] ein Bildpunkt in einem Distanztransformations- Bild,
  • - t ein Zeitpunkt,
  • v'(l) ein Referenz-Kontur-Bildpunkt in dem zweiten Bild, und
  • - l ein Referenz-Kontur-Bildpunktindex zur eindeutigen Identifizierung eines Referenz-Kontur-Bildpunkts auf der Referenz-Kontur in dem zweiten Bild,
bezeichnet wird.
Damit lässt sich Vorschrift (1) umwandeln in folgende Vorschrift:
Dies bedeutet anschaulich, dass die Energien bestimmt werden, indem die Kontur, für welche die Bestimmung unter Berücksichtigung bezüglich der Referenz-Kontur bestimmt werden soll, über das Abstandsbild 300, das heißt über die Funktion, das heißt die minimalen Abstandswerte D(l)(x, y, t - 1) n dem Abstandsbild 300 verschoben wird und für jede Verschiebung, das heißt Translation, die Abstandswerte (Distanzwerte) aus dem Abstandsbild gelesen, das heißt ermittelt und aufsummiert werden.
In Vorschrift (4) wird die minimale Distanz somit nur einmal bei der Erzeugung des Abstandsbildes 300 berechnet.
Dies ist gegenüber der für jeden Bildpunkt zu ermittelnden Approximation gemäß Vorschrift (1) eine erhebliche Vereinfachung, da in (1) die Ermittlung der Distanz für jede Translation erforderlich ist.
Um die Bewegungsinformation entlang der jeweiligen Kontur bzw. der Kontur-Bildpunkte zeitlich zu stabilisieren, wird eine eindeutige Zuordnung von Vorgängerkontur und Nachfolgerkontur ermittelt.
Dies erfolgt erfindungsgemäß durch eine Modifikation von Vorschrift (4), so dass sich zur Ermittlung der jeweiligen Energie erfindungsgemäß folgende Vorschrift ergibt:
Anschaulich bedeutet Vorschrift (5), dass Energien nur bestimmt werden, wenn der Translationsvektor T i auf einen Konturpunkt in dem Vorgängerbild, das heißt auf einem Referenz-Kontur-Bildpunkt zeigt. Sonst wird der jeweilige Energiewert auf einen maximalen, vorgegebenen Wert (MAX_VALUE) gesetzt.
Nachdem für jeden Kontur-Bildpunkt ein Referenz-Kontur- Bildpunkt und damit ein entsprechender optimaler Translationsvektor ermittelt worden ist (Schritt 206), wird für die einzelnen Kontur-Bildpunkte eine neue, stabilisierte Bewegung errechnet (Schritt 207).
Dies ist möglich, indem die Translationswerte aus der Vergangenheit, das heißt aus vorangegangenen Bewegungsermittlungen gespeichert werden.
Mit T L|i(t) werden die L-vergangenen Translationen bezeichnet, die über die Vorgänger-Referenz-Kontur-Bildpunkte bekannt sind.
Die neue Bewegung wird dann beispielsweise mittels einer Mittelwertbildung bestimmt. Anders ausgedrückt erfolgt eine zeitliche Rückkopplung bei der Bestimmung der jeweiligen Translationen.
Zur Mittelwertbildung werden folgende Verfahrensschritte durchgeführt. In einem ersten Schritt wird die mittlere Verschiebung
berechnet.
Ferner werden die neuen vergangenen Translationsschätzungen, das heißt die neuen Translationsvektoren gemäß folgender Vorschrift abgespeichert:
Alternativ kann die Bewegung dadurch ermittelt werden, dass die ermittelten Translationsvektoren rekursiv gemäß folgender Vorschrift gefiltert werden:
m i(t) = m i(t - 1) + α.(m i(t - 1) - i). (8)
Die rekursive Filterung hat den Vorteil, dass sie weniger Speicherplatz benötigt.
Als letzter Verarbeitungsschritt wird gemäß dieser Ausgestaltung der Erfindung die Kontur in das Abstandsbild überführt, so dass der Wert an jedem Bildpunkt in dem Abstandsbild dem minimalen Abstand zu einem Kontur-Bildpunkt entspricht gemäß folgender Vorschrift:
D(l)(x, y, t - 1) = ∥[x, y]T - v(l, t - 1)∥. (8)
Alternativ kann die Distanztransformation gemäß den in [7] und [8] beschriebenen Verfahren implementiert sein.
Im Weiteren wird das in [6] beschriebene Verfahren kurz dargestellt.
Die Darstellung dient insbesondere dazu, den numerischen Aufwand bei der Implementierung des oben beschriebenen Verfahrens darzulegen.
Zur Bestimmung der Distanztransformation müssen mitunter Abstandswerte zwischen den jeweiligen Bildpunkten betrachtet werden, die auf dem Bildraster, das heißt in dem jeweiligen betrachteten digitalen Bild relativ weit voneinander örtlich entfernt sind.
Die Berechnung der Distanzwerte ist damit eine relativ numerisch aufwendige Operation.
Anstatt für einen Bildpunkte alle möglichen Abstandswerte zu Kontur-Bildpunkten zu bestimmen und in Relation zueinander zu setzen, werden bei der Distanztransformation ausschließlich lokale Abstände betrachtet.
Auf diese Weise kann der wahre euklidische Abstand jedoch nur approximiert werden. Die in [6] beschriebene parallele Variante der Distanztransformation besitzt folgende formale Struktur.
Zunächst wird iterativ eine lokale Maske über das Abstandsbild geschoben. An der Position des Maskenzentrums wird der neue Distanzwert in dem Abstandsbild zu der Referenz-Kontur gemäß folgender Vorschrift berechnet:
Dabei wird mit n jeweils ein Iterationsschritt eindeutig identifiziert. Mit D0(x, y) wird das invertierte Abstandsbild bezeichnet.
Auf diese Weise wird erreicht, dass initial an den Konturbildpunkten der Bildwert, der dem Abstandswert entspricht, mit dem Wert "0" vorliegt und alle restlichen Bildwerte einen konstanten Wert größer als die zu erwartende maximale Distanz aufweisen.
Mit mask(u, v) wird die lokale Maske bezeichnet. Die Maskenwerte entsprechen den lokalen Abstandswerten der Bildpunkte an den jeweiligen Maskenpositionen zum Maskenzentrum.
Gemäß [6] werden für verschiedene Maskengrößen die optimalen lokalen Abstandswerte bestimmt, so dass die resultierenden Abstandswerte möglichst wenig von der wahren euklidischen Distanz abweichen.
Dabei gilt prinzipiell, dass je größer die Maske ist, desto geringer ist die Abweichung, das heißt der numerische Fehler.
Abhängig von der Distanztransformation, das heißt von dem Abstandsbild, erfolgt in einem letzten Schritt die zeitlich rückgekoppelte Bewegungsbestimmung 103, die das Ergebnis der Konturzuordnung über mehrere zeitlich aufeinander folgende Bilder verwendet. Im Rahmen der Ermittlung der Bildbewegung wird die Konturzuordnung 102 genutzt, um die Bewegung der Konturen zeitlich zu stabilisieren. Als Ergebnis dieses Schrittes wird zu jedem Kontur-Bildpunkt ein Bewegungsvektor angegeben.
Mit M N(k, t) wird die Menge aller Bewegungsvektoren an jedem Kontur-Bildpunkt zu einem Zeitpunkt t bezeichnet.
In den Fig. 4a bis Fig. 4c werden Ergebnisse der oben dargestellten Implementierung der Bewegungsermittlung gezeigt. Die gesamte Verarbeitungszeit auf einem Pentium III mit 650 MHz beträgt für eine Bildgröße von 128 Zeilen zu 128 Spalten ca. 20 ms.
Die genaue Verarbeitungszeit hängt jedoch mit der Anzahl der zu bearbeitenden Kontur-Bildpunkte zusammen.
Im Weiteren werden einige Alternativen zu dem oben dargelegten Ausführungsbeispiel erläutert.
Es ist anzumerken, dass die Objektkonturen vom Eintritt eines Objektes in einen überwachten, das heißt von einer Digitalkamera aufgenommenen Aufnahmebereich bis zu seinem Verlassen hin durchgängig verfolgt werden kann. Damit können beispielsweise für eine automatische Erfassung von Verkehrsdaten direkt die Verweilzeiten von Fahrzeugen in dem Aufnahmebereich bestimmt werden und beispielsweise in der Stauprognose oder auch im Rahmen der Kollisionsvermeidung von Fahrzeugen berücksichtigt werden.
Die Konturzuordnung, wie sie oben beschrieben wurde, beruht zunächst nur auf dem Auswerten der Abstandswerte und damit auf der Form der Kontur selbst.
Bei vielen technischen Objekten, beispielsweise bei Fahrbahnmarkierungen oder Verkehrsschildern treten jedoch häufig parallele Konturverläufe auf. Die Form allein kann somit nicht immer ein eindeutiges Kriterium darstellen. Somit wird alternativ der Konturform eine zusätzliche Information beigefügt, nämlich die Konturrichtung, mittels der angegeben wird, in welcher Richtung der Kontrastsprung in der jeweiligen Kontur erfolgt.
Die Konturrichtung wird automatisch mit der Konturgenerierung bestimmt. Bei einer weißen Fahrbahnmarkierung erfolgt ein Grauwertwechsel von dunkel zu hell und wieder zurück zu dunkel. Der linke und rechte Rand der jeweiligen Kontur verlaufen dann parallel, aber ihre Konturrichtung ist entgegengesetzt.
Um die Konturrichtung als zusätzliches Merkmal zu nutzen, wird wie folgt vorgegangen:
  • - Ähnlich der Distanztransformation wird die Richtungsinformation von v Mt - 1 dilatiert.
  • - Bei der Summation der Abstandswerte werden die Fälle in einer Kostenfunktion bestraft, das heißt negativ bewertet, bei der die Richtung des aktuellen Konturpunkts mit der dilatierten Richtung nicht übereinstimmt.
Anschaulich wird durch die Erfindung ein sehr vorteilhafter Kompromiss zwischen Datenreduktion und Erhaltung der wesentlichen Bildinformation in einer Folge digitaler Bilder angegeben.
Wie in [9] beschrieben, ist es sogar möglich, aus einer Konturrepräsentation das gesamte digitale Bild wieder zu rekonstruieren.
Anschaulich stellt die Erfindung aufgrund der Verwendung von Konturen zur Bewegungsermittlung einen korrelationsbasierten Ansatz dar, der insbesondere hinsichtlich Segmentierungsfehlern wesentlich robuster ist als die bekannten lediglich bildpunktbasierten Verfahren.
Außerdem ist aufgrund mittels der Distanztransformation eine sehr effiziente Implementierung der Erfindung angegeben.
In diesem Dokument sind folgende Veröffentlichungen zitiert:
[1] S. M. Smith, ASSET-2: Real-Time Motion Segmentation and Shape Tracking, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 17, No. 8, Seite 814-820, 1995;
[2] W. Enkelmann et al, Obstacle Detection by Real-Time Optical Flow Evaluation, Intelligent Vehicles 1994, Seite 97-102, 1994;
[3] D. Beymer, P. McLauchlan et al, A Real-Time Computer Vision System for Measuring Traffic Parameters, CVPR '97, 1997;
[4] J. Canny, A Computational Approach to Edge Detection, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 6, 1998;
[5] R. Nevatia, K. R. Babu, Linear Feature Extraction and Description, Computer Graphics and Image Processing, Seite 257-269, 1980;
[6] G. Borgefors, Distance Transformation in Digital Images, Computer Vision, Graphics and Image Processing, Vol. 34, Seite 344-371, 1986;
[7] P. E. Danielsson, Euclidean Distance Mapping, Computer Graphics and Image Processing, Vol. 14, Seite 227-248, 1980;
[8] P. Soille, Morphologische Bildverarbeitung, Springer- Verlag, 1998;
[9] Y. Itoh, An Edge-Oriented Progressive Image Coding, IEEE Transactions on Circuits and Systems for Video Technology, Vol. 6, 1996.
Bezugszeichenliste
100
Blockdiagramm
101
Konturextraktion
102
Konturzuordnung
103
Bewegungsbestimmung
200
Ablaufdiagramm
201
Digitales Bild
202
Gradientenausdünnung
203
Gradientenfilterung
204
Eckpunkt-Verknüpfung
205
Bilden der Konturstruktur
206
Bewegungsermittlung
207
Distanztransformation
300
Abstandsbild
301
Referenz-Kontur
302
Höhenlinien
303
Referenz-Kontur
304
Translationsvektor

Claims (9)

1. Verfahren zur Ermittlung der Bewegung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern mit Bildpunkten, denen Codierungsinformation zugeordnet ist,
bei dem unter Verwendung der Codierungsinformation in einem ersten Bild mindestens eine Kontur mit einer Vielzahl von auf der Kontur sich befindenden Kontur- Bildpunkten ermittelt wird, und
bei dem unter Verwendung der auf der ermittelten Kontur des ersten Bildes sich befindenden Kontur-Bildpunkte die Bewegungsermittlung durchgeführt wird bezüglich einer in einem zweiten Bild enthaltenen Referenz-Kontur mit Referenz-Kontur-Bildpunkten.
2. Verfahren nach Anspruch 1, bei dem unter Verwendung der Codierungsinformation in dem zweiten Bild mindestens eine Referenz-Kontur mit einer Vielzahl von auf der Kontur sich befindenden Referenz-Kontur- Bildpunkten ermittelt wird.
3. Verfahren nach Anspruch 1 oder 2,
bei dem im Rahmen der Bewegungsermittlung Minimal- Abstandswerte zwischen Bildpunkten eines Abstandsbildes und der Referenz-Kontur mittels einer morphologischen Operation bestimmt werden, und
bei dem die Minimal-Abstandswerte gespeichert werden.
4. Verfahren nach Anspruch 3, bei dem als morphologische Operation eine Distanztransformation verwendet wird.
5. Verfahren nach Anspruch 3 oder 4, bei dem ein Minimal-Abstandswert D(l)(x, y, t - 1) für einen Kontur-Bildpunkt v'(l, t) zu einem Zeitpunk t zu einem Bildpunkt (x, y) gemäß folgender Vorschrift ermittelt wird:
D(l)(x, y, t) = ∥[x, y]T - v'(l, t)∥,
wobei mit
  • - D(l)(x, y, t) ein Minimal-Abstandswert zwischen dem Bildpunkt [x, y] und einem Referenz-Kontur-Bildpunkts auf der Referenz-Kontur in dem zweiten Bild,
  • - [x, y] ein Bildpunkt in dem Abstandsbild,
  • v'(l, t) ein Referenz-Kontur-Bildpunkt in dem zweiten Bild,
  • - l ein Referenz-Kontur-Bildpunktindex zur eindeutigen Identifizierung eines Referenz-Kontur-Bildpunkts auf der Referenz-Kontur in dem zweiten Bild,
  • - t ein Zeitpunkt, zu dem die Ermittlung durchgeführt wird,
bezeichnet wird.
6. Verfahren nach einem der Ansprüche 1 bis 5, bei dem die Kontrastrichtung, in welcher die Kontrastveränderung entlang einer Kontur verläuft, bei der Bewegungsermittlung berücksichtigt wird.
7. Vorrichtung zur Ermittlung der Bewegung in mindestens zweit zeitlich aufeinander folgenden digitalen Bilder mit Bildpunkten, denen Codierungsinformation zugeordnet ist, mit einem Prozessor, der derart eingerichtet ist, dass folgende Verfahrensschritte durchführbar sind:
  • - Unter Verwendung der Codierungsinformation wird in einem ersten Bild mindestens eine Kontur mit einer Vielzahl von auf der Kontur sich befindenden Kontur-Bildpunkten ermittelt und
  • - unter Verwendung der auf der ermittelten Kontur des ersten Bildes sich befindenden Kontur-Bildpunkte wird eine Bewegung durchgeführt bezüglich einer in einem zweiten Bild enthaltenen Referenz-Kontur mit Referenz- Kontur-Bildpunkten.
8. Computerprogramm-Element, das, nachdem es in einen Speicher des Computers geladen worden ist und von einem Prozessor des Computers ausgeführt wird, folgende Schritte aufweist zur Ermittlung der Bewegung in mindestens zweit zeitlich aufeinander folgenden digitalen Bilder mit Bildpunkten, denen Codierungsinformation zugeordnet ist:
unter Verwendung der Codierungsinformation wird in einem ersten Bild mindestens eine Kontur mit einer Vielzahl von auf der Kontur sich befindenden Kontur-Bildpunkten ermittelt und
unter Verwendung der auf der ermittelten Kontur des ersten Bildes sich befindenden Kontur-Bildpunkte wird eine Bewegung durchgeführt bezüglich einer in einem zweiten Bild enthaltenen Referenz-Kontur mit Referenz- Kontur-Bildpunkten.
9. Computerlesbares Speichermedium, auf dem ein Programm gespeichert ist, das es einem Computer ermöglicht, nachdem es in einen Speicher des Computers geladen worden ist, folgende Schritte durchzuführen zur Ermittlung der Bewegung in mindestens zweit zeitlich aufeinander folgenden digitalen Bilder mit Bildpunkten, denen Codierungsinformation zugeordnet ist:
unter Verwendung der Codierungsinformation wird in einem ersten Bild mindestens eine Kontur mit einer Vielzahl von auf der Kontur sich befindenden Kontur-Bildpunkten ermittelt und
unter Verwendung der auf der ermittelten Kontur des ersten Bildes sich befindenden Kontur-Bildpunkte wird eine Bewegung durchgeführt bezüglich einer in einem zweiten Bild enthaltenen Referenz-Kontur mit Referenz- Kontur-Bildpunkten.
DE10123365A 2001-05-14 2001-05-14 Verfahren und Vorrichtung zum Ermitteln von Bewegung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern, Computerlesbares Speichermedium und Computerprogramm-Element Ceased DE10123365A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE10123365A DE10123365A1 (de) 2001-05-14 2001-05-14 Verfahren und Vorrichtung zum Ermitteln von Bewegung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern, Computerlesbares Speichermedium und Computerprogramm-Element
US10/476,690 US20050008073A1 (en) 2001-05-14 2002-05-02 Method and device for determining movement in at least two successive digital images, computer readable storage medium and computer program
EP02740306A EP1396153A2 (de) 2001-05-14 2002-05-02 Verfahren und vorrichtung zum ermitteln von bewegung in zeitlich aufeinander folgenden digitalen bildern
PCT/DE2002/001585 WO2002093931A2 (de) 2001-05-14 2002-05-02 Verfahren und vorrichtung zum ermitteln von bewegung in zeitlich aufeinander folgenden digitalen bildern

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10123365A DE10123365A1 (de) 2001-05-14 2001-05-14 Verfahren und Vorrichtung zum Ermitteln von Bewegung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern, Computerlesbares Speichermedium und Computerprogramm-Element

Publications (1)

Publication Number Publication Date
DE10123365A1 true DE10123365A1 (de) 2002-11-28

Family

ID=7684709

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10123365A Ceased DE10123365A1 (de) 2001-05-14 2001-05-14 Verfahren und Vorrichtung zum Ermitteln von Bewegung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern, Computerlesbares Speichermedium und Computerprogramm-Element

Country Status (4)

Country Link
US (1) US20050008073A1 (de)
EP (1) EP1396153A2 (de)
DE (1) DE10123365A1 (de)
WO (1) WO2002093931A2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10258794A1 (de) * 2002-12-16 2004-06-24 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung und Verfolgung von Objekten

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7949101B2 (en) 2005-12-16 2011-05-24 Rapiscan Systems, Inc. X-ray scanners and X-ray sources therefor
US8837669B2 (en) 2003-04-25 2014-09-16 Rapiscan Systems, Inc. X-ray scanning system
US8243876B2 (en) 2003-04-25 2012-08-14 Rapiscan Systems, Inc. X-ray scanners
US8451974B2 (en) 2003-04-25 2013-05-28 Rapiscan Systems, Inc. X-ray tomographic inspection system for the identification of specific target items
US9113839B2 (en) 2003-04-25 2015-08-25 Rapiscon Systems, Inc. X-ray inspection system and method
GB0525593D0 (en) 2005-12-16 2006-01-25 Cxr Ltd X-ray tomography inspection systems
US8223919B2 (en) 2003-04-25 2012-07-17 Rapiscan Systems, Inc. X-ray tomographic inspection systems for the identification of specific target items
CN109584156B (zh) * 2018-10-18 2022-01-28 中国科学院自动化研究所 显微序列图像拼接方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6137913A (en) * 1998-08-05 2000-10-24 Electronics And Telecommunications Research Institute Method for segmenting moving picture objects by contour tracking

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5764283A (en) * 1995-12-29 1998-06-09 Lucent Technologies Inc. Method and apparatus for tracking moving objects in real time using contours of the objects and feature paths
KR19990008977A (ko) * 1997-07-05 1999-02-05 배순훈 윤곽선 부호화 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6137913A (en) * 1998-08-05 2000-10-24 Electronics And Telecommunications Research Institute Method for segmenting moving picture objects by contour tracking

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
BEYMER, D., McLAUCHLAN, P. et al.: "A Real-Time Computer Vision System for Measuring Traffic Parameters" CVPR'97, S. 495-501, 1997 *
BORGEFORS, G.: "Distance Transformations in *
CANNY, J.: "A Computational Approach to Edge Detection" IEEE PAMI (November 1986) Vol. PAMI-8, No. 6, p. 679-698 *
ENKELMANN, W. et al.: "Obstade Detection by Real- Time Optical Flow Evaluation" Intelligent Vehicles 1994, S. 97-102, 1994 *
NEVATIA, R., BABU, K.R.: "Linear Feature Extrac- tion and Description" Computer Graphics and Image Processing, S. 257-269, 1980 *
PARAGIOS, N., DERICHE, R.: "Geodesic active contours and level sets for the detection and tracking of moving objects" IEEE PAMI (March 2000)Vol. 22, No. 3, p. 266-280 *
SMITH, S.M., BRADY, J.M.: "ASSET-2: Real-Time Motion Segmentation and Shape Tracking" IEEE PAMI,Vol. 17, No. 8, S. 814-820, 1995 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10258794A1 (de) * 2002-12-16 2004-06-24 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung und Verfolgung von Objekten

Also Published As

Publication number Publication date
US20050008073A1 (en) 2005-01-13
WO2002093931A3 (de) 2003-05-08
EP1396153A2 (de) 2004-03-10
WO2002093931A2 (de) 2002-11-21

Similar Documents

Publication Publication Date Title
EP2467828B1 (de) Verfahren und system zur automatischen objekterkennung und anschliessenden objektverfolgung nach massgabe der objektform
DE69635980T2 (de) Verfahren und vorrichtung zur detektierung von objektbewegung in einer bilderfolge
DE112016007131B4 (de) Objektdetektionseinrichtung und Objektbestimmungsverfahren
EP1444654A2 (de) Quantitative analyse, visualisierung und bewegungskorrektur in dynamischen prozessen
DE102017220307B4 (de) Vorrichtung und Verfahren zum Erkennen von Verkehrszeichen
DE10033599A1 (de) Positionserfassungsvorrichtung
DE112019001044T5 (de) Verfahren und vorrichtung für maschinelles lernen, programm, gelerntes modell und diskriminiervorrichtung
DE102018217091A1 (de) Verfahren, künstliches neuronales Netz, Vorrichtung, Computerprogramm und maschinenlesbares Speichermedium zur semantischen Segmentierung von Bilddaten
DE102006050364A1 (de) Verfahren zum Detektieren und Verfolgen deformierbarer Objekte unter Verwendung eines adaptiven zeitvariierenden autoregressiven Modells
DE10123365A1 (de) Verfahren und Vorrichtung zum Ermitteln von Bewegung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern, Computerlesbares Speichermedium und Computerprogramm-Element
DE102021201124A1 (de) Trainieren von bildklassifizierernetzen
EP0414113B1 (de) Verfahren zur Bewegungskompensation in einem Bewegtbildcoder oder -decoder
DE102021128523A1 (de) Hierarchische bildzerlegung zur defekterkennung
DE102016223034A1 (de) Nutzung von farbe zur erkennung von nummernschildern
DE102004026782A1 (de) Verfahren und Vorrichtung zur rechnergestützten Bewegungsschätzung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern, computerlesbares Speichermedium und Computerprogramm-Element
EP3811336B1 (de) Verfahren zur bestimmung von zueinander korrespondierenden bildpunkten, soc zur durchführung des verfahrens, kamerasystem mit dem soc, steuergerät und fahrzeug
DE4314483A1 (de) Überwachungssystem
DE4413633A1 (de) Verfolgungsgerät
DE60310766T2 (de) Beleuchtungsunabhängige gesichtserkennung
WO2003025843A2 (de) Modellbasierte objektklassifikation und zielerkennung
DE102018100738A1 (de) Selektive Merkmalsextraktion
DE102017216854B4 (de) Verfahren und Vorrichtung zum Bewerten von Korrespondenzen von Bildern, Betriebsassistenzverfahren und Betriebsvorrichtung
DE60028884T2 (de) Videosignalverarbeitung
DE4406837A1 (de) Bildkorrekturvorrichtung und -verfahren für einen Camcorder
WO1992000569A1 (de) Verfahren zur segmentierung bewegter objekte durch hintergrundadaption mit kompensation der kamerabewegung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8131 Rejection