DE10123365A1 - Verfahren und Vorrichtung zum Ermitteln von Bewegung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern, Computerlesbares Speichermedium und Computerprogramm-Element - Google Patents
Verfahren und Vorrichtung zum Ermitteln von Bewegung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern, Computerlesbares Speichermedium und Computerprogramm-ElementInfo
- Publication number
- DE10123365A1 DE10123365A1 DE10123365A DE10123365A DE10123365A1 DE 10123365 A1 DE10123365 A1 DE 10123365A1 DE 10123365 A DE10123365 A DE 10123365A DE 10123365 A DE10123365 A DE 10123365A DE 10123365 A1 DE10123365 A1 DE 10123365A1
- Authority
- DE
- Germany
- Prior art keywords
- contour
- image
- movement
- determined
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/537—Motion estimation other than block-based
- H04N19/54—Motion estimation other than block-based using feature points or meshes
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Unter Verwendung der Codierungsinformation wird in einem ersten Bild mindestens eine Kontur mit einer Vielzahl von auf der Kontur sich befindenden Kontur-Bildpunkten ermittelt und unter Verwendung der Kontur-Bildpunkte wird eine Bewegungsermittlung durchgeführt bezüglich einer in einem zweiten Bild enthaltenen Referenz-Kontur mit Referenz-Kontur-Bildpunkten.
Description
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur
Ermittlung von Bewegung in mindestens zwei zeitlich
aufeinander folgenden digitalen Bildern, ein Computerlesbares
Speichermedium sowie ein Computerprogramm-Element.
Im Rahmen der digitalen Bildverarbeitung ist die Ermittlung
von Bewegung in zeitlich aufeinander folgenden Bildern,
üblicherweise auch als Bewegungsschätzung bezeichnet, eine
wesentliche Information zum Ermitteln des Inhalts von
digitalen Bildern. So wird beispielsweise auch im visuellen
System eines Menschen die Bestimmung der Bewegung von
wahrgenommenen Objekten als ein früher Verarbeitungsschritt
in der menschlichen Sinneswahrnehmung ausgeführt.
In der digitalen Bildverarbeitung ist jedoch die Bestimmung
der Bildbewegung ein sehr rechenintensiver und somit
kostenintensiver Prozess.
Insbesondere um eine Ermittlung der Bildbewegung in Echtzeit
durchführen zu können und damit die Anwendung von
Bildverarbeitungsverfahren in Echtzeitanwendungen verlässlich
gewährleisten zu können, müssen gemäß dem Stand der Technik
aufgrund der Komplexität der bekannten Verfahren sehr
kostenintensive Hardwareelemente eingesetzt werden,
beispielsweise spezielle Grafikprozessoren oder Grafikkarten
(vor allem auch Bildverarbeitungskarten). Alternativ ist es
bekannt, die Bestimmung der Bildbewegung lediglich anhand
einiger weniger Bildpunkte in dem digitalen Bild
durchzuführen, um somit die entsprechende Rechenzeit
einzusparen.
Auf den oben genannten Prinzipien beruhende Verfahren zur
Ermittlung der Bildbewegung in einer zeitlichen Folge
digitaler Bilder sind in [1], [2] und [3] beschrieben.
Der Einsatz kostenintensiver Hardware ist jedoch sehr
nachteilig und ferner nur in bestimmten Anwendungen überhaupt
möglich.
Ferner führt die Beschränkung auf einzelne Bildpunkte bei der
Ermittlung der Bildbewegung dazu, dass lediglich ein kleines
Feld von Bildpunkten mit den Bildpunkten zugeordneten
Codierungsinformationen bei der Bewegungsermittlung
berücksichtigt werden, wobei die einzelnen Bildpunkte
spärlich über das gesamte Bild verteilt sind.
Unter Codierungsinformation ist im weiteren eine
Helligkeitsinformation (Luminanzinformation) und/oder eine
Farbinformation (Chrominanzinformation) zu verstehen, die
jeweils einem oder mehreren Bildpunkten zugeordnet ist/sind.
Diese geringe berücksichtigte Informationsmenge macht jedoch
die anschließende Auswertung der Bildinformation schwierig
und fehlerbehaftet, beispielsweise wenn es darum geht, ein
Fahrzeug als ein zusammenhängendes Objekt anhand der
Bewegungsinformation in einer Folge digitaler Bilder zu
ermitteln und dessen Bewegung über mehrere digitale Bilder
hinweg zu beschreiben.
Üblicherweise werden die ausgewählten Bildpunkte, die im
Rahmen der Bewegungsermittlung in zeitlich aufeinander
folgenden digitalen Bildern berücksichtigt werden, über
Grauwertecken definiert, das heißt über Bildpunkte, die sich
in einem Eckbereich von sprunghaften Übergängen in den den
jeweiligen Bildpunkten zugeordneten Luminanzwerten befinden.
Diese Grauwertecken sind jedoch nicht notwendigerweise
objektspezifisch. Dies gilt vor allen an den Objektgrenzen,
da an den Objektgrenzen die Grauwertecken durch den
Grauwertverlauf von Hintergrund und Objekt bestimmt werden.
Da der Hintergrund jedoch nicht gleichförmig im Bild sein
muss, führt in diesem Fall die zeitliche Zuordnung der
Grauwertecken zu falschen Bewegungsinformationen.
In [4] und [5] sind Verfahren zur Ermittlung einer Kontur mit
Kontur-Bildpunkten in einem digitalen Bild mit Bildpunkten,
denen Codierungsinformation zugeordnet ist, beschrieben.
In [6] ist ferner eine Distanztransformation als
morphologische Operation zur Bestimmung minimaler Abstände
von Punkten einer betrachteten örtlichen Umgebung zu einer
Kontur mit Kontur-Bildpunkten bekannt. In [7] und [8] sind
zwei alternative Implementierungen der Distanztransformation
aus [6] beschrieben.
Weiterhin ist es aus [9] bekannt, dass es möglich ist,
lediglich aus einer Konturrepräsentation eines digitalen
Bildes das gesamte digitale Bild wieder zu rekonstruieren.
Der Erfindung liegt das Problem zugrunde, eine vereinfachte
und somit schnellere und kostengünstigere Ermittlung der
Bewegung in einer Folge zeitlich aufeinander folgender Bilder
anzugeben.
Das Problem wird durch das Verfahren und die Vorrichtung zur
Ermittlung der Bewegung in mindestes zwei zeitlich
aufeinander folgenden digitalen Bildern, das Computerlesbare
Speichermedium und das Computerprogramm-Element mit den
Merkmalen gemäß den unabhängigen Patentansprüchen gelöst.
Bei einem Verfahren zur Ermittlung der Bewegung in mindestens
zwei zeitlich aufeinander folgenden Bildern sind in den
digitalen Bildern Bildpunkte vorhanden, denen jeweils
Codierungsinformation zugeordnet ist. Unter Verwendung der
Codierungsinformationen wird in einem ersten Bild mindestens
eine Kontur mit einer Vielzahl von auf der Kontur sich
befindenden Kontur-Bildpunkten ermittelt. Unter Verwendung
der auf der ermittelten Kontur des ersten Bildes sich
befindenden Kontur-Bildpunkten wird eine Ermittlung der
Bewegung bezüglich einer in einem zweiten Bild enthaltenen
Referenz-Kontur mit Referenz-Kontur-Bildpunkten durchgeführt.
Eine Vorrichtung zur Ermittlung der Bewegung in mindestens
zwei zeitlich aufeinander folgenden digitalen Bildern weist
einen Prozessor auf, der derart eingerichtet ist, dass die
oben beschriebenen Verfahrensschritte durchführbar sind.
Auf einem computerlesbaren Speichermedium ist ein Programm
gespeichert, das es einem Computer ermöglicht, nachdem es in
einen Speicher des Computers geladen worden ist, die oben
beschriebenen Verfahrensschritte durchzuführen zur Ermittlung
der Bewegung in mindestens zwei zeitlich aufeinander
folgenden digitalen Bildern.
Ein Computerprogramm-Element weist die oben beschriebenen
Verfahrensschritte auf, nachdem es in einem Speicher des
Computer geladen worden ist und von dem Computer ausgeführt
wird zur Ermittlung der Bewegung in mindestens zwei zeitlich
aufeinander folgenden digitalen Bildern.
Anschaulich kann die Erfindung darin gesehen werden, dass die
Ermittlung der Bewegung anhand der ermittelten, das heißt aus
einem digitalen Bild extrahierten, Kontur in einem digitalen
Bild bestimmt wird bezüglich einer Referenzkontur in einem
zeitlich vorangegangenen oder zeitlich nachfolgenden Bild.
Im Weiteren wird unter einer Kontur eine zusammenhängende,
das heißt eine Folge von in einem Bild örtlich benachbarter
Kontur-Bildpunkten bezeichnet. Anders ausgedrückt sind
Bildpunkte zusammenhängend und bilden somit eine Kontur, wenn
sie auf dem Bildraster, das heißt in dem digitalen Bild,
unmittelbar benachbart zueinander angeordnet sind.
Die Verwendung der ermittelten Konturen und der sich darin
befindenden Kontur-Bildpunkte im Rahmen der
Bewegungsermittlung in einer Folge digitaler Bilder erlaubt
eine zeitliche Stabilisierung der ermittelten
Bewegungsinformation und außerdem auch die Ermittlung und
Erfassung selbst kleiner Bewegungen in der Folge zeitlich
aufeinander folgender digitaler Bilder. Dies wird
insbesondere dadurch ermöglicht, dass mittels der Ermittlung
der Konturen und der Berücksichtigung der Konturen in der
Bewegungsermittlung üblicherweise eine zeitliche Integration
über die im Weiteren erläuterte anschaulich definierte Fläche
durchgeführt wird, die durch die Verschiebung von Konturen in
zeitlich aufeinander folgenden digitalen Bildern zwischen den
beiden berücksichtigten Konturen gebildet wird.
Dies ist insbesondere vorteilhaft für die Bewegungsbestimmung
im Fernfeld einer Videosequenz, das heißt insbesondere im
Bildhintergrund einer Folge digitaler Bilder.
Aufgrund der Perspektive liegen Bewegungen im Fernfeld einer
Videosequenz, das heißt Bewegungen zwischen zwei aufeinander
folgenden digitalen Bildern, üblicherweise unterhalb der
Bildauflösung und können somit mit den üblicherweise
durchgeführten Verfahren häufig gar nicht erst ermittelt
werden.
Weiterhin führt die sehr gezielte Auswahl von im Rahmen der
Bewegungsermittlung berücksichtigten Bildpunkten, nämlich die
Berücksichtigung von zuvor in einem ersten Extraktionsschritt
ermittelten Kontur-Bildpunkten, dazu, dass eine Ermittlung
der Bewegung selbst in Echzeitanwendungen bei Einsatz
üblicher Personal Computer ohne zusätzliche aufwendige
Spezial-Hardware ermöglicht wird.
In diesem Zusammenhang ist anzumerken, dass Echtzeit kein
eindeutig definierter Leistungsbegriff ist. Im Weiteren wird
unter Echtzeit eine Verarbeitungszeit verstanden, die im
Wesentlich kleiner als 40 ms beträgt. Ein Zeitintervall von
40 ms entspricht dem Zeitversatz zweier digitaler
Einzelbilder einer analogen Videosequenz.
Bevorzugte Weiterbildungen der Erfindung ergeben sich aus den
abhängigen Ansprüchen.
Die im Weiteren beschriebenen Ausgestaltungen der Erfindung
gelten für das Verfahren, die Vorrichtung, das
Computerprogramm-Element als auch für das computerlesbare
Speichermedium.
Gemäß einer Ausgestaltung der Erfindung wird unter Verwendung
der Codierungsinformation in dem zweiten Bild mindestens eine
Referenzkontur mit einer Vielzahl von auf der Kontur sich
befindenden Referenz-Kontur-Bildpunkten ermittelt.
Die Bewegungsermittlung kann sowohl ausgehend von einem
zeitlich vorangegangenen Bild als auch von einem zeitlich
nachfolgenden Bild durchgeführt werden, das heißt es kann
sowohl eine Bewegungsprädiktion als auch eine
Bewegungsermittlung in zeitlich rückschauender Betrachtung
durchgeführt werden.
Anders ausgedrückt bedeutet dies, dass das zweite Bild als
Referenzbild mit der Referenz-Kontur das gegenüber dem ersten
Bild mit der extrahierten, bei der Bildbewegung
berücksichtigten Kontur, zeitlich vorangegangene oder auch
zeitlich nachfolgende Bild sein kann.
Bei der Ermittlung der Bildbewegung kann für die Referenz-
Kontur und die sich auf der Referenz-Kontur befindenden
Referenz-Kontur-Bildpunkten mittels einer morphologischen
Operation ein Minimal-Abstandsbild ermittelt werden, das
heißt anschaulich ein Feld von Werten, mit denen jeweils ein
Minimal-Abstand eines Bildpunktes in dem Minimal-Abstandsbild
zu einem Referenz-Kontur-Bildpunkt angegeben wird.
Als morphologische Operation kann eine Distanztransformation
eingesetzt werden, wobei es sich herausgestellt hat, dass
insbesondere die in [6] beschriebene Distanztransformation
sehr geeignet ist und zu sehr guten Ergebnissen führt.
Ein Minimal-Abstandswert für einen Referenz-Kontur-Bildpunkt
zu einem Zeitpunkt t zu einem Bildpunkt in einem Abstandsbild
wird gemäß einer Ausgestaltung der Erfindung gemäß folgender
Vorschrift ermittelt:
D(l)(x, y, t) = ∥[x, y]T - v'(l, t)∥,
wobei mit
- - D(l)(x, y, t) ein Minimal-Abstandswert zwischen dem Bildpunkt [x, y] und einem Referenz-Kontur-Bildpunkt auf der Referenz-Kontur in dem zweiten Bild,
- - [x, y] ein Bildpunkt in dem Abstandsbild,
- - v'(l, t) ein Referenz-Kontur-Bildpunkt in dem zweiten Bild,
- - l ein Referenz-Kontur-Bildpunktindex zur eindeutigen Identifizierung eines Referenz-Kontur-Bildpunkts auf der Referenz-Kontur in dem zweiten Bild,
- - t ein Zeitpunkt, zu dem die Ermittlung durchgeführt wird,
bezeichnet wird.
Gemäß einer weiteren Ausgestaltung der Erfindung ist es
vorteilhaft, zusätzlich die Konturrichtung, das heißt die
Richtung, in welcher die Kontrastveränderung entlang einer
Kontur verläuft, zu berücksichtigen.
Durch diese Ausgestaltung der Erfindung wird die
Verlässlichkeit der ermittelten Bewegung weiter erhöht.
Die Erfindung eignet sich insbesondere zum Einsatz im Bereich
der Erfassung von bewegten Objekten in einem Szenario, in dem
es gilt, eine Vielzahl von bewegten Objekten voneinander und
von nicht bewegten Objekten zu unterscheiden.
Ein sehr geeignetes Einsatzgebiet ist insbesondere die
Verkehrsüberwachung bzw. die Ermittlung der Bewegung in
Szenen, die von einer in einem fahrenden Fahrzeug
installierten digitalen Kamera aufgenommen werden.
Ein Ausführungsbeispiel der Erfindung ist in den Figuren
dargestellt und wird im Weiteren näher erläutert.
Es zeigen
Fig. 1 ein Blockdiagramm, in dem die einzelnen
Verfahrensschritte der Bestimmung der Bildbewegung
gemäß einem Ausführungsbeispiel der Erfindung
dargestellt sind;
Fig. 2 ein Ablaufdiagramm, in dem die Verfahrensschritte zur
Ermittlung der Bildbewegung gemäß einem
Ausführungsbeispiel der Erfindung im Detail
dargestellt sind;
Fig. 3 eine Darstellung eines Abstandsbildes mit einer
Referenz-Kontur, mit der Referenz-Kontur zugeordneten
Höhenlinien, sowie mit einer Kontur;
Fig. 4a bis 4c Ergebnisse der erfindungsgemäßen
konturbasierten Bewegungsbestimmung für
unterschiedliche Szenen.
Gemäß dem Ausführungsbeispiel ist eine Digitalkamera an einem
Fahrzeug installiert und nimmt in Fahrtrichtung des sich
bewegenden Fahrzeuges einen Aufnahmebereich auf.
Es wird somit mittels der Digitalkamera eine Folge digitaler
Bilder erzeugt, wobei jedes digitale Bild eine Vielzahl von
Bildpunkten und den Bildpunkten zugeordneten
Codierungsinformationen, gemäß diesem Ausführungsbeispiel den
Bildpunkten zugeordnete Helligkeitswerte, aufweist.
Ein Helligkeitswert, der einem Bildpunkt, gekennzeichnet
durch zwei Koordinaten x und y zu einem Zeitpunkt t
identifizierten digitalen Bild zugeordnet ist, wird mit
I(x, y, t) bezeichnet (vgl. Fig. 1).
Gemäß diesem Ausführungsbeispiel wird für jeweils ein
digitales Bild, gemäß diesem Ausführungsbeispiel im Weiteren
bezeichnet als erstes digitales Bild, mit den
Helligkeitswerten I(x, y, t) eine Konturextraktion
durchgeführt. Anders ausgedrückt werden für das erste Bild
Konturen ermittelt (Block 101 in dem Blockdiagramm 100 in
Fig. 1).
Dies erfolgt dadurch, dass Kanten in dem digitalen Bild
detektiert werden. Kanten markieren Kontrastsprünge in dem
Verlauf der Helligkeitsinformation in dem digitalen Bild.
Wie oben schon dargelegt, werden im Weiteren zusammenhängende
Ketten von Konturpunkten, das heißt als zusammenhängende
Kanten, das heißt als eine zusammenhängende Folge von örtlich
unmittelbar benachbarten Konturpunkten als Konturen
bezeichnet.
Gemäß diesem Ausführungsbeispiel der Erfindung wird zur
Konturextraktion das in [4], alternativ dazu das in [5]
beschriebene Verfahren, durchgeführt.
Fig. 2 zeigt den Schritt der Konturextraktion 101 für ein
digitales Bild 201 im Detail in einem Ablaufdiagramm 200.
Für das digitale Bild 201 wird gemäß dem in Fig. 2
dargestellten Ablaufdiagramm 200 eine Gradientenfilterung
(Schritt 202) und anschließend eine gradientenbasierte
Linienverdünnung (Schritt 203) durchgeführt.
In einem weiteren Schritt werden ermittelte Kanten-Bildpunkte
e(x, y, t) von ermittelten Linien in dem digitalen Bild 201
miteinander verknüpft und es wird eine Kontur, im allgemeinen
Fall eine Vielzahl von N Konturen in jedem digitalen Bild 201,
ermittelt (Schritt 205).
Als Ergebnis der Konturextraktion 101 liegt somit gemäß
diesem Ausführungsbeispiel der Erfindung eine Datenstruktur
v N(t) vor, in der die N extrahierten Konturen in dem
berücksichtigten digitalen Bild 201 enthalten und gespeichert
sind, auf die im Folgenden direkt zugegriffen werden kann.
In einem weiteren Schritt erfolgt die Konturzuordnung
(Schritt 102 in Fig. 1).
Im Rahmen der Konturzuordnung 102 wird für jeden ermittelten
Konturpunkt einer Kontur v N(t) ein korrespondierender Punkt
in einer Referenz-Kontur in einem zeitlich vorangegangenen
digitalen Bild, das heißt ein Referenz-Kontur-Bildpunkt,
ermittelt. Der Referenz-Kontur-Bildpunkt befindet sich auf
einer Referenzkontur in dem zeitlich vorangegangenen Bild.
v M(t - 1) bezeichnet somit die in dem vorangegangenen
Zeitschritt ermittelte Konturstruktur.
Allgemein wird die Korrespondenz für jeden Kontur-Bildpunkt
der Kontur über einen Verschiebungsvektor, auch
Translationsvektor genannt, ausgedrückt.
Für den Translationsvektor soll gelten, dass mittels des
jeweiligen Translationsvektors die Konturumgebung möglichst
gut auf Referenz-Kontur-Bildpunkte aus dem vorangegangenen
digitalen Bild abgebildet werden können.
Es wird die Annahme verwendet, dass die zeitliche Veränderung
von Konturen näherungsweise durch eine Translation
beschrieben wird. Die Verschiebung ist dann optimal, wenn die
Summe der minimalen Abstände zwischen Punkten der
betrachteten Konturumgebung und Referenz-Kontur-Bildpunkten
der Referenz-Kontur v M(t - 1) minimal wird.
Zur Bestimmung der minimalen Abstände wird erfindungsgemäß
eine morphologische Operation, gemäß diesem
Ausführungsbeispiel die in [6] beschriebene
Distanztransformation, eingesetzt.
Fig. 3 zeigt zur weiteren Veranschaulichung das Prinzip der
Zuordnung für zwei zeitlich aufeinander folgende Konturen,
das heißt für Konturen aus zwei zeitlich aufeinander
folgenden Bildern, für die jeweils eine Bewegungsbestimmung
durchgeführt wird. Fig. 3 zeigt ein Abstandsbild 300 mit einer
Referenz-Kontur 301, sowie mit Höhenlinien 302, die mittels
der in [6] beschriebenen Distanztransformation gebildet
werden. Unter Höhenlinien werden im Weiteren diejenigen
Linien in dem Abstandsbild verstanden, die einen konstanten
minimalen Abstand zu der Referenz-Kontur, d. h. zu einem
Referenz-Kontur-Bildpunkt auf der Referenz-Kontur aufweisen.
Die Distanztransformation wird für jede Referenz-Kontur, die
im Rahmen der Bewegungsermittlung berücksichtigt wird,
durchgeführt. Ergebnis der im Weiteren im Detail erläuterten
Distanztransformation angewendet auf die Referenz-Kontur
v'(l, t - 1) ist in Fig. 3 mittels der Höhenlinien 302
verdeutlicht.
Die Umgebung v i(k, t) eines Bildpunktes in dem mittels der
Distanztransformation gebildeten und in Fig. 3 dargestellten
Minimal-Abstandsbild 300 wird zur Bewegungsermittlung
bezüglich einer Kontur 303, für welche die Bewegung ermittelt
werden soll, verschoben.
Für jede dieser Verschiebungen kann an jedem Konturpunkt der
minimale Abstand zu der Referenz-Kontur v'(l, t - 1) anhand der
Höhenlinie 302 angegeben werden.
Die minimale Summe dieser ermittelten Abstände führt dann auf
die optimale Verschiebung, näherungsweise auf die optimale
Translation, in Fig. 3 symbolisiert dargestellt mittels
Translationsvektoren 304.
Dieses Prinzip der Konturzuordnung hat gegenüber einem
direkten Vergleich von Konturen den Vorteil, dass Fehler bei
der Konturdetektion einen geringeren Einfluss auf die
Qualität der Bewegungsermittlung besitzen. Dies ist
insbesondere dann von Bedeutung, wenn Konturen unvollständig
oder in ihrem Verlauf unterbrochen sind.
Im Weiteren wird die Konturzuordnung 102 im Detail näher
erläutert. In dem in Fig. 2 dargestellten zweiten Block, das
heißt der in dem Block der Konturzuordnung 102, wird die
eigentliche Bewegung entlang der Konturen berechnet.
Um eine effiziente Verarbeitung der Konturen im Rahmen der
digitalen Bildverarbeitung zu ermöglichen, wird im Weiteren
die Bildrepräsentation in eine Datenstruktur überführt, die
den direkten Zugriff auf Konturen als eine Kette von
Konturpunkten ermöglicht.
Zur Konturrepräsentation wird somit jede Kontur mit v n(t)
bezeichnet. Der Konturindex n ist eine natürliche Zahl im
Bereich von zwischen 1 und N, wobei mit N die Anzahl der in
der Datenstruktur enthaltenen Konturen bezeichnet wird.
Nach der Generierung der Konturstruktur folgt in einem
weiteren Schritt die zeitliche Zuordnung der Konturen.
Im Rahmen der Konturzuordnung wird für jeden Konturpunkt eine
optimale Zuordnung bestimmt.
Werden zwei zeitlich aufeinander folgende Konturen, das heißt
eine Kontur in einem ersten Bild v(k, t) und eine Referenz-
Kontur v(l, t - 1) betrachtet, so wird das oben beschriebene
Optimierungskriterium gemäß folgender Energieminimierung
formuliert:
wobei mit
- - i ein Translationsvektor-Index zur eindeutigen Identifizierung eines Translationsvektors,
- - T i ein i-ter Translationsvektor,
- - v i(k) ein Kontur-Bildpunkt in dem ersten Bild,
- - k ein Kontur-Bildpunktindex zur eindeutigen Identifizierung eines Kontur-Bildpunkts in dem ersten Bild,
- - v'(l) ein Referenz-Kontur-Bildpunkt in dem zweiten Bild,
- - l ein Referenz-Kontur-Bildpunktindex zur eindeutigen Identifizierung eines Referenz-Kontur-Bildpunkts auf der Referenz-Kontur in dem zweiten Bild,
- - ki0 ein erster Referenz-Kontur-Bildpunkt,
- - kit ein zweiter Referenz-Kontur-Bildpunkt, und
- - E(T i) ein minimaler Energiewert,
bezeichnet wird.
Gemäß Vorschrift (1) wird die Differenzfläche zwischen zwei
Konturen, das heißt zwischen der Kontur v(k, t) und der
Referenz-Kontur v(l, t - 1) mittels der Summe der minimalen
Abstände approximiert.
Die optimale Translation ergibt sich aus der minimalen
Energie E(T i) zu:
wobei mit i eine optimale Translation bezeichnet wird.
Mit Hilfe der Distanztransformation, wie Sie im Weiteren
näher erläutert wird, erfolgt die Bestimmung der minimalen
Abstände sehr effizient.
Mittels der Distanztransformation, welche auf die Referenz-
Kontur v(l, t - 1) gemäß dem in [6] beschriebenen Verfahren
angewendet wird, wird ein Minimal-Abstandsbild 300 mit
Minimal-Abstandswerten D(l)(x, y, t - 1) erzeugt, wie es in
Fig. 3 beispielhaft dargestellt ist.
Jeder Bildwert, d. h. jeder Minimal-Abstandswert
D(l)(x, y, t - 1) in dem Abstandsbild 300 enthält die
Information des minimalen Abstandes, das heißt anders
ausgedrückt den minimalen Abstandswert D(l)(x, y, t - 1) eines
Bildpunkts in dem Minimal-Anstandsbild 300 zu einem Referenz-
Kontur-Bildpunkt der Referenz-Kontur v(l, t - 1).
Die Distanztransformation wird gemäß folgender Vorschrift auf
jeden Referenz-Konturpunkt und den entsprechenden Bildpunkt
in dem Abstandsbild D(l)(x, y, t - 1) 300 angewendet gemäß:
D(l)(x, y, t - 1) = ∥[x, y]T - v'(l, t - 1)∥, (3)
wobei mit
- - D(l)(x, y, t - 1) ein Minimal-Abstandswert zwischen dem Bildpunkt [x, y] und einem Referenz-Kontur-Bildpunkts auf der Referenz-Kontur in dem zweiten Bild,
- - [x, y] ein Bildpunkt in einem Distanztransformations- Bild,
- - t ein Zeitpunkt,
- - v'(l) ein Referenz-Kontur-Bildpunkt in dem zweiten Bild, und
- - l ein Referenz-Kontur-Bildpunktindex zur eindeutigen Identifizierung eines Referenz-Kontur-Bildpunkts auf der Referenz-Kontur in dem zweiten Bild,
bezeichnet wird.
Damit lässt sich Vorschrift (1) umwandeln in folgende
Vorschrift:
Dies bedeutet anschaulich, dass die Energien bestimmt werden,
indem die Kontur, für welche die Bestimmung unter
Berücksichtigung bezüglich der Referenz-Kontur bestimmt
werden soll, über das Abstandsbild 300, das heißt über die
Funktion, das heißt die minimalen Abstandswerte
D(l)(x, y, t - 1) n dem Abstandsbild 300 verschoben wird und für
jede Verschiebung, das heißt Translation, die Abstandswerte
(Distanzwerte) aus dem Abstandsbild gelesen, das heißt
ermittelt und aufsummiert werden.
In Vorschrift (4) wird die minimale Distanz somit nur einmal
bei der Erzeugung des Abstandsbildes 300 berechnet.
Dies ist gegenüber der für jeden Bildpunkt zu ermittelnden
Approximation gemäß Vorschrift (1) eine erhebliche
Vereinfachung, da in (1) die Ermittlung der Distanz für jede
Translation erforderlich ist.
Um die Bewegungsinformation entlang der jeweiligen Kontur
bzw. der Kontur-Bildpunkte zeitlich zu stabilisieren, wird
eine eindeutige Zuordnung von Vorgängerkontur und
Nachfolgerkontur ermittelt.
Dies erfolgt erfindungsgemäß durch eine Modifikation von
Vorschrift (4), so dass sich zur Ermittlung der jeweiligen
Energie erfindungsgemäß folgende Vorschrift ergibt:
Anschaulich bedeutet Vorschrift (5), dass Energien nur
bestimmt werden, wenn der Translationsvektor T i auf einen
Konturpunkt in dem Vorgängerbild, das heißt auf einem
Referenz-Kontur-Bildpunkt zeigt. Sonst wird der jeweilige
Energiewert auf einen maximalen, vorgegebenen Wert
(MAX_VALUE) gesetzt.
Nachdem für jeden Kontur-Bildpunkt ein Referenz-Kontur-
Bildpunkt und damit ein entsprechender optimaler
Translationsvektor ermittelt worden ist (Schritt 206), wird
für die einzelnen Kontur-Bildpunkte eine neue, stabilisierte
Bewegung errechnet (Schritt 207).
Dies ist möglich, indem die Translationswerte aus der
Vergangenheit, das heißt aus vorangegangenen
Bewegungsermittlungen gespeichert werden.
Mit T L|i(t) werden die L-vergangenen Translationen bezeichnet,
die über die Vorgänger-Referenz-Kontur-Bildpunkte bekannt
sind.
Die neue Bewegung wird dann beispielsweise mittels einer
Mittelwertbildung bestimmt. Anders ausgedrückt erfolgt eine
zeitliche Rückkopplung bei der Bestimmung der jeweiligen
Translationen.
Zur Mittelwertbildung werden folgende Verfahrensschritte
durchgeführt. In einem ersten Schritt wird die mittlere
Verschiebung
berechnet.
Ferner werden die neuen vergangenen Translationsschätzungen,
das heißt die neuen Translationsvektoren gemäß folgender
Vorschrift abgespeichert:
Alternativ kann die Bewegung dadurch ermittelt werden, dass
die ermittelten Translationsvektoren rekursiv gemäß folgender
Vorschrift gefiltert werden:
m i(t) = m i(t - 1) + α.(m i(t - 1) - i). (8)
Die rekursive Filterung hat den Vorteil, dass sie weniger
Speicherplatz benötigt.
Als letzter Verarbeitungsschritt wird gemäß dieser
Ausgestaltung der Erfindung die Kontur in das Abstandsbild
überführt, so dass der Wert an jedem Bildpunkt in dem
Abstandsbild dem minimalen Abstand zu einem Kontur-Bildpunkt
entspricht gemäß folgender Vorschrift:
D(l)(x, y, t - 1) = ∥[x, y]T - v(l, t - 1)∥. (8)
Alternativ kann die Distanztransformation gemäß den in [7]
und [8] beschriebenen Verfahren implementiert sein.
Im Weiteren wird das in [6] beschriebene Verfahren kurz
dargestellt.
Die Darstellung dient insbesondere dazu, den numerischen
Aufwand bei der Implementierung des oben beschriebenen
Verfahrens darzulegen.
Zur Bestimmung der Distanztransformation müssen mitunter
Abstandswerte zwischen den jeweiligen Bildpunkten betrachtet
werden, die auf dem Bildraster, das heißt in dem jeweiligen
betrachteten digitalen Bild relativ weit voneinander örtlich
entfernt sind.
Die Berechnung der Distanzwerte ist damit eine relativ
numerisch aufwendige Operation.
Anstatt für einen Bildpunkte alle möglichen Abstandswerte zu
Kontur-Bildpunkten zu bestimmen und in Relation zueinander zu
setzen, werden bei der Distanztransformation ausschließlich
lokale Abstände betrachtet.
Auf diese Weise kann der wahre euklidische Abstand jedoch nur
approximiert werden. Die in [6] beschriebene parallele
Variante der Distanztransformation besitzt folgende formale
Struktur.
Zunächst wird iterativ eine lokale Maske über das
Abstandsbild geschoben. An der Position des Maskenzentrums
wird der neue Distanzwert in dem Abstandsbild zu der
Referenz-Kontur gemäß folgender Vorschrift berechnet:
Dabei wird mit n jeweils ein Iterationsschritt eindeutig
identifiziert. Mit D0(x, y) wird das invertierte Abstandsbild
bezeichnet.
Auf diese Weise wird erreicht, dass initial an den
Konturbildpunkten der Bildwert, der dem Abstandswert
entspricht, mit dem Wert "0" vorliegt und alle restlichen
Bildwerte einen konstanten Wert größer als die zu erwartende
maximale Distanz aufweisen.
Mit mask(u, v) wird die lokale Maske bezeichnet. Die
Maskenwerte entsprechen den lokalen Abstandswerten der
Bildpunkte an den jeweiligen Maskenpositionen zum
Maskenzentrum.
Gemäß [6] werden für verschiedene Maskengrößen die optimalen
lokalen Abstandswerte bestimmt, so dass die resultierenden
Abstandswerte möglichst wenig von der wahren euklidischen
Distanz abweichen.
Dabei gilt prinzipiell, dass je größer die Maske ist, desto
geringer ist die Abweichung, das heißt der numerische Fehler.
Abhängig von der Distanztransformation, das heißt von dem
Abstandsbild, erfolgt in einem letzten Schritt die zeitlich
rückgekoppelte Bewegungsbestimmung 103, die das Ergebnis der
Konturzuordnung über mehrere zeitlich aufeinander folgende
Bilder verwendet. Im Rahmen der Ermittlung der Bildbewegung
wird die Konturzuordnung 102 genutzt, um die Bewegung der
Konturen zeitlich zu stabilisieren. Als Ergebnis dieses
Schrittes wird zu jedem Kontur-Bildpunkt ein Bewegungsvektor
angegeben.
Mit M N(k, t) wird die Menge aller Bewegungsvektoren an jedem
Kontur-Bildpunkt zu einem Zeitpunkt t bezeichnet.
In den Fig. 4a bis Fig. 4c werden Ergebnisse der oben
dargestellten Implementierung der Bewegungsermittlung
gezeigt. Die gesamte Verarbeitungszeit auf einem Pentium III
mit 650 MHz beträgt für eine Bildgröße von 128 Zeilen zu 128
Spalten ca. 20 ms.
Die genaue Verarbeitungszeit hängt jedoch mit der Anzahl der
zu bearbeitenden Kontur-Bildpunkte zusammen.
Im Weiteren werden einige Alternativen zu dem oben
dargelegten Ausführungsbeispiel erläutert.
Es ist anzumerken, dass die Objektkonturen vom Eintritt eines
Objektes in einen überwachten, das heißt von einer
Digitalkamera aufgenommenen Aufnahmebereich bis zu seinem
Verlassen hin durchgängig verfolgt werden kann. Damit können
beispielsweise für eine automatische Erfassung von
Verkehrsdaten direkt die Verweilzeiten von Fahrzeugen in dem
Aufnahmebereich bestimmt werden und beispielsweise in der
Stauprognose oder auch im Rahmen der Kollisionsvermeidung von
Fahrzeugen berücksichtigt werden.
Die Konturzuordnung, wie sie oben beschrieben wurde, beruht
zunächst nur auf dem Auswerten der Abstandswerte und damit
auf der Form der Kontur selbst.
Bei vielen technischen Objekten, beispielsweise bei
Fahrbahnmarkierungen oder Verkehrsschildern treten jedoch
häufig parallele Konturverläufe auf. Die Form allein kann
somit nicht immer ein eindeutiges Kriterium darstellen. Somit
wird alternativ der Konturform eine zusätzliche Information
beigefügt, nämlich die Konturrichtung, mittels der angegeben
wird, in welcher Richtung der Kontrastsprung in der
jeweiligen Kontur erfolgt.
Die Konturrichtung wird automatisch mit der Konturgenerierung
bestimmt. Bei einer weißen Fahrbahnmarkierung erfolgt ein
Grauwertwechsel von dunkel zu hell und wieder zurück zu
dunkel. Der linke und rechte Rand der jeweiligen Kontur
verlaufen dann parallel, aber ihre Konturrichtung ist
entgegengesetzt.
Um die Konturrichtung als zusätzliches Merkmal zu nutzen,
wird wie folgt vorgegangen:
- - Ähnlich der Distanztransformation wird die Richtungsinformation von v Mt - 1 dilatiert.
- - Bei der Summation der Abstandswerte werden die Fälle in einer Kostenfunktion bestraft, das heißt negativ bewertet, bei der die Richtung des aktuellen Konturpunkts mit der dilatierten Richtung nicht übereinstimmt.
Anschaulich wird durch die Erfindung ein sehr vorteilhafter
Kompromiss zwischen Datenreduktion und Erhaltung der
wesentlichen Bildinformation in einer Folge digitaler Bilder
angegeben.
Wie in [9] beschrieben, ist es sogar möglich, aus einer
Konturrepräsentation das gesamte digitale Bild wieder zu
rekonstruieren.
Anschaulich stellt die Erfindung aufgrund der Verwendung von
Konturen zur Bewegungsermittlung einen korrelationsbasierten
Ansatz dar, der insbesondere hinsichtlich
Segmentierungsfehlern wesentlich robuster ist als die
bekannten lediglich bildpunktbasierten Verfahren.
Außerdem ist aufgrund mittels der Distanztransformation eine
sehr effiziente Implementierung der Erfindung angegeben.
In diesem Dokument sind folgende Veröffentlichungen zitiert:
[1] S. M. Smith, ASSET-2: Real-Time Motion Segmentation and Shape Tracking, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 17, No. 8, Seite 814-820, 1995;
[2] W. Enkelmann et al, Obstacle Detection by Real-Time Optical Flow Evaluation, Intelligent Vehicles 1994, Seite 97-102, 1994;
[3] D. Beymer, P. McLauchlan et al, A Real-Time Computer Vision System for Measuring Traffic Parameters, CVPR '97, 1997;
[4] J. Canny, A Computational Approach to Edge Detection, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 6, 1998;
[5] R. Nevatia, K. R. Babu, Linear Feature Extraction and Description, Computer Graphics and Image Processing, Seite 257-269, 1980;
[6] G. Borgefors, Distance Transformation in Digital Images, Computer Vision, Graphics and Image Processing, Vol. 34, Seite 344-371, 1986;
[7] P. E. Danielsson, Euclidean Distance Mapping, Computer Graphics and Image Processing, Vol. 14, Seite 227-248, 1980;
[8] P. Soille, Morphologische Bildverarbeitung, Springer- Verlag, 1998;
[9] Y. Itoh, An Edge-Oriented Progressive Image Coding, IEEE Transactions on Circuits and Systems for Video Technology, Vol. 6, 1996.
[1] S. M. Smith, ASSET-2: Real-Time Motion Segmentation and Shape Tracking, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 17, No. 8, Seite 814-820, 1995;
[2] W. Enkelmann et al, Obstacle Detection by Real-Time Optical Flow Evaluation, Intelligent Vehicles 1994, Seite 97-102, 1994;
[3] D. Beymer, P. McLauchlan et al, A Real-Time Computer Vision System for Measuring Traffic Parameters, CVPR '97, 1997;
[4] J. Canny, A Computational Approach to Edge Detection, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 6, 1998;
[5] R. Nevatia, K. R. Babu, Linear Feature Extraction and Description, Computer Graphics and Image Processing, Seite 257-269, 1980;
[6] G. Borgefors, Distance Transformation in Digital Images, Computer Vision, Graphics and Image Processing, Vol. 34, Seite 344-371, 1986;
[7] P. E. Danielsson, Euclidean Distance Mapping, Computer Graphics and Image Processing, Vol. 14, Seite 227-248, 1980;
[8] P. Soille, Morphologische Bildverarbeitung, Springer- Verlag, 1998;
[9] Y. Itoh, An Edge-Oriented Progressive Image Coding, IEEE Transactions on Circuits and Systems for Video Technology, Vol. 6, 1996.
100
Blockdiagramm
101
Konturextraktion
102
Konturzuordnung
103
Bewegungsbestimmung
200
Ablaufdiagramm
201
Digitales Bild
202
Gradientenausdünnung
203
Gradientenfilterung
204
Eckpunkt-Verknüpfung
205
Bilden der Konturstruktur
206
Bewegungsermittlung
207
Distanztransformation
300
Abstandsbild
301
Referenz-Kontur
302
Höhenlinien
303
Referenz-Kontur
304
Translationsvektor
Claims (9)
1. Verfahren zur Ermittlung der Bewegung in mindestens zwei
zeitlich aufeinander folgenden digitalen Bildern mit
Bildpunkten, denen Codierungsinformation zugeordnet ist,
bei dem unter Verwendung der Codierungsinformation in einem ersten Bild mindestens eine Kontur mit einer Vielzahl von auf der Kontur sich befindenden Kontur- Bildpunkten ermittelt wird, und
bei dem unter Verwendung der auf der ermittelten Kontur des ersten Bildes sich befindenden Kontur-Bildpunkte die Bewegungsermittlung durchgeführt wird bezüglich einer in einem zweiten Bild enthaltenen Referenz-Kontur mit Referenz-Kontur-Bildpunkten.
bei dem unter Verwendung der Codierungsinformation in einem ersten Bild mindestens eine Kontur mit einer Vielzahl von auf der Kontur sich befindenden Kontur- Bildpunkten ermittelt wird, und
bei dem unter Verwendung der auf der ermittelten Kontur des ersten Bildes sich befindenden Kontur-Bildpunkte die Bewegungsermittlung durchgeführt wird bezüglich einer in einem zweiten Bild enthaltenen Referenz-Kontur mit Referenz-Kontur-Bildpunkten.
2. Verfahren nach Anspruch 1,
bei dem unter Verwendung der Codierungsinformation in dem
zweiten Bild mindestens eine Referenz-Kontur mit einer
Vielzahl von auf der Kontur sich befindenden Referenz-Kontur-
Bildpunkten ermittelt wird.
3. Verfahren nach Anspruch 1 oder 2,
bei dem im Rahmen der Bewegungsermittlung Minimal- Abstandswerte zwischen Bildpunkten eines Abstandsbildes und der Referenz-Kontur mittels einer morphologischen Operation bestimmt werden, und
bei dem die Minimal-Abstandswerte gespeichert werden.
bei dem im Rahmen der Bewegungsermittlung Minimal- Abstandswerte zwischen Bildpunkten eines Abstandsbildes und der Referenz-Kontur mittels einer morphologischen Operation bestimmt werden, und
bei dem die Minimal-Abstandswerte gespeichert werden.
4. Verfahren nach Anspruch 3,
bei dem als morphologische Operation eine
Distanztransformation verwendet wird.
5. Verfahren nach Anspruch 3 oder 4,
bei dem ein Minimal-Abstandswert D(l)(x, y, t - 1) für einen
Kontur-Bildpunkt v'(l, t) zu einem Zeitpunk t zu einem
Bildpunkt (x, y) gemäß folgender Vorschrift ermittelt wird:
D(l)(x, y, t) = ∥[x, y]T - v'(l, t)∥,
wobei mit
D(l)(x, y, t) = ∥[x, y]T - v'(l, t)∥,
wobei mit
- - D(l)(x, y, t) ein Minimal-Abstandswert zwischen dem Bildpunkt [x, y] und einem Referenz-Kontur-Bildpunkts auf der Referenz-Kontur in dem zweiten Bild,
- - [x, y] ein Bildpunkt in dem Abstandsbild,
- - v'(l, t) ein Referenz-Kontur-Bildpunkt in dem zweiten Bild,
- - l ein Referenz-Kontur-Bildpunktindex zur eindeutigen Identifizierung eines Referenz-Kontur-Bildpunkts auf der Referenz-Kontur in dem zweiten Bild,
- - t ein Zeitpunkt, zu dem die Ermittlung durchgeführt wird,
6. Verfahren nach einem der Ansprüche 1 bis 5,
bei dem die Kontrastrichtung, in welcher die
Kontrastveränderung entlang einer Kontur verläuft, bei der
Bewegungsermittlung berücksichtigt wird.
7. Vorrichtung zur Ermittlung der Bewegung in mindestens
zweit zeitlich aufeinander folgenden digitalen Bilder mit
Bildpunkten, denen Codierungsinformation zugeordnet ist,
mit einem Prozessor, der derart eingerichtet ist, dass
folgende Verfahrensschritte durchführbar sind:
- - Unter Verwendung der Codierungsinformation wird in einem ersten Bild mindestens eine Kontur mit einer Vielzahl von auf der Kontur sich befindenden Kontur-Bildpunkten ermittelt und
- - unter Verwendung der auf der ermittelten Kontur des ersten Bildes sich befindenden Kontur-Bildpunkte wird eine Bewegung durchgeführt bezüglich einer in einem zweiten Bild enthaltenen Referenz-Kontur mit Referenz- Kontur-Bildpunkten.
8. Computerprogramm-Element, das, nachdem es in einen
Speicher des Computers geladen worden ist und von einem
Prozessor des Computers ausgeführt wird, folgende Schritte
aufweist zur Ermittlung der Bewegung in mindestens zweit
zeitlich aufeinander folgenden digitalen Bilder mit
Bildpunkten, denen Codierungsinformation zugeordnet ist:
unter Verwendung der Codierungsinformation wird in einem ersten Bild mindestens eine Kontur mit einer Vielzahl von auf der Kontur sich befindenden Kontur-Bildpunkten ermittelt und
unter Verwendung der auf der ermittelten Kontur des ersten Bildes sich befindenden Kontur-Bildpunkte wird eine Bewegung durchgeführt bezüglich einer in einem zweiten Bild enthaltenen Referenz-Kontur mit Referenz- Kontur-Bildpunkten.
unter Verwendung der Codierungsinformation wird in einem ersten Bild mindestens eine Kontur mit einer Vielzahl von auf der Kontur sich befindenden Kontur-Bildpunkten ermittelt und
unter Verwendung der auf der ermittelten Kontur des ersten Bildes sich befindenden Kontur-Bildpunkte wird eine Bewegung durchgeführt bezüglich einer in einem zweiten Bild enthaltenen Referenz-Kontur mit Referenz- Kontur-Bildpunkten.
9. Computerlesbares Speichermedium, auf dem ein Programm
gespeichert ist, das es einem Computer ermöglicht, nachdem es
in einen Speicher des Computers geladen worden ist, folgende
Schritte durchzuführen zur Ermittlung der Bewegung in
mindestens zweit zeitlich aufeinander folgenden digitalen
Bilder mit Bildpunkten, denen Codierungsinformation
zugeordnet ist:
unter Verwendung der Codierungsinformation wird in einem ersten Bild mindestens eine Kontur mit einer Vielzahl von auf der Kontur sich befindenden Kontur-Bildpunkten ermittelt und
unter Verwendung der auf der ermittelten Kontur des ersten Bildes sich befindenden Kontur-Bildpunkte wird eine Bewegung durchgeführt bezüglich einer in einem zweiten Bild enthaltenen Referenz-Kontur mit Referenz- Kontur-Bildpunkten.
unter Verwendung der Codierungsinformation wird in einem ersten Bild mindestens eine Kontur mit einer Vielzahl von auf der Kontur sich befindenden Kontur-Bildpunkten ermittelt und
unter Verwendung der auf der ermittelten Kontur des ersten Bildes sich befindenden Kontur-Bildpunkte wird eine Bewegung durchgeführt bezüglich einer in einem zweiten Bild enthaltenen Referenz-Kontur mit Referenz- Kontur-Bildpunkten.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10123365A DE10123365A1 (de) | 2001-05-14 | 2001-05-14 | Verfahren und Vorrichtung zum Ermitteln von Bewegung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern, Computerlesbares Speichermedium und Computerprogramm-Element |
US10/476,690 US20050008073A1 (en) | 2001-05-14 | 2002-05-02 | Method and device for determining movement in at least two successive digital images, computer readable storage medium and computer program |
EP02740306A EP1396153A2 (de) | 2001-05-14 | 2002-05-02 | Verfahren und vorrichtung zum ermitteln von bewegung in zeitlich aufeinander folgenden digitalen bildern |
PCT/DE2002/001585 WO2002093931A2 (de) | 2001-05-14 | 2002-05-02 | Verfahren und vorrichtung zum ermitteln von bewegung in zeitlich aufeinander folgenden digitalen bildern |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10123365A DE10123365A1 (de) | 2001-05-14 | 2001-05-14 | Verfahren und Vorrichtung zum Ermitteln von Bewegung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern, Computerlesbares Speichermedium und Computerprogramm-Element |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10123365A1 true DE10123365A1 (de) | 2002-11-28 |
Family
ID=7684709
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10123365A Ceased DE10123365A1 (de) | 2001-05-14 | 2001-05-14 | Verfahren und Vorrichtung zum Ermitteln von Bewegung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern, Computerlesbares Speichermedium und Computerprogramm-Element |
Country Status (4)
Country | Link |
---|---|
US (1) | US20050008073A1 (de) |
EP (1) | EP1396153A2 (de) |
DE (1) | DE10123365A1 (de) |
WO (1) | WO2002093931A2 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10258794A1 (de) * | 2002-12-16 | 2004-06-24 | Ibeo Automobile Sensor Gmbh | Verfahren zur Erkennung und Verfolgung von Objekten |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7949101B2 (en) | 2005-12-16 | 2011-05-24 | Rapiscan Systems, Inc. | X-ray scanners and X-ray sources therefor |
US8837669B2 (en) | 2003-04-25 | 2014-09-16 | Rapiscan Systems, Inc. | X-ray scanning system |
US8243876B2 (en) | 2003-04-25 | 2012-08-14 | Rapiscan Systems, Inc. | X-ray scanners |
US8451974B2 (en) | 2003-04-25 | 2013-05-28 | Rapiscan Systems, Inc. | X-ray tomographic inspection system for the identification of specific target items |
US9113839B2 (en) | 2003-04-25 | 2015-08-25 | Rapiscon Systems, Inc. | X-ray inspection system and method |
GB0525593D0 (en) | 2005-12-16 | 2006-01-25 | Cxr Ltd | X-ray tomography inspection systems |
US8223919B2 (en) | 2003-04-25 | 2012-07-17 | Rapiscan Systems, Inc. | X-ray tomographic inspection systems for the identification of specific target items |
CN109584156B (zh) * | 2018-10-18 | 2022-01-28 | 中国科学院自动化研究所 | 显微序列图像拼接方法及装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6137913A (en) * | 1998-08-05 | 2000-10-24 | Electronics And Telecommunications Research Institute | Method for segmenting moving picture objects by contour tracking |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5764283A (en) * | 1995-12-29 | 1998-06-09 | Lucent Technologies Inc. | Method and apparatus for tracking moving objects in real time using contours of the objects and feature paths |
KR19990008977A (ko) * | 1997-07-05 | 1999-02-05 | 배순훈 | 윤곽선 부호화 방법 |
-
2001
- 2001-05-14 DE DE10123365A patent/DE10123365A1/de not_active Ceased
-
2002
- 2002-05-02 EP EP02740306A patent/EP1396153A2/de not_active Withdrawn
- 2002-05-02 WO PCT/DE2002/001585 patent/WO2002093931A2/de not_active Application Discontinuation
- 2002-05-02 US US10/476,690 patent/US20050008073A1/en not_active Abandoned
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6137913A (en) * | 1998-08-05 | 2000-10-24 | Electronics And Telecommunications Research Institute | Method for segmenting moving picture objects by contour tracking |
Non-Patent Citations (7)
Title |
---|
BEYMER, D., McLAUCHLAN, P. et al.: "A Real-Time Computer Vision System for Measuring Traffic Parameters" CVPR'97, S. 495-501, 1997 * |
BORGEFORS, G.: "Distance Transformations in * |
CANNY, J.: "A Computational Approach to Edge Detection" IEEE PAMI (November 1986) Vol. PAMI-8, No. 6, p. 679-698 * |
ENKELMANN, W. et al.: "Obstade Detection by Real- Time Optical Flow Evaluation" Intelligent Vehicles 1994, S. 97-102, 1994 * |
NEVATIA, R., BABU, K.R.: "Linear Feature Extrac- tion and Description" Computer Graphics and Image Processing, S. 257-269, 1980 * |
PARAGIOS, N., DERICHE, R.: "Geodesic active contours and level sets for the detection and tracking of moving objects" IEEE PAMI (March 2000)Vol. 22, No. 3, p. 266-280 * |
SMITH, S.M., BRADY, J.M.: "ASSET-2: Real-Time Motion Segmentation and Shape Tracking" IEEE PAMI,Vol. 17, No. 8, S. 814-820, 1995 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10258794A1 (de) * | 2002-12-16 | 2004-06-24 | Ibeo Automobile Sensor Gmbh | Verfahren zur Erkennung und Verfolgung von Objekten |
Also Published As
Publication number | Publication date |
---|---|
US20050008073A1 (en) | 2005-01-13 |
WO2002093931A3 (de) | 2003-05-08 |
EP1396153A2 (de) | 2004-03-10 |
WO2002093931A2 (de) | 2002-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2467828B1 (de) | Verfahren und system zur automatischen objekterkennung und anschliessenden objektverfolgung nach massgabe der objektform | |
DE69635980T2 (de) | Verfahren und vorrichtung zur detektierung von objektbewegung in einer bilderfolge | |
DE112016007131B4 (de) | Objektdetektionseinrichtung und Objektbestimmungsverfahren | |
EP1444654A2 (de) | Quantitative analyse, visualisierung und bewegungskorrektur in dynamischen prozessen | |
DE102017220307B4 (de) | Vorrichtung und Verfahren zum Erkennen von Verkehrszeichen | |
DE10033599A1 (de) | Positionserfassungsvorrichtung | |
DE112019001044T5 (de) | Verfahren und vorrichtung für maschinelles lernen, programm, gelerntes modell und diskriminiervorrichtung | |
DE102018217091A1 (de) | Verfahren, künstliches neuronales Netz, Vorrichtung, Computerprogramm und maschinenlesbares Speichermedium zur semantischen Segmentierung von Bilddaten | |
DE102006050364A1 (de) | Verfahren zum Detektieren und Verfolgen deformierbarer Objekte unter Verwendung eines adaptiven zeitvariierenden autoregressiven Modells | |
DE10123365A1 (de) | Verfahren und Vorrichtung zum Ermitteln von Bewegung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern, Computerlesbares Speichermedium und Computerprogramm-Element | |
DE102021201124A1 (de) | Trainieren von bildklassifizierernetzen | |
EP0414113B1 (de) | Verfahren zur Bewegungskompensation in einem Bewegtbildcoder oder -decoder | |
DE102021128523A1 (de) | Hierarchische bildzerlegung zur defekterkennung | |
DE102016223034A1 (de) | Nutzung von farbe zur erkennung von nummernschildern | |
DE102004026782A1 (de) | Verfahren und Vorrichtung zur rechnergestützten Bewegungsschätzung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern, computerlesbares Speichermedium und Computerprogramm-Element | |
EP3811336B1 (de) | Verfahren zur bestimmung von zueinander korrespondierenden bildpunkten, soc zur durchführung des verfahrens, kamerasystem mit dem soc, steuergerät und fahrzeug | |
DE4314483A1 (de) | Überwachungssystem | |
DE4413633A1 (de) | Verfolgungsgerät | |
DE60310766T2 (de) | Beleuchtungsunabhängige gesichtserkennung | |
WO2003025843A2 (de) | Modellbasierte objektklassifikation und zielerkennung | |
DE102018100738A1 (de) | Selektive Merkmalsextraktion | |
DE102017216854B4 (de) | Verfahren und Vorrichtung zum Bewerten von Korrespondenzen von Bildern, Betriebsassistenzverfahren und Betriebsvorrichtung | |
DE60028884T2 (de) | Videosignalverarbeitung | |
DE4406837A1 (de) | Bildkorrekturvorrichtung und -verfahren für einen Camcorder | |
WO1992000569A1 (de) | Verfahren zur segmentierung bewegter objekte durch hintergrundadaption mit kompensation der kamerabewegung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8131 | Rejection |