DE602005003926T2 - System und verfahren zum erkennen eines vorbeikommenden fahrzeugs aus dynamischem hintergrund unter verwendung robuster informationsfusion - Google Patents

System und verfahren zum erkennen eines vorbeikommenden fahrzeugs aus dynamischem hintergrund unter verwendung robuster informationsfusion Download PDF

Info

Publication number
DE602005003926T2
DE602005003926T2 DE602005003926T DE602005003926T DE602005003926T2 DE 602005003926 T2 DE602005003926 T2 DE 602005003926T2 DE 602005003926 T DE602005003926 T DE 602005003926T DE 602005003926 T DE602005003926 T DE 602005003926T DE 602005003926 T2 DE602005003926 T2 DE 602005003926T2
Authority
DE
Germany
Prior art keywords
motion
image
background
measured
dynamics
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE602005003926T
Other languages
English (en)
Other versions
DE602005003926D1 (de
Inventor
Dorin Princeton Junction COMANICIU
Ying Monmouth Junction ZHU
Martin Pellkofer
Thorsten Kohler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Siemens Corp
Original Assignee
Siemens AG
Siemens Corporate Research Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG, Siemens Corporate Research Inc filed Critical Siemens AG
Publication of DE602005003926D1 publication Critical patent/DE602005003926D1/de
Application granted granted Critical
Publication of DE602005003926T2 publication Critical patent/DE602005003926T2/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft ein System und ein Verfahren zum Detektieren eines vorbeikommenden Fahrzeugs und insbesondere ein System und ein Verfahren zum Detektieren eines vorbeikommenden Fahrzeugs aus dynamischem Hintergrund unter Verwendung robuster Informationsfusion.
  • Allgemeiner Stand der Technik
  • Auf Machine-Vision basierende Hindernisdetektion und -verfolgung ist eine wichtige Komponente in autonomen Fahrzeugsystemen. In einer typischen Fahrszene gehören zu den Hindernissen Fahrzeuge, Fußgänger und jegliche andere Objekte, die sich entweder bewegen oder sich über die Straßenebene erheben. Der Zweck der Hindernisdetektion ist das Trennen beweglicher Objekte von der Fahrszene, wobei zu den Hindernissen Fahrzeuge, Fußgänger und jegliche andere Objekte gehören, die sich entweder bewegen oder über die Straßenebene erheben. Solche Informationen werden von mehreren Automotive-Anwendungen benötigt, z. B. adaptiver Tempostat, Vorwärtskollisionsvermeidung und Warnung über ein Verlassen der Spur. Durch Fusionieren der Ergebnisse des Detektierens und Verfolgens individueller Objekte ist es möglich, eine ausreichende Wahrnehmung der Fahrumgebung zu erzielen.
  • Bei einem für Fahrerhilfe ausgelegten monokularen Vision-System wird eine einzige Kamera im Innern des Ego-Fahrzeugs angebracht, um die Bildsequenz nach vorne weisender Straßenszenen zu erfassen. Es wurden verschiedene Fahrzeugdetektionsverfahren entwickelt, um Fahrzeuge in der Mitte des Sichtfelds zu detektieren. Solche Verfahren können bei der Detektion vorbeikommender Fahrzeuge verwendet werden. Bei der Detektion vorbeikommender Fahrzeuge werden Fahrzeuge detektiert, die auf der linken oder rechten Seite an dem Ego-Fahrzeug vorbeikommen und mit einer höheren Geschwindigkeit in das Sichtfeld eintreten. Die Detektion vorbeikommender Fahrzeuge spielt eine wesentliche Rolle beim Verständnis der Fahrumgebung. Aufgrund der potentiell unsicheren Fahrsituation, die ein überholendes Fahrzeug erzeugen könnte, ist es wichtig, vorbeikommende Fahrzeuge zu überwachen und zu detektieren.
  • Da vorbeikommende Fahrzeuge in einer frühen Phase detektiert werden müssen, während sie in das Sichtfeld eintreten und nur teilweise sichtbar sind, kann man sich nicht völlig auf Informationen über das Aussehen verlassen. Statt dessen werden durch ein vorbeikommendes Fahrzeug charakteristische optische Flüsse erzeugt. Daher werden Bewegungsinformationen zu einem wichtige Hinweis bei der Detektion vorbeikommender Fahrzeuge. Um vorbeikommende Fahrzeuge zu detektieren wurden mehrere bekannte Hindernisdetektionsverfahren verwendet, die den optischen Fluß verwenden. Bei diesen Verfahren wird ein vorhergesagtes Flußfeld, das aus Kameraparametern und der Fahrzeuggeschwindigkeit berechnet wird, mit den aus Bewegungsschätzung berechneten tatsächlichen Bildabläufen verglichen. Ein Hindernis wird deklariert, wenn die tatsächlichen Abläufe nicht mit den vorhergesagten Abläufen übereinstimmen. Diese Verfahren funktionieren gut, wenn weder starkes Rauschen noch Beleuchtungsänderung vorliegt.
  • Ein Beispiel für ein solches System wird in dem Artikel "Application of optical flow for automated overtaking control" von M. Tistarelli et al., Applications of Computer Vision, 1994, Proceedings of the Second IEEE Workshop an Sarasota, Florida, USA, 5.–7. Dez. 1994, Los Alamitos, USA IEEE Comput. Soc., 5. Dezember 1994, Seiten 105–112, XP010100091, ISBN: 0-8186-6410-X, beschrieben. In dieser Arbeit wird das Problem der automatisierten Regelung eines gefertigten Fahrzeugs behandelt. Insbesondere wird ein System vorgestellt, bei dem Techniken des optischen Flusses angewandt werden, um Überholmanöver anderer von der Hinterseite des Autos kommender Fahrzeuge zu überwachen. Genauer gesagt umfaßt ein Verfahren zum Detektieren eines vorbeikommenden Fahrzeugs die folgenden Schritte: Empfangen einer Videosequenz, die aus einer Vielzahl von Einzelbildern besteht, wobei in jedem Einzelbild Bildintensität gemessen und Bildbewegung geschätzt wird; Formulieren eines Hintergrunddynamik beschreibenden Hypothesenmodells; Verwenden der gemessenen Bildintensität und Bewegungsschätzung, um zu bestimmen, ob die Hintergrunddynamik in einem gegebenen Einzelbild verletzt wurde; wobei, wenn die Hintergrunddynamik verletzt wurde, Bewegungskohärenz verwendet wird, um zu bestimmen, ob die Verletzung der Hintergrunddynamik durch ein vorbeikommendes Fahrzeug verursacht wird.
  • In praktischen Situationen kommen strukturiertes Rauschen und starke Beleuchtung jedoch relativ oft vor und verursachen störende Bildmerkmale und unzuverlässige Flußschätzungen. Es wird ein Verfahren zum Detektieren vorbeikommender Fahrzeuge benötigt, das zu einer robusten Bewegungsschätzung fähig ist.
  • Kurzfassung der Erfindung
  • Die vorliegende Erfindung wird durch die angefügten Ansprüche definiert und betrifft ein System und ein Verfahren zum Detektieren eines vorbeikommenden Fahrzeugs. Es wird eine Videosequenz, die eine Vielzahl von Einzelbildern umfaßt, empfangen und es wird in jedem Einzelbild die Bildintensität gemessen und Bildbewegung geschätzt. Es wird ein Hintergrunddynamik beschreibendes Hypothesenmodell formuliert. Die gemessene Bildintensität und die Bewegungsschätzung werden verwendet, um zu bestimmen, ob die Hintergrunddynamik in einem gegebenen Einzelbild verletzt wurde. Wenn die Hintergrunddynamik verletzt wurde, wird Bewegungskohärenz verwendet, um zu bestimmen, ob die Verletzung der Hintergrunddynamik durch ein vorbeikommendes Fahrzeug verursacht wird.
  • Kurze Beschreibung der Zeichnungen
  • Bevorzugte Ausführungsformen der vorliegenden Erfindung werden ausführlicher beschrieben, wobei gleiche Bezugszahlen mit Bezug auf die beigefügten Zeichnungen gleiche Elemente angeben. Es zeigen:
  • 1 ein Systemblockschaltbild eines Systems zum Detektieren vorbeikommender Fahrzeuge gemäß der vorliegenden Erfindung;
  • 2 eine Sequenz von Einzelbildern, die ein vorbeikommendes Fahrzeug zeigen, gemäß der vorliegenden Erfindung;
  • 3 ein Flußdiagramm, das das Verfahren zum Detektieren vorbeikommender Fahrzeuge gemäß der vorliegenden Erfindung skizziert;
  • 4 ein beispielhaftes Einzelbild und zwei Teilfenster in dem Einzelbild, wobei die Bewegungskohärenz eines vorbeikommenden Fahrzeugs gemäß der vorliegenden Erfindung gezeigt wird;
  • 5 die zulässigen Pfade von Zustandsübergängen gemäß der vorliegenden Erfindung;
  • 6 einen Entscheidungsbaum, mit dem ein vorbeikommendes Fahrzeug gemäß der vorliegenden Erfindung detektiert wird;
  • 7 zeigt zwei Beispiele für die Verwendung von Dichtefusion variabler Bandbreite, die in einem Analysefenster gemäß der vorliegenden Erfindung zu bestimmen ist;
  • 8 Detektionen vorbeikommender Fahrzeuge gemäß der vorliegenden Erfindung;
  • 9 die Detektion vorbeikommender Fahrzeuge, die extremen Beleuchtungsschwankungen ausgesetzt sind, gemäß der vorliegenden Erfindung; und
  • 10 Graphen der mit den in 9 gezeigten Einzelbildern assoziierten Bildfehlanpassungsfehler- und Flußschätzungsdaten.
  • Ausführliche Beschreibung
  • Die vorliegende Erfindung betrifft ein System und ein Verfahren zum Detektieren vorbeikommender Fahrzeuge aus dynamischem Hintergrund. 1 zeigt ein Blockschaltbild eines Systems zum Implementieren der vorliegenden Erfindung. Eine Kamera 102 dient zum Erfassen von Bildern einer Straße und ihrer Umgebung. Wie bei einem typischen Straßenbild zu erwarten ist, enthält das Bild Hintergrundbilder, wie etwa Gebäude, Bäume und Häuser, und auf der Straße fahrende Fahrzeuge. Die Bilder werden zu einem Prozessor 104 übermittelt, der die Bildintensität und Bildbewegung analysiert, um eine etwaige Änderung der Szenendynamik zu detektieren. Wenn eine Änderung detektiert wird, wird gemäß der vorliegenden Erfindung ein Hypothesentest ausgeführt, um zu bestimmen, ob die Szenenänderung auf ein vorbeikommendes Fahrzeug zurückzuführen ist.
  • Zusätzlich wird ein Kohärenztest ausgeführt, um zu substanziieren, daß die Szenenänderung auf ein vorbeikommendes Fahrzeug zurückzuführen ist, und nicht auf bestimmte andere Bedingungen wie etwa Rauschen, Beleuchtungsänderungen oder andere Hintergrundbewegung. Sobald ein vorbeikommendes Fahrzeug mit einem ausreichenden Konfidenzniveau identifiziert wird, wird das Fahrzeug über eine Ausgabeeinrichtung 106 identifiziert. Die Ausgabeeinrichtung 106 liefert ein Ausgangssignal, das dem Benutzer die Anwesenheit des vorbeikommenden Fahrzeugs übermittelt. Das Ausgangssignal kann ein hörbares Signal oder eine andere Art von Warnsignal sein. Die Ausgabeeinrichtung 106 kann auch ein Display zum Betrachten der detektierten Fahrzeuge umfassen. Das Display gibt eine Ansicht der von der Kamera 102 aufgenommenen Bilder, die dann aufbereitet werden, um Fahrzeuge anzuzeigen, die detektiert wurden und gerade verfolgt werden. Diese Bilder können in der Datenbank 108 gespeichert werden.
  • Die vorliegende Erfindung betrifft das Detektieren von Ereignissen eines eintretenden Fahrzeugs und das Auslösen einer Warnung in Echtzeit. Insbesondere wird ein robustes Bewegungsschätzverfahren mit Dichtefunktion variabler Bandbreite verwendet, um wie auf später ausführlicher beschriebene Weise vorbeikommende Fahrzeuge zu detektieren. Das Vorbeikommen von Fahrzeugen ist ein sporadisches Ereignis, das die Szenenkonfiguration von Zeit zu Zeit ändert. 2 zeigt eine Sequenz von Einzelbildern 202208, die an sequentiellen Zeitpunkten erfaßt wird. Wenn ein Fahrzeug 210 zwischen den Zeiten t2~t3 in das Sichtfeld eintritt, bildet das Fahrzeug eine lokale Vordergrundschicht, die vorübergehend die Straßenszene blockiert. Sowohl Bildaussehen als auch Bildbewegung um den Eintrittpunkt, der sich in dem Teilfenster 212 befindet, weichen von der Straßenszenendynamik ab. Bei der Detektion vorbeikommender Fahrzeuge ist ein Aspekt das Detektieren von Änderungen der Szenendynamik um definierte Eintrittspunkte.
  • Gemäß der vorliegenden Erfindung werden drei Probleme behandelt, um ein vorbeikommendes Fahrzeug zu detektieren: Modellieren der Dynamik der Straßenszene und vorbeikommender Fahrzeuge, Ableiten einer Entscheidungsregel für die Detektion vorbeikommender Fahrzeuge und Schätzung relevanter Merkmale und statistischer Größen, die bei dem Hypothesentest beteiligt sind. 3 zeigt ein Flußdiagramm auf hoher Ebene des Verfahrens. Die Dynamik der Straßenszenen und der vorbeikommenden Fahrzeuge wird durch Modellierung der Bildintensität und Bildbewegung um die Eintrittspunkte charakterisiert. Für das Ereignis des Vorbeikommens eines Fahrzeugs, wird eine zeitliche Kohärenz der Fahrzeugbewegung auferlegt. Bildintensität und Bildbewegung in Analysefenstern, die an den Eintrittpunkten plaziert werden, werden überwacht. Etwaige Änderungen der Szenendynamik in den Analysefenstern werden detektiert. Relevante beim Hypothesentest verwendete Parameter werden mit der Zeit als Reaktion auf Detektionsergebnisse aktualisiert.
  • Bei Abwesenheit von vorbeikommenden Fahrzeugen bewegt sich die sichtbare Straßenszene, d. h. der Hintergrund, beständig in dem Sichtfeld, während sich die Kamera zusammen mit dem Ego-Fahrzeug bewegt. Bei gegebener Fahrzeuggeschwindigkeit und Kamerakalibration ist die Bildbewegung und Bildintensität der Hintergrundszene über die Zeit hinweg vorhersehbar. Anders ausgedrückt, folgt die Hintergrundszene einem durch Kameraparameter und Kamerabewegung definierten dynamischen Modell. Es sei l(x, t) die Bildintensität zum Zeitpunkt t und v(x, t) der Bewegungsvektor, wobei x die räumliche Koordinate eines Bildpixels ist. Die Hypothese des dynamischen Hintergrunds wird folgendermaßen beschrieben: Hroad: l(x + v(x, t)·δt, t – δt) = l(x, t) + nl v(x, t) = h(x, V0(t), θ) (1)
  • Die wahre Bildbewegung v(x, t) wird durch die Fahrzeuggeschwindigkeit V0(t) und Kameraparameter θ entschieden. Unter der Bedingung der Helligkeitskonstantheit ist die Bildintensität bei gegebener wahrer Bewegung aus vorherigen Einzelbildern vorhersehbar. Dessen ungeachtet wird in der Praxis aufgrund von sich ändernder Beleuchtung oft gegen die Helligkeitskonstanz verstoßen. Außerdem wird die Intensität auch durch verschiedenes Bildrauschen beeinflußt. Deshalb wird ein Rauschterm nt verwendet, um die Intensitätsperturbation zu berücksichtigen. Diese Hypothesen bezüglich der Szenendynamik verbessern nützliche domänenspezifische Einschränkungen.
  • Wenn ein vorbeikommendes Fahrzeug in Sicht tritt, wird die Dynamik der Hintergrundszene verletzt. Aus Gleichung (1) können Verletzungen der Hintergrunddynamik durch Hypothesentest an Bildintensität und Bildbewegung detektiert werden. Eine Verletzung kann jedoch auch unter anderen Bedingungen als dem Vorbeikommen von Fahrzeugen geschehen, wie zum Beispiel bei starken Beleuchtungsänderungen und strukturiertem Rauschen. Um zu Validieren, daß eine Verletzung tatsächlich durch ein vorbeikommendes Fahrzeug verursacht wird, ist es notwendig, auch die durch vorbeikommende Fahrzeuge eingeführten domänenspezifischen Einschränkungen auszunutzen.
  • Angesichts der Diversität von Aussehen und Geschwindigkeit von Fahrzeugen wird die Dynamik vorbeikommender Fahrzeuge durch Unterstreichen der in der Fahrzeugbewegung vorliegenden Kohärenz charakterisiert. Wie in 4 dargestellt, wird zur Beschreibung von Bewegungskohärenz das Bewegungsmuster eines vorbeikommenden Fahrzeugs durch zwei Teilfenster A und B untersucht, die sich entlang der Trajektorie befinden, auf der sich ein vorbeikommendes Fahrzeug bewegen würde. Während ein vorbeikommendes Fahrzeug in das Sichtfeld eintritt, kommt es bei A und B auf geordnete Weise an. Damit ein Fahrzeug bei B ankommt, muß es zuerst bei A ankommen. Ein Verstoß der Hintergrunddynamik sollte somit in dem Teilfenster A stattfinden, bevor er in dem Teilfenster B stattfindet.
  • Im Gegensatz dazu fehlt eine solche Kohärenz, falls die Verletzung der Szenen- oder Hintergrunddynamik eine Folge irregulärer Ursachen ist, wie zum Beispiel plötzliche Beleuchtungsänderungen, strukturiertes Rauschen und Schatten. Die bezüglich vorbeikommender Fahrzeuge getroffene Hypothese hilft deshalb dabei, Ereignisse mit kohärenter Bewegung von irregulären Ursachen, die auch als Ausreißer bezeichnet werden, zu unterscheiden. Nunmehr mit Bezug auf 5 werden SA und SB als die Zustandsvariable der Teilfenster A bzw. B bezeichnet. R repräsentiert den Zustand, in dem Bewegung und Intensität der Straßendynamik entsprechen, und V repräsentiert den Zustand, in dem die Straßendynamik verletzt wird.
  • Das Ereignis eines vorbeikommenden Fahrzeugs wird aus einer Reihe von Zustandsübergängen von SASB, beginnend mit RR und endend mit VV, beschrieben. Wie in 5 gezeigt, werden kohärente Ereignisse durch eine Menge zulässiger Pfade von Zustandsübergängen unterschieden: Hvehicle: ρ = {RR → VR → ... → VV}. (2)
  • Bei der Behandlung der Detektion vorbeikommender Fahrzeuge trifft man verschiedene Kontexte in dem Analysefenster an, z. B. Straßenszenen, Ausreißer und Fahrzeuge. Entscheidungsbäume klassifizieren diese Kontexte durch Durchsortieren einer Reihe von in einer Baumform repräsentierten Hypothesetests. 6 zeigt einen beispielhaften Entscheidungsbaum, mit dem vorbeikommende Fahrzeuge gemäß der vorliegenden Erfindung detektiert werden können. Bildbewegung und Bildintensität werden im Vergleich zu dem dynamischen Modell der Straßenszene getestet. An Kontexten, die die Szenendynamik verletzen, wird ein Kohärenztest ausgeführt. Die Entscheidungsregel für vorbeikommende Fahrzeuge wird folgendermaßen zusammengefaßt: (Hintergrunddynamik ist verletzt) ^ ( Kohärenz ist erfüllt ) (3)
  • Die wahre Bewegung v(x, t) der Straßenszene wird in Gleichung (1) gegeben. Wenn die beobachtete Bildbewegung geschätzt wird, wird der Hypothesentest an der Hintergrunddynamik folgendermaßen ausgedrückt:
  • Verletzung der Hintergrunddynamik im Fall (||v ^(x, t) – v(x, t)|| ≥ τmotion) ∨ (||R(x, t)|| ≥ τresidual) (4)wobei R(x, t) = l(x + v(x, t)·δt, t – δt) – l(x, t) der Rest aus der Bewegungskompensation ist und die Fehlanpassung zwischen dem vorhergesagten Bild und dem tatsächlichen Bild wiedergibt. Durch Prüfung von Bewegung und Rest werden alle Fälle in zwei Gruppen klassifiziert: Fälle, die der Hintergrunddynamik genügen, und Fälle, die die Hintergrunddynamik verletzen.
  • Obwohl weitere Tests ausgeführt werden, um Fälle von Verletzungen zu klassifizieren, ist es wichtig, über eine zuverlässige Bewegungsschätzung v(x, t) zu verfügen, die den Kontext für eine genaue anfängliche Klassifizierung getreu widerspiegelt. Die vorliegende Erfindung verwendet einen robusten Bewegungsschätzalgorithmus mit Dichtefusion variabler Bandbreite (VBDF – Variable Bandwidth Density Fusion) und räumlich-zeitlicher Filterung.
  • Wenn Bewegungsschätzung nicht zuverlässig ist, hilft der Rest-Test dabei, Hintergrundszenen zu identifizieren. In bestimmten Fällen kann die Hintergrund-Anwesenheit nicht durch Bewegung identifiziert werden, kann aber durch Testen des Bildrests leicht identifiziert werden. Die Schwellen Tmotion, Tresidual sowie die zulässigen Zustandsübergänge ρ sind Teil der Entscheidungsbaumlösung. Es gibt im allgemeinen zwei Methoden zu ihrer Lösung, Offline-Lernen und Online-Lernen. Das Online-Entscheidungsbaumlernen ermöglicht Systemanpassung an die allmähliche Änderung der Szenendynamik. Mit Tresidual als Beispiel läßt sich das Online-Lernen durch Modellieren der onlineberechneten Restdaten {R(x, T), (R(x, T – 1), R(x, T – 2), ...} erzielen.
  • Nichtparametrische Dichteschätzung und Modenfindetechniken können verwendet werden, um die Daten zu Clustern, ein gaußsches Mischungsmodell zu erhalten und das Modell mit der Zeit zu aktualisieren. Das Online gelernte Mischungsmodell wird dann zur Vorhersage des Kontexts aus neuen Beobachtungen R(x, T + 1) verwendet.
  • Der Kohärenztest wird an Fällen ausgeführt, in denen die Hintergrunddynamik verletzt wird. Der Zweck dieses Tests besteht darin, durch strukturiertes Rauschen und plötzliche Beleuchtungsänderungen verursachte Ausreißer weiter auszuschließen. Aus der in Bezug auf vorbeikommende Fahrzeuge in Gleichung 2 formulierten Hypothese wird die Entscheidungsregel folgendermaßen ausgedrückt:
    Figure 00110001
  • Wie oben beschrieben, verwendet die vorliegende Erfindung einen robusten Bewegungsschätzalgorithmus, um zu bestimmen, ob die Hintergrunddynamik verletzt ist. Bei Annahme von Helligkeitskonstanz wird der Bewegungsvektor für eine gegebene Bildposition durch Lösung der folgenden linearen Gleichung berechnet: xI(x, t)·v = –∇eI(x, t) (6)
  • Die vorbetonte Least-Squares-Lösung lautet wie folgt: v ^ = (ATA + (βII)–1ATb (7)wobei A eine durch die räumlichen Bildgradienten ∇xI in einer lokalen Region definierte Matrix und b ein aus zeitlichen Bildgradienten ∇xI bestehender Vektor ist. Um die Unbestimmtheit der Bewegungsschätzung zu beschreiben, wird ihre Kovarianz folgendermaßen definiert:
    Figure 00120001
    wobei N die Anzahl der Pixel in der lokalen Region und σ2 die geschätzte Varianz des Bildrauschens ist. Unzuverlässige Flußschätzungen sind mit Kovarianzmatrizen mit großer Spur assoziiert. Diese Informationen sind für die robuste Fusion wichtig.
  • Ein hierarchisches System zur Berechnung von v ^ und seiner Kovarianz C auf mehreren Maßstäben wird in D. Comaniciu, "Nonparametric information fusion for motion estimation", CVPR 2003, Bd. 1, S. 59–66, beschrieben. Für jedes Einzelbild wird der Anfangsbewegungsvektor an verschiedenen räumlichen Positionen in dem Analysefenster geschätzt. Folglich erhält man eine Sequenz von Bewegungsschätzungen mit Kovarianzen {vx,t, Cx,t} in Raum und Zeit.
  • Die anfänglichen Bewegungsschätzungen sind empfindlich gegenüber strukturiertem Rauschen und Beleuchtungsänderungen, die Ausreißer in Bewegungsschätzungen einführen. Um diese Ausreißer zu überwinden, wird durch eine als Dichtefusion variabler Bandbreite (VBDF – Variable Bandwidth Density Fusion) bezeichnete Technik eine kombinierte räumlich-zeitliche Filterung an den anfänglichen Bewegungsschätzungen ausgeführt. VBDF ist eine Fusionstechnik, die in der Lage ist, den signifikantesten Knoten der Daten zu finden, und dies ist robust gegenüber Ausreißern. Wenn die anfänglichen Bewegungsschätzungen vx,t und die Kovarianz Cx,t über mehrere räumliche und zeitliche Positionen x = {x1, ..., xn}, t = {T, T – 1, ..., T – M} gegeben sind, wird VBDF angewandt, um die dominante Bewegung in dem Analysefenster des T-ten Einzelbildes zu erhalten.
  • VBDF wird durch die folgende Mean-Shift-Prozedur implementiert. Zuerst wird ein punktweiser Dichteschätzer durch eine Mischungsfunktion definiert:
  • Figure 00130001
  • Hierbei definiert ax,t ein Gewichtungsschema an dem Datensatz und K(v; vi, Ci) ist der gaußsche Kern mit der Mitte vi und Bandbreite Ci. Der Mean-Shift-Vektor variabler Bandbreite an der Position v wird gegeben durch:
  • Figure 00130002
  • Die iterative Berechnung des Mean-Shift-Vektors stellt eine Trajektorie wieder her, die von v ausgeht und zu einem lokalen Maximum konvergiert, d. h. einer Mode der Dichteschätzung f(v; {vx,t}). v0 = v vj+1 = vj + m(vj) (j ≥ 0) vj → mode(v; {vx,t, Cx,t})as j → ∞ (11)
  • Um f(v; {vx,t, Cx,t}) mit mehreren Moden zu behandeln, eine Reihe von Analysebandbreiten Clx,t = Cx,t + α1l(α0 > α1 > ... > 0), was zu mehreren geglätteten Dichteschätzungen f(v; {vx,t, C l / x,t}) führt. Die Anzahl der Moden in der Dichteschätzung nimmt ab, wenn größere Analysebandbreiten verwendet werden. Auf dem anfänglichen Maßstab wird α0 groß eingestellt, so daß die Dichte f(v; {vx,t, C 0 / x,t}) nur eine Mode mode0 = mode (v; {vx,t, C 0 / x,t}) aufweist, die gegenüber dem Startpunkt v in VBDF invariant ist. Der Modenpunkt wird dann über Maßstäbe hinweg propagiert. Auf jedem Maßstab verwendet VBDF den aus dem letzten Maßstab gefundenen Modenpunkt als den anfänglichen Punkt zum Finden der Mode für den aktuellen Maßstab. model = mode(model-1; {vx,t, Clx,t )(l = 1, 2, ...) (12)
  • Der Modenpunkt konvergiert mit abnehmendem αj auf die signifikanteste Stichprobenschätzung. Der konvergente Punkt definiert die dominante Bewegung v ^t in dem Analysefenster des Einzelbildes T. 7 zeigt zwei Beispiele für die Verwendung von VBDF zum Erhalten der dominanten Bewegung in dem Analysefenster. Für jedes Einzelbild werden an neun gleich beabstandeten Positionen in dem Analysefenster anfängliche Bewegungsschätzungen berechnet. Die anfänglichen Schätzungen aus fünf aufeinanderfolgenden Einzelbildern werden als Eingabe für VBDF verwendet. Exponentielles Vergessen wird verwendet, um diese anfänglichen Bewegungsschätzungen zeitlich zu gewichten. Die in 7 gezeigten Ergebnisse demonstrieren die Robustheit des Fusionsalgorithmus gegenüber Ausreißern.
  • 8 zeigt Beispiele für Einzelbilder, in denen vorbeikommende Fahrzeuge detektiert wurden. Jedes Beispiel illustriert die Detektionsergebnisse und die geschätzten Bewegungsvektoren. Es ist ersichtlich, daß trotz sichtbarer Beleuchtungsänderungen, Schatten und strukturierten Rauschens Fahrzeuge verschiedener Formen detektiert wurden. 9 und 10 zeigen Einzelbilder, die Detektionsergebnisse eines Videos, das durch Rauschen stark verunreinigt wurde, das durch Blendung an der Windschutzscheibe des Ego-Fahrzeugs verursacht wurde. Das strukturierte Rauschen verursacht eine große Fehlanpassung des tatsächlichen Flusses und Bildes von ihren Vorhersagen.
  • Nachdem Ausführungsformen für ein Verfahren zum Detektieren vorbeikommender Fahrzeuge beschrieben wurden, wird angemerkt, daß Fachleute im Hinblick auf die obigen Lehren Modifikationen und Abwandlungen vornehmen können. Es versteht sich deshalb, daß Änderungen an den konkreten offenbarten Ausführungsformen der Erfindung vorgenommen werden können, die in den Schutzumfang der durch die angefügten Ansprüche definierten Erfindung fallen.

Claims (24)

  1. Verfahren zum Detektieren eines vorbeikommenden Fahrzeugs, mit den folgenden Schritten: Empfangen einer Videosequenz, die aus einer Vielzahl von Einzelbildern besteht; Messen der Bildintensität und Schätzen von Bildbewegung in jedem Einzelbild; Formulieren eines Hintergrunddynamik beschreibenden Hypothesenmodells; Verwenden der gemessenen Bildintensität und Bewegungsschätzung, um zu bestimmen, ob die Hintergrunddynamik in einem gegebenen Einzelbild verletzt wurde, durch Bestimmen, ob die Differenz zwischen gemessener Bildintensität und einer vorhergesagten Bildintensität über einer Schwelle liegt und ob die Differenz zwischen der gemessenen Bildbewegung und einer vorhergesagten Bildbewegung des Hintergrunds über einer Schwelle liegt; wenn die Hintergrunddynamik verletzt wurde, Verwenden von Bewegungskohärenz, um zu bestimmen, ob die Verletzung der Hintergrunddynamik durch ein vorbeikommendes Fahrzeug verursacht wird, durch Ausführen der folgenden Schritte: Anwenden eines ersten Teilfensters und eines zweiten Teilfensters auf das Einzelbild mit der verletzten Hintergrunddynamik, um die die Verletzung verursachende Sequenz von Bewegung zu bestimmen; wobei die Bewegung durch das erste und das zweite Teilfenster unter Verwendung robuster Bewegungsschätzung gemessen wird, die Bildabläufe und ihre Kovarianzen an verteilten Stichprobenpunkten in einem Analysefenster in Assoziation mit mehreren Einzelbildern berechnet; Bestimmen der Bewegungstrajektorie der verletzten Hintergrunddynamik durch Bestimmen, welche Teil fenster zuerst eine Bildbewegungsänderung anzeigen; und wenn das erste Teilfenster zuerst eine Bildbewegungsänderung erfährt, Bestimmen, daß die Verletzung der Hintergrunddynamik durch ein vorbeikommendes Fahrzeug verursacht wird.
  2. Verfahren nach Anspruch 1, wobei das Hintergrunddynamik beschreibende Hypothesenmodell Hypothesen bezüglich nach Bewegungskompensation des Bildes verbleibender Restintensität von Differenzen und Hypothesen bezüglich Bildbewegung umfaßt.
  3. Verfahren nach Anspruch 1, wobei die vorhergesagte Bildintensität durch das Hintergrunddynamik beschreibende Hypothesenmodell bestimmt wird.
  4. Verfahren nach Anspruch 1, wobei die vorhergesagte Bildbewegung durch Ego-Bewegung und Kameraparameter bestimmt wird.
  5. Verfahren nach Anspruch 1, wobei die gemessene Bildbewegung durch ein robustes Bewegungsschätzverfahren erhalten wird.
  6. Verfahren nach Anspruch 1, ferner mit den folgenden Schritten: Bestimmen, ob die mit der verletzten Hintergrunddynamik assoziierte gemessene Bewegung Bewegungskohärenz aufweist; und Bewegungskohärenz besteht, Bestimmen, daß die Verletzung auf ein vorbeikommendes Fahrzeug zurückzuführen ist.
  7. Verfahren nach Anspruch 1, wobei robuste Bewegungsschätzung durch exponentielle Gewichtung von Bildabläufen und ihrer Kovarianzen an verteilten Stichprobenpunkten erfolgt.
  8. Verfahren nach Anspruch 1, wobei die robuste Bewegungsschätzung durch gemeinsame räumliche zeitliche Filterung an Bildabläufen an verteilten Stichprobenpunkten erfolgt.
  9. Verfahren nach Anspruch 8, wobei die räumlich-zeitliche Filterung unter Verwendung von variabler Dichtebandbreitenfusion und Mean-Shift auf mehreren Maßstäben erfolgt.
  10. Verfahren nach Anspruch 9, wobei die gemessene Bewegung in dem ersten und dem zweiten Analysefenster durch die signifikanteste Stichprobenschätzung bestimmt wird, die durch variable Dichtebandbreitenfusion und Mean-Shift auf mehreren Maßstäben erhalten wird.
  11. Verfahren nach Anspruch 1, wobei die Videosequenz von einer an einem Ego-Fahrzeug angebrachten Kamera empfangen wird.
  12. Verfahren nach Anspruch 1, wobei die Bewegungstrajektore unter Verwendung der Fahrzeuggeschwindigkeit des Ego-Fahrzeugs und von Kameraparametern bestimmt wird.
  13. System zum Detektieren eines vorbeikommenden Fahrzeugs, umfassend: mindestens eine Kamera zum Erfassen einer Videosequenz von Einzelbildern von Hintergrunddynamik; einen mit der mindestens einen Kamera assoziierten Prozessor, wobei der Prozessor die folgenden Schritte ausführt: i). Messen von Bildintensität und Schätzen von Bildbewegung in jedem Einzelbild; ii). Formulieren eines die Hintergrunddynamik beschreibenden Hypothesenmodells; iii). Verwenden der gemessenen Bildintensität und der Bewegungsschätzung, um zu bestimmen, ob die Hintergrunddynamik in einem gegebenen Einzelbild verletzt wurde, durch Bestimmen, ob die Differenz zwischen gemessener Bildintensität und einer vorhergesagten Bildintensität über einer Schwelle liegt und ob die Differenz zwischen der gemessenen Bildbewegung und einer vorhergesagten Bildbewegung des Hintergrunds über einer Schwelle liegt; und iv). wenn die Hintergrunddynamik verletzt wurde, Verwenden von Bewegungskohärenz, um zu bestimmen, ob die Verletzung der Hintergrunddynamik durch ein vorbeikommendes Fahrzeug verursacht wird, durch Ausführen der folgenden Schritte: Anwenden eines ersten Teilfensters und eines zweiten Teilfensters auf das Einzelbild mit der verletzten Hintergrunddynamik, um die die Verletzung verursachende Sequenz von Bewegung zu bestimmen, wobei die Bewegung durch das erste und das zweite Teilfenster unter Verwendung von robuster Bewegungsschätzung gemessen wird, die Bildabläufe und ihre Kovarianzen an verteilten Stichprobenpunkten in einem Analysefenster in Assoziation mit mehreren Einzelbildern berechnet; Bestimmen der Bewegungstrajektorie der verletzten Hintergrunddynamik durch Bestimmen, welches Teilfenster zuerst eine Bildbewegungsänderung anzeigt; und wenn das erste Teilfenster zuerst eine Bildbewegungsänderung erfährt, Bestimmen, daß die Verletzung der Hintergrunddynamik durch ein vorbeikommendes Fahrzeug verursacht wird.
  14. System nach Anspruch 13, wobei das Hintergrunddynamik beschreibende Hypothesenmodell Hypothesen bezüglich der nach Bewegungsschätzung des Bildes verbleibenden Restintensität von Differenzen und Hypothesen bezüglich Bildbewegung umfaßt.
  15. System nach Anspruch 13, wobei die vorhergesagte Bildintensität durch das Hintergrunddynamik beschreibende Hypothesenmodell bestimmt wird.
  16. System nach Anspruch 13, wobei die vorhergesagte Bildbewegung durch Ego-Bewegung und Kameraparameter bestimmt wird.
  17. System nach Anspruch 13, wobei die gemessene Bildbewegung durch ein robustes Bewegungsschätzverfahren erhalten wird.
  18. System nach Anspruch 13, wobei der Prozessor ferner die folgenden Schritte ausführt: Bestimmen, ob die mit der verletzten Hintergrunddynamik assoziierte gemessene Bewegung Bewegungskohärenz aufweist; und wenn Bewegungskohärenz besteht, Bestimmen, daß die Verletzung auf ein vorbeikommendes Fahrzeug zurückzuführen ist.
  19. System nach Anspruch 13, wobei die robuste Bewegungsschätzung durch exponentielles Gewichten von Bildabläufen und ihrer Kovarianzen an verteilten Stichprobenpunkten erfolgt.
  20. System nach Anspruch 13, wobei die robuste Bewegungsschätzung durch gemeinsame räumliche zeitliche Filterung an Bildabläufen an verteilten Stichprobenpunkten erfolgt.
  21. System nach Anspruch 20, wobei die räumlich-zeitliche Filterung unter Verwendung von variabler Dichtebandbreitenfusion und Mean-Shift auf mehreren Maßstäben erfolgt.
  22. System nach Anspruch 21, wobei die gemessene Bewegung in dem ersten und dem zweiten Analysefenster durch die signifikanteste Stichprobenschätzung bestimmt wird, die durch variable Dichtebandbreitenfusion und Mean-Shift auf mehreren Maßstäben erhalten wird.
  23. System nach Anspruch 13, wobei die Videosequenz von einer an einem Ego-Fahrzeug angebrachten Kamera empfangen wird.
  24. System nach Anspruch 13, wobei die Bewegungstrajektorie unter Verwendung der Fahrzeuggeschwindigkeit des Ego-Fahrzeugs und von Kameraparametern bestimmt wird.
DE602005003926T 2004-02-19 2005-02-11 System und verfahren zum erkennen eines vorbeikommenden fahrzeugs aus dynamischem hintergrund unter verwendung robuster informationsfusion Active DE602005003926T2 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US54578104P 2004-02-19 2004-02-19
US545781P 2004-02-19
US11/054,996 US7248718B2 (en) 2004-02-19 2005-02-10 System and method for detecting a passing vehicle from dynamic background using robust information fusion
US54996 2005-02-10
PCT/US2005/004366 WO2005081189A1 (en) 2004-02-19 2005-02-11 System and method for detecting a passing vehicle from dynamic background using robust information fusion

Publications (2)

Publication Number Publication Date
DE602005003926D1 DE602005003926D1 (de) 2008-01-31
DE602005003926T2 true DE602005003926T2 (de) 2008-12-04

Family

ID=34889830

Family Applications (1)

Application Number Title Priority Date Filing Date
DE602005003926T Active DE602005003926T2 (de) 2004-02-19 2005-02-11 System und verfahren zum erkennen eines vorbeikommenden fahrzeugs aus dynamischem hintergrund unter verwendung robuster informationsfusion

Country Status (6)

Country Link
US (1) US7248718B2 (de)
EP (1) EP1716540B1 (de)
JP (1) JP2007523427A (de)
KR (1) KR20060112692A (de)
DE (1) DE602005003926T2 (de)
WO (1) WO2005081189A1 (de)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7651507B2 (en) * 2003-03-03 2010-01-26 Kci Licensing, Inc. Tissue processing system
JP3846494B2 (ja) * 2004-07-13 2006-11-15 日産自動車株式会社 移動障害物検出装置
KR100630088B1 (ko) * 2004-12-28 2006-09-27 삼성전자주식회사 옵티컬 플로우를 이용한 차량 감시 장치 및 방법
JP4662147B2 (ja) * 2005-10-20 2011-03-30 アイシン精機株式会社 物体認識装置
JP4426535B2 (ja) * 2006-01-17 2010-03-03 本田技研工業株式会社 車両の周辺監視装置
US8666661B2 (en) * 2006-03-31 2014-03-04 The Boeing Company Video navigation
JP4797787B2 (ja) * 2006-05-16 2011-10-19 日産自動車株式会社 運転シーン変化検出装置、自動車及び運転シーン変化検出方法
WO2008048933A2 (en) * 2006-10-16 2008-04-24 Assa Abloy Hospitality, Inc. Centralized wireless network for multi-room large properties
DE102006055344A1 (de) * 2006-11-23 2008-05-29 Vdo Automotive Ag Verfahren zur drahtlosen Kommunikation zwischen Fahrzeugen
US9214030B2 (en) * 2007-05-07 2015-12-15 Thomson Licensing Method and apparatus for processing video sequences
AU2008200967B2 (en) * 2008-02-28 2010-04-15 Canon Kabushiki Kaisha Spatio-activity based mode matching
JP4788798B2 (ja) * 2009-04-23 2011-10-05 トヨタ自動車株式会社 物体検出装置
US9041806B2 (en) 2009-09-01 2015-05-26 Magna Electronics Inc. Imaging and display system for vehicle
US9053562B1 (en) 2010-06-24 2015-06-09 Gregory S. Rabin Two dimensional to three dimensional moving image converter
US9264672B2 (en) 2010-12-22 2016-02-16 Magna Mirrors Of America, Inc. Vision display system for vehicle
KR101326943B1 (ko) * 2012-06-29 2013-11-11 엘지이노텍 주식회사 추월차량 경고 시스템 및 추월차량 경고 방법
EP2878142B1 (de) 2012-07-27 2021-05-19 Assa Abloy Ab Rückschlagsteuerungen auf der basis von präsenzinformationen ausserhalb eines raums
WO2014016695A2 (en) 2012-07-27 2014-01-30 Assa Abloy Ab Presence-based credential updating
USD733722S1 (en) * 2012-12-27 2015-07-07 Nissan Jidosha Kabushiki Kaisha Display screen or portion thereof with graphical user interface
CN103226891B (zh) * 2013-03-26 2015-05-06 中山大学 一种基于视频的车辆碰撞事故检测方法及系统
CN103236158B (zh) * 2013-03-26 2015-06-24 中国公路工程咨询集团有限公司 一种基于视频的交通事故实时预警方法
KR101491305B1 (ko) * 2013-08-27 2015-02-06 현대자동차주식회사 장애물 검출 장치 및 방법
KR101439052B1 (ko) * 2013-09-05 2014-09-05 현대자동차주식회사 장애물 검출 장치 및 방법
KR101498975B1 (ko) * 2013-11-29 2015-03-05 현대모비스(주) 차선 이탈 경보 시스템
CN104751164A (zh) * 2013-12-30 2015-07-01 鸿富锦精密工业(武汉)有限公司 物体运动轨迹捕捉方法及系统
CN104077914A (zh) * 2014-06-20 2014-10-01 赵雨浓 车辆事故智能报警方法及装置
US9187088B1 (en) 2014-08-15 2015-11-17 Google Inc. Distribution decision trees
CN104299244B (zh) * 2014-09-26 2017-07-25 东软集团股份有限公司 基于单目相机的障碍物检测方法及装置
US9855890B2 (en) * 2014-12-11 2018-01-02 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle interaction with external environment
US10366122B2 (en) * 2016-09-14 2019-07-30 Ants Technology (Hk) Limited. Methods circuits devices systems and functionally associated machine executable code for generating a searchable real-scene database
IT201600094858A1 (it) * 2016-09-21 2018-03-21 St Microelectronics Srl Procedimento per un cross traffic alert avanzato a basso costo, corrispondente sistema di elaborazione, sistema per cross traffic alert e veicolo
CN106515578A (zh) * 2016-12-22 2017-03-22 百度在线网络技术(北京)有限公司 无人车驾驶状态的识别装置、识别方法及无人车
US10114375B1 (en) 2017-04-06 2018-10-30 Delphi Technologies, Inc. Motion-characteristic based object classification for automated vehicle
EP3540710A1 (de) * 2018-03-14 2019-09-18 Honda Research Institute Europe GmbH Verfahren zur unterstützung des betriebs eines ego-fahrzeuges, verfahren zur unterstützung anderer verkehrsteilnehmer und entsprechende unterstützungssysteme und fahrzeuge
CN108777064A (zh) * 2018-05-24 2018-11-09 深圳市益鑫智能科技有限公司 一种基于信息融合的交通状态评估系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5036474A (en) * 1989-03-31 1991-07-30 Honeywell Inc. Motion detection and tracking from a mobile platform
WO1992002894A1 (de) * 1990-07-27 1992-02-20 Siemens Aktiengesellschaft Verfahren zur analyse zeitlicher folgen digitaler bilder
JP4104233B2 (ja) * 1998-12-03 2008-06-18 株式会社日立製作所 走行環境認識装置

Also Published As

Publication number Publication date
EP1716540A1 (de) 2006-11-02
JP2007523427A (ja) 2007-08-16
US7248718B2 (en) 2007-07-24
EP1716540B1 (de) 2007-12-19
US20050196020A1 (en) 2005-09-08
KR20060112692A (ko) 2006-11-01
WO2005081189A1 (en) 2005-09-01
DE602005003926D1 (de) 2008-01-31

Similar Documents

Publication Publication Date Title
DE602005003926T2 (de) System und verfahren zum erkennen eines vorbeikommenden fahrzeugs aus dynamischem hintergrund unter verwendung robuster informationsfusion
DE102018116111B4 (de) Ein einheitliches tiefes faltendes neuronales Netzwerk für die Abschätzung von Freiraum, die Abschätzung der Objekterkennung und die der Objektstellung
DE102017217056B4 (de) Verfahren und Einrichtung zum Betreiben eines Fahrerassistenzsystems sowie Fahrerassistenzsystem und Kraftfahrzeug
EP1531343B1 (de) Verfahren zur Verfolgung von Objekten
DE102006010735B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
EP2467828B1 (de) Verfahren und system zur automatischen objekterkennung und anschliessenden objektverfolgung nach massgabe der objektform
EP2043045B1 (de) Verfahren zur Objektverfolgung
EP1298454A2 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE112014007249T5 (de) Bildverarbeitungsvorrichtung, Fahrzeuganzeigesystem, Anzeigevorrichtung, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
DE102017102506B4 (de) Verfahren zum erfassen anderer fahrzeuge relativ zu einem trägerfahrzeug mittels raderfassung
WO2013072231A1 (de) Verfahren zur nebeldetektion
WO2020109016A1 (de) Verfahren zum gemeinsamen detektieren, verfolgen und klassifizieren von objekten
DE102013019138A1 (de) Verfahren zum Erkennen eines verdeckten Zustands einer Kamera, Kamerasystem und Kraftfahrzeug
DE102017200562A1 (de) Objekterkennung-integrationsvorrichtung und objekterkennung-integrationsverfahren
EP1531342B1 (de) Verfahren zur Erkennung von Fussgängern
DE112013003276T5 (de) Objekterkennungseinrichtung
DE102009055127A1 (de) Vorrichtung und Verfahren zum Überwachen von Videoobjekten
DE102018129993A1 (de) Verfahren zur fahrzeugdetektion, verfahren zur fahrzeugdetektion bei nacht auf basis von dynamischer lichtintensität und system dafür
DE102020110157A1 (de) Bilderkennungsvorrichtung
DE102015120014B4 (de) Überwachungsverfahren und -vorrichtung unter Verwendung einer Kamera
DE112019007390T5 (de) Verfahren, Vorrichtung und Computerprogramm zur Verfolgung von sich bewegenden Objekten
WO2022128014A1 (de) Korrektur von bildern eines rundumsichtkamerasystems bei regen, lichteinfall und verschmutzung
DE102016100075A1 (de) Verfahren zur Auswertung von Gesten
EP3655299B1 (de) Verfahren und vorrichtung zum ermitteln eines optischen flusses anhand einer von einer kamera eines fahrzeugs aufgenommenen bildsequenz
DE112021004200T5 (de) Objekterkennungsvorrichtung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: SIEMENS CORP. (N. D. GES. D. STAATES DELAWARE), US

Owner name: SIEMENS AG, 80333 MUENCHEN, DE