DE102005008131A1 - Objektdetektion auf Bildpunktebene in digitalen Bildsequenzen - Google Patents

Objektdetektion auf Bildpunktebene in digitalen Bildsequenzen Download PDF

Info

Publication number
DE102005008131A1
DE102005008131A1 DE102005008131A DE102005008131A DE102005008131A1 DE 102005008131 A1 DE102005008131 A1 DE 102005008131A1 DE 102005008131 A DE102005008131 A DE 102005008131A DE 102005008131 A DE102005008131 A DE 102005008131A DE 102005008131 A1 DE102005008131 A1 DE 102005008131A1
Authority
DE
Germany
Prior art keywords
pixels
object detection
filter
relevant
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102005008131A
Other languages
English (en)
Inventor
Hernan Badino
Uwe Dr.-Ing. Franke
Stefan Dr.rer.nat. Gehrig
Clemens Rabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
DaimlerChrysler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DaimlerChrysler AG filed Critical DaimlerChrysler AG
Priority to DE102005008131A priority Critical patent/DE102005008131A1/de
Priority to PCT/EP2006/000013 priority patent/WO2006081906A1/de
Priority to US11/993,398 priority patent/US20090297036A1/en
Priority to EP06700512A priority patent/EP1920406A1/de
Publication of DE102005008131A1 publication Critical patent/DE102005008131A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Objektdetektion auf Bildpunktebene in digitalen Bildsequenzen. Die Detektion bewegter Objekte wird oft durch das Verfolgen vorher segmentierter Objekte oder Objektteile erst möglich. Gerade räumlich eng benachbarte Objekte werfen hierbei häufig Probleme auf, insbesondere falls das Kamerasystem bzw. der Beobachter selbst in Bewegung sind. Bei dem erfindungsgemäßen Verfahren wird daher innerhalb einer ersten Bildaufnahme die 2-D-Position relevanter Bildpunkte ermittelt und zu jedem relevanten Bildpunkt ein zugehöriger Entfernungswert bestimmt. Diese Bildpunkte werden über zwei oder mehr aufeinander folgende Bildaufnahmen nachverfolgt und lokalisiert, wobei anschließend zu jedem der Bildpunkte erneut die 2-D-Position oder die Verschiebung des Bildpunktes sowie der zugehörige Entfernungswert bestimmt werden. Zudem werden dabei mittels wenigstens eines geeigneten Filters die Position und Bewegung relevanter Bildpunkte ermittelt. Schließlich werden unter vorgegebenen Bedingungen hinsichtlich der Position, Bewegungsrichtung und Bewegungsgeschwindigkeit relevante Bildpunkte sodann zu Objekten zusammengefasst.

Description

  • Die Erfindung betrifft ein Verfahren zur Objektdetektion auf Bildpunktebene in digitalen Bildsequenzen.
  • Leistungsfähige Geräte der Video- und Computertechnik ermöglichen den Einsatz digitaler Bildverarbeitung in nahezu allen wissenschaftlichen Bereichen und Ingenieurdisziplinen. Dabei ist eine häufig gestellte Aufgabe die Erkennung von Objekten. Bei der Objektdetektion werden üblicherweise in einem ersten Schritt interessierende Objekte von anderen Objekten und dem Bildhintergrund separiert. Dazu werden mittels Bildverarbeitungsverfahren Merkmale aus Bildern segmentiert. Anschließend werden die segmentierten Merkmale in einem weiteren Schritt mittels Klassifikationsverfahren erkannt und eindeutig einer Objektklasse zugeordnet. Die Detektion bewegter Objekte wird oft durch das Verfolgen vorher segmentierter Objekte oder Objektteile möglich. In diesen Fällen hängt die Leistungsfähigkeit eines Verfahrens zur Detektion schnell bewegter Objekte im Wesentlichen von der Qualität der Segmentierung ab. Gerade bei räumlich eng benachbarten Objekten treten im Zusammenhang mit der Segmentierung aber häufig Probleme auf. Die Objekterkennung wird beispielsweise bei der Qualitätskontrolle für industrielle Zwecke mit großem Erfolg eingesetzt. Gleichermaßen eignet sich die Objekterkennung mittels digitaler Bildverarbeitung auch beim Einsatz zur Umgebungserfassung in Fahrzeugen oder anderen mobilen Systemen.
  • Aus dem Stand der Technik sind Verfahren zur Stereobildanalyse bekannt. Hierbei wird durch Analyse eines Bildpaares einer kalibrierten Stereokameraanordnung die 3D-Position relevanter Bildpunkte bestimmt. Beispielsweise wird in "Real-time Stereo Vision for Urban Traffic Scene Understanding, U. Franke, IEEE Conference on intelligent Vehicles 2000, Oktober 2000, Dearborn" ein derartiges Verfahren zur Stereobildanalyse beschrieben, wobei zunächst mittels Interestoperator Bildpunkte bestimmt werden, an denen die Stereodisparität gut gemessen werden kann. Anschließend wird sodann ein hierarchisches Korrelationsverfahren angewandt, um die Disparität zu messen und damit die 3D-Position relevanter Bildpunkte zu bestimmen. Mit einem derartigen Bildanalyseverfahren können Objekte vom Hintergrund unterschieden werden, indem benachbarte Bildpunkte mit gleichem Abstand zum Bildsensor zu einem Objekt zusammengefasst werden. Auch ist es bekannt, die Genauigkeit von 3D-Messungen mittels einer Stereobildanalyse zu verbessern, indem die zu betrachtenden Bildpunkte über die Zeit nachverfolgt werden. Ein Verfahren zum Nachverfolgen von Bildpunkten in Bildszenen ist beispielsweise aus "Dynamic Stereo with Self-Calibration, A. Tirumalai, B.G. Schunk, R.C. Jain, IEEE Trans. on Pattern Analysis and Machine Intelligence, Vol.14 No.12, December 1992, pp.1184–1189" bekannt, wobei nach einer speziellen Initialisierungsphase die Position statischer Bildpunkte mit erhöhter Genauigkeit ermittelt werden.
  • Aus dem Stand der Technik sind weiterhin Verfahren zur Bildgestützten Objektdetektion bekannt, bei welchen lediglich Informationen über die 3D-Position einfließen, wobei nach einer initialen Segmentierung potenzielle Objekte in der Form einer Entität nachverfolgt und deren Bewegungsparameter anhand eines Kalman-Filters bestimmt werden. Beispielsweise wird in der US 6677941 B2 ein System zum dreidimensionalen relativen Nachverfolgen und Positionieren im Zusammenhang mit unbemannten Micro-Raumtransportern zum Andocken an Satellitenmodule vorgestellt. Hierbei werden mittels eines Laserbildsensors Umgebungsinformationen in der Form von Entfernungswerten und Grauwerten erfasst. Die erfassten Umgebungsinformationen werden sodann mittels Bildverarbeitungsverfahren wie z.B. Korrelationsverfahren, Subpixel-Tracking, Brennweitenbestimmung, Kalman-Filterung und Orientierungsbestimmung ausgewertet, um damit die relative 3D-Position und Orientierung eines Zielobjektes zu bestimmen. Da ein Zielobjekt durch mehrere Marken beschrieben sein kann, genügt es hierbei die das Objekt beschreibenden Marken nachzuverfolgen. Somit wird es selbst bei großen Zielobjekten möglich, dass diese mit nur einem Sensor sicher zu detektieren sind.
  • Der Erfindung liegt die Aufgabe zu Grunde, ein neuartiges Verfahren zur Objektdetektion auf Bildpunktebene in digitalen Bildsequenzen anzugeben.
  • Die Aufgabe wird gemäß der Erfindung durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen werden in den Unteransprüchen aufgezeigt.
  • Gemäß der Erfindung wird ein Verfahren zur Objektdetektion auf Bildpunktebene in digitalen Bildsequenzen vorgeschlagen. Bei dem Verfahren wird in einer erfinderischen Weise innerhalb einer ersten Bildaufnahme die 2D-Position relevanter Bildpunkte ermittelt und zu jedem relevanten Bildpunkt ein zugehöriger Entfernungswert bestimmt. Diese Bildpunkte werden in wenigstens einer zweiten Bildaufnahme nachverfolgt und lokalisiert, wobei zu jedem der Bildpunkte erneut die 2D-Position oder die Verschiebung des Bildpunktes sowie der zugehörige Entfernungswert bestimmt werden. Zudem werden mittels wenigstens eines geeigneten Filters die Position und Bewegung relevanter Bildpunkte ermittelt. Schließlich werden unter vorgegebenen Bedingungen relevante Bildpunkte sodann zu Objekten zusammengefasst. Das erfindungsgemäße Verfahren liefert aufgrund der Fusion von räumlicher und zeitlicher Information zu jedem betrachteten Bildpunkt eine genaue 3D-Position sowie die dazugehörige 3D-Bewegungsrichtung. Damit kann der Verarbeitungsaufwand gegenüber den aus dem Stand der Technik bekannten Segmentierverfahren, welche eine aufwändige Vorverarbeitung erfordern, deutlich vereinfacht werden, wodurch eine schnelle und robuste Detektion bewegter Objekte selbst bei schwierigen geometrischen Konstellationen möglich ist. Hierbei werden keine zusätzlichen, fehleranfälligen Auswertestufen wie z.B. Klassifikatoren benötigt. Mit dem erfindungsgemäßen Verfahren wird der wesentliche Vorteil erzielt, dass sich damit auf sehr einfache Weise stationäre Bildinhalte von bewegten Bildinhalten auf der Bildpunktebene voneinander trennen lassen. Insbesondere kann gezielt nach Bildpunktgruppen und Objekten mit bestimmten Bewegungsrichtungen und Geschwindigkeiten anhand der Bildpunktebene gesucht werden. Dabei können sogar eng benachbarte Objekte gut voneinander unterschieden werden, insbesondere auch an den seitlichen Bildrändern, wo üblicherweise aufgrund der Eigenbewegung selbst bei direkt aufeinander folgenden Bildaufnahmen bereits starke Änderungen an den Bildinhalten auftreten. Beispielsweise kann ein Fußgänger oder Fahrradfahrer der sich dicht vor einem stationären Objekt bewegt, z.B. vor einer Hauswand, mit dem erfindungsgemäßen Verfahren auf zuverlässige Weise detektiert und davon unterschieden werden. Wohingegen die aus dem Stand der Technik bekannten rein auf einem Stereoansatz basierenden Verfahren diese zumindest bei größeren Entfernungen nicht voneinander trennen kann.
  • Im Zusammenhang mit der Erfindung werden unter relevanten Bildpunkten diejenigen Bildpunkte verstanden, welche sich für eine Nachverfolgung in wenigstens zwei oder mehr aufeinander folgenden Bildaufnahmen einer Bildsequenz eignen, z.B. einen bestimmten Kontrast aufweisen. Zur Auswahl relevanter Bildpunkte eignet sich beispielsweise das in "Detection and Tracking of Point Features, School of Computer Science, Carnegie Mellon University, Pittsburg, PA, April 1991 (CMU-CS-91-132)" beschriebene Verfahren. Zu diesen relevanten Bildpunkten wird eine 3D-Positionsbestimmung durchgeführt, daher ist es weiterhin von Vorteil, falls sich anhand dieser relevanten Bildpunkte auch die Stereodisparität gut bestimmen lässt. Nach der Bestimmung der 3D-Position werden relevante Bildpunkte anschließend nachverfolgt und im nächsten Bild lokalisiert. Hierbei muss es sich nicht notwendigerweise um eine sich der ersten Bildaufnahme direkt anschließende Bildaufnahme handeln. Zum Nachverfolgen eignet sich beispielsweise der in der o.g. Schrift gezeigte "KLT-Tracker". Mit einer erneuten stereoskopischen 3D-Positionsbestimmung schließt sich sodann der Kreis, wobei das Verfahren in gleicher Weise fortgeführt wird.
  • In einer besonders gewinnbringenden Weise der Erfindung wird die Eigenbewegung des Bildsensors bei der Ermittlung von Position und Bewegung relevanter Bildpunkte berücksichtigt. Hierdurch wird es möglich, selbst bei einem bewegten Bildsensor Objekte zuverlässig zu detektieren. Bei den zu detektierenden Objekten kann es sich hierbei sowohl um stationäre als auch um bewegte Objekte handeln. Die im Rahmen der Objektdetektion erfassten Positionen und Bewegungen relevanter Bildpunkte können dabei auf ortsfeste Koordinaten oder aber auf das mitbewegte Koordinatensystem eines beweglichen Bildsensors, welcher z.B. an einem Fahrzeug angeordnet ist, bezogen sein.
  • In vorteilhafter Weise wird die Eigenbewegung des Bildsensors dabei anhand der Bildaufnahmen und/oder mittels Inertialsensorik bestimmt. Beispielsweise ist in modernen Fahrzeugen bereits Inertialsensorik verbaut, welche die Bewegung, Neigung, Beschleunigung, Drehrate usw. erfassen. Diese die Eigenbewegung des Fahrzeugs und damit auch die eines mit dem Fahrzeug verbundenen Bildsensors beschreibenden Messgrößen werden z.B. über das Fahrzeugbussystem zur Verfügung gestellt. Bei der Bestimmung der Eigenbewegung des Bildsensors anhand von Bildaufnahmen werden im Gegensatz hierzu Bildpunkte in den Bildaufnahmen hinreichend lange nachverfolgt und dahingehend geprüft, ob diese sich in Ruhe befinden und sich nicht bewegen. Anhand ausgesuchter unbewegter Bildpunkte kann sodann mittels geeigneter Bildauswerteverfahren die Eigenbewegung des Fahrzeugs bzw. des Bildsensors bestimmt werden. Ein derartiges zur Bestimmung der Eigenbewegung geeignetes Verfahren ist beispielsweise in "A. Mallet, S. Lacroix, L. Gallo, Position estimation in outdoor environments using Pixel tracking and stereovision, Proc. IEEE Int. Conference on Robotics and Automation, Vol.4, pp. 3519–3524, 24–28, Apr. 2000" beschrieben.
  • In einer weiteren vorteilhaften Weise der Erfindung ist der wenigstens eine Filter zur Ermittlung von Position und Bewegung relevanter Bildpunkte ein Kalman-Filter. Bei dem erfindungsgemäßen Verfahren wird jedem nachverfolgten relevanten Bildpunkt ein Kalmanfilter mit einem Zustandsvektor [x y z vx vy vz] zugeordnet. Die Größen x, y und z beschreiben dabei die Raumposition des Bildpunktes z.B. in einem mitbewegten fahrzeugfesten Koordinatensystem. Die Größen vx, vy und vz kennzeichnen dabei die Geschwindigkeit in der jeweiligen Raumrichtung. Obwohl nur die die Raumposition beschreibenden Eintragungen x, y und z des Zustandvektors direkt messbar sind, wird es unter Verwendung von Modellannahmen mit dem Kalman-Filter möglich, alle 6 Werte des Zustandsvektors zu bestimmen. Somit können unter Verwendung eines Kalman-Filters relevante Bildpunkte anhand von zwei oder mehr Bildaufnahmen auf zuverlässige Weise nachverfolgt und deren Raumposition sowie deren Bewegungsrichtung und Bewegungsgeschwindigkeit bestimmt werden. Mit anderen Worten ausgedrückt, wird mittels des Kalman-Filters die räumliche und zeitliche Information integriert, wodurch eine zuverlässige Detektion schnell bewegter Objekte erst möglich wird. In der Diplomarbeit "Detektion von Hindernissen vor Fahrzeugen durch Bewegungsanalyse, C. Rabe, Fachhochschule Würzburg-Schweinfurt, Fachbereich Informatik und Wirtschaftsinformatik, Februar 2005" werden die im Zusammenhang mit einem derartigen auf Kalman-Filtern basierendem Mehrfiltersystem zur Fahzeugumgebungsanalyse erforderlichen mathematischen Berechnungen detailliert aufgezeigt.
  • Als besonders vorteilhaft hat es sich im Zusammenhang mit dem erfindungsgemäßen Verfahren dabei erwiesen, dass jedem relevanten Bildpunkt nicht nur ein Filter sondern mehrere Filter bei der Ermittlung derer Position und Bewegung herangezogen werden. Für den Fall, dass mehrere Filter zur Ermittlung von Position und Bewegung relevanter Bildpunkte herangezogen werden, werden in gewinnbringender Weise entweder verschiedene Bewegungsmodelle oder ein Bewegungsmodell mit unterschiedlichen Initialisierungen und/oder Parametrisierungen zu Grunde gelegt. Die Initialisierung der Filter unterscheidet sich dabei vorzugsweise hinsichtlich der Bewegungsrichtung und dem Geschwindigkeitsbetrag. Beispielsweise kann ein Filter von der Hypothese ausgehen, dass der zu betrachtende relevante Bildpunkt sich in Ruhe befindet und nicht bewegt. Ein weiteres Filter kann währenddessen von einem bewegten Bildpunkt ausgehen. Hierbei können insbesondere im Kontext der jeweiligen Anwendung weitere Annahmen getroffen werden. Beispielsweise kann im Zusammenhang mit einer Fahrzeuganwendung ein Filter von der Hypothese ausgehen, dass der zu betrachtende Bildpunkt einen Teil eines mit hoher Relativgeschwindigkeit entgegenkommenden Fahrzeugs repräsentiert, wobei ein weiteres Filter von der Hypothese ausgeht, dass es sich bei dem Bildpunkt um einen Bildpunkt handelt, welcher einen Teil eines mit ähnlicher Geschwindigkeit vorausfahrenden Fahrzeugs handelt. Unter Berücksichtigung der Innovationsfehler der einzelnen Filter kann bereits nach wenigen Bildzyklen eine Entscheidung darüber getroffen werden, ob eine Hypothese zutrifft oder nicht.
  • Weiterhin ist es von großem Vorteil, falls das Ergebnis der einzelnen Filter zu einem Gesamtergebnis der Filterung fusioniert wird. Beispielsweise können unterschiedliche Filter dadurch fusioniert werden, indem die Einzelergebnisse als gewichteter Mittelwert zu einem Gesamtergebnis zusammengefasst werden. Damit erhält man im Gegensatz zu Ein-Filter-Systemen sehr viel schneller eine Konvergenz zwischen geschätzten Werten und dem tatsächlichen Wert, was insbesondere bei Echtzeitanwendungen wie beispielsweise bei einer Kollisionsvermeidung von besonders großem Vorteil ist. Dabei besteht die Möglichkeit, dass das Gesamtergebnis der Filterung in einer weiteren gewinnbringenden Weise auf die Eingänge der Einzelfilter rückgekoppelt wird. Das Gesamtergebnis nimmt hierbei insbesondere auf die Parametereinstellungen der einzelnen Filter Einfluss und wirkt sich daher auch in gewinnbringender Weise auf die künftige Bestimmung von Position und Bewegung relevanter Bildpunkte aus.
  • Der zu einem Bildpunkt zugehörige Entfernungswert wird in einer gewinnbringenden Weise anhand von Bildaufnahmen und/oder mittels entfernungsauflösender Sensorik bestimmt. Beispielsweise kann die zu einem Bildpunkt zugehörige Entfernung mittels eines Verfahrens zur Stereobildanalyse bestimmt werden. Hierbei wird durch Analyse eines Bildpaares einer kalibrierten Stereokameraanordnung die 3D-Position relevanter Bildpunkte bestimmt. Alternativ oder zusätzlich besteht aber auch die Möglichkeit den zu einem Bildpunkt zugehörigen Entfernungswert mittels einem geeigneten entfernungsauflösenden Sensor zu bestimmen. Hierbei kann es sich beispielsweise um einen zusätzlichen punktförmigen Lasersensor handeln, welcher direkt Abstandswerte zu einem bestimmten Objektpunkt liefert. Auch sind aus dem Stand der Technik z.B. Laserscanner oder Entfernungsbildkameras bekannt, welche zu jedem Bildpunkt einen Tiefwert liefern.
  • Im Zusammenhang mit der Erfindung werden vorzugsweise diejenigen Bildpunkte zu Objekten zusammengefasst welche ähnliche Zustandsvektoren aufweisen, wobei beispielsweise Schranken für die maximale zulässige Abweichung einzelner oder mehrerer Elemente des Zustandsvektors vorgegeben sind. In einer gewinnbringenden Weise werden dabei nur diejenigen relevanten Bildpunkte zu Objekten zusammengefasst, welche vorgegebene Bedingungen hinsichtlich deren Position und/oder Bewegung erfüllen und/oder ein bestimmtes Mindestalter aufweisen. Beispielsweise kann die Objektdetektion nur auf bestimmte Bildbereiche eingeschränkt sein, z.B. kann die Objektdetektion im Zusammenhang mit Fahrzeuganwendungen auf bestimmte Fahrspuren eingegrenzt sein. Dabei ist es weiterhin denkbar, dass nur diejenigen relevanten Bildpunkte zu Objekten zusammengefasst werden, welche eine bestimmte Bewegungsrichtung aufweisen. Beispielsweise besteht die Möglichkeit, dass bei einer Anwendung bei der dem Fahrer die auf die eigene Fahrspur ein oder ausscherenden Fahrzeuge angezeigt werden sollen auch nur diejenigen Bildpunkte zu Objekten zusammengefasst werden, welche unter Beachtung bestimmter Toleranzen eine diagonale Bewegungsrichtung aufweisen. Weiterhin ist es denkbar, dass nur solche Bildpunkte zu Objekten zusammengefasst werden, welche ein bestimmtes Mindestalter aufweisen. Beispielsweise kann ein Mindestalter von 5 Bildzyklen gefordert sein, um damit diejenigen Bildpunkte von der Objektdetektion auszuschließen, welche aufgrund von Rauschen bestimmte Eigenschaften hinsichtlich ihrer Position und Bewegung aufweisen. Im Rahmen der Zusammenfassung von relevanten Bildpunkten zu Objekten besteht auch die Möglichkeit, dass eine beliebige Kombination der o.g. Kriterien herangezogen wird.
  • Auch ist es von großem Vorteil, falls bereits zusammengefasste Objekte weiterhin in Bildaufnahmen mittels Filter nachverfolgt werden. Verfahren, welche nach einer initialen Segmentierung die 3D-Position potenzieller Objekte als Entität nachverfolgen sind aus dem Stand der Technik bereits bekannt und basieren vorzugsweise auf einfachen Kalman-Filter. Dieses Nachverfolgen von bereits zusammengefassten Bildpunkten zu Objekten wird auch im Zusammenhang mit dem erfindungsgemäßen Verfahren genutzt. Damit können einerseits sehr zuverlässige Segmentierungen generiert werden und andererseits sehr gute Initialschätzungen von Objektbewegungen vorgenommen werden. In einer gewinnbringenden Weise werden zur Initialisierung der Filterung die Positionen und Bewegungen, insbesondere die Zustandsvektoren zusammengefasster Bildpunkte genutzt werden. Wohingegen zum Nachverfolgen von Objekten vorzugsweise die kontinuierlich ermittelten Positionen und Bewegungen einzelner Bildpunkte genutzt werden.
  • Das erfindungsgemäße Verfahren zur Objektdetektion auf Bildpunktebene kann beispielsweise im Zusammenhang mit Fahrerassistenzsystemen eingesetzt werden. Es sind bereits etliche Anwendungen für Fahrerassistenzsysteme bekannt, welche auf einer Bildgestützten Objektdetektion basieren. Beispielsweise sind Systeme zur Verkehrszeichenerkennung, zum Einparken, zur Spurhaltung usw. bekannt. Da sich das erfindungsgemäße Verfahren insbesondere durch seine Schnelligkeit und Robustheit hinsichtlich der Detektionsergebnisse auszeichnet, bietet es sich dabei vor allem im Zusammenhang mit einem Einsatz zur Kollisionserkennung bzw. Kollisionsvermeidung an. Der Fahrer kann dadurch rechtzeitig auf plötzlich herannahende Verkehrsteilnehmer aufmerksam gemacht werden oder es kann z.B. aktiv in die Fahrzeugdynamik eingegriffen.
  • Auch lässt sich das erfindungsgemäße Verfahren zur Objektdetektion auf Bildpunktebene im Zusammenhang mit Robotersystemen einsetzen. Künftige Roboter werden mit bildgebenden Sensoren ausgerüstet sein. Dabei kann es sich beispielsweise um autonome Transportsysteme, welche an Ihrem Einsatzort frei navigieren oder um stationäre Roboter handeln. Das erfindungsgemäße Verfahren kann in diesem Zusammenhang beispielsweise zur Kollisionserkennung oder zur Kollisionsvermeidung genutzt werden. Es ist aber auch denkbar, dass das Verfahren in Verbindung mit einem Roboter zum sicheren Greifen bewegter Objekte eingesetzt wird. Bei den bewegten Objekten kann es sich hierbei z.B. um bewegte Werkstücke oder um einen Menschen handeln, dem der Roboter assistiert.

Claims (13)

  1. Verfahren zur Objektdetektion auf Bildpunktebene in digitalen Bildsequenzen, wobei innerhalb einer ersten Bildaufnahme die 2D-Position relevanter Bildpunkte ermittelt wird, und wobei zu jedem relevanten Bildpunkt ein zugehöriger Entfernungswert bestimmt wird, dass diese Bildpunkte in wenigstens einer zweiten Bildaufnahme nachverfolgt und lokalisiert werden, wobei zu jedem der Bildpunkte erneut die 2D-Position oder die Verschiebung des Bildpunktes sowie der zugehörige Entfernungswert bestimmt werden, wobei mittels wenigstens einem geeigneten Filter die Position und Bewegung relevanter Bildpunkte ermittelt wird und wobei unter vorgegebenen Bedingungen relevante Bildpunkte sodann zu Objekten zusammengefasst werden.
  2. Verfahren zur Objektdetektion nach Anspruch 1, dadurch gekennzeichnet, dass die Eigenbewegung des Bildsensors bei der Ermittlung von Position und Bewegung relevanter Bildpunkte berücksichtigt wird.
  3. Verfahren zur Objektdetektion nach Anspruch 2, dadurch gekennzeichnet, dass die Eigenbewegung des Bildsensors anhand der Bildaufnahmen und/oder mittels Inertialsensorik bestimmt wird.
  4. Verfahren zur Objektdetektion nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass der wenigstens eine Filter zur Ermittlung von Position und Bewegung relevanter Bildpunkte ein Kalman-Filter ist.
  5. Verfahren zur Objektdetektion nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass für den Fall, dass mehrere Filter zur Ermittlung von Position und Bewegung relevanter Bildpunkte herangezogen werden, entweder verschiedene Bewegungsmodelle oder ein Bewegungsmodell mit unterschiedlichen Initialisierungen und/oder Parametrisierungen zu Grunde gelegt wird.
  6. Verfahren zur Objektdetektion nach Anspruch 5, dadurch gekennzeichnet, dass das Ergebnis der einzelnen Filter zu einem Gesamtergebnis der Filterung fusioniert wird.
  7. Verfahren zur Objektdetektion nach Anspruch 6, dadurch gekennzeichnet, dass das Gesamtergebnis der Filterung auf die Eingänge der Einzelfilter rückgekoppelt wird.
  8. Verfahren zur Objektdetektion nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass der zu einem Bildpunkt zugehörige Entfernungswert anhand von Bildaufnahmen und/oder mittels entfernungsauflösender Sensorik bestimmt wird.
  9. Verfahren zur Objektdetektion nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass nur diejenigen relevanten Bildpunkte zu Objekten zusammengefasst werden, welche vorgegebene Bedingungen hinsichtlich deren Position und Bewegung erfüllen und/oder ein bestimmtes Mindestalter aufweisen.
  10. Verfahren zur Objektdetektion nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass zusammengefasste Objekte weiterhin in Bildaufnahmen mittels Filter nachverfolgt werden, wobei zur Initialisierung der Filterung die Positionen und Bewegungen zusammengefasster Bildpunkte genutzt werden.
  11. Verfahren zur Objektdetektion nach Anspruch 10, dadurch gekennzeichnet, dass beim Nachverfolgen von Objekten die kontinuierlich ermittelten Positionen und Bewegungen einzelner Bildpunkte genutzt werden.
  12. Verwendung des Verfahrens zur Objektdetektion auf Bildpunktebene nach einem der Ansprüche 1 bis 11, im Zusammenhang mit Fahrerassistenzsystemen.
  13. Verwendung des Verfahrens zur Objektdetektion auf Bildpunktebene nach einem der Ansprüche 1 bis 11, im Zusammenhang mit Robotersystemen.
DE102005008131A 2005-01-31 2005-02-21 Objektdetektion auf Bildpunktebene in digitalen Bildsequenzen Withdrawn DE102005008131A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102005008131A DE102005008131A1 (de) 2005-01-31 2005-02-21 Objektdetektion auf Bildpunktebene in digitalen Bildsequenzen
PCT/EP2006/000013 WO2006081906A1 (de) 2005-01-31 2006-01-03 Objektdetektion auf bildpunktebene in digitalen bildsequenzen
US11/993,398 US20090297036A1 (en) 2005-01-31 2006-01-03 Object detection on a pixel plane in a digital image sequence
EP06700512A EP1920406A1 (de) 2005-01-31 2006-01-03 Objektdetektion auf bildpunktebene in digitalen bildsequenzen

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102005004510 2005-01-31
DE102005004510.3 2005-01-31
DE102005008131A DE102005008131A1 (de) 2005-01-31 2005-02-21 Objektdetektion auf Bildpunktebene in digitalen Bildsequenzen

Publications (1)

Publication Number Publication Date
DE102005008131A1 true DE102005008131A1 (de) 2006-08-03

Family

ID=36577450

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005008131A Withdrawn DE102005008131A1 (de) 2005-01-31 2005-02-21 Objektdetektion auf Bildpunktebene in digitalen Bildsequenzen

Country Status (4)

Country Link
US (1) US20090297036A1 (de)
EP (1) EP1920406A1 (de)
DE (1) DE102005008131A1 (de)
WO (1) WO2006081906A1 (de)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2048618A1 (de) * 2007-10-08 2009-04-15 Delphi Technologies, Inc. Verfahren zur Objekterfassung
DE102008005993A1 (de) * 2008-01-24 2009-07-30 Siemens Ag Österreich Verfahren zum Verfolgen von Objekten mittels einer Kamera
DE102009009047A1 (de) 2009-02-16 2010-08-19 Daimler Ag Verfahren zur Objektdetektion
DE102009016819A1 (de) 2009-04-09 2010-11-04 Carl Zeiss Optronics Gmbh Verfahren zur Detektion wenigstens eines Objekts und/oder wenigstens einer Objektgruppe, Computerprogramm, Computerprogammprodukt, Stereokameraeinrichtung, aktiv Strahlung aussendendes Bildsensorsystem und Überwachungsvorrichtung
DE102009028742A1 (de) 2009-08-20 2011-02-24 Robert Bosch Gmbh Verfahren und Steuergerät zur Bestimmung einer Bewegungsinformation eines Objekts
DE102011111440A1 (de) 2011-08-30 2012-06-28 Daimler Ag Verfahren zur Umgebungsrepräsentation
DE102012000459A1 (de) 2012-01-13 2012-07-12 Daimler Ag Verfahren zur Objektdetektion
AT506051B1 (de) * 2007-11-09 2013-02-15 Hopf Richard Verfahren zum erfassen und/oder auswerten von bewegungsabläufen
DE102013016032A1 (de) 2013-07-10 2014-04-10 Daimler Ag Verfahren zur Objektdetektion in stereoskopisch erfassten Bildern
DE102013020947A1 (de) * 2013-12-12 2015-06-18 Valeo Schalter Und Sensoren Gmbh Verfahren zum Verfolgen eines Zielobjekts bei Helligkeitsänderung, Kamerasystem und Kraftfahrzeug
DE102015213557A1 (de) * 2015-07-20 2017-01-26 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zum Erstellen eines dreidimensionalen Modells einer Produktionsumgebung

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013541915A (ja) * 2010-12-30 2013-11-14 ワイズ オートモーティブ コーポレーション 死角地帯の表示装置および方法
JP5957359B2 (ja) * 2012-10-19 2016-07-27 日立オートモティブシステムズ株式会社 ステレオ画像処理装置及びステレオ画像処理方法
JP6110256B2 (ja) 2013-08-21 2017-04-05 株式会社日本自動車部品総合研究所 対象物推定装置および対象物推定方法
DE102019128219A1 (de) 2019-10-18 2021-04-22 Connaught Electronics Ltd. Ein Bildverarbeitungsverfahren

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4980762A (en) * 1989-10-13 1990-12-25 Massachusetts Institute Of Technology Method and apparatus for image processing to obtain three dimensional motion and depth
US6009188A (en) * 1996-02-16 1999-12-28 Microsoft Corporation Method and system for digital plenoptic imaging
JP3512992B2 (ja) * 1997-01-07 2004-03-31 株式会社東芝 画像処理装置および画像処理方法
US6124864A (en) * 1997-04-07 2000-09-26 Synapix, Inc. Adaptive modeling and segmentation of visual image streams
US6215898B1 (en) * 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
US6295367B1 (en) * 1997-06-19 2001-09-25 Emtera Corporation System and method for tracking movement of objects in a scene using correspondence graphs
US6192156B1 (en) * 1998-04-03 2001-02-20 Synapix, Inc. Feature tracking using a dense feature array
US6236738B1 (en) * 1998-04-09 2001-05-22 Board Of Trustees Of The Leland Stanford Junior University Spatiotemporal finite element method for motion analysis with velocity data
US7116324B2 (en) * 1998-05-27 2006-10-03 In-Three, Inc. Method for minimizing visual artifacts converting two-dimensional motion pictures into three-dimensional motion pictures
US6628819B1 (en) * 1998-10-09 2003-09-30 Ricoh Company, Ltd. Estimation of 3-dimensional shape from image sequence
US6677941B2 (en) * 2000-08-05 2004-01-13 American Gnc Corporation Three-dimensional relative positioning and tracking using LDRI
US7058204B2 (en) * 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
EP1444654A2 (de) * 2001-03-08 2004-08-11 Universite Joseph Fourier Quantitative analyse, visualisierung und bewegungskorrektur in dynamischen prozessen
US7177445B2 (en) * 2002-04-16 2007-02-13 Koninklijke Philips Electronics N.V. Discriminating between changes in lighting and movement of objects in a series of images using different methods depending on optically detectable surface characteristics
US7132961B2 (en) * 2002-08-12 2006-11-07 Bae Systems Information And Electronic Systems Integration Inc. Passive RF, single fighter aircraft multifunction aperture sensor, air to air geolocation
US7188048B2 (en) * 2003-06-25 2007-03-06 Lockheed Martin Corporation Refining stochastic grid filter
WO2005026770A1 (ja) * 2003-09-11 2005-03-24 Mitsubishi Denki Kabushiki Kaisha レーダ装置
WO2005034041A1 (en) * 2003-10-07 2005-04-14 Openvr Co., Ltd. Apparatus and method for creating 3-dimensional image
JP4612635B2 (ja) * 2003-10-09 2011-01-12 本田技研工業株式会社 低照度の深度に適応可能なコンピュータ視覚を用いた移動物体検出
US7831087B2 (en) * 2003-10-31 2010-11-09 Hewlett-Packard Development Company, L.P. Method for visual-based recognition of an object
US7456847B2 (en) * 2004-08-12 2008-11-25 Russell Steven Krajec Video with map overlay
US7447337B2 (en) * 2004-10-25 2008-11-04 Hewlett-Packard Development Company, L.P. Video content understanding through real time video motion analysis
US7583849B2 (en) * 2005-07-25 2009-09-01 Microsoft Corporation Lossless image compression with tree coding of magnitude levels

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HEISELE Bernd: "Motion-based Object Detection and Trackng in Color Image Sequences", Fourth Asian Conference on Computer Vision, pages 1028-1033, 2000 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2048618A1 (de) * 2007-10-08 2009-04-15 Delphi Technologies, Inc. Verfahren zur Objekterfassung
AT506051B1 (de) * 2007-11-09 2013-02-15 Hopf Richard Verfahren zum erfassen und/oder auswerten von bewegungsabläufen
DE102008005993A1 (de) * 2008-01-24 2009-07-30 Siemens Ag Österreich Verfahren zum Verfolgen von Objekten mittels einer Kamera
DE102009009047A1 (de) 2009-02-16 2010-08-19 Daimler Ag Verfahren zur Objektdetektion
US8548229B2 (en) 2009-02-16 2013-10-01 Daimler Ag Method for detecting objects
DE102009016819A1 (de) 2009-04-09 2010-11-04 Carl Zeiss Optronics Gmbh Verfahren zur Detektion wenigstens eines Objekts und/oder wenigstens einer Objektgruppe, Computerprogramm, Computerprogammprodukt, Stereokameraeinrichtung, aktiv Strahlung aussendendes Bildsensorsystem und Überwachungsvorrichtung
DE102009016819B4 (de) * 2009-04-09 2011-12-15 Carl Zeiss Optronics Gmbh Verfahren zur Detektion wenigstens eines Objekts und/oder wenigstens einer Objektgruppe, Computerprogramm, Computerprogammprodukt, Stereokameraeinrichtung, aktiv Strahlung aussendendes Bildsensorsystem und Überwachungsvorrichtung
DE102009028742A1 (de) 2009-08-20 2011-02-24 Robert Bosch Gmbh Verfahren und Steuergerät zur Bestimmung einer Bewegungsinformation eines Objekts
WO2011020713A1 (de) 2009-08-20 2011-02-24 Robert Bosch Gmbh Verfahren und steuergerät zur bestimmung einer bewegungsinformation eines objekts
US9042639B2 (en) 2011-08-30 2015-05-26 Daimler Ag Method for representing surroundings
DE102011111440A1 (de) 2011-08-30 2012-06-28 Daimler Ag Verfahren zur Umgebungsrepräsentation
WO2013029722A2 (de) 2011-08-30 2013-03-07 Daimler Ag Verfahren zur umgebungsrepräsentation
DE102012000459A1 (de) 2012-01-13 2012-07-12 Daimler Ag Verfahren zur Objektdetektion
DE102013016032A1 (de) 2013-07-10 2014-04-10 Daimler Ag Verfahren zur Objektdetektion in stereoskopisch erfassten Bildern
DE102013020947A1 (de) * 2013-12-12 2015-06-18 Valeo Schalter Und Sensoren Gmbh Verfahren zum Verfolgen eines Zielobjekts bei Helligkeitsänderung, Kamerasystem und Kraftfahrzeug
DE102015213557A1 (de) * 2015-07-20 2017-01-26 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zum Erstellen eines dreidimensionalen Modells einer Produktionsumgebung

Also Published As

Publication number Publication date
WO2006081906A1 (de) 2006-08-10
EP1920406A1 (de) 2008-05-14
US20090297036A1 (en) 2009-12-03

Similar Documents

Publication Publication Date Title
DE102005008131A1 (de) Objektdetektion auf Bildpunktebene in digitalen Bildsequenzen
EP0541567B1 (de) Verfahren zur analyse zeitlicher folgen digitaler bilder
EP1589484B1 (de) Verfahren zur Erkennung und/oder Verfolgung von Objekten
US5937079A (en) Method for stereo image object detection
DE102014209137B4 (de) Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs
JP6574611B2 (ja) 立体画像に基づいて距離情報を求めるためのセンサシステム
EP2757524A1 (de) Tiefenmessungsverfahren und System für autonome Fahrzeuge
EP2372642B1 (de) Verfahren und System zur Erkennung von bewegenden Objekten
DE102016209625A1 (de) Verfahren zur Auswertung von Bilddaten einer Fahrzeugkamera
DE102009012435A1 (de) Vorrichtung und Verfahren zum monokularen Motion-Stereo-basierten Detektieren von freien Parkplätzen
DE102016104729A1 (de) Verfahren zur extrinsischen Kalibrierung einer Kamera, Rechenvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
Smith ASSET-2: Real-time motion segmentation and object tracking
EP3980968A1 (de) Detektion, 3d-rekonstruktion und nachverfolgung von mehreren relativ zueinander bewegten starren objekten
DE102016104730A1 (de) Verfahren zum Detektieren eines Objekts entlang einer Straße eines Kraftfahrzeugs, Rechenvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102018100909A1 (de) Verfahren zum Rekonstruieren von Bildern einer Szene, die durch ein multifokales Kamerasystem aufgenommen werden
DE102006039104A1 (de) Verfahren zur Entfernungsmessung von Objekten auf von Bilddaten eines Monokamerasystems
Willersinn et al. Robust obstacle detection and tracking by motion analysis
JP2007280387A (ja) 物体移動の検出方法及び検出装置
Shu et al. Vision based lane detection in autonomous vehicle
EP2467826A1 (de) Verfahren und steuergerät zur bestimmung einer bewegungsinformation eines objekts
DE102017100062A1 (de) Visuelle Odometrie
Goyat et al. Tracking of vehicle trajectory by combining a camera and a laser rangefinder
Rabie et al. Mobile active‐vision traffic surveillance system for urban networks
Rabe Detection of moving objects by spatio-temporal motion analysis
JP3447461B2 (ja) 移動障害物検出装置及びその方法

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8127 New person/name/address of the applicant

Owner name: DAIMLERCHRYSLER AG, 70327 STUTTGART, DE

8127 New person/name/address of the applicant

Owner name: DAIMLER AG, 70327 STUTTGART, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee