DE102006001033A1 - Vorrichtung und Verfahren zur Erkennung eines Objektes für ein Kraftfahrzeug - Google Patents

Vorrichtung und Verfahren zur Erkennung eines Objektes für ein Kraftfahrzeug Download PDF

Info

Publication number
DE102006001033A1
DE102006001033A1 DE102006001033A DE102006001033A DE102006001033A1 DE 102006001033 A1 DE102006001033 A1 DE 102006001033A1 DE 102006001033 A DE102006001033 A DE 102006001033A DE 102006001033 A DE102006001033 A DE 102006001033A DE 102006001033 A1 DE102006001033 A1 DE 102006001033A1
Authority
DE
Germany
Prior art keywords
image
objects
images
credibility
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102006001033A
Other languages
English (en)
Inventor
Thorsten Dr. Graf
Marc-Michael Dr. Meinecke
Alberto Prof.Dr. Broggi
Alessandra Dr. Fascioli
Massimo Bertozzi
Paolo Grisleri
Stefano Ghidoni
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102006001033A priority Critical patent/DE102006001033A1/de
Publication of DE102006001033A1 publication Critical patent/DE102006001033A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Erkennung von Objekten inder Fahrumgebung für ein Kraftfahrzeug. Insbesondere betrifft die Erfindung ein solches Verfahren und eine solche Vorrichtung, mit denen eine Objektidentitätszuordnung von Objekten O¶i,j¶, die mittels eines Objektselektionsverfahrens in erfassten Bildern der Fahrumgebung selektiert sind, möglich ist. Ferner betrifft die Erfindung ein Verfahren und eine Vorrichtung zur Objektidentitäszuordnung. Geschaffen wird insbesondere ein Verfahren zur Objektidentitätszuordnung von Objekten O¶i,j¶, die mittels eines Objektselektionsverfahrens in in einer zeitlichen Abfolge i + 2, i + 1, i, ... erfassten Bildern Bl¶i¶ selektiert worden sind, wobei das Objektselektionsverfahren für jedes selektierte Objekt O¶i,j¶ eines Bilds Bl¶i¶ eine Bildregion BR¶i,j¶ liefert, in der das jeweilige selektierte Objekt O¶i,j¶ in dem Bild Bl¶i¶ abgebildet ist, wobei die Bildregionen BR¶i,j¶ eines Bilds Bl¶i¶ jeweils einzeln mit jeder Bildregion BR¶i+1,L¶ eines zeitlich vorangehend aufgenommenen Bilds Bl¶i+1¶ in Beziehung gesetzt werden, wobei ein Einzelglaubwürdigkeitswert p¶i,j¶(L) ermittelt wird, dass die zwei miteinander in Beziehung gesetzten Bildregionen BR¶i,j¶, BR¶i+1,L¶ dasselbe Objekt abbilden und den in dem Bild Bl¶i¶ selektierten Objekten O¶i,j¶ jeweils ein Label L anhand einer Zuordnungsglaubwürdigkeit A·i,j·¶L¶ die basierend auf den Einzelglaubwürdigkeitswerten p¶i,j¶(L) ermittelt ist, zugewiesen wird, ...

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Erkennung von Objekten in der Fahrumgebung für ein Kraftfahrzeug. Insbesondere betrifft die Erfindung ein solches Verfahren und eine solche Vorrichtung, mit denen eine Objektidentitätszuordnung von Objekten Oi,j, die mittels eines Objektselektionsverfahrens in erfassten Bildern der Fahrumgebung selektiert sind, möglich ist. Ferner betrifft die Erfindung ein Verfahren und eine Vorrichtung zur Objektidentitätszuordnung.
  • In zukünftigen Fahrerassistenzsystemen wird elektronischen Sicherheits- und Komfortfunktionen, insbesondere Systemen der aktiven und passiven Fahrzeugsicherheit, eine große Bedeutung zukommen. Die Basis für die Realisierung solcher Systeme stellt die Sensorik dar, die es ermöglicht, die Fahrumgebung eines Fahrzeuges wahrzunehmen. Insbesondere für Fahrzeugsysteme, die eine Auslösung von Schutzmaßnahmen für Fahrzeuginsassen und/oder Fußgänger und/oder Zweiradfahrer umfassen sowie für Fahrzeugbeleuchtungssysteme, die in Abhängigkeit von in der Fahrzeugumgebung vorhandenen Objekten angesteuert werden sowie für Fahrerassistenzsysteme, die eine Precrashfunktion bzw. Vorrichtungen zur Unfallvermeidung bzw. Unfallfolgenminderung umfassen, ist es erforderlich, Objekte, die sich in der Umgebung des Fahrzeuges befinden, zu erfassen und nach der Objektart zu klassifizieren. Es ist bekannt, mittels einer Kamera, eines Bildsensors, einer Videosensorik oder einer Abstandssensorik, wie beispielsweise Radarsensoren, die Fahrzeugumgebung zu erfassen und im Hinblick auf vorhandene Objekte, wie beispielsweise Fußgänger, Zweiradfahrer, Fahrzeuge oder Wild, auszuwerten. Das Auffinden von bestimmten Objekten in einem Bild bzw. das Extrahieren von diesen bestimmten Objekten wird allgemein auch als Objektselektion bezeichnet.
  • Im Sinne der hier gemachten Ausführungen, ist ein Verfahren, das Bildregionen von 4 abgebildeten Objekten in aufgenommenen Bildern auffindet und diese isoliert und/oder extrahiert, ein Selektionsverfahren. Die Selektion erfolgt in der Regel anhand von Selektionskriterien. Daher wird im Stand der Technik, abweichend von dem hier verwendeten Sprachgebrauch, zuweilen auch ein Selektieren einer Bildregion als „ein Erkennen eines Objekts" bezeichnet. Ein Erkennen im Sinne der hier gemachten Ausführungen, setzt zusätzlich zu der Selektion zumindest eine Identifizierung des in der selektierten Bildregion abgebildeten Objekts voraus, worunter nicht nur eine bloße Klassifizierung nach der Art des Objekts, beispielsweise Fußgänger, gemeint ist. Gemäß der hier dargelegten Definition gilt ein Objekt beispielsweise als erkannt, wenn es als ein bereits bekanntes Objekt identifiziert ist.
  • Die DE 100 25 678 A1 beschreibt ein kamerabasiertes Precrash-Erkennungssystem zur Detektion von Verkehrsteilnehmern und Hindernissen auf der Grundlage von Kamerabildern. Hierzu werden mittels Klassifikationen mögliche Unfallobjekte ermittelt und deren Entfernung und Relativbewegung ermittelt.
  • Aus der DE 10243397 A1 ist ein Sensorsystem zur Auslösung von Schutzmaßnahmen für Kraftfahrzeug-Insassen und Fußgänger bekannt, welches einen Abstandssensor aufweist, der die Abstände und Annäherungsgeschwindigkeit in Winkelsektoren bestimmt und in definierten Abständen über einen Bildsensor Bilder der sich annähernden Objekte aufnimmt und diese Bilder mit der Entfernungsmessung korreliert und mittels der Ergebnisse die Schutzmaßnahmen auswählt und vor dem eigentlichen Aufprall auslöst.
  • In der DE 10301468 A1 ist eine Vorrichtung zur Beobachtung der Umgebung eines Fahrzeuges beschrieben, die in der Lage ist, in der Umgebung des Fahrzeuges anwesende Objekte auf der Basis eines Bildes, das durch zumindest ein an dem Fahrzeug vorgesehenes Infrarotkameraelement aufgenommen wird, zu erfassen. Die Vorrichtung umfasst eine Binärobjekt-Extraktionseinheit, die ein Grauwertbild des durch das Infrarotkameraelement aufgenommenen Bildes einem binären Schwellenvergleichsverfahren unterzieht und ein binäres Objekt aus dem Grauwertbild extrahiert, sowie eine Grauwertobjekt-Extraktionseinheit, die ein Grauwertobjekt, wovon ein Bereich das binäre Objekt enthält, auf der Basis einer Leuchtdichteänderung des Grauwertbildes aus dem Grauwertbild extrahiert. Des Weiteren umfasst die Vorrichtung eine Fußgängerbestimmungseinheit, die in einem das Grauwertobjekt enthaltenden Bereich einen Suchbereich einstellt und auf Basis einer Leuchtdichteverteilung in dem Suchbereich einen Fußgänger auf dem Grauwertbild erkennt.
  • Aus der DE 10327115 B3 ist ein Fußgängerschutzsystem für Fahrzeuge bekannt, wobei mittels eines optischen Sensors und/oder eines Radarsensors eine Fahr-/Vorausstrecke des Fahrzeuges überwacht wird. Aus den erfassten Sensorsignalen wird eine Ausgangsinformation erzeugt, die an eine erste vorgesehene Datenbank geleitet wird. Mittels einer Mikroprozessor- und/oder Bildprozessoreinheit wird ein elektronischer und/oder optischer Vergleich der Pixel – und/oder Bilddaten aus der ersten Bilddatenbank mit hinterlegten Objektbildklassen/Fußgängerobjektbildklassen aus einer zweiten Datenbank durchgeführt, wobei eine elektronische und optische Identifikation einer Fußgängerkontur ermittelt wird und nach Identifikation der Fußgängerkontur durch die Mikroprozessor- und/oder Bildprozessoreinheit ein nachgeschalteter Prognoserechner die voraussichtliche Kollisionszeit aus der Abstandsmessung Kraftfahrzeug-Fußgänger und der Kraftfahrzeugzeuggeschwindigkeit ermittelt.
  • Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zum Auffinden und zur Erkennung von Objekten in der Fahrumgebung eines Kraftfahrzeuges, derart weiterzubilden, dass eine möglichst fehlerfreie Erkennung der Objekte bzw. der Objektbewegung in mehreren nacheinander aufgenommenen Bildern ermöglicht wird, sowie eine Vorrichtung und ein Verfahren zu schaffen, mit denen eine zuverlässige Identifikation von Objekten in aufeinander folgend aufgenommenen Bildern der Umgebung des Kraftfahrzeugs möglich ist.
  • Diese Aufgabe wird erfindungsgemäß durch ein Verfahren zur Objektidentitätszuordnung mit den Merkmalen des Patentanspruchs 1, eine Vorrichtung zur Objektidentitätszuordnung mit den Merkmalen des Patentanspruchs 10, ein Verfahren zum Erkennen von Objekten mit den Merkmalendes Patentanspruchs 19 und eine Vorrichtung zum Erkennen von Objekten mit den Merkmalen des Patentanspruchs 21 gelöst. Vorteilhafte Ausgestaltungen ergeben sich aus den Unteransprüchen.
  • Um die Bewegung von Objekten in der realen Welt bestimmen zu können und auch Vorhersagen treffen zu können, müssen die Objekte, die in einem Bild erkannt worden sind, Objekten aus vorangegangenen Bildern zugeordnet werden. Nur so lassen sich aus der Positionshistorie die Bewegungen in der Zukunft schätzen. Dieses ist für viele verschiedene Fahrerassistenzsysteme wichtig, um z.B. Unfallvorhersagen treffen zu können, oder das Fahrzeug automatisch steuern zu können.
  • Insbesondere ist daher ein Verfahren zur Objektidentitätszuordnung von Objekten Oi,j vorgesehen, die mittels eines Objektselektionsverfahrens in in einer zeitlichen Abfolge i+2, i+1, i, ... erfassten Bildern BIi selektiert worden sind, wobei das Objektselektionsverfahren für jedes selektierte Objekt Oi,j eines Bilds BIi eine Bildregion BRi,j liefert, in der das jeweilige selektierte Objekt Oi,j in dem Bild BIi abgebildet ist, wobei die Bildregionen BRi,j eines Bilds BIi jeweils einzeln mit jeder Bildregion BRi+1,L eines zeitlich vorangehend aufgenommenen Bilds BRi+1 in Beziehung gesetzt werden, wobei jeweils ein Einzelglaubwürdigkeitswert pi,j(L) ermittelt wird, dass die zwei miteinander in Beziehung gesetzten Bildregionen BRi,j, BRi+1,L dasselbe Objekt abbilden, und den in dem Bild BIi selektierten Objekten Oi,j jeweils ein Label L anhand einer Zugordnungsglaubwürdigkeit Ai,j L, die basierend auf den Einzelglaubwürdigkeitswerten pi,j(L) ermittelt ist, zugewiesen wird, wobei die Zuordnungsglaubwürdigkeit ein Maß dafür ist, wie glaubwürdig die Zuordnung des Labels L zu dem j-ten selektierten Objekt Oi,j im i-ten Bild ist.
  • Objektselektionsverfahren, die Bestandteil eines jeden Objekterkennungsverfahrens sind, sind dem Fachmann vom Prinzip her aus dem (zum Teil oben gewürdigten) Stand der Technik bekannt und werden hier nicht näher erläutert. Das genutzte Objektselektionsverfahren ist so ausgestaltet, dass es aus den Bildern Bildregionen selektiert, in denen das selektierte Objekt abgebildet ist. Diese Bildregionen können so ausgestaltet sein, dass die selektierte Bildregion nur das selektierte Objekt umfasst. Es ist jedoch auch möglich, dass die selektierte Bildregion eine vorgegebene geometrische Form, beispielsweise ein Rechteck, besitzt. In diesem Fall umfasst die Bildregion auch Bildbestandteile, die nicht zu dem selektierten Objekt gehören, falls die vorgegebene geometrische Form von der Form der Abbildung des selektierten Objekts abweicht. Indem die selektierten Bildregionen aus zeitlich aufeinander folgend aufgenommenen Bildern miteinander in Beziehung gesetzt werden, ist es möglich, zunächst Einzelglaubwürdigkeiten zu ermitteln, die angeben, wie glaubwürdig es erscheint, dass diese Bildregionen in den aufeinander folgend aufgenommenen Bildern dasselbe Objekt abbilden.
  • Die Bildregionen werden vorzugsweise in Beziehung gesetzt, indem ein Überlappungsbereich der Bildregionen ermittelt wird. Die absolute Größe des Überlappungsbereichs stellt ein mögliches Maß für die Einzelglaubwürdigkeit dar. Da die Objekte unterschiedliche Größen aufweisen und/oder aufgrund ihrer unterschiedlichen Entfernung von der Kamera in den Bildern auf unterschiedlich große Bildregionen abgebildet werden, wird es bevorzugt, die Größen der Überlappungsbereiche jeweils auf die Fläche eines der beiden in Beziehung gesetzten Bildregionen, eine Summe dieser Flächen oder eine sich bei der Überlagerung der beiden Bildregionen ergebende Vereinigungsfläche zu normieren. Weitere Kriterien, wie eine Formähnlichkeit, eine Farb- und/oder Helligkeitsähnlichkeit usw. der Objekte, können beim In-Beziehung-Setzen ebenfalls einzeln oder in Kombination verwendet werden, um die Einzelglaubwürdigkeiten zu ermitteln.
  • Beim In-Beziehung-Setzen eines Objekt bzw. einer Bildregion mit mehreren Objekten des vorher aufgenommenen Bilds erhält man mehrere Einzelglaubwürdigkeiten. In vielen Fällen weisen mehrere dieser Einzelglaubwürdigkeiten einen nicht verschwindenden Wert auf. Wird die Überlappung zur Beurteilung der Glaubwürdigkeit herangezogen; so tritt dieser Fall immer auf, wenn ein Objekt eine Überlappung mit zwei Objekten aus dem vorherigen Bild aufweist. Dieser Fall tritt häufig bei Objekten, beispielsweise Fußgängern oder Zweiradfahrern, auf, die sich selbst bewegen. Daher ist es erforderlich, bei der Zuweisung von Labeln mehrere der Einzelglaubwürdigkeiten zu berücksichtigen. Es ist vorgesehen, aus den Einzelglaubwürdigkeiten Zuordnungsglaubwürdigkeiten für das Objekt zu ermitteln. Für das zu identifizierende Objekt werden Zuordnungsglaubwürdigkeiten ermittelt und zwar jeweils eine für jedes der bekannten, identifizierten, mit einem Label versehenen Objekte des vorangehenden Bilds. Das Objekt kann nur mit demjenigen der bekannten Objekte identifiziert werden, dem die höchste Zuordnungsglaubwürdigkeit zugeordnet ist. Das Identifizieren erfolgt, indem dem Objekt das Label des bereits erkannten Objekts zugewiesen wird. Objekte in den unterschiedlichen Bildern, denen dasselbe Label zugewiesen ist, sind als dasselbe Objekt identifiziert. Diese Identifizierung wird für alle Objekte des Bilds ausgeführt, die mit den bekannten Objekten identifiziert werden sollen. Diese Identifizierungsprozesse sind jedoch nicht unabhängig voneinander. Daher wird vorzugsweise das Objekt zuerst identifiziert, für das der höchste Zuordnungsglaubwürdigkeitswert ermittelt wurde. Ist aufgrund der Zuordnungsglaubwürdigkeiten keine sinnvolle Identifizierung eines oder mehrerer Objekte des Bilds mit bereits erkannten Objekten der vorangehenden Bilder möglich, so wird diesen Objekten jeweils eine neues Label zugeordnet. Sie werden somit als neue eigenständige Objekte identifiziert.
  • Ein erfindungsgemäßes Verfahren zum Erkennen von Objekten Oi,j, insbesondere Fußgängern oder Zweiradfahrern, für ein Kraftfahrzeug, welches neben der Selektion der Objekte Oi,j aus einer Abbildung auch eine Identifizierung der Objekte ermöglicht, wird vorgeschlagen, bei dem mittels einer Kamera von einer Umgebung des Kraftfahrzeugs zeitlich aufeinander folgend Bilder BIi erfasst werden. Das Verfahren umfasst ein Objektselektionsverfahren, mit dem in den erfassten Bildern BIi die Objekte Oi,j selektiert werden und für jedes selektierte Objekt Oi,j eines Bilds BIi eine Bildregion BRi,j geliefert wird, in der das jeweilige selektierte Objekt Oi,j in dem Bild BIi abgebildet ist, und ein Verfahren zur Objektidentitätszuordnung, wie es oben beschrieben ist. Hierdurch wird ein Verfahren geschaffen, das Informationen für die einzelnen Objekte zur Verfügung stellt, die ausreichend sind, um in Assistenzsystemen des Kraftfahrzeugs, beispielsweise für eine Precrash-Analyse eingesetzt zu werden. Bereits im Vorfeld eines möglichen Zusammenstoßes mit einem Objekt, beispielsweise Fußgänger oder Zweiradfahrer, kann auf diese Gefahr aufmerksam gemacht werden oder sogar in die Fahrzeugsysteme (Lenkung, Bremssystem, Airbag-System, ... ) eingegriffen werden oder diese aktiviert werden. Hierdurch lassen sich Unfälle und Gefahrensituationen vermeiden und/oder ihre nachteiligen Folgen vermindern.
  • Um Fehlzuordnungen der Identität zu vermeiden, wird es bevorzugt, dass die Zuordnungsglaubwürdigkeit einen Mindestwert, der als vorgegebener Schwellenwert festgelegt ist, überschreiten muss, damit ein Objekt mit einem bereits vorher erkannten Objekt identifiziert wird. Bei einer bevorzugten Ausführungsform ist somit vorgesehen, dass beim Zuweisen der Label L einem selektierten Objekt Oi,j ein bereits einem der Objekte Oi+1,j eines zeitlich vorangehend aufgenommenen Bilds BIi+1 zugewiesenes Label L verwendet wird, wenn die Zuordnungsglaubwürdigkeit Ai,j L größer als ein Schwellenwert ist.
  • Objekte, die weit von der Kamera entfernt sind, mit der die Bilder aufgenommen und erfasst werden, werden auf eine kleinere Bildregion abgebildet als gleich große Objekte, die sich näher an der Kamera befinden. Dies ist eine Folge der Abbildungsgeometrie. Die Entfernung wirkt sich auch auf die Größe des Überlappungsbereichs von Bildregionen desselben Objekts sowie dessen Auflösung aus. Daher ist bei einer bevorzugten Weiterbildung vorgesehen, dass für die selektierten und/oder erkannten Objekte Oi,j eine Entfernung ermittelt wird und der Schwellenwert eine Entfernungsabhängigkeit aufweist, wobei der Schwellenwert mit der ermittelten Entfernung abnimmt. Die Entfernung eines Objekt lässt sich beispielsweise Schätzen, wenn man annimmt, dass eine Fläche vor der Kamera eben ist und ein Neigungswinkel der Kamera bezüglich der Fläche sowie ein Öffnungswinkel der Kamera bekannt sind. In erster Näherung ist dann ein Abstand von einem unteren Bildrand ein Maß für die Entfernung in der ebenen Fläche von der Kamera. Der geringste Abstand einer Bildregion eines Objekts von dem unteren Bildrand kann als Maß der Entfernung herangezogen werden, wenn ferner angenommen wird, dass sich das Objekt auf der ebenen Fläche bewegt. Diese grobe Abschätzung lässt sich verbessern, indem Informationen über die genaue Abbildungsgeometrie, eine Fahrzeuglage, usw. mit einbezogen werden.
  • Da sich ein Kraftfahrzeug bewegt, verändert sich die Abbildungsgeometrie bezüglich einer stationären Umgebung des Kraftfahrzeugs abhängig von dieser Bewegung. Bei einer bevorzugten Ausführungsform wird daher beim In-Beziehung-Setzen der Bildregionen BRi,j eine Bewegung der die Bilder BIi aufnehmenden Kamera zwischen den Zeitpunkten, an denen die zeitlich aufeinander folgenden Bilder BIi aufgenommen sind, kompensiert.
  • Zu einer sehr verbesserten Identifizierung der Objekte mit bereits erkannten Objekten gelangt man, wenn man auch Informationen berücksichtigt, die im Zusammenhang mit einem vorvorherigen Bild oder weiteren hiervor aufgenommenen Bildern stehen. Eine verbesserte Identifizierung erreicht man bei einer Ausführungsform, bei der zusätzlich zu den für das Bild BIi ermittelten Einzelglaubwürdigkeiten pi,j(L) mindestens die für das eine zeitlich vorangehend aufgenommene Bild BIi+1 ermittelten Einzelglaubwürdigkeiten pi+1,j(L) zur Ermittlung der Zuordnungsglaubwürdigkeiten Ai,j L herangezogen werden. Hierdurch können beispielsweise Fälle besser berücksichtigt werden, bei denen sich zwei Objekte, die zunächst in einem Bild getrennt sichtbar sind, in einem nachfolgenden Bild vollständig überlappen und als ein Objekt erscheinen und in einem späteren Bild erneut als zwei Objekte sichtbar sind.
  • Um auch Situationen wie die eben Beschriebene und ferner solche Situationen gut handhaben zu können, in denen eines der Objekte in einem Bild von einem Gegenstand verdeckt wird, ist bei einer Ausführungsform vorgesehen, dass mittels einer Voraussageeinheit für erkannte und zugeordnete Objekte Oi+1,j (L) des zeitlich vorangehend aufgenommenen Bilds BIi+1 anhand der hiervor aufgenommenen Bilder BIi+k (k>2) vorausgesagte Bildregionen BR'i bestimmt werden und zusätzlich zu den Bildregionen BRi,j der selektierten Objekten Oi,j bei der Labelzuweisung berücksichtigt werden.
  • Die Zuordnungsglaubwürdigkeiten weisen eine besonders hohe Aussagekraft bei einer Ausführungsform auf, bei der die Zuordnungsglaubwürdigkeit Ai,j L nach folgender Formel errechnet wird:
    Figure 00070001
    wobei i die aufgenommenen Bilder BIi in zeitlich umgekehrter Reihenfolge indexiert, j die in dem jeweiligen Bild BIi erkannten und gegebenenfalls vorausgesagten Bildregionen BRi,j indexiert, von denen es für das jeweilige Bild BIi NL,i gibt, L jeweils das Label bezeichnet, das den jeweils zugeordneten Objekten Oi,j (L) in den zeitlich vorangehenden Bildern BIi (i>0) zugewiesen ist, und e die Euler'sche Zahl ist und M die insgesamt berücksichtigten Bilder BIi angibt, wobei das eine Bild BIi, für dessen selektierte und gegebenenfalls vorausgesagte Objekte Oi,j die Zuordnungsglaubwürdigkeiten Ai,j L errechnet werden, den Index i=0 besitzt. Bei diesem Berechnungsverfahren werden Einzelglaubwürdigkeiten vorheriger Bilder mit einbezogen. Für ein Label L, d.h. eine Identität, wird für das vorher aufgenommene Bild (und entsprechend für die davor aufgenommenen Bilder) jeweils die Glaubwürdigkeit ermittelt, dass das in dem entsprechenden vorvorherigen Bild mit dem Label L identifizierte Objekt in dem vorherigen Bild erneut abgebildet ist. Hierfür werden die Einzelglaubwürdigkeiten für alle Objekte des vorherigen Bilds addiert, dass sie dasselbe Objekt wie das im vorvorherigen Bild mit dem Label L identifizierte Objekt sind. Zu dieser Glaubwürdigkeit für das vorherige Bild (und den entsprechend ermittelten Glaubwürdigkeiten für die davor aufgenommenen Bilder) wird die Einzelwahrscheinlichkeit addiert, dass das in dem vorherigen Bild mit dem Label L identifizierte Objekt mit dem zuzuordnenden Objekt O0,j identisch ist. Zusätzlich werden die Glaubwürdigkeiten der einzelnen Bilder durch eine Potenz der eulerschen Zahl e dividiert und somit in ihrem Einfluss auf die Zuordnungsglaubwürdigkeit gemindert. Die Minderung ist um so stärker je weiter die Aufnahme des Bilds zeitlich zurückliegt.
  • Zur Berücksichtigung von Rotationen der Kamera bzw. des Kraftfahrzeugs ist vorteilhafterweise vorgesehen, dass die Bewegungskompensation einer Drehung der Kamera um einen Rotationswinkel α, der gegebenenfalls aus einer Gierrate κ multipliziert mit der Zeit t errechnet wird, die zwischen den Zeitpunkten, an denen die aufeinander folgenden Bildern BIi aufgenommen sind, vergangen ist, berücksichtigt wird, indem die zeitlich aufeinander folgend aufgenommenen Bilder BIi um d Bildpunkte gegeneinander verschoben werden, wobei gilt:
    Figure 00080001
    und b eine Bildbreite angibt und Φ einen Kameraöffnungswinkel angibt. Dieses stellt eine einfache Vorgehensweise dar, die zu einer guten Kompensation führt.
  • Eine Bewegungskompensation einer Translation berücksichtigt man vorteilhafterweise, indem die Bildregionen BIi eines der in Beziehung zu setzenden Bilder BIi aus einem zweidimensionalen Bildraum in einen dreidimensionalen mit einem Weltkoordinatensystem versehenen Raum transformiert werden, anschließend in dem dreidimensionalen Raum bezüglich der Translation, die die Kamera zwischen Zeitpunkten, an denen die Bilder BIi, BRi+1 aufgenommen sind, ausgeführt hat, kompensiert (verschoben) werden und anschließend in zweidimensionalen Bildraum zurück transformiert werden.
  • Bei einer vorteilhaften Ausführungsform des Verfahrens zum Erkennen von Objekten ist vorgesehen, dass die selektierten Objekte Oi,j und/oder die zugehörigen Bildregionen BRi,j des erfassten Bildes BIi ausgegeben werden, wobei die selektierten Objekte Oi,j und/oder die zugehörigen Bildregionen BRi,j jeweils mit dem zugewiesenen Label gekennzeichnet sind. Das Ausgeben kann in Form des Bilds so erfolgen, dass das Bild entsprechend modifiziert ist, um das Label und die Bildregion und gegebenenfalls zusätzlich die Entfernung kenntlich zu machen oder hervorzuheben. Ferner können die Objekte selbst, z.B. farblich, hervorgehoben werden. Ebenso können die ermittelten Zusatzinformationen, Identität, Entfernung, Lage im Bild, usw., auch als Daten, gegebenenfalls zusätzlich, ausgegeben werden. Das Ausgeben der selektierten Objekte und zugehörigen Label kann ebenso in parametrisierter Form erfolgen. Ferner können Zusatzinformationen ausgegeben und/oder bereit gestellt werden.
  • Bei einer Ausführungsform ist vorgesehen, dass Objekte, die nicht in einer vorgegebenen Mindestanzahl von Bildern nach einander als ein und dasselbe Objekt identifiziert wurden, nicht ausgegeben werden.
  • Die Merkmale der erfindungsgemäßen Vorrichtung zur Objektidentitätszuordnung und einer erfindungsgemäßen Vorrichtung zum Erkennen von Objekten weisen jeweils dieselben Vorteile wie die entsprechenden erfindungsgemäßen Verfahren auf.
  • Nachfolgend wird die Erfindung anhand einer Zeichnung näher erläutert. Hierin zeigen:
  • 1 eine Darstellung einer Ausführungsform eines Erkennungsverfahrens für Fußgänger;
  • 2 eine schematische Darstellung zweier aufgenommener Bilder sowie eine Vorgehensweise, um eine Einzelglaubwürdigkeit dafür zu ermitteln, dass darin selektierte Bildregionen dasselbe Objekt abbilden;
  • 3 eine schematische Darstellung von vier aufeinander folgend aufgenommenen Bildern sowie deren entsprechenden Überlagerungen zum Ermitteln von Überlappungsbereichen von Bildregionen der selektierten Objekte in den Bildern;
  • 4 eine Darstellung eines Tracking-Graphen, der mit den Bildern nach 3 korrespondiert;
  • 5 ein Ausschnitt des Tracking-Graphen nach 4 für eines der in dem zeitlich zuletzt aufgenommenen Bild selektierten Objekte; und
  • 6a bis 6c eine Darstellung von Bildern, die von einer Kamera in einer zeitlichen Abfolge aufgenommen sind und von einer Ausführungsform eines Erkennungsverfahrens ausgegeben sind.
  • Das erfindungsgemäße Verfahren wird anhand eines Fußgängererkennungssystems beschrieben. Es kann jedoch auf beliebige Objekte angewandt werden. Die erfindungsgemäße Vorrichtung umfasst ein System zur Objektselektion, welches in der Lage ist, in Videobildern Objekte zu selektieren.
  • Der schematische Ablauf einer Ausführungsform eines Verfahrens zum Erkennen von Objekten ist in 1 beschrieben. Ein Fahrzeug 1 umfasst zumindest eine oder mehrere Kameras (nicht dargestellt), die die Fahrzeugumgebung wahrnehmen. Hierzu werden Bilder 2 aufgenommen. Die ursprünglich erfassten Bilder werden auch als Originalbilder bezeichnet. Die Originalbilder werden einem Objektselektionssystem 3 zugeführt. Solche Objektselektionssysteme werden zum Teil auch als Objekterkennungssystem im engeren Sinne bezeichnet. Im Sinne der hier gemachten Ausführungen ist ein Objektselektionssystem, das lediglich Objekte in einem Bild auffindet und selektiert, kein Objekterkennungssystem. Ein Objekterkennungssystem im Sinne der hier gemachten Ausführungen ist ein übergeordnetes System, das eine über ein reines Auffinden, das heißt ein Selektieren, von Objekten hinausgehende zusätzliche Identifizierung der Objekte ausführt.
  • Das Objektselektionssystem selektiert in der vorgestellten Ausführungsform Fußgänger als Objekte 4, 5. Es werden Bildregionen 6, 7 ermittelt und deren Koordinaten ausgegeben, in denen die selektierte Fußgänger in den Bildern abgebildet sind. Die so selektierten Bildregionen 6, 7 der Objekte 4, 5 werden auch als Objekthypothesen bezeichnet.
  • Anschließend werden die selektierten Bildregionen 6, 7 sowie zusätzliche Fahrzeugdaten 8 (z.B. Geschwindigkeit, Gierrate, etc.) dem so genannten Tracker 9 übergeben, der die Zuordnung der Bildregionen 6,7 der selektierten Objekte 4, 5 zu den bereits bekannten Objekten der vorhergehenden Bilder vornimmt.
  • Der Tracker 9 enthält zwei Module, einen Labeler 10 (Kennzeichner) und eine als Prediction Filter (Vorhersagefilter) 11 ausgestaltete Voraussageeinheit. Der Labeler 10 und die Voraussageeinheit werden ebenso wie ihre Funktionsweisen weiter unten genauer beschrieben.
  • Ausgegeben wird ein Bild 12, in dem die selektierten Bildregionen 6, 7 der Objekte 4, 5 mit einem Label versehen sind, das heißt, erkannt sind, wobei das Label jeweils eine Identifikation mit den bereits bekannten Objekten ermöglicht bzw. angibt. Ferner sind in der Regel Zusatzinformationen in dem ausgegebenen Bild enthalten, hier Entfernungslinien 13.
  • In anderen Ausführungsformen können auch lediglich Objektinformationen, wie z. B. Entfernung, ausgegeben werden, um z. B. andere Fahrerassistenzsysteme zu steuern.
  • In wieder anderen Ausführungsformen können Informationen über identifizierte Objekte gemeinsam mit ihrer Zuordnung in parametrisierter Form und gegebenenfalls mit Zusatzinformationen bereitgestellt und/oder ausgegeben werden.
  • Der Labeler 10 stellt ein zentrales Modul dar, welches die Zuordnung der neu selektierten Objekte zu den bereits erkannten (selektierten und mit vorbekannten Objekten identifizierten) Objekten in den vorhergehenden Bildern vornimmt. Hierzu erhält der Labeler 10 von dem Selektionssystem eine Liste mit den im aktuellen Bild selektierten Objekten in Form von Bildregionen und vergleicht diese mit den bereits selektierten und identifizierten sowie gespeicherten Bildregionen der vergangenen Bilder. Überlappt sich die Bildregion eines neu selektierten Objektes in ausreichendem Maße mit einer Bildregion der bereits erkannten Objekte, so wird das neu selektierte Objekt mit dem bereits erkannten identifiziert. Diese Zuordnung geschieht über einen Schwellenwert, der in Abhängigkeit mit der Entfernung zum Objekt variiert (je weiter das Objekt von der Kamera entfernt ist, desto geringer ist der Schwellenwert). Hierbei kann es vorkommen, dass ein neu selektiertes Objekt zu mehreren bereits erkannten Objekten zugeordnet wird.
  • Dieser Vergleich geschieht direkt im zweidimensionalen Bildraum, da eine Entfernungsschätzung von Mono-Kamerasystemen üblicher Weise recht ungenau ist. Im Folgenden wird die Funktionsweise des Labelers 10 beispielhaft beschrieben.
  • In 2 sind schematisch ein Bilder 20 (i=0) und ein zeitlich vorangehend aufgenommenes Bild 21 (i=1) dargestellt. In beiden Bildern 20, 21 ist jeweils ein Objekt A in Bildregionen 22, 23 abgebildet. Das Objekt A hat sich zwischen den Zeitpunkten, an denen die Bilder 20, 21 aufgenommen wurden, bewegt. Daher befindet sich die Bildregionen 22, 23 nicht an derselben Position in den Bildern 20, 21.
  • Überlagert man die beiden Bilder 20, 21, so erhält man ein Überlagerungsbild 24. Betrachtet man die Überlagerung der Bildregionen 22, 23, so erhält man einen Überlappungsbereich 25 und einen Vereinigungsbereich 26. Der Überlappungsbereich 25 ist eine Schnittmenge der Bildregionen 22, 23. Der Vereinigungsbereich ist eine Vereinigungsmenge der Bildregionen 22, 23.
  • Um auszudrücken, wie glaubwürdig es ist, dass die Bildregion 22 aus Bild 20 dasselbe Objekt A, das in der Bildregion 23 von dem zeitlich vorangehend aufgenommenen Bild 21 dargestellt ist und mit einem Label L=1 bezeichnet ist, abbildet, wird eine Einzelglaubwürdigkeit pi=0,j=0(L=1) errechnet, die sich aus dem Quotienten der Flächen des Überlappungsbereichs 25 und des Vereinigungsbereichs 26 ergibt, wie unten rechts in 2 dargestellt ist. Der Vereinigungsbereich 26 wird zur Normierung verwendet. Ebenso könnte eine Normierung auf eine der Flächen der Bildregionen 22, 23 erfolgen oder ganz unterbleiben.
  • In diesem Fall ist in den Bildern 20, 21 jeweils nur das eine Objekt A abgebildet. Es wird somit nur eine Einzelglaubwürdigkeit pi,j(L) bestimmt, die in diesem Falle zugleich auch eine Zuordnungsglaubwürdigkeit Ai,j L ist. Die Zuordnungsglaubwürdigkeit Ai,j L wird mit einem Schwellenwert verglichen. Übersteigt die Zuordnungsglaubwürdigkeit Ai,j L diesen Schwellenwert, so wird der Bildregion 22 des Bilds 20 und somit dem in dem Bild 20 selektierten Objekt A das Label L=1 der Bildregion 23 des zeitlich vorausgehend aufgenommenen Bilds 21 zugewiesen. Das in den Bildern 20, 21 abgebildete Objekt wird als dasselbe identifiziert und ist mit dem Label L=1 gekennzeichnet.
  • Der Schwellenwert ist vorzugsweise abhängig von einer Entfernung, die für das Objekt bestimmt wird, dessen Identität ermittelt werden soll. Unter der Annahme, dass die Fläche vor der Kamera eben ist und ein Neigungswinkel der Kamera bezüglich der ebenen Fläche sowie ein Öffnungswinkel der Kamera bekannt sind und der weiteren Annahme, dass sich die Objekte auf dieser ebene Fläche bewegen, ist ein minimaler Abstand der jeweiligen Bildregion 22, 23 von einem entsprechenden unteren Rand 27, 28 der Bilder 20, 21 ein Maß für die Entfernung der Objekte von der Kamera, wie diese durch Skalen 29, 30 neben den Bildern 20, 21 angedeutet ist. Eine horizontale Linie 31 im Bild 20 berührt die Bildregion 22 an einem unteren Ende 32 und schneidet die Skala 29 bei dem Wert 3. Das der Bildregion 22 zugeordnete Objekt A befindet sich somit 3 Längeneinheiten entfernt. Auf ähnliche Weise läst sich die Entfernung des Objekts A in dem zeitlich vorangehend aufgenommenen Bild 21 ermitteln. Diese ergibt sich aus einem Schnittpunkt einer weiteren horizontalen Linie 33 mit der Skala 30 zu 1 Längeneinheit.
  • In 3 sind vier Bilder 41, 42, 43, 44 dargestellt. Oben ist das zeitlich zuerst aufgenommene Bild 44, i=3, und unten das zuletzt aufgenommene Bild 41, i=0, dargestellt.
  • Von einem Selektionssystem sind in den Bildern 41 (BI0), 42 (BI1), 43 (BI2), 44 (BI3) Bildregionen 41-1 (BRi=0,j=0), 41-2 (BR0,1); 42-1 (BR1,0), 42-2 (BR1,1); 43-1 (BR2,0), 43-2 (BR2,1), 43-3 (BR2,2) und 44-1 (BR3,0), 44-2 (BR3,1), 44-3 (BR3,2) selektiert worden, die entsprechenden Objekten Oi,j zugeordnet sind.
  • In einer rechten Spalte der 3 sind entsprechende Überlagerungsbilder 45 (Überlagerung der Bilder 44 und 43), 46 (Überlagerung der Bilder 43 und 42) und 47 (Überlagerung der Bilder 42 und 41) dargestellt. Die Bildbereiche des jeweils vorangehend aufgenommenen Bilds sind gestrichelt dargestellt. Die sich ergebenden Überlappungsbereiche 45-1, 45-2, 45-3, 45-4, 45-5; 46-1, 46-2, 46-3; 47-1, 47-2, 47-3 korrespondieren mit Kanten in einem so genannten Tracking-Graphen, wie er in 4 dargestellt ist. Wie oben im Zusammenhang mit 3 erläutert, lassen sich aus den Überlappungsbereichen 45-1, 45-2, 45-3, 45-4, 45-5; 46-1, 46-2; 47-1, 47-2, 47-3, 47-4 die Einzelglaubwürdigkeiten pi,j(L) ermitteln. Diese sind in 3 und 4 jeweils graphisch zugeordnet.
  • 4 zeigt einen Tracking-Graphen. Die Kreise bezeichnen Objekte, wobei die Zahlen in den Kreisen bereits zugeordnete Label bzw. vorläufig zugeordnete Label angeben. Die Verbindungslinien bezeichnen mögliche Zuordnungen von einem Bild zum nächsten. Das heißt sie geben die Beziehungen zwischen Objekten bzw. deren Bildregionen an, für die eine Einzelglaubwürdigkeit pi,j(L), dass die Bildregionen dasselbe Objekt abbilden, nicht gleich null ist. Die Kreise, die untereinander stehen, beschreiben jeweils die Objekte ein und desselben Bildes, während die Kreise, die nebeneinander stehen, die selektierten Objekte in verschiedenen Bildern darstellen. Zu jeder Linie gehört noch eine Einzelglaubwürdigkeit pi,j(L), wobei i das Bild von vor i Zeitschritten bezeichnet und L das Label des, Objekts bzw. der Bildregion des jeweils zeitlich vorangehend aufgenommenen Bilds i+1 ist und j das entsprechende selektierte (und gegebenenfalls erkannte) Objekt des i-ten Bilds indexiert. Diese Einzelglaubwürdigkeiten ergeben sich aus dem Umfang der Überlappungen der zugeordneten Bildregionen.
  • Jedes Objekt Oi,j bzw. jede Bildregion BRi,j (j=0,1) in dem aktuellen Bild 41, BI0, (vgl. 3) erhält zunächst eine temporäres Label, das auch als Objektnummer bezeichnet wird. Dem Objekt Oi=0,j=0, welches mit einem Index j=0 assoziiert ist, ist das temporäre Label 4 und dem anderen Objekt Oi=0,j=0, welches mit einem Index j=1 assoziiert ist, ist das temporäre Label 5 zugewiesen. Wenn es eine Überlappung der Bildregionen 41-1 (BRi=0,j=0), 41-2 (BR0,1) (vgl. 3) der aktuellen Objekte mit einem oder mehreren Bildregionen 42-1 (BR1,0), 42-2 (BR1,1) von Objekten des vorherigen Bildes 42, BI1, gibt, gibt es auch eine mögliche Zuordnung mit einer dazugehörigen Glaubwürdigkeit, die Zuordnungsglaubwürdigkeit Ai,j L genannt wird. Die Zuordnungsglaubwürdigkeit Ai=0,j gibt für die j-te selektierte Bildregion BRi=0,j bzw. vorausgesagte Bildregion BR'i=0,j des aktuellen Bilds 41, BIi, für das i=0 gilt, die Glaubwürdigkeit an, dass in der Bildregion BRi=0,j, das bereits mit dem Label L identifizierte Objekt abgebildet ist. Diese Zuordnungsglaubwürdigkeit wird basierend auf den Einzelglaubwürdigkeiten pi,j(L) ermittelt. Das temporäre Label kann durch das Label ersetzt werden, zu dem die höchste Zuordnungsglaubwürdigkeit Ai,j L gehört.
  • In 5 ist ein Ausschnitt des Tracking-Graphen nach 4 für die mit dem temporären Label 5 versehene Bildregion BR0,1 in einer anderen Darstellungsweise gezeigt. Alle möglichen Zuordnungszweige, die eine ununterbrochene Einzelglaubwürdigkeitskette zu der mit dem Label 5 gekennzeichneten Bildregion BR0,1 darstellen sind in einer Baumstruktur dargestellt.
  • Die Zuordnungsglaubwürdigkeit Ai,j L ergibt sich bei einer bevorzugten Ausführungsform aus:
    Figure 00130001
    wobei i die aufgenommenen Bilder BIi in zeitlich umgekehrter Reihenfolge indexiert, j die in dem jeweiligen Bild BIi erkannten und gegebenenfalls vorausgesagten Bildregionen BRi,j indexiert, von denen es für das jeweilige Bild BIi NL,i gibt, L jeweils das Label bezeichnet, das den jeweils zugeordneten Objekten Oi,j (L) in den zeitlich vorangehenden Bildern BIi (i>0) zugewiesen ist, e die Euler'sche Zahl ist und M die insgesamt berücksichtigten Bilder BIi angibt, wobei das eine Bild BIi=0, für dessen selektierte Objekte Oi,j die Zuordnungsglaubwürdigkeiten Ai,j L errechnet werden, den Index i=0 besitzt. Bei diesem Berechnungsverfahren werden Einzelglaubwürdigkeiten vorheriger Bilder mit einbezogen. Für ein Label L, d.h. eine Identität, wird für das vorher aufgenommene Bild (und entsprechend für die davor aufgenommenen Bilder) die Glaubwürdigkeit ermittelt, dass das in dem vorvorherigen Bild mit dem Label L identifizierte Objekt in dem vorherigen Bild erneut abgebildet ist. Hierfür werden für alle Objekte des vorherigen Bilds die Einzelglaubwürdigkeiten dafür addiert, dass sie dasselbe Objekt wie das im vorvorherigen Bild mit dem Label L identifizierte Objekt sind. Zu dieser Glaubwürdigkeit für das vorherige Bild (und den entsprechend ermittelten Glaubwürdigkeiten für die davor aufgenommenen Bilder) wird die Einzelglaubwürdigkeit dafür addiert, dass die Bildregion Bi=0,j des aktuellen Bild BIi=0 dasselbe Objekt abbildet, das in dem vorherigen Bild mit dem Label L identifiziert ist. Zusätzlich werden die Glaubwürdigkeiten jeweils durch eine Potenz der eulerschen Zahl e dividiert und somit in ihrem Einfluss auf die Zuordnungsglaubwürdigkeit gemindert. Die Minderung ist um so stärker, je weiter die Aufnahme des Bilds zeitlich zurückliegt. Das bedeutet, dass der Einfluss vergangener Zuordnungen mit der verstrichenen Zeit abnimmt.
  • Prinzipiell können auch andere Berechnungsvorschriften verwendet werden.
  • In dem obigen Fall würde nun die temporäre Objektnummer 5 durch die glaubwürdigste (in diesem Fall 2) ersetzt werden. Wird keine Zuordnung gefunden, so behält das Objekt die temporäre Objektnummer. Ein als neu identifiziertes Objekt gilt im Sinne dieser Ausführungen für eine Auswertung eines nachfolgend aufgenommenen nächsten Bilds i-1 als erkanntes Objekt. Es kann jedoch vorgesehen werden, dass ein Objekt erst als erkanntes Objekt ausgegeben wird, wenn es in einer vorgegebenen Anzahl m von Bildern erkannt worden ist.
  • Einen großen Einfluss auf die Stabilität des Trackings, das heißt der Objektidentifizierung, hat eine Eigenbewegung des Kraftfahrzeugs, speziell in Kurvenfahrten, da sich hierdurch die Position der Objekte in den Bildern sehr stark unterscheiden kann.
  • Aus diesem Grund hat es sich als hilfreich erwiesen, die Eigenbewegung des Kraftfahrzeugs zu berücksichtigen.
  • Rotationen können berücksichtigt werden, in dem man die Gierrate κ des Kraftfahrzeugs verwendet. Der Rotationswinkel ist dann gegeben durch: α = κ·twobei t die zwischen zwei Bildern vergangene Zeit ist. Die Folge einer Rotation ist, dass alle Objekte (unabhängig von deren Entfernung) um d Punkte im Bild verschoben erscheinen:
    Figure 00150001
    wobei b die Bildbreite und ϕ der Öffnungswinkel der Kamera ist.
  • Translationen können berücksichtigt werden, in dem die Bildregionen in einen dreidimensionalen Raum mit Weltkoordinaten transformiert werden, die Eigenbewegung der Kamera abgezogen wird und die korrigierten transformierten Bildregionen zurück ins zweidimensionale Bild projiziert werden. Hierbei ist allerdings zu beachten, dass die Genauigkeit der bestimmten Bildregion sehr stark von der geschätzten Entfernung des zugehörigen Objektes abhängt.
  • Um Objekte auch dann weiterverfolgen zu können, wenn die Erkennung in einem Bild fehlschlägt (vgl. 6a bis 6c), benötigt das System die Möglichkeit aus der Historie die Bewegung der Objekte, beispielsweise der Fußgänger, über mehrere Bilder hinweg vorhersagen zu können.
  • In 6a bis 6c sind drei in einer zeitlichen Abfolge aufgenommene Bilder 61a bis 61c dargestellt, die von einer Ausführungsform eines Erkennungverfahrens ausgegeben sind. In den Bildern 61a und 61c ist jeweils ein Fußgänger 62a, 62c zu erkennen. Das Gelektionsverfahren hat jeweils eine Bildregion 63a, 63c festgelegt, in der der Fußgänger in den Bildern 61a, 61c abgebildet ist. Im Bild 61b ist der Fußgänger von einem Gegenstand 64b verdeckt. Um hier eine kontinuierliche Identifizierung des Objekts Fußgänger 62a, 62c zu ermöglichen, wird für das Bild 61b eine Bildregion 63b vorausgesagt, in der der Fußgänger 62b abgebildet sein sollte, wenn er nicht durch den Gegenstand 64b verdeckt wäre.
  • Dieses übernimmt eine Bewegungsvoraussage (Motion Prediction) der als Prediction Filter (Voraussagefilter) 11 ausgebildeten Voraussageeinheit (vgl. 1). Mit Hilfe eines bekannten α-β-Filters oder eines Kalman-Filters kann die Bewegung in bekannter Weise vorhergesagt werden.
  • Diese Bewegungen werden im zweidimensionalen Raum bestimmt und können zusätzlich zu den durch das Objektselektionssystem selektierten Objekten an den Labeler weitergegeben werden, d.h., dass nicht nur die Bildregionen aus dem Selektionssystem, sondern auch die Bildregionen aus der Bewegungsvoraussage (Prädiktion) für eine Zuordnung im Labeler verwendet werden.
  • Auf diese Weise können Objekte trotz Verdeckungen etc. verfolgt werden. Zusätzlich besteht die Möglichkeit, nur die Objekte an ein Fahrerassistenzsystem weiter zu reichen, die mit Hilfe des Objektidentifizierungsverfahrens in mindestens m Bildern erkannt worden sind. Hierdurch ergibt sich eine zusätzliche Robustheit gegenüber fälschlicher Weise erkannten Objekten.
  • In 6a bis 6c sind die Bildregionen 63a bis 63c jeweils mit einem Label 65a bis 65c gekennzeichnet, das hier eine 2 ist. Ferner ist die Entfernung des Fußgängers 61a bis 61c jeweils mittels einer Entfernungslinie 66a bis 66c und einer Entfernungsangabe 67a bis 67c angegeben, die in das jeweilige Bild 61a bis 61c eingeblendet sind.
  • 1
    Fahrzeug
    2
    Bilder
    3
    Objektselektionssystem
    4, 5
    Objekte (hier Fußgänger)
    6, 7
    Bildregionen
    8
    Fahrzeugdaten
    9
    Tracker
    10
    Labeler
    12
    Bild
    13
    Entfernungslinien
    20
    Bild (i=0)
    21
    Bild (i=1)
    22, 23
    Bildregionen
    24
    Überlagerungsbild
    25
    Überlappungsbereich
    26
    Vereinigungsbereich
    27, 28
    unterer Rand der Bilder 20, 21
    29, 30
    Skalen
    31, 33
    horizontale Linien
    32
    unteres Ende
    41–44
    Bilder
    45
    Überlagerungsbild (Überlagerung der Bilder 43 und 44)
    46
    Überlagerungsbild (Überlagerung der Bilder 42 und 43)
    47
    Überlagerungsbild (Überlagerung der Bilder 41 und 42)
    61a–c
    in zeitlicher Reihenfolge aufgenommene Bilder
    62a–c
    Fußgänger
    63a–c
    Bildregionen
    64b
    Gegenstand
    65a–c
    Label
    66a–c
    Entfernungslinie
    67a–c
    Entfernungsangabe

Claims (22)

  1. Verfahren zur Objektidentitätszuordnung von Objekten Oi,j, die mittels eines Objektselektionsverfahrens in in einer zeitlichen Abfolge i+2, i+1, i, ... erfassten Bildern BIi selektiert worden sind, wobei das Objektselektionsverfahren für jedes selektierte Objekt Oi,j eines Bilds BIi eine Bildregion BRi,j liefert, in der das jeweilige selektierte Objekt Oi,j in dem Bild BIi abgebildet ist, dadurch gekennzeichnet, dass die Bildregionen BRi,j eines Bilds BIi jeweils einzeln mit jeder Bildregion BRi+1,L eines zeitlich vorangehend aufgenommenen Bilds BIi+1 in Beziehung gesetzt werden, wobei ein Einzelglaubwürdigkeitswert pi,j(L) ermittelt wird, dass die zwei miteinander in Beziehung gesetzten Bildregionen BRi,j, BRi+1,L dasselbe Objekt abbilden, und den in dem Bild BIi selektierten Objekten Oi,j jeweils ein Label L anhand einer Zugordnungsglaubwürdigkeit Ai,j L, die basierend auf den Einzelglaubwürdigkeitswerten pi,j(L) ermittelt ist, zugewiesen wird, wobei die Zuordnungsglaubwürdigkeit ein Maß dafür ist, wie glaubwürdig die Zuordnung des Labels L zu dem j-ten erkannten Objekt Oi,j im i-ten Bild ist.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass beim Zuweisen der Label L einem selektierten Objekt Oi,j ein bereits einem der erkannten Objekte Oi+1,j eines zeitlich vorangehend aufgenommenen Bilds BIi+1 zugewiesenes Label L verwendet wird, wenn die Zuordnungsglaubwürdigkeit Ai,j L größer als ein Schwellenwert ist.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass für die selektierten oder/und erkannten Objekte Oi,j eine Entfernung ermittelt wird und der Schwellenwert eine Entfernungsabhängigkeit aufweist, wobei der Schwellenwert mit der ermittelten Entfernung abnimmt.
  4. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass beim In-Beziehung-Setzen der Bildregionen BRi,j eine Bewegung der die Bilder BIi aufnehmenden Kamera zwischen den Zeitpunkten, an denen die zeitlich aufeinander folgenden Bilder BIi aufgenommen sind, kompensiert wird.
  5. Verfahren nach einem der vorangehenden Ansprüche dadurch gekennzeichnet, dass zusätzlich zu den für das Bild BIi ermittelten Einzelglaubwürdigkeiten pi,j(L) mindestens die für das eine zeitlich vorangehend aufgenommene Bild BIi+1 ermittelten Einzelglaubwürdigkeiten pi+1,j(L) zur Ermittlung der Zuordnungsglaubwürdigkeiten Ai,j L herangezogen werden.
  6. Verfahren nach einem der vorangehenden Ansprüche dadurch gekennzeichnet, dass mittels einer Voraussageeinheit für erkannte und zugeordnete Objekte Oi+1,j des zeitlich vorangehend aufgenommenen Bilds BIi+1 anhand der hiervor aufgenommenen Bilder BIi+k (k>2) vorausgesagte Bildregionen BR'i bestimmt werden und zusätzlich zu den Bildregionen BRi,j der selektierten Objekten Oi,j bei der Labelzuweisung berücksichtigt werden.
  7. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Zuordnungsglaubwürdigkeit Ai,j L nach folgender Formel errechnet wird:
    Figure 00190001
    wobei i die aufgenommenen Bilder BIi in zeitlich umgekehrter Reihenfolge indexiert, j die in dem jeweiligen Bild BIi erkannten und gegebenenfalls vorausgesagten Bildregionen BRi,j indexiert, von denen es für das jeweilige Bild BIi NiL,i gibt, L jeweils das Label bezeichnet, das den jeweils erkannten Objekten Oi,j in den zeitlich vorangehenden Bildern BIi (i>0) zugewiesen ist, und e die Euler'sche Zahl ist und M die insgesamt berücksichtigten Bilder BIi angibt, wobei das eine Bild BIi, für dessen selektierte Objekte Oi,j die Zuordnungsglaubwürdigkeiten Ai,j L errechnet werden, den Index i=0 besitzt.
  8. Verfahren nach einem der Ansprüche 4 bis 7, dadurch gekennzeichnet, dass die Bewegungskompensation einer Drehung der Kamera um einen Rotationswinkel α, der gegebenenfalls aus einer Gierrate κ multipliziert mit der Zeit t errechnet wird, die zwischen den Zeitpunkten, an denen die aufeinander folgenden Bilder BIi aufgenommen sind, vergangen ist, berücksichtigt wird, indem die zeitlich aufeinander folgend aufgenommenen Bilder BIi um d Bildpunkte gegeneinander verschoben werden, wobei gilt:
    Figure 00190002
    und b eine Bildbreite angibt und Φ einen Kameraöffnungswinkel angibt.
  9. Verfahren nach einem der Ansprüche 4 bis 8, dadurch gekennzeichnet, dass eine Bewegungskompensation einer Translation berücksichtigt wird, indem die Bildregionen BIi eines der Bilder BIi aus einem zweidimensionalen Bildraum in einen dreidimensionalen mit einem Weltkoordinatensystem versehenen Raum transformiert werden, anschließend in dem Raum bezüglich der Translation, die die Kamera zwischen Zeitpunkten, an denen die Bilder BIi,. BIi+1 aufgenommen sind, ausgeführt hat, kompensiert, insbesondere verschoben, werden und anschließend in den zweidimensionalen Bildraum zurück transformiert werden.
  10. Vorrichtung (V) zur Objektidentitätszuordnung von Objekten Oi,j, die mittels einer Objektselektionsvorrichtung in in einer zeitlichen Abfolge i+2, i+1, i, ... mittels einer Kamera (K) erfassten Bildern BIi selektiert worden sind, wobei die Objektselektionsvorrichtung für jedes selektierte Objekt Oi,j eines Bilds BIi eine Bildregion BRi,j liefert, in der das jeweilige selektierte Objekt Oi,j in dem Bild BIi abgebildet ist, umfassend einen Tracker (9), dadurch gekennzeichnet, dass der Tracker (9) eine Vergleichseinheit umfasst, um die Bildregionen BRi,j eines Bilds BIi jeweils einzeln mit jeder Bildregion BRi+1,L eines zeitlich vorangehend aufgenommenen Bilds BIi+1 in Beziehung zu setzten, um hierbei einen Einzelglaubwürdigkeitswert pi,j(L) zu ermitteln, dass die zwei miteinander in Beziehung gesetzten Bildregionen BRi,j, BRi+1,L dasselbe Objekt abbilden, und einen Labeler (10) umfasst, um den in dem Bild BIi selektierten Objekten Oi,j jeweils ein Label L anhand einer Zugordnungsglaubwürdigkeit Ai,j L, die basierend auf den auf den Einzelglaubwürdigkeitswerten pi,j(L) ermittelt ist, zuzuweisen, wobei die Zuordnungsglaubwürdigkeit ein Maß dafür ist, wie glaubwürdig die Zuordnung des Label L zu dem j-ten erkannten Objekt Oi,j im i-ten Bild ist.
  11. Vorrichtung nach Anspruch 10, dadurch gekennzeichnet, dass der Labeler (10) eine weitere Vergleichseinheit zum Vergleichen der Zuordnungsglaubwürdigkeit Ai,j L mit einem Schwellenwert umfasst und der Labeler (10) so ausgestaltet ist, dass beim Zuweisen der Label L einem selektierten Objekt Oi,j ein bereits einem der erkannten Objekte Oi+1,j eines zeitlich vorangehend aufgenommenen Bilds BIi+1 zugewiesenes Label L verwendet wird, wenn die Zuordnungsglaubwürdigkeit Ai,j L größer als der Schwellenwert ist.
  12. Vorrichtung nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass der Tracker (9) eine Entfernungsermittlungseinheit zum Ermitteln einer Entfernung für die selektierten oder/und erkannten Objekte Oi,j umfasst, wobei der Schwellenwert eine Entfernungsabhängigkeit aufweist und der Schwellenwert mit der ermittelten Entfernung abnimmt.
  13. Vorrichtung nach einem der Ansprüche 10 bis 12, dadurch gekennzeichnet, dass der Tracker eine Bewegungskompensationseinheit zum Kompensieren einer Bewegung der Kamera umfasst, die die Kamera zwischen Zeitpunkten, zu denen die zeitlich aufeinander folgenden Bilder BIi aufgenommen sind, ausführt.
  14. Vorrichtung nach einem der Ansprüche 10 bis 13, dadurch gekennzeichnet, dass der Labeler (10) eine Speichereinheit umfasst, in der die ermittelten Einzelglaubwürdigkeiten gespeichert sind, und der Labeler so ausgestaltet ist, dass zusätzlich zu den für das Bild BIi ermittelten Einzelglaubwürdigkeiten pi,j(L) mindestens die für das eine zeitlich vorangehend aufgenommene Bild BIi+1 ermittelten Einzelglaubwürdigkeiten pi+1,j(L) zur Ermittlung der Zuordnungsglaubwürdigkeiten Ai,j L herangezogen werden.
  15. Vorrichtung nach einem der Ansprüche 10 bis 14, dadurch gekennzeichnet, dass der Tracker (9) eine Voraussageeinheit umfasst, um für erkannte und zugeordnete Objekte Oi+1,j des zeitlich vorangehend aufgenommenen Bilds BIi+1 anhand der hiervor aufgenommenen Bilder BIi+k (k>2) vorausgesagte Bildregionen BR'i,j zusätzlich zu bestimmen, wobei der Labeler (10) die vorausgesagten Bildregionen BR'i,j und die selektierten Bildregionen BRi,j der selektierten Objekten Oi,j in dem einen Bild BIi bei der Labelzuweisung berücksichtigt.
  16. Vorrichtung nach einem der Ansprüche 10 bis 15, dadurch gekennzeichnet, dass der Labeler eine Recheneinheit zum Errechnen der Zuordnungsglaubwürdigkeit Ai,j L nach folgender Formel umfasst:
    Figure 00210001
    wobei i die aufgenommenen Bilder BIi in zeitlich umgekehrter Reihenfolge indexiert, j die in dem jeweiligen Bild BIi erkannten und gegebenenfalls vorausgesagten Bildregionen BRi,j indexiert, von denen es für das jeweilige Bild BIi NL,i gibt, L jeweils das Label bezeichnet, das den jeweils zugeordneten Objekten Oi,j (L) in den zeitlich vorangehenden Bildern BIi (i>0) zugewiesen ist, e die Euler'sche Zahl ist und M die insgesamt berücksichtigten Bilder BIi angibt, wobei das eine Bild BIi, für dessen selektierte Objekte Oi,j die Zuordnungsglaubwürdigkeiten Ai,j L errechnet werden, den Index i=0 besitzt.
  17. Vorrichtung nach einem der Ansprüche 10 bis 16, dadurch gekennzeichnet, dass eine Bewegungskompensation einer Drehung der Kamera um einen Rotationswinkel α, der gegebenenfalls aus einer Gierrate κ multipliziert mit der Zeit t errechnet wird, die zwischen den Zeitpunkten, an denen die aufeinander folgenden Bildern BIi aufgenommen sind, vergangen ist, berücksichtigbar ist, indem die zeitlich aufeinander folgend aufgenommenen Bilder BIi um d Bildpunkte gegeneinander verschoben werden, wobei gilt:
    Figure 00220001
    und b eine Bildbreite angibt und Φ einen Kameraöffnungswinkel angibt.
  18. Vorrichtung nach einem der Ansprüche 10 bis 17, dadurch gekennzeichnet, dass der Tracker (9) eine Translationskompensationseinheit umfasst, mittels der eine Bewegungskompensation einer Translation berücksichtigbar ist, indem die Bildregionen BRi eines der Bilder BIi aus einem zweidimensionalen Bildraum in einen dreidimensionalen mit einem Weltkoordinatensystem versehenen Raum transformiert werden, anschließend in dem dreidimensionalen Raum bezüglich der Translation, die die Kamera zwischen Zeitpunkten, an denen die Bilder BIi, BIi+1 aufgenommen sind, ausgeführt hat, kompensiert, insbesondere verschoben, werden und anschließend in den zweidimensionalen Bildraum zurück transformiert werden.
  19. Verfahren zum Erkennen von Objekten Oi,j, insbesondere Fußgängern oder Zweiradfahrern, für ein Kraftfahrzeug, bei dem mittels einer Kamera von einer Umgebung des Kraftfahrzeugs zeitlich aufeinander folgend Bilder BIi erfasst werden, umfassend ein Objektselektionsverfahren, mit dem in den erfassten Bildern BIi die Objekte Oi,j selektiert werden und für jedes selektierte Objekt Oi,j eines Bilds BIi eine Bildregion BRi,j geliefert wird, in der das jeweilige selektierte Objekt Oi,j in dem Bild BIi abgebildet ist, und ein Verfahren gemäß einem der Ansprüche 1 bis 9.
  20. Verfahren nach Anspruch 19, dadurch gekennzeichnet, dass die erkannten Objekt Oi,j und/oder die zugehörigen Bildregionen BRi,j des erfasste Bild BIi ausgegeben wird, wobei die erkannten Objekt Oi,j und/oder die zugehörigen Bildregionen BRi,j mit dem zugewiesenen Label gekennzeichnet sind.
  21. Vorrichtung zum Erkennen von Objekten Oi,j, insbesondere Fußgängern oder Zweiradfahrern, für ein Kraftfahrzeug, umfassend eine Kamera zum Aufnehmen von Bildern BIi von einer Umgebung des Kraftfahrzeugs in einer zeitlichen Abfolge i+2, i+1, i, ..., ein Objektselektionssystem zum Erkennen von Objekten Oi,j in den mittels der Kamera erfassten Bildern BIi und Liefern von Bildregionen BRi,j des Bilds BIi, in denen das jeweilige selektierte Objekt Oi,j in dem Bild BIi abgebildet ist, und eine Vorrichtung zur Objektidentitätszuordnung gemäß einem der Merkmale 10 bis 18.
  22. Vorrichtung nach Anspruch 21, gekennzeichnet durch eine Ausgabeeinheit zum Ausgeben der erkannten Objekt Oi,j und/oder der zugehörigen Bildregionen BRi,j des erfassten Bilds BIi, wobei die erkannten Objekt Oi,j und/oder die zugehörigen Bildregionen BRi,j mit dem zugewiesenen Label gekennzeichnet sind.
DE102006001033A 2005-03-03 2006-01-07 Vorrichtung und Verfahren zur Erkennung eines Objektes für ein Kraftfahrzeug Ceased DE102006001033A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102006001033A DE102006001033A1 (de) 2005-03-03 2006-01-07 Vorrichtung und Verfahren zur Erkennung eines Objektes für ein Kraftfahrzeug

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102005010306 2005-03-03
DE102005010306.5 2005-03-03
DE102006001033A DE102006001033A1 (de) 2005-03-03 2006-01-07 Vorrichtung und Verfahren zur Erkennung eines Objektes für ein Kraftfahrzeug

Publications (1)

Publication Number Publication Date
DE102006001033A1 true DE102006001033A1 (de) 2006-09-07

Family

ID=36848277

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102006001033A Ceased DE102006001033A1 (de) 2005-03-03 2006-01-07 Vorrichtung und Verfahren zur Erkennung eines Objektes für ein Kraftfahrzeug

Country Status (1)

Country Link
DE (1) DE102006001033A1 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007021576A1 (de) 2007-05-08 2008-11-13 Hella Kgaa Hueck & Co. Verfahren und Vorrichtung zum Bestimmen der Position eines Verkehrszeichens
US7598848B2 (en) 2006-07-18 2009-10-06 Denso Corporation Apparatus and method of pedestrian recognition
EP2127945A2 (de) 2008-05-28 2009-12-02 Hella KGaA Hueck & Co. Verfahren und Vorrichtung zum Steuern der Lichtabgabe eines Fahrzeugs
DE102012223121A1 (de) 2012-12-13 2014-06-18 Cassidian Optronics Gmbh Verfahren zur Verfolgung wenigstens eines Objekts und Überwachungsvorrichtung
DE102016002594A1 (de) * 2016-03-03 2017-09-07 Audi Ag Bildverarbeitungsverfahren, Bildverarbeitungseinrichtung für ein Kraftfahrzeug und Kraftfahrzeug
DE112009003144B4 (de) 2008-12-15 2019-05-29 Neusoft Corporation Verfahren und Vorrichtung zum Feststellen eines Hindernisses in einem Bild

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7598848B2 (en) 2006-07-18 2009-10-06 Denso Corporation Apparatus and method of pedestrian recognition
DE102007023888B4 (de) * 2006-07-18 2013-01-31 Denso Corporation Vorrichtung und Verfahren zur Fussgängererkennung
DE102007021576A1 (de) 2007-05-08 2008-11-13 Hella Kgaa Hueck & Co. Verfahren und Vorrichtung zum Bestimmen der Position eines Verkehrszeichens
WO2008135604A1 (de) 2007-05-08 2008-11-13 Hella Kgaa Hueck & Co. Verfahren und vorrichtung zum bestimmen der position eines verkehrszeichens
EP2127945A2 (de) 2008-05-28 2009-12-02 Hella KGaA Hueck & Co. Verfahren und Vorrichtung zum Steuern der Lichtabgabe eines Fahrzeugs
DE102008025457A1 (de) 2008-05-28 2009-12-03 Hella Kgaa Hueck & Co. Verfahren und Vorrichtung zum Steuern der Lichtabgabe eines Fahrzeugs
DE112009003144B4 (de) 2008-12-15 2019-05-29 Neusoft Corporation Verfahren und Vorrichtung zum Feststellen eines Hindernisses in einem Bild
DE102012223121A1 (de) 2012-12-13 2014-06-18 Cassidian Optronics Gmbh Verfahren zur Verfolgung wenigstens eines Objekts und Überwachungsvorrichtung
DE102016002594A1 (de) * 2016-03-03 2017-09-07 Audi Ag Bildverarbeitungsverfahren, Bildverarbeitungseinrichtung für ein Kraftfahrzeug und Kraftfahrzeug

Similar Documents

Publication Publication Date Title
DE102014008578B4 (de) Verfahren zur Ermittlung von Positionsdaten zur Nutzung beim Betrieb eines Fahrzeugsystems eines Kraftfahrzeugs und Positionsdatenermittlungs- und-verteilssystem
EP1298454B1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
EP3187383B1 (de) Verfahren und vorrichtung zur externen betätigung eines aktors eines fahrzeugs
EP1475764B1 (de) Verfahren und Vorrichtung zur Ermittlung der Wahrscheinlichkeit für eine Kollision eines Fahrzeugs mit einem Gegenstand
DE102011117585B4 (de) Systeme und Verfahren zum Verfolgen von Objekten
EP2629243A1 (de) Verfahren zum Erkennen und Verfolgen von Fahrspurmarkierungen
EP3038011B1 (de) Verfahren zum Bestimmen des Abstands eines Objekts von einem Kraftfahrzeug mittels einer monokularen Bilderfassungseinrichtung
EP1531343B1 (de) Verfahren zur Verfolgung von Objekten
DE102018212655A1 (de) Erkennung der Bewegungsabsicht eines Fußgängers aus Kamerabildern
DE102006001033A1 (de) Vorrichtung und Verfahren zur Erkennung eines Objektes für ein Kraftfahrzeug
EP3188080A1 (de) Verfahren zur auswertung von gesten
EP1298012B1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE102016220450A1 (de) Vorrichtung, Fortbewegungsmittel und Verfahren zur Abschätzung einer Kollisionswahrscheinlichkeit zwischen einem Fortbewegungsmittel und einem Umgebungsobjekt
WO2009097883A1 (de) Verfahren zum betrieb einer bildaufnahmevorrichtung und eine bildaufnahmevorrichtung
EP4068223A1 (de) Verfahren und system zur bestimmung der bodenebene mit einem künstlichen neuronalen netz
DE102019204187A1 (de) Klassifizierung und temporale Erkennung taktischer Fahrmanöver von Verkehrsteilnehmern
DE102020200876B4 (de) Verfahren zum Verarbeiten von Sensordaten einer Sensorik eines Fahrzeugs
WO2020260477A1 (de) Detektionsvorrichtung und fahrzeugsensorsystem
DE102019216373A1 (de) Verfahren zur Erfassung eines Zielobjekts
EP2856205A1 (de) Verfahren und vorrichtung zur objektdetektion
DE102019001610A1 (de) Verfahren zum Betreiben eines Kraftfahrzeugs
DE102018010042A1 (de) Verfahren zum Erkennen wenigstens eines sich in einer Umgebung eines Kraftfahrzeugs befindenden Objekts
DE102017216802A1 (de) Verfahren und vorrichtung zum erkennen von fahrspuren, fahrerassistenzsystem und fahrzeug
DE102016120433A1 (de) Parkplatzerkennung mit Laserscanner
DE102016123058A1 (de) Optischer Fluss mit Konfidenzschätzung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R012 Request for examination validly filed

Effective date: 20120929

R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final