DE102016218350A1 - Verfahren und vorrichtung zur erkennung eines zweiten fahrzeugs im umfeld eines ersten fahrzeugs - Google Patents

Verfahren und vorrichtung zur erkennung eines zweiten fahrzeugs im umfeld eines ersten fahrzeugs Download PDF

Info

Publication number
DE102016218350A1
DE102016218350A1 DE102016218350.8A DE102016218350A DE102016218350A1 DE 102016218350 A1 DE102016218350 A1 DE 102016218350A1 DE 102016218350 A DE102016218350 A DE 102016218350A DE 102016218350 A1 DE102016218350 A1 DE 102016218350A1
Authority
DE
Germany
Prior art keywords
vehicle
image data
camera
determined
wheel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016218350.8A
Other languages
English (en)
Inventor
Bingxiang Cheng
Axel Roth
Dimitri Hamidi
Thomas Winkler
Thomas Fechner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Autonomous Mobility Germany GmbH
Original Assignee
Conti Temic Microelectronic GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Conti Temic Microelectronic GmbH filed Critical Conti Temic Microelectronic GmbH
Priority to DE102016218350.8A priority Critical patent/DE102016218350A1/de
Publication of DE102016218350A1 publication Critical patent/DE102016218350A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren und eine korrespondierende Vorrichtung für ein erstes Fahrzeug, zur Erkennung wenigstens eines zweiten Fahrzeugs (4) im Umfeld des ersten Fahrzeugs, wobei die Erkennung des zweiten Fahrzeugs (4) anhand von mittels wenigstens einer am ersten Fahrzeug angeordneten Kamera (2) erfassten Bilddaten (1) erfolgt, und wobei die Erkennung des zweiten Fahrzeugs (4) auf Basis wenigstens eines in den Bilddaten (1) ermittelten Fahrzeugrads des zweiten Fahrzeugs (4) erfolgt.

Description

  • Die Erfindung betrifft ein Verfahren für ein Assistenzsystem eines ersten Fahrzeugs, sowie eine korrespondierende Vorrichtung, zur Erkennung wenigstens eines zweiten Fahrzeugs im Umfeld des ersten Fahrzeugs.
  • Verfahren und Vorrichtungen für Fahrzeuge zur kamerabasierten Erkennung von weiteren Fahrzeugen im Fahrzeugumfeld sind aus dem Stand der Technik grundsätzlich bekannt.
  • EP 1 504 276 A1 offenbart in diesem Zusammenhang ein Kamerasystem für ein Fahrzeug, welches Bilddaten aus dem Umfeld des Fahrzeugs erfasst. Das Kamerasystem umfasst dabei einen Prozessor zum Verarbeiten der erfassten Bilddaten mittels eines Algorithmus zur Kantenerkennung (Edge Detection). Mittels Kantenerkennung ist es möglich andere Fahrzeuge zu erkennen, beispielsweise auf Nachbarfahrspuren, und den Fahrzeugführer beim Spurwechsel durch geeignete Assistenzfunktionen zu Unterstützen.
  • Der Erfindung liegt die erkannte Problemstellung zugrunde, dass eine sichere und zuverlässige Erkennung von anderen Fahrzeugen im Umfeld des eigenen Fahrzeugs mit den bekannten Vorrichtungen und Verfahren nicht immer möglich ist.
  • Das liegt beispielsweise daran, dass die unterschiedlichen Fahrzeugmodelle der verschiedenen Fahrzeughersteller mitunter sehr unterschiedliche äußere Fahrzeugkonturen aufweisen, die mit den üblicherweise verwendeten Klassifikatoren nicht immer zuverlässig erkannt werden können, bzw. es müssen immer neue Klassifikatoren antrainiert werden.
  • Insbesondere der seitliche Bereich eines Fahrzeugs lässt sich, beispielsweise aufgrund des geringen Abstands und der hohen relativen Bewegungsgeschwindigkeit anderer Fahrzeuge zum eigenen Fahrzeugen, mit den bekannten kamerabasierten Erkennungsverfahren nur schwer und sehr unzuverlässig überwachen. Jedoch müssen gerade beim Überholen, beim Vorbeifahren an haltenden und parkenden Fahrzeugen oder beispielsweise beim Passieren von Linien- und Schulbussen, je nach Fahrzeugtyp, des zu überholenden Fahrzeugs, sowie je nach vorgefundener Verkehrssituation und örtlichen Verhältnissen entsprechend unterschiedliche seitliche Sicherheitsabstände eingehalten werden. Insbesondere bei Radfahrern ist die Einhaltung eines ausreichenden Seitenabstandes von äußerster Wichtigkeit.
  • Die zuverlässige Erkennung von anderen Fahrzeugen, die sich neben dem eigenen Fahrzeug befinden, und die Einhaltung eines ausreichenden Sicherheitsabstands, zu diesen Fahrzeugen, spielt insbesondere im Hinblick auf die Entwicklung von Assistenzsystem zum teilautomatisierten sowie vollautomatisierten Fahren eine immer wichtigere Rolle.
  • Die ansonsten bekannten Ansätze zur Überwachung des seitlichen Bereichs, beispielsweise die Totwinkel-Überwachung (Blindspot Detection) mittels Radarsensoren, scheitern in diesem Zusammenhang spätestens dann, wenn es um eine Erkennung des Fahrzeugtyps sowie beispielsweise um die genaue Bestimmung von Bewegungsparametern der anderen Fahrzeuge geht.
  • Der Erfindung liegt demnach die Aufgabe zugrunde, gegenüber den aus dem Stand der Technik bekannten Verfahren, ein verbessertes Verfahren zur Erkennung von anderen Fahrzeugen im Umfeld des eigenen Fahrzeugs bereitzustellen.
  • Die Aufgabe wird gelöst durch die Merkmale der unabhängigen Patentansprüche. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen gekennzeichnet.
  • Gemäß einem ersten Aspekt der Erfindung wird ein Verfahren bereitgestellt, insbesondere für ein Assistenzsystem eines ersten Fahrzeugs, im Folgenden auch als „Ego-Fahrzeug“ bezeichnet, zur Erkennung wenigstens eines zweiten Fahrzeugs im Umfeld des ersten Fahrzeugs, wobei die Erkennung des zweiten Fahrzeugs anhand von Bilddaten erfolgt, die mittels wenigstens einer am ersten Fahrzeug angeordneten Kamera erfasst werden. Erfindungsgemäß erfolgt die Erkennung des zweiten Fahrzeugs dabei auf Basis wenigstens eines in den Bilddaten ermittelten Fahrzeugrads des zweiten Fahrzeugs.
  • Gemäß einer bevorzugten Ausgestaltung des erfindungsgemäßen Verfahrens erfolgt auf Basis des wenigstens einen in den Bilddaten ermittelten Fahrzeugrads des zweiten Fahrzeugs zusätzlich eine Klassifikation des erkannten zweiten Fahrzeugs, insbesondere eine Klassifikation des Fahrzeugtyps des zweiten Fahrzeugs. Die Klassifikation erfolgt dabei insbesondere anhand ermittelter Eigenschaften des wenigstens einen Fahrzeugrads.
  • Gemäß einer weiteren bevorzugten Ausgestaltung des erfindungsgemäßen Verfahrens erfolgt die Ermittlung des wenigstens einen Fahrzeugrads des zweiten Fahrzeugs mittels Auswertung von in den Bilddaten erkanntem optischem Fluss.
  • Gemäß einer weiteren bevorzugten Ausgestaltung des erfindungsgemäßen Verfahrens erfolgt die Erkennung des zweiten Fahrzeugs anhand von Bilddaten, die mittels einer seitlich am ersten Fahrzeug angeordneten Kamera erfasst werden.
  • Gemäß einer weiteren bevorzugten Ausgestaltung des erfindungsgemäßen Verfahrens erfolgt zusätzlich eine Bestimmung einer Position des zweiten Fahrzeugs auf Basis des wenigstens einen in den Bilddaten ermittelten Fahrzeugrads des zweiten Fahrzeugs, beispielsweise eine Bestimmung der Position relativ zum ersten Fahrzeug und/oder absolut in einem Umfeldmodell, einem fahrzeugbezogenen Koordinatensystem und/oder einem Weltkoordinatensystem. Bei der Bestimmung der Position des zweiten Fahrzeugs kann insbesondere auch eine Zuordnung des zweiten Fahrzeugs zu einer bestimmten Fahrspur im Umfeld des ersten Fahrzeugs erfolgen.
  • Gemäß einer weiteren bevorzugten Ausgestaltung des erfindungsgemäßen Verfahrens erfolgt zusätzlich eine Bestimmung von Bewegungsparametern des zweiten Fahrzeugs auf Basis des wenigstens einen in den Bilddaten ermittelten Fahrzeugrads des zweiten Fahrzeugs.
  • Gemäß einer weiteren bevorzugten Ausgestaltung des erfindungsgemäßen Verfahrens erfolgt die Bestimmung der Position und/oder der Bewegungsparameter des zweiten Fahrzeugs mittels Verfolgung (Tracking) des wenigstens einen in den Bilddaten ermittelten Fahrzeugrads des zweiten Fahrzeugs.
  • Gemäß einem zweiten Aspekt der Erfindung wird eine Vorrichtung bereitgestellt, insbesondere für ein erstes Fahrzeug, zur Erkennung wenigstens eines zweiten Fahrzeugs im Umfeld des ersten Fahrzeugs. Die Vorrichtung umfasst dabei wenigstens eine Kamera, die zur Anordnung an dem ersten Fahrzeug und zur Erfassung von Bilddaten aus dem Umfeld des ersten Fahrzeugs dient bzw. ausgebildet ist. Weiterhin umfasst die Vorrichtung Bildverarbeitungsmittel, zur Erkennung des zweiten Fahrzeugs anhand der mittels der wenigstens einen Kamera erfassten Bilddaten. Die Bildverarbeitungsmittel können entweder in der Kamera selbst angeordnet sein oder beispielsweise als separate Recheneinrichtung ausgebildet sein, z.B. als ECU (Electronic Control Unit), die mit der wenigstens einen Kamera über eine geeignete Datenverbindung verbunden ist, um die Bilddaten der Kamera der Recheneinrichtung zur Verfügung zu stellen. Die Bildverarbeitungsmittel sind erfindungsgemäß zur Erkennung des zweiten Fahrzeugs auf Basis wenigstens eines in den Bilddaten ermitteln Fahrzeugrads des zweiten Fahrzeugs ausgebildet. Hierzu können die Bildverarbeitungsmittel ein entsprechendes Computerprogrammprodukt umfassen, insbesondere mit computerlesbarem Programmcode, der auf einem Speichermedium hinterlegt und von wenigstens einem Prozessor der Bildverarbeitungsmittel ausführbar ist.
  • Gemäß einer bevorzugten Ausgestaltung der erfindungsgemäßen Vorrichtung sind die Bildverarbeitungsmittel ferner zur Umsetzung einer der vorangehend beschriebenen bevorzugten Ausgestaltungen des erfindungsgemäßen Verfahrens ausgebildet.
  • Die Erfindung umfasst ferner ein Fahrzeug, das eine erfindungsgemäße Vorrichtung umfasst.
  • Fahrzeugräder sind das allgemeinste Merkmal von Fahrzeugen aller Art. Die Erfindung, insbesondere bei Kombination von vorzugsweise einer Nahfeld-(Seiten-)Kamera und einem bildbasierten Detektionsalgorithmus von Fahrzeugrädern, realisiert somit ein System zur generischen Erkennung von Fahrzeugen, insbesondere von sich seitlich vom eigenen Fahrzeug (Ego-Fahrzeug) befindende Fahrzeuge. Zusätzlich kann die Größe, die Anzahl der Räder und/oder der Achsenabstand des erkannten Fahrzeugs bestimmt werden, was eine simple Klassifikation des detektierten Fahrzeugtyps erlaubt.
  • Durch Objektverfolgung („Tracking“) können zudem Zustandsparameter wie Position und Geschwindigkeit des erkannt Fahrzeugs geschätzt und somit neue Fahrerassistenzfunktionen ermöglicht werden.
  • Das System schließt eine kritische Lücke in der Umfelderfassung mittels Kameras und erlaubt eine generische Erkennung, insbesondere von seitlich fahrenden/stehenden Fahrzeugen. Der Algorithmus zur Detektion von Rädern kann auf ein aufwendiges Klassifikator-Training verzichten. Der Algorithmus erlaubt zudem eine simple und recheneffiziente Klassifikation des Fahrzeugtyps von erkannten Fahrzeugen.
  • Nachfolgend wird eine bevorzugte Ausführungsform des erfindungsgemäßen Verfahrens beschrieben und unter Bezugnahme auf die beigefügten Figuren näher erläutert.
  • Die Erfindung ist dabei nicht auf das nachfolgend beschriebene Ausführungsbeispiel beschränkt. Vielmehr können hieraus auch andere Varianten der Erfindung vom Fachmann abgeleitet werden, ohne den Gegenstand der Erfindung zu verlassen. Insbesondere sind ferner alle im Zusammenhang mit dem Ausführungsbeispiel beschriebenen Einzelmerkmale auch auf andere Weise miteinander kombinierbar, ohne den Gegenstand der Erfindung zu verlassen.
  • Es zeigt:
  • 1 ein Ablaufdiagramm einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens;
  • 2 ein mittels wenigstens einer Kamera erfasstes Bild des seitlichen Umfelds des Ego-Fahrzeugs sowie ein entzerrtes Bild eines Bildbereichs des erfassten Bildes;
  • 3 ein weiteres mittels wenigstens einer Kamera erfasstes Bild des seitlichen Umfelds des Ego-Fahrzeugs sowie ein entzerrtes Bild eines Bildbereichs des erfassten Bildes;
  • 4 ein weiteres mittels wenigstens einer Kamera erfasstes Bild des seitlichen Umfelds des Ego-Fahrzeugs;
  • 5 ein rotierendes Rad und ein daraus resultierendes Flussbild (optical flow);
  • 6 eine extrahierte Signatur einer Radrotation;
  • 7 eine im Rahmen des erfindungsgemäßen Verfahrens bevorzugt verwendete Template im Rahmen der Berechnung des Histograms der Orientierung der Gradienten.
  • 1 zeigt ein Ablaufdiagramm einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens, das beispielsweise in einem Assistenzsystem eines ersten Fahrzeugs, im Folgenden als „Ego-Fahrzeug“ bezeichnet, zum Einsatz kommen kann.
  • Gemäß 1, werden in einem ersten Schritt S1, der hier beschriebenen bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens, mittels wenigstens einer am Ego-Fahrzeug angeordneten Kamera 2 Bilddaten 1 aus dem Umfeld des Ego-Fahrzeugs erfasst.
  • Bei der Kamera 2 kann es sich grundsätzlich um eine beliebige am Ego-Fahrzeug angeordnete Kamera 2 handeln, mittels derer Bilddaten 1 aus dem Umfeld des Ego-Fahrzeugs erfasst werden. Bei der Kamera 2 kann es sich insbesondere auch um eine Kamera 2 eines Kamerasystems 3 handeln, das mehrere verteilt am Ego-Fahrzeug angeordnete Kameras umfasst, beispielsweise um die Kamera 2 eines sogenannten Surround-View Kamerasystems, welches in der Regel eine im vorderen Bereich („Front“) des Ego-Fahrzeugs angeordnete Kamera aufweist, zur Erfassung des vor dem Ego-Fahrzeug liegenden Umfelds, sowie eine im hinteren Bereich („Heck“) des Ego-Fahrzeugs angeordnete Kamera, zur Erfassung des rückwärtigen Fahrzeugumfelds, und zwei seitlich („Links“, „Rechts“) am Ego-Fahrzeug angeordnete Kameras, zur Erfassung des auf der linken und rechten Seite befindlichen Fahrzeugumfelds.
  • Im Rahmen des erfindungsgemäßen Verfahrens können insbesondere auch die Bilddaten 1 von mehreren Kameras 3 erfasst und gemäß dem erfindungsgemäßen Verfahren zur Erkennung wenigstens eines zweiten Fahrzeugs 4 im Umfeld des Ego-Fahrzeugs verarbeitet werden.
  • Bei der hier beschriebenen bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens handelt es sich bei der wenigstens einen Kamera 2 um eine seitlich am Ego-Fahrzeug angeordnete Kamera 2. Wie aus den 1 bis 4 ersichtlich, weist die Kamera 2 eine Weitwinkeloptik auf, insbesondere eine sogenannte Fischaugen-Optik, so dass mittels der Kamera 2 Bilddaten 1 aus einem möglichst weiten Winkelbereich aus dem seitlichen Umfeld des Ego-Fahrzeugs erfasst werden, vorzugsweise mit einem Erfassungswinkel größer als 180 Grad.
  • Gemäß 1, werden in einem zweiten Schritt S2, der hier beschriebenen bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens, die von der Kamera 2 erfassten Bilddaten 1 entzerrt. Die Entzerrung von Bilddaten 1, beispielsweise Bilddaten von Weitwinkelkameras eines Surround-View Kamerasystems, ist aus dem Stand der Technik grundsätzlich bekannt. Die Entzerrung kann beispielsweise auf Basis bekannter intrinsischer und/oder extrinsischer Kameraparameter sowie mittels entsprechender Transformationsalgorithmen erfolgen.
  • Gemäß 1, erfolgt in einem dritten Schritt S3, der hier beschriebenen bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens, die Ermittlung von Fahrzeugrädern in den entzerrten Bilddaten 1. Für die Ermittlung von Fahrzeugrädern können im Rahmen des erfindungsgemäßen Verfahrens grundsätzlich verschiedene Bildverarbeitungsverfahren, kombiniert oder einzeln, zum Einsatz kommen.
  • Ein erstes vorteilhaftes Bildverarbeitungsverfahren, das im Rahmen der Erfindung bevorzugt zum Einsatz kommt, lehnt sich an das sogenannte „Histograms of oriented gradients“ Detektionsverfahren an, ein an sich bekanntes Verfahren zur Merkmalsgewinnung (Matching) auf Basis eines Modells orientierter Gradienten, siehe beispielsweise: „Histograms of Oriented Gradients for Human Detection"; Navneet Dalal and Bill Triggs; erschienen in: Computer Vision and Pattern Recognition, 2005. CVPR 2005. IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05); 20–25 Juni 2005.
  • Dabei wird im Rahmen des erfindungsgemäßen Verfahrens bevorzugt eine Modell (Template) verwendet, das die Orientierung der Gradienten von einem idealen Fahrzeugrad beschreibt, insbesondere für einen bestimmten Bildbereich 5. Bei einem solchen Bildbereich 5 kann es sich, wie in 1, 2 und 3 gezeigt, beispielsweise um einen definierten Bereich 5 eines von der seitlich am Ego-Fahrzeug angeordneten Weitwinkelkamera erfassten Gesamtbildes 1 handeln. Im Gegensatz zu etablierten Vorgehensweisen, beispielsweise gegenüber der Verwendung von trainierten Klassifikatoren, kann das Template im Rahmen der Erfindung insbesondere auch von Hand modelliert sein.
  • Eine Template 10, die vorzugsweise im Rahmen des erfindungsgemäßen Verfahrens zum Einsatz kommen, kann ist in 7 gezeigt. 7 zeigt eine Template 10 mit einem Bereich 8 zur Berechnung eines Histogramms der Orientierung der Gradienten im Bild sowie die Orientierung 9 der Gradienten im Template 10. Im Zuge der Erkennung wird in dem dargestellten Bereich 8 ein Histogramm der Orientierung in einem Bildbereich akkumuliert und mit der Template 10 verglichen. Das Histogramm wird dabei aus Kanten gebildet, dessen Betrag einen vorbestimmten Schwellwert überschreitet.
  • Weiterhin können bei der Berechnung des Orientierungshistogramms insbesondere nur diejenigen Gradienten berücksichtigt werden, dessen Betrag einen festgelegten Schwellwert übersteigt. Die Bilddaten 1, bzw. die von der Kamera erfassten und vorab entzerrten Bilder 6, werden vorzugsweise mit dem Template auf verschiedenen Skalen „gefaltet“. Durch Schwellwertbildung auf das Faltungsergebnis können anschließend potenzielle Bereiche ermittelt werden, in denen ein Fahrzeugrad erkannt wurde. Auf das Ergebnis kann anschließend die sogenannte „Non-Maxima Suppression“ angewendet werden, um eine eindeutige Position 7 von Fahrzeugrädern in den Bilddaten 1 bzw. dem entzerrten Bilddaten 6 zu erhalten.
  • Ein zweites vorteilhaftes Bildverarbeitungsverfahren, das im Rahmen der Erfindung bevorzugt zum Einsatz kommt, ist die Erkennung der rotierenden Bewegung von Fahrzeugrädern. Dies kann durch Auswertung von in den Bilddaten 1 bzw. in den entzerrten Bilddaten 6 ermittelten optischem Fluss erfolgen, insbesondere durch Auswertung von in einer Bildfolge ermitteltem Optischem Fluss. Dieser Ausgestaltung liegt die Erkenntnis zugrunde, dass die rotierende Bewegung eines Fahrzeugrades, siehe linke Darstellung in 5, eine typische Signatur des Optischen Flusses, siehe rechte Darstellung in 5, erzeugt. Im Rotationszentrum beträgt der Optische Fluss Null und nimmt kontinuierlich vom Rotationszentrum nach außen hin zu, wobei die Richtung des Flusses der Orientierung konzentrischer Kreise um das Rotationszentrum folgt. Durch diesen Effekt wird eine charakteristische Symmetrie-Signatur erzeugt, wie in 6 gezeigt, die extrahiert und mittels bekannter Mustererkennungsverfahren in den Bilddaten 1 bzw. den entzerrten Bilddaten 6 gesucht werden kann.
  • Gemäß 1, werden in einem vierten Schritt S4, der hier beschriebenen bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens, die in den Bilddaten 1 bzw. den entzerrten Bilddaten 6 der wenigstens einen Kamera 2 ermittelten Fahrzeugäder bzw. deren Positionen 7, insbesondere in den nachfolgend mittels der Kamera 2 erfassten Bilddaten 1, verfolgt. Dieses sogenannte „Tracking“ erfolgt vorzugsweise mittels eines Kalman Filters, insbesondere mittels eines Extended Kalman Filters. Mittels Tracking lässt sich beispielsweise die Position des zweiten Fahrzeugs 4, dessen Fahrzeugräder erkannt wurden, bestimmen, beispielsweise relativ zum Ego-Fahrzeug und/oder absolut in einem Umfeldmodell, einem fahrzeugbezogenen Koordinatensystem und/oder in einem Weltkoordinatensystem. Bei der Bestimmung der Position des zweiten Fahrzeugs 4 kann insbesondere auch eine Zuordnung des zweiten Fahrzeugs 4 zu einer bestimmten Fahrspur im Umfeld des Ego-Fahrzeugs erfolgen. Mittels Tracking lassen sich weiterhin die Bewegungsparameter, z.B. die Bewegungsrichtung und die Geschwindigkeit, des zweiten Fahrzeugs 4, dessen Fahrzeugräder erkannt wurden, ermitteln bzw. schätzen. Aus dem Abstand, der Anzahl und/oder der Größe der in den Bilddaten 1 bzw. den entzerrten Bilddaten 6 ermittelten Fahrzeugräder des zweiten Fahrzeugs 4 lassen sich zudem weitere Eigenschaften des zweiten Fahrzeugs 4 bestimmen. In diesem Zusammenhang kann insbesondere eine Klassifikation des Fahrzeugtyps des zweiten Fahrzeugs 4 erfolgen, z.B. ob es sich um einen Pkw, Lkw, Bus eine Landmaschine, ein Fahrzeug mit Anhänger oder beispielsweise um ein Fahrrad oder Motorrad handelt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 1504276 A1 [0003]
  • Zitierte Nicht-Patentliteratur
    • „Histograms of Oriented Gradients for Human Detection“; Navneet Dalal and Bill Triggs; erschienen in: Computer Vision and Pattern Recognition, 2005. CVPR 2005. IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05); 20–25 Juni 2005 [0041]

Claims (10)

  1. Verfahren für ein Assistenzsystem eines ersten Fahrzeugs, zur Erkennung wenigstens eines zweiten Fahrzeugs (4) im Umfeld des ersten Fahrzeugs, wobei die Erkennung des zweiten Fahrzeugs (4) anhand von mittels wenigstens einer am ersten Fahrzeug angeordneten Kamera (2) erfassten Bilddaten (1) erfolgt, dadurch gekennzeichnet, dass die Erkennung des zweiten Fahrzeugs (4) auf Basis wenigstens eines in den Bilddaten (1) ermittelten Fahrzeugrads des zweiten Fahrzeugs (4) erfolgt.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass eine Klassifikation eines Fahrzeugtyps des zweiten Fahrzeugs (4) auf Basis des wenigstens einen in den Bilddaten (1) ermittelten Fahrzeugrads des zweiten Fahrzeugs (4) erfolgt.
  3. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Ermittlung des Fahrzeugrads des zweiten Fahrzeugs (4) mittels Auswertung von in den Bilddaten (1) ermitteltem optischem Fluss erfolgt.
  4. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Erkennung des zweiten Fahrzeugs (4) anhand von mittels einer seitlich am ersten Fahrzeug angeordneten Kamera 2 erfassten Bilddaten (1) erfolgt.
  5. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass auf Basis des wenigstens einen in den Bilddaten (1) ermittelten Fahrzeugrads des zweiten Fahrzeugs (4) eine Bestimmung einer Position des zweiten Fahrzeugs (4) erfolgt.
  6. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass auf Basis des wenigstens einen in den Bilddaten (1) ermittelten Fahrzeugrads des zweiten Fahrzeugs (4) eine Bestimmung von Bewegungsparametern des zweiten Fahrzeugs (4) erfolgt.
  7. Verfahren nach einem der Ansprüche 5 oder 6, dadurch gekennzeichnet, dass die Bestimmung der Position und/oder der Bewegungsparameter des zweiten Fahrzeugs (4) mittels Verfolgung des wenigstens einen in den Bilddaten (1) ermittelten Fahrzeugrads des zweiten Fahrzeugs (4) erfolgt.
  8. Vorrichtung für ein erstes Fahrzeug zur Erkennung wenigstens eines zweiten Fahrzeugs (4) im Umfeld des ersten Fahrzeugs, umfassend wenigstens eine Kamera (2), zur Anordnung an dem ersten Fahrzeug und zum Erfassen von Bilddaten (1) aus dem Umfeld des ersten Fahrzeugs und Bildverarbeitungsmittel, zur Erkennung des zweiten Fahrzeugs (4) anhand der mittels der wenigstens einen Kamera (2) erfassten Bilddaten (1), dadurch gekennzeichnet, dass die Bildverarbeitungsmittel zur Erkennung des zweiten Fahrzeugs (4) auf Basis wenigstens eines in den Bilddaten (1) ermittelten Fahrzeugrads des zweiten Fahrzeugs (4) ausgebildet sind.
  9. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, dass die Bildverarbeitungsmittel ferner zur Umsetzung eines Verfahrens nach einem der Ansprüche 2 bis 7 ausgebildet sind.
  10. Fahrzeug, umfassend eine Vorrichtung nach einem der Ansprüche 8 oder 9.
DE102016218350.8A 2016-09-23 2016-09-23 Verfahren und vorrichtung zur erkennung eines zweiten fahrzeugs im umfeld eines ersten fahrzeugs Pending DE102016218350A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016218350.8A DE102016218350A1 (de) 2016-09-23 2016-09-23 Verfahren und vorrichtung zur erkennung eines zweiten fahrzeugs im umfeld eines ersten fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016218350.8A DE102016218350A1 (de) 2016-09-23 2016-09-23 Verfahren und vorrichtung zur erkennung eines zweiten fahrzeugs im umfeld eines ersten fahrzeugs

Publications (1)

Publication Number Publication Date
DE102016218350A1 true DE102016218350A1 (de) 2018-03-29

Family

ID=61564275

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016218350.8A Pending DE102016218350A1 (de) 2016-09-23 2016-09-23 Verfahren und vorrichtung zur erkennung eines zweiten fahrzeugs im umfeld eines ersten fahrzeugs

Country Status (1)

Country Link
DE (1) DE102016218350A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1504276A2 (de) 2002-05-03 2005-02-09 Donnelly Corporation Objektdetektionssystem für ein fahrzeug
DE102012021461A1 (de) * 2012-10-31 2013-05-08 Daimler Ag Verfahren und Vorrichtung zur Klassifikation von Fahrzeugen
DE102013022076A1 (de) * 2013-12-23 2015-06-25 Valeo Schalter Und Sensoren Gmbh Verfahren zum Bestimmen einer Breite eines Zielfahrzeugs mittels eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102014012285A1 (de) * 2014-08-22 2016-02-25 Jenoptik Robot Gmbh Verfahren und Achsenzähl-Vorrichtung zur berührungslosen Achsenzählung eines Fahrzeugs sowie Achsenzählsystem für den Straßenverkehr

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1504276A2 (de) 2002-05-03 2005-02-09 Donnelly Corporation Objektdetektionssystem für ein fahrzeug
EP1504276B1 (de) * 2002-05-03 2012-08-08 Donnelly Corporation Objektdetektionssystem für ein fahrzeug
DE102012021461A1 (de) * 2012-10-31 2013-05-08 Daimler Ag Verfahren und Vorrichtung zur Klassifikation von Fahrzeugen
DE102013022076A1 (de) * 2013-12-23 2015-06-25 Valeo Schalter Und Sensoren Gmbh Verfahren zum Bestimmen einer Breite eines Zielfahrzeugs mittels eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102014012285A1 (de) * 2014-08-22 2016-02-25 Jenoptik Robot Gmbh Verfahren und Achsenzähl-Vorrichtung zur berührungslosen Achsenzählung eines Fahrzeugs sowie Achsenzählsystem für den Straßenverkehr

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
„Histograms of Oriented Gradients for Human Detection"; Navneet Dalal and Bill Triggs; erschienen in: Computer Vision and Pattern Recognition, 2005. CVPR 2005. IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05); 20–25 Juni 2005
DALAL, Navneet ; TRIGGS, Bill: Histograms of oriented gradients for human detection. In: Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05), 20-25 June 2005, 8 S. - ISBN 0-7695-2372-2 *
LAI, C.C; TSAI, W. H.: Location Estimation and Trajectory Prediction of Moving Lateral Vehicle Using Two Wheel Shapes Information in 2-D Lateral Vehicle Images by 3-D Computer Vision Techniques. In Proceedings of the 2003 IEEE. Taipei, Taiwan, September 14-19, 2003 *

Similar Documents

Publication Publication Date Title
EP3183721B1 (de) Verfahren und achsenzähl-vorrichtung zur berührungslosen achsenzählung eines fahrzeugs sowie achsenzählsystem für den strassenverkehr
DE102014005688B4 (de) Spurenschätzvorrichtung und verfahren
WO2019174682A1 (de) Verfahren und vorrichtung zur erkennung und bewertung von fahrbahnzuständen und witterungsbedingten umwelteinflüssen
EP3292510B1 (de) Verfahren und vorrichtung zur erkennung und bewertung von fahrbahnreflexionen
DE102014109062A1 (de) Verfahren zum Verfolgen eines sich einem Kraftfahrzeug nähernden Zielfahrzeugs mittels eines Kamerasystems des Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102016122489A1 (de) Sichtgestützte erfassung von nassen fahrbahnzuständen mittels reifenspuren
DE102016122484A1 (de) Sichtbasierte erkennung von nassem strassenoberflächenzustand unter verwendung des rückwärtsspritzens von reifen
EP3044727B1 (de) Verfahren und vorrichtung zur objekterkennung aus tiefenaufgelösten bilddaten
DE102015121952A1 (de) Verfahren zum Identifizieren eines Objektes in einem Umgebungsbereich eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
DE112013001424T5 (de) Objekterkennungsvorrichtung
DE102016100030A1 (de) Gerät zum sicheren führen eines fahrzeugs
DE102017108254B4 (de) Rundumsichtkamerasystem zur Objekterkennung und -verfolgung und Verfahren zum Ausstatten eines Fahrzeugs mit einem Rundumsichtkamerasystem
DE102014106506A1 (de) Verfahren zum Durchführen einer Diagnose eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102013012930A1 (de) Verfahren zum Bestimmen eines aktuellen Abstands und/oder einer aktuellen Geschwindigkeit eines Zielobjekts anhand eines Referenzpunkts in einem Kamerabild, Kamerasystem und Kraftfahrzeug
DE102019106275A1 (de) Erfassungssystem und Verfahren zum Ermitteln eines Knickwinkels zwischen zwei Teilfahrzeugen eines Fahrzeug-Gespanns sowie Fahrzeug- Gespann
DE102018100909A1 (de) Verfahren zum Rekonstruieren von Bildern einer Szene, die durch ein multifokales Kamerasystem aufgenommen werden
DE102013022076A1 (de) Verfahren zum Bestimmen einer Breite eines Zielfahrzeugs mittels eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102013021840A1 (de) Verfahren zum Erzeugen eines Umgebungsmodells eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
DE102010023199A1 (de) Bilderfassungsvorrichtung für ein Fahrzeug und Verfahren zum Betrieb einer Bilderfassungsvorrichtung
EP3520020B1 (de) Verkehrszeichenklassifikation in einem umgebungsbereich eines kraftfahrzeugs
DE102016104044A1 (de) Verfahren zum Erkennen einer Ablagerung auf einem optischen Element einer Kamera durch einen Merkmalsraum und eine Hyperebene, sowie Kamerasystem und Kraftfahrzeug
DE102016101149A1 (de) Verfahren zum Erkennen von Rauch in einem Umgebungsbereich eines Kraftfahrzeugs mit Hilfe einer Kamera des Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102015009657A1 (de) Verfahren zur Kalibrierung und Verfahren zur Justierung einer an einem Fahrzeug angeordneten Kamera
DE102015006571A1 (de) Vorrichtung und Verfahren zur Ermittlung einer Verwindung einer Karosserie und/oder eines Fahrgestells
DE102014009522A1 (de) Verfahren zur Erfassung einer Umgebung eines Fahrzeugs

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: CONTINENTAL AUTONOMOUS MOBILITY GERMANY GMBH, DE

Free format text: FORMER OWNER: CONTI TEMIC MICROELECTRONIC GMBH, 90411 NUERNBERG, DE

R016 Response to examination communication