DE102018124979A1 - Driver assistance system for determining a distance between two vehicles with a camera - Google Patents

Driver assistance system for determining a distance between two vehicles with a camera Download PDF

Info

Publication number
DE102018124979A1
DE102018124979A1 DE102018124979.9A DE102018124979A DE102018124979A1 DE 102018124979 A1 DE102018124979 A1 DE 102018124979A1 DE 102018124979 A DE102018124979 A DE 102018124979A DE 102018124979 A1 DE102018124979 A1 DE 102018124979A1
Authority
DE
Germany
Prior art keywords
vehicle
distance
dimension
image
assistance system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018124979.9A
Other languages
German (de)
Inventor
Rainer Straschill
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FEV Europe GmbH
Original Assignee
FEV Europe GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FEV Europe GmbH filed Critical FEV Europe GmbH
Publication of DE102018124979A1 publication Critical patent/DE102018124979A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Fahrerassistenzsystem (1) mit einer Kamera (4) zur Bestimmung einer Entfernung (13) zwischen einem ersten Fahrzeug (2) und einem zweiten Fahrzeug (3), wobei die Kamera (4) einen Bildsensor (5) hat und die Kamera (4) ein zweidimensionales Bild mit Bildpunkten, auf dem das zweite Fahrzeug (3) zumindest teilweise abgebildet ist, erzeugt, und das Fahrerassistenzsystem (1) mit einem Objekterkennungsmodul (7) ein Teil (8) des zweiten Fahrzeugs (3) anhand des Bildes erkennt und mit einem Identifikationsmodul (9) ein Fahrzeugmodell des zweiten Fahrzeugs (3) anhand des Bildes bestimmt und das Fahrerassistenzsystem (1) eine Fahrzeugdatenbank (10), aus welcher zumindest eine Abmessung (11) des Teils (8) in Bezug zu dem Fahrzeugmodell auslesbar ist, aufweist, wobei das Fahrerassistenzsystem (1) eine zur Abmessung (11) korrespondierende Referenzabmessung des Teils (8) mithilfe der Bildpunkte des Bildes erfasst und die Entfernung (13) anhand eines Verhältnisses zwischen der Abmessung (11) und der Referenzabmessung bestimmt.

Figure DE102018124979A1_0000
The invention relates to a driver assistance system (1) having a camera (4) for determining a distance (13) between a first vehicle (2) and a second vehicle (3), the camera (4) having an image sensor (5) and Camera (4) a two-dimensional image with pixels on which the second vehicle (3) is at least partially formed generated, and the driver assistance system (1) with an object detection module (7) a part (8) of the second vehicle (3) based on Recognizes a vehicle model of the second vehicle (3) based on the image and the driver assistance system (1) a vehicle database (10) from which at least one dimension (11) of the part (8) in relation to the Vehicle model is readable, wherein the driver assistance system (1) for a dimension (11) corresponding reference dimension of the part (8) using the pixels of the image detected and the distance (13) based on a ratio between d he dimension (11) and the reference dimension determined.
Figure DE102018124979A1_0000

Description

Die Erfindung betrifft ein Fahrerassistenzsystem zur Bestimmung einer Entfernung zwischen einem Fahrzeug und einem weiteren Fahrzeug.The invention relates to a driver assistance system for determining a distance between a vehicle and another vehicle.

In der DE 103 05 935 A1 ist ein solches Fahrerassistenzsystem offenbart. Das darin beschriebene Fahrerassistenzsystem hat einen Radarsensor zur Bestimmung von Entfernungen zwischen dem Fahrzeug und weiteren Objekten. Außerdem weist das Fahrerassistenzsystem einen Kamerasensor auf. Mit Signalen des Radarsensors und des Kamerasensors können einem Fahrer des Fahrzeugs Informationen zum einen über die Entfernungen der Objekte zum Fahrzeug und zum anderen über Konturen der Objekte dargestellt werden.In the DE 103 05 935 A1 such a driver assistance system is disclosed. The driver assistance system described therein has a radar sensor for determining distances between the vehicle and other objects. In addition, the driver assistance system has a camera sensor. With signals from the radar sensor and the camera sensor, information about the distances of the objects to the vehicle and the contours of the objects can be displayed to a driver of the vehicle.

Aus der DE 10 2011 086 025 A1 ist ein Verfahren bekannt, bei welchem Objekte im Umfeld eines Fahrzeugs mit einer Kamera erkannt werden. Zusätzlich werden Ultraschallsignale mit einem Ultraschallsensor ausgesendet. Zeitgleich zu den Ultraschallsignalen werden Lichtimpulse durch eine Lichtquelle erzeugt. Unter Einbeziehung von Echo-Laufzeiten der durch den Ultraschallsensor gesendeten und empfangenen Ultraschallsignale wird in Abhängigkeit der reflektierten Lichtimpulse eine Berechnung von Raumkoordinaten der Objekte im Umfeld durchgeführt.From the DE 10 2011 086 025 A1 a method is known in which objects are detected in the environment of a vehicle with a camera. In addition, ultrasonic signals are transmitted with an ultrasonic sensor. At the same time as the ultrasound signals, light pulses are generated by a light source. Including echo propagation times of the ultrasonic signals transmitted and received by the ultrasonic sensor, a calculation of spatial coordinates of the objects in the environment is carried out as a function of the reflected light pulses.

Des Weiteren beschreibt die DE 102 41 464 A1 eine Vorrichtung zur Umfeldüberwachung eines Fahrzeugs mit einer Kamera. Die Kamera wird hierbei zur Überwachung eines Fernbereiches verwendet. Ein Nahbereich wird mittels Ultraschall- oder Mikrowellensensoren überwacht, wobei mit diesen Sensoren eine Abstandsmessung erfolgt.Furthermore, the describes DE 102 41 464 A1 a device for monitoring the surroundings of a vehicle with a camera. The camera is used to monitor a remote area. A near zone is monitored by means of ultrasonic or microwave sensors, whereby a distance measurement takes place with these sensors.

Diese bekannten Fahrerassistenzsysteme haben den Nachteil, dass zusätzlich zu der Kamera ein Entfernungssensor zur Bestimmung einer Entfernung eines Objektes von dem Fahrzeug verwendet wird.These known driver assistance systems have the disadvantage that, in addition to the camera, a distance sensor is used to determine a distance of an object from the vehicle.

Aufgabe der vorliegenden Erfindung ist es daher, ein Fahrerassistenzsystem bereitzustellen, welches eine Entfernung zwischen einem mit der Kamera detektierten Objekt und dem Fahrzeug mit geringerem Hardwareaufwand ermitteln kann.The object of the present invention is therefore to provide a driver assistance system which can determine a distance between an object detected by the camera and the vehicle with a lesser amount of hardware.

Diese Aufgabe wird mit einem Fahrerassistenzsystem mit den Merkmalen des Anspruches 1 und einem Verfahren mit den Merkmalen des Anspruches 4 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen sind Gegenstand der abhängigen Ansprüche.This object is achieved with a driver assistance system having the features of claim 1 and a method having the features of claim 4. Advantageous embodiments and further developments are the subject of the dependent claims.

Zur Lösung dieser Aufgabe wird ein Fahrerassistenzsystem zur Bestimmung einer Entfernung zwischen einem ersten Fahrzeug und einem zweiten Fahrzeug vorgeschlagen. Das Fahrerassistenzsystem weist eine Kamera mit einem Bildsensor auf. Die Kamera erzeugt ein zweidimensionales Bild mit Bildpunkten, auf dem das zweite Fahrzeug zumindest teilweise abgebildet ist. Weiterhin erkennt das Fahrerassistenzsystem mit einem Objekterkennungsmodul ein Teil des zweiten Fahrzeugs anhand des Bildes und bestimmt mit einem Identifikationsmodul ein Fahrzeugmodell des zweiten Fahrzeugs anhand des Bildes. Weiterhin hat das Fahrerassistenzsystem eine Fahrzeugdatenbank, aus welcher zumindest eine Abmessung des Teils des zweiten Fahrzeugs in Bezug zu dem Fahrzeugmodell auslesbar ist. Erfindungsgemäß erfasst das Fahrerassistenzsystem eine zur Abmessung korrespondierende Referenzabmessung des Teils mit Hilfe der Bildpunkte des Bildes und bestimmt die Entfernung zwischen dem ersten und dem zweiten Fahrzeug anhand eines Verhältnisses zwischen der Abmessung und der Referenzabmessung.To solve this problem, a driver assistance system for determining a distance between a first vehicle and a second vehicle is proposed. The driver assistance system has a camera with an image sensor. The camera produces a two-dimensional image with pixels on which the second vehicle is at least partially imaged. Furthermore, the driver assistance system with an object recognition module recognizes a part of the second vehicle based on the image and determines with an identification module a vehicle model of the second vehicle based on the image. Furthermore, the driver assistance system has a vehicle database, from which at least one dimension of the part of the second vehicle relative to the vehicle model can be read out. According to the invention, the driver assistance system detects a reference dimension corresponding to the dimension of the part with the aid of the pixels of the image and determines the distance between the first and the second vehicle based on a ratio between the dimension and the reference dimension.

Der Vorteil des vorgeschlagenen Fahrerassistenzsystems ist es, dass zur Bestimmung der Entfernung zwischen dem ersten und dem zweiten Fahrzeug neben der Kamera kein zusätzlicher Entfernungssensor nötig ist. Dies erspart Kosten in der Herstellung des Fahrerassistenzsystems und Platz innerhalb des ersten Fahrzeugs, weil kein zusätzlicher Entfernungssensor in einer Karosserie des Fahrzeugs montiert werden muss. Die Kamera kann weiterhin bei dem vorgeschlagenen Fahrerassistenzsystem als eine Monokamera ausgeführt sein. Dadurch kann gegenüber einer Verwendung einer Stereokamera zur Bestimmung der Entfernung ebenfalls eine Reduzierung von Materialkosten erzielt werden.The advantage of the proposed driver assistance system is that no additional distance sensor is necessary to determine the distance between the first and the second vehicle in addition to the camera. This saves costs in the production of the driver assistance system and space within the first vehicle, because no additional distance sensor must be mounted in a body of the vehicle. The camera can furthermore be designed as a monocamera in the proposed driver assistance system. As a result, compared to a use of a stereo camera to determine the distance also a reduction of material costs can be achieved.

Bevorzugt zeigt das Fahrerassistenzsystem die Entfernung auf einem Display des Fahrzeugs an, sodass der Fahrer beim Fahren des Fahrzeugs unterstützt werden kann. Darüber hinaus kann vorgesehen sein, dass die Entfernung als eine Eingangsgröße für ein Steuergerät des Fahrzeugs zum Steuern des Fahrzeugs verwendet wird. Beispielsweise kann die Entfernung eine Eingangsgröße eines Geschwindigkeitsreglers des Steuergerätes sein.Preferably, the driver assistance system displays the distance on a display of the vehicle, so that the driver can be supported when driving the vehicle. In addition, provision may be made for the distance to be used as an input variable for a control device of the vehicle for controlling the vehicle. For example, the distance may be an input variable of a speed controller of the control unit.

Die Erfindung beruht auf dem Gedanken, dass die Kamera reflektierende Punkte in einer dreidimensionalen geometrischen Umgebung des ersten Fahrzeugs auf das zweidimensionale Bild abbilden kann. Der Bildsensor hat Bildpunkte, die den Bildpunkten des Bildes entsprechen oder diesen zugeordnet werden können. Das erkannte Teil des zweiten Fahrzeugs wird, bevorzugt mithilfe einer Linse der Kamera, auf dem Bildsensor abgebildet. Je nach Entfernung des Teils von der Linse erstreckt sich ein auf dem Bildsensor abgebildetes Bild des Teils über eine bestimmte Anzahl von Bildpunkten des Bildes. Bei zunehmender oder abnehmender Entfernung des Teils von der Linse verringert beziehungsweise erhöht sich die Anzahl der Bildpunkte, über die sich das Bild des Teils erstreckt.The invention is based on the idea that the camera can image reflecting points in a three-dimensional geometric environment of the first vehicle onto the two-dimensional image. The image sensor has pixels that correspond to the pixels of the image or can be assigned to them. The recognized part of the second vehicle is imaged on the image sensor, preferably with the aid of a lens of the camera. Depending on the distance of the part from the lens, an image of the part imaged on the image sensor extends over a certain number of pixels of the image. As the distance increases or decreases Part of the lens reduces or increases the number of pixels over which the image of the part extends.

Mithilfe der Anzahl der Bildpunkte, über die sich das Bild des Teils erstreckt, wird die Referenzabmessung bestimmt. Die Entfernung zwischen dem ersten und dem zweiten Fahrzeug, im Folgenden als Gegenstandsweite bezeichnet, kann aus einer Bildweite, die durch einen Abstand des Bildsensors von der Linse definiert ist, der Referenzabmessung und der Abmessung errechnet werden.The reference dimension is determined by the number of pixels the image of the part extends. The distance between the first and second vehicles, hereinafter referred to as object width, may be calculated from an image distance defined by a distance of the image sensor from the lens, the reference dimension, and the dimension.

Bevorzugt wird die Gegenstandsweite aus einem Produkt mit der Bildweite als einem ersten Faktor und einem Quotienten als einem zweiten Faktor, wobei der Quotient aus der Abmessung als Dividend und der Referenzabmessung als Divisor gebildet wird, berechnet. Eine Berechnung der Gegenstandsweite nach diesem Verfahren eignet sich besonders gut für Entfernungen des zweiten Fahrzeugs vom ersten Fahrzeug, die in einer Größenordnung von mehr als 10 m liegen.Preferably, the object distance is calculated from a product having the image width as a first factor and a quotient as a second factor, wherein the quotient of the dimension is formed as a dividend and the reference dimension as a divisor. A calculation of the object width according to this method is particularly well suited for distances of the second vehicle from the first vehicle, which are in the order of more than 10 m.

Der Ausdruck „Modul“, wie er hierin benutzt wird, beschreibt eine beliebige bekannte oder später entwickelte Hardware, Software, Firmware, Künstliche Intelligenz, Fuzzy-Logik oder Kombination aus Hardware und Software, die in der Lage ist, die mit dem jeweiligen „Modul“ assoziierte Funktionalität auszuführen.The term "module" as used herein describes any known or later developed hardware, software, firmware, artificial intelligence, fuzzy logic or combination of hardware and software capable of interfacing with the particular module Perform associated functionality.

Das Objekterkennungsmodul weist in vorteilhafter Weise Filterbänke und/oder neuronale Netzwerke auf. Bevorzugt ist das Objekterkennungsmodul derart ausgebildet, dass anhand der Bildpunkte des zweidimensionalen Bildes das Teil des zweiten Fahrzeugs erkannt werden kann. Das Teil kann beispielsweise eine Heckklappe, eine Rückseite eines Lkw-Containers, eine Stoßstange, eine gesamte Rückseite einer Karosserie, eine Heckscheibe, ein Markenzeichen eines Autoherstellers, eine Rückleuchte, ein Lüftungsschlitz, eine Abrisskante eines Hecks oder eine C-Säule sein. Diese verschiedenen Ausgestaltungen des Teils können in dem Objekterkennungsmodul in Form von einzelnen Bauteilklassen abgebildet werden. Hierbei können vorteilhaft für jede Bauteilklasse für die Bauteilklasse spezifische Werte von Formparametern in dem Objekterkennungsmodul hinterlegt sein. Besonders vorteilhaft ist das Objekterkennungsmodul derart gestaltet, dass beim Erkennen des Teils das Teil zu einer einzelnen Bauteilklasse zugeordnet wird.The object recognition module advantageously has filter banks and / or neural networks. Preferably, the object recognition module is designed such that the part of the second vehicle can be recognized on the basis of the pixels of the two-dimensional image. The part may be, for example, a tailgate, a rear of a truck container, a bumper, an entire rear of a body, a rear window, an automobile manufacturer's trademark, a taillight, a vent, a rear spoiler, or a C-pillar. These various embodiments of the part can be imaged in the object recognition module in the form of individual component classes. In this case, specific values of shape parameters can advantageously be stored in the object recognition module for each component class for the component class. Particularly advantageously, the object recognition module is designed such that upon recognition of the part, the part is assigned to a single component class.

Das Identifikationsmodul ist bevorzugt derart aufgebaut, dass mit Hilfe der Bildpunkte des zweidimensionalen Bildes als eine Eingangsgröße des Identifikationsmoduls das Fahrzeugmodell des zweiten Fahrzeugs als Ausgangsgröße des Identifikationsmoduls bestimmt werden kann. In einer bevorzugten Ausführungsform ist es beispielsweise möglich, dass mit Hilfe des Identifikationsmoduls zumindest ein erster Wert eines ersten Formparameters des zweiten Fahrzeugs mit Hilfe der Bildpunkte berechnet wird. Dabei können die Bildpunkte verwendet werden, mit denen das Teil abgebildet wird. In einer weiteren Variante können auch Bildpunkte zur Berechnung des ersten Wertes des ersten Formparameters verwendet werden, die ein weiteres Teil des zweiten Fahrzeugs abbilden. Unter Umständen ist es möglich, dass die Bestimmung des Fahrzeugmodells mit Hilfe des weiteren Teils einfacher als mit dem mithilfe des Objekterkennungsmoduls erkannten Teils ist.The identification module is preferably constructed in such a way that the vehicle model of the second vehicle can be determined as the output variable of the identification module with the aid of the pixels of the two-dimensional image as an input variable of the identification module. In a preferred embodiment, it is possible, for example, that with the aid of the identification module at least a first value of a first shape parameter of the second vehicle is calculated with the aid of the pixels. In this case, the pixels can be used with which the part is displayed. In a further variant, pixels may also be used for calculating the first value of the first shape parameter, which map another part of the second vehicle. Under certain circumstances it is possible that the determination of the vehicle model with the aid of the further part is simpler than with the part recognized using the object recognition module.

Vorzugsweise wird der erste Wert mit Werten von Formparametern, die bevorzugt in einer Formdatenbank abgespeichert sind, verglichen. Die in der Formdatenbank abgespeicherten Werte der Formparameter sind jeweils einem Fahrzeugmodell zugeordnet. Möglich ist, dass in der Formdatenbank einem einzelnen Fahrzeugmodell mehrere Werte von Formparametern zugeordnet sind. Beispielsweise können für ein einzelnes Fahrzeugmodell eines Automobilherstellers aus einem bestimmten Baujahr Werte von Formparametern zur Darstellung von einem kurvenartigen Kantenverlauf einer Heckscheibe in der Formdatenbank gespeichert sein. Vorteilhaft eignen sich die Werte zur Konstruktion eines oder mehrerer Splines.Preferably, the first value is compared with values of shape parameters, which are preferably stored in a shape database. The values of the shape parameters stored in the shape database are each assigned to a vehicle model. It is possible that in the form database, several values of shape parameters are assigned to a single vehicle model. For example, for a single vehicle model of an automobile manufacturer from a particular year of manufacture, values of shape parameters for representing a curved edge curve of a rear window may be stored in the shape database. Advantageously, the values are suitable for constructing one or more splines.

In einer speziellen Variante sind die Werte der Formparameter in Form von gespeicherten Gewichtswerten einzelner gewichteter Verbindungen zwischen Neuronen eines neuronalen Netzwerkes gespeichert. Besonders vorteilhaft weist das Identifikationsmodul ein neuronales Netzwerk auf, welches bevorzugt mit Werten aus der Formdatenbank trainiert wurde. Bei dieser Variante sind die Werte der Formparameter durch gespeicherte Gewichtswerte einzelner Neuronen des neuronalen Netzwerkes abgebildet.In a special variant, the values of the shape parameters are stored in the form of stored weight values of individual weighted connections between neurons of a neural network. Particularly advantageously, the identification module has a neural network, which was preferably trained with values from the shape database. In this variant, the values of the shape parameters are represented by stored weight values of individual neurons of the neural network.

Zum Auslesen der Abmessung des Teils weist die Fahrzeugdatenbank praktischerweise für jeweils ein Fahrzeugmodell eine Zeile und für verschiedene Teile eines Fahrzeugmodells jeweils eine Spalte auf. So ist es möglich, dass für verschiedene Teile des zweiten Fahrzeugs jeweils eine Abmessung des jeweiligen Teils in der Fahrzeugdatenbank hinterlegt ist. Die verschiedenen Teile lassen sich bevorzugt in die verschiedenen Bauteilklassen des Objekterkennungsmoduls einordnen. Je nachdem, welches Teil des zweiten Fahrzeugs schneller mit Hilfe des Objekterkennungsmoduls erkannt wird, kann dieses Teil zur Bestimmung der Entfernung verwendet werden. Diese Variante zur Bestimmung des Fahrzeugmodells kann gegenüber einer Variante, bei welcher nur eine Abmessung eines einzigen Teils eines Fahrzeugmodells in der Fahrzeugdatenbank hinterlegt ist, weniger Rechenzeit oder Rechenkapazität benötigen.For reading out the dimension of the part, the vehicle database conveniently has one row for each vehicle model and one column for different parts of a vehicle model. Thus, it is possible that in each case a dimension of the respective part is stored in the vehicle database for different parts of the second vehicle. The various parts can preferably be classified in the different component classes of the object recognition module. Depending on which part of the second vehicle is detected more quickly with the aid of the object recognition module, this part can be used to determine the distance. This variant for determining the vehicle model can be compared to a variant in which only one dimension of a single part of a vehicle model in the vehicle database is deposited, requires less computing time or computing capacity.

In einer besonderen Ausgestaltung ist die Abmessung eine Höhe des Teils. Dies hat den Vorteil, dass bei einem Spurwechsel des zweiten Fahrzeuges die Referenzabmessung, welche in diesem Fall eine Referenzhöhe ist, sich nicht verändert. Jedoch ist es möglich, dass sich die Referenzhöhe ändert, sobald das zweite Fahrzeug eine gegenüber dem ersten Fahrzeug höhere oder niedrigere Steigung entlangfährt.In a particular embodiment, the dimension is a height of the part. This has the advantage that when a lane change of the second vehicle, the reference dimension, which in this case is a reference level, does not change. However, it is possible that the reference altitude changes as the second vehicle travels a higher or lower pitch than the first vehicle.

Um diesen Nachteil zu überwinden, weist das Fahrerassistenzsystem in vorteilhafter Weise einen Speicher auf, in welchem zumindest ein Neigungsverlauf einer von dem ersten Fahrzeug befahrenen Fahrbahn gespeichert ist. Das Fahrerassistenzsystem korrigiert mit Hilfe des Neigungsverlaufes die Entfernung. In einer besonderen Ausgestaltung kann der Speicher in Form von in einer Cloud gespeicherten Dateien ausgebildet sein.In order to overcome this disadvantage, the driver assistance system advantageously has a memory in which at least one gradient of a roadway traveled by the first vehicle is stored. The driver assistance system corrects the distance with the help of the slope progression. In a particular embodiment, the memory may be in the form of files stored in a cloud.

In vorteilhafter Weise kann in einem ersten Schritt einer Korrektur der Entfernung mithilfe eines ersten Neigungswinkels der Fahrbahn in einer ersten nach dem vorgeschlagenen Verfahren bestimmten Entfernung die Referenzabmessung korrigiert werden. Dabei wird der erste Neigungswinkel bevorzugt mithilfe einer digitalen Karte bestimmt. Eine korrigierte Referenzabmessung kann durch eine Division der Referenzabmessung durch den Kosinus des ersten Neigungswinkels gewonnen werden. Mithilfe der korrigierten Referenzabmessung kann in einem zweiten Schritt, wie oben beschrieben, die Gegenstandsweite nach dem vorgeschlagenen Verfahren als eine korrigierte Entfernung zwischen dem ersten und dem zweiten Fahrzeug berechnet werden.Advantageously, in a first step of correcting the distance by means of a first inclination angle of the roadway at a first distance determined according to the proposed method, the reference dimension can be corrected. The first inclination angle is preferably determined by means of a digital map. A corrected reference dimension can be obtained by dividing the reference dimension by the cosine of the first pitch angle. Using the corrected reference dimension, as described above, in a second step, the subject distance may be calculated according to the proposed method as a corrected distance between the first and second vehicles.

In einem dritten Schritt wird anhand der korrigierten Entfernung ein zur korrigierten Entfernung korrespondierender zweiter Neigungswinkel der Fahrbahn mithilfe der digitalen Karte ausgelesen. Der derartig ermittelte zweite Neigungswinkel kann für eine erneute Korrektur der Referenzabmessung verwendet werden. Die Schritte eins bis drei der Korrektur der Entfernung können mehrmals hintereinander durchgeführt werden, um die Gegenstandsweite iterativ zu berechnen.In a third step, based on the corrected distance, a second inclination angle of the road surface corresponding to the corrected distance is read out using the digital map. The thus determined second tilt angle can be used for a new correction of the reference dimension. Steps one through three of correcting the distance may be performed several times in succession to iteratively calculate the object's distance.

Zur Lösung der oben genannten Aufgabe wird weiterhin ein Verfahren zur Bestimmung einer Entfernung zwischen einem ersten Fahrzeug und einem zweiten Fahrzeug mit Hilfe eines Fahrerassistenzsystems vorgeschlagen. Das Fahrerassistenzsystem kann nach einer der oben genannten Varianten ausgestaltet sein. In einem ersten Schritt wird das zweidimensionale Bild, auf dem das zweite Fahrzeug zumindest teilweise abgebildet ist, mit der Kamera erzeugt. In einem zweiten Schritt wird das Teil des zweiten Fahrzeugs mit Hilfe des Objekterkennungsmoduls und des Bildes erkannt. In einem dritten Schritt wird das Fahrzeugmodell des zweiten Fahrzeugs anhand des Bildes und mit Hilfe des Identifikationsmoduls bestimmt.In order to achieve the abovementioned object, a method for determining a distance between a first vehicle and a second vehicle by means of a driver assistance system is also proposed. The driver assistance system can be designed according to one of the variants mentioned above. In a first step, the two-dimensional image, on which the second vehicle is at least partially imaged, is generated with the camera. In a second step, the part of the second vehicle is detected by means of the object recognition module and the image. In a third step, the vehicle model of the second vehicle is determined based on the image and with the aid of the identification module.

In einem vierten Schritt wird die Abmessung des Teils des zweiten Fahrzeugs in Bezug zu dem Fahrzeugmodell aus der Fahrzeugdatenbank ausgelesen. In einem fünften Schritt wird eine zu der Abmessung korrespondierende Referenzabmessung des Teils mit Hilfe der Bildpunkte des Bildes bestimmt. In einem sechsten Schritt wird ein Verhältnis zwischen der Abmessung und der Referenzabmessung berechnet. In einem siebten Schritt wird die Entfernung anhand des Verhältnisses bestimmt. Das Verhältnis kann beispielsweise als ein Quotient mit der Abmessung als Dividend und der Referenzabmessung als Divisor ausgebildet sein.In a fourth step, the dimension of the part of the second vehicle relative to the vehicle model is read from the vehicle database. In a fifth step, a reference dimension of the part corresponding to the dimension is determined with the aid of the pixels of the image. In a sixth step, a ratio between the dimension and the reference dimension is calculated. In a seventh step, the distance is determined by the ratio. The ratio may be formed, for example, as a quotient with the dimension as a dividend and the reference dimension as a divisor.

In einer besonderen Ausgestaltung des Verfahrens ist vorgesehen, dass eine Bildweite, die durch einen Abstand des Bildsensors von einer Linse der Kamera definiert ist, zum Fokussieren des zweiten Fahrzeugs verändert wird und die Entfernung anhand des Verhältnisses und der Bildweite bestimmt wird.In a particular embodiment of the method, it is provided that an image width, which is defined by a distance of the image sensor from a lens of the camera, is changed for focusing the second vehicle and the distance is determined on the basis of the ratio and the image width.

Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung zumindest eines bevorzugten Ausführungsbeispiels sowie anhand der Figuren. Diese zeigen in:

  • 1 eine schematische Ansicht eines Fahrerassistenzsystems für ein erstes Fahrzeug zur Bestimmung einer Entfernung zwischen dem ersten Fahrzeug und einem zweiten Fahrzeug,
  • 2 Schritte eines Verfahrens zur Bestimmung der Entfernung zwischen dem ersten Fahrzeug und dem zweiten Fahrzeug,
  • 3 eine Schnittansicht einer Linse, eines Bildsensors mit Bildpunkten, von zwei Objekten und von den Objekten reflektierte auf die Bildpunkte auftreffende Lichtstrahlen,
  • 4 eine Draufsicht der Linse aus 3.
Further advantages, features and details of the invention will become apparent from the following description of at least one preferred embodiment and with reference to the figures. These show in:
  • 1 1 is a schematic view of a driver assistance system for a first vehicle for determining a distance between the first vehicle and a second vehicle;
  • 2 Steps of a method for determining the distance between the first vehicle and the second vehicle,
  • 3 a sectional view of a lens, an image sensor with pixels, of two objects and reflected by the objects incident on the pixels light beams,
  • 4 a plan view of the lens 3 ,

1 zeigt ein Fahrerassistenzsystem 1 für ein erstes Fahrzeug 2 zur Bestimmung einer Entfernung 13 zwischen dem ersten Fahrzeug 2 und einem zweiten Fahrzeug 3. Das Fahrerassistenzsystem 1 weist eine Kamera 4, ein Objekterkennungsmodul 7, ein Identifikationsmodul 9 und eine Fahrzeugdatenbank 10 auf. Die Kamera 4 hat einen Bildsensor 5 und eine Linse 6, wobei der Bildsensor 5 bevorzugt in einer Brennebene der Linse 6 angeordnet ist. Mit der Kamera 4 ist ein zweidimensionales Bild mit Bildpunkten erzeugbar, auf dem das zweite Fahrzeug 3 zumindest teilweise abgebildet ist. Das Objekterkennungsmodul 7 ist derart ausgebildet, dass mit diesem ein Teil 8 des zweiten Fahrzeugs anhand des Bildes erkannt werden kann. 1 shows a driver assistance system 1 for a first vehicle 2 for determining a distance 13 between the first vehicle 2 and a second vehicle 3 , The driver assistance system 1 has a camera 4 , an object recognition module 7 , an identification module 9 and a vehicle database 10 on. The camera 4 has an image sensor 5 and a lens 6 , where the image sensor 5 preferably in a focal plane of the lens 6 is arranged. With the camera 4 is a two-dimensional image can be generated with pixels on which the second vehicle 3 at least partially depicted. The Object recognition module 7 is designed such that with this a part 8th of the second vehicle can be recognized by the image.

Das Identifikationsmodul 9 ist derart eingerichtet, dass ein Fahrzeugmodell des zweiten Fahrzeugs anhand des Bildes bestimmt werden kann. Aus der Fahrzeugdatenbank 10 ist zumindest eine Abmessung 11 des Teils 8 des zweiten Fahrzeugs 3 in Bezug zu dem Fahrzeugmodell auslesbar. Mit dem Fahrerassistenzsystem 1 ist eine zur Abmessung 11 korrespondierende Referenzabmessung 12 des Teils 8 mit Hilfe der Bildpunkte des Bildes erfassbar. Weiterhin ist mit dem Fahrerassistenzsystem 1 die Entfernung 13 anhand eines Verhältnisses zwischen der Abmessung 11 und der Referenzabmessung 12 bestimmbar.The identification module 9 is set up such that a vehicle model of the second vehicle can be determined based on the image. From the vehicle database 10 is at least one dimension 11 of the part 8th of the second vehicle 3 readable in relation to the vehicle model. With the driver assistance system 1 is one to the dimension 11 corresponding reference dimension 12 of the part 8th detectable with the help of the pixels of the image. Furthermore, with the driver assistance system 1 the distance 13 by a ratio between the dimensions 11 and the reference dimension 12 determinable.

2 zeigt ein Verfahren zur Bestimmung der Entfernung 13 zwischen dem ersten Fahrzeug 2 und dem zweiten Fahrzeug 3 mit Hilfe des Fahrerassistenzsystems 1. In einem ersten Schritt 21 wird das zweidimensionale Bild mit der Kamera 4 erzeugt, auf dem das zweite Fahrzeug 3 zumindest teilweise abgebildet ist. In einem zweiten Schritt 22 wird mit Hilfe des Objekterkennungsmoduls 7 und des Bildes das Teil 8 des zweiten Fahrzeugs 3 erkannt. In einem dritten Schritt 23 wird das Fahrzeugmodell des zweiten Fahrzeugs 3 anhand des Bildes und mit Hilfe des Identifikationsmoduls 9 bestimmt. In einem vierten Schritt 24 wird die Abmessung 11 des Teils 8 des zweiten Fahrzeugs 3 in Bezug zu dem Fahrzeugmodell aus der Fahrzeugdatenbank 10 ausgelesen. In einem fünften Schritt 25 wird eine zu der Abmessung 11 korrespondierende Referenzabmessung 12 des Teils 8 mit Hilfe der Bildpunkte des Bildes bestimmt. In einem sechsten Schritt 26 wird ein Verhältnis zwischen der Abmessung 11 und der Referenzabmessung 12 berechnet. In einem siebten Schritt 27 wird die Entfernung 13 anhand des Verhältnisses bestimmt. 2 shows a method for determining the distance 13 between the first vehicle 2 and the second vehicle 3 with the help of the driver assistance system 1 , In a first step 21 becomes the two-dimensional image with the camera 4 generated on which the second vehicle 3 at least partially depicted. In a second step 22 is done with the help of the object recognition module 7 and the picture the part 8th of the second vehicle 3 recognized. In a third step 23 becomes the vehicle model of the second vehicle 3 based on the image and with the help of the identification module 9 certainly. In a fourth step 24 becomes the dimension 11 of the part 8th of the second vehicle 3 in relation to the vehicle model from the vehicle database 10 read. In a fifth step 25 becomes one to the dimension 11 corresponding reference dimension 12 of the part 8th determined with the help of the pixels of the image. In a sixth step 26 will be a ratio between the dimensions 11 and the reference dimension 12 calculated. In a seventh step 27 will the distance 13 determined by the ratio.

3 zeigt eine beispielhafte Darstellung, wie sich eine Veränderung eines Abstandes eines Objektes von der Linse 6 auf eine Anzahl von Bildpunkten, über die sich ein Bild des Objektes erstreckt, auswirkt. Wie in 1 gezeigt, soll das zweite Fahrzeug 3 in diesem Beispiel dieselbe Entfernung 13 von dem ersten Fahrzeug 2 aufweisen. Nimmt das zweite Fahrzeug 3 die Entfernung 13 von dem ersten Fahrzeug 2 ein, so erstreckt sich das Bild des erkannten Teils 8 über zwei der Bildpunkte 31 des Bildsensors 5. 3 shows an exemplary representation of how a change in a distance of an object from the lens 6 to a number of pixels over which an image of the object extends. As in 1 Shown to be the second vehicle 3 in this example the same distance 13 from the first vehicle 2 exhibit. Take the second vehicle 3 the distance 13 from the first vehicle 2 a, so extends the image of the recognized part 8th over two of the pixels 31 of the image sensor 5 ,

Die Entfernung 13 wird von einer Hinterkante des Teils 8, welches eine vollständige Heckpartie des zweiten Fahrzeugs 3 sein kann, bis zu einer Mittelachse 32 der Linse 6 gemessen. Zusätzlich zu dem zweiten Fahrzeug 3 soll ein drittes Fahrzeug 33, welches eine Entfernung 36 von der Linse 6 hat, betrachtet werden. Das dritte Fahrzeug 33 weist ein zweites Teil 34 auf, welches ebenfalls ein gesamter Heckbereich des dritten Fahrzeugs 33 sein kann. Der gesamte Heckbereich 34 hat eine zweite Abmessung 35, welche gleich der Abmessung 11 des Teils 8 des zweiten Fahrzeugs 3 ist.The distance 13 is from a trailing edge of the part 8th , which is a complete rear end of the second vehicle 3 can be up to a central axis 32 the lens 6 measured. In addition to the second vehicle 3 should a third vehicle 33 which is a distance 36 from the lens 6 has to be considered. The third vehicle 33 has a second part 34 on, which is also an entire rear area of the third vehicle 33 can be. The entire rear area 34 has a second dimension 35 which is equal to the dimension 11 of the part 8th of the second vehicle 3 is.

Der gesamte Heckbereich 34 des dritten Fahrzeugs 33 ist in 3 größer dargestellt als der gesamte Heckbereich 8 des zweiten Fahrzeugs 3. Dies ist dadurch begründet, dass 3 lediglich eine prinzipielle Darstellung einer Anordnung ist, in welcher das zweite Fahrzeug 3 deutlich weiter entfernt von der Linse 6 als das dritte Fahrzeug 33 ist. Aus diesem Grund erfasst das zweite Teil 34 des dritten Fahrzeugs 33 einen größeren Bereich eines in 3 nicht dargestellten Lichtkegels der Linse 6 als das Teil 8 des zweiten Fahrzeugs 3. In 1, 3 und 4 sind jeweils zur besseren Übersichtlichkeit nur die Lichtstrahlen dargestellt, die durch den Mittelpunkt der Linse 6 gehen.The entire rear area 34 of the third vehicle 33 is in 3 represented larger than the entire rear area 8th of the second vehicle 3 , This is justified by the fact that 3 is merely a schematic representation of an arrangement in which the second vehicle 3 significantly further away from the lens 6 as the third vehicle 33 is. For this reason, the second part captures 34 of the third vehicle 33 a larger area of an in 3 not shown light cone of the lens 6 as the part 8th of the second vehicle 3 , In 1 . 3 and 4 are each shown for clarity only the light rays passing through the center of the lens 6 walk.

Dadurch, dass das Teil 34 des dritten Fahrzeugs 33 eine größere Fläche des Lichtkegels erfasst, trifft das von dem Teil 34 des dritten Fahrzeugs 33 ausgesandte Licht auf mehr Bildpunkte 31 des Bildsensors 35 als das von dem Teil 8 des zweiten Fahrzeugs 3 ausgesandte Licht. In dem in 3 gezeigten Beispiel erstreckt sich das Bild des Teils 34 des dritten Fahrzeugs 33 über sieben Bildpunkte 31. Mit Hilfe des Bildsensors 5 kann eine entsprechende Anzahl der von dem Teil 8 des zweiten Fahrzeugs 3 oder dem Teils 34 des dritten Fahrzeugs 33 belichteten Bildpunkte 31 erfasst werden.By doing that part 34 of the third vehicle 33 detects a larger area of the cone of light that hits the part 34 of the third vehicle 33 emitted light on more pixels 31 of the image sensor 35 as that of the part 8th of the second vehicle 3 emitted light. In the in 3 the example shown extends the image of the part 34 of the third vehicle 33 over seven pixels 31 , With the help of the image sensor 5 can be a corresponding number of the part 8th of the second vehicle 3 or the part 34 of the third vehicle 33 exposed pixels 31 be recorded.

Der Bildsensor 5 ist, wie in 1 gezeigt, mit Hilfe einer Auswerteeinheit 14 verbunden. Die Auswerteeinheit 14 kann ein Mikroprozessor sein, auf dem das Objekterkennungsmodul 7, das Identifikationsmodul 9 und die Fahrzeugdatenbank 10 in Form von elektronischen Bauteilen, wie z. B. Transistoren oder Speicherelementen, angeordnet sind. In jedem Fall ist der Bildsensor 5 über einen elektronischen Weg mit der Auswertungseinheit 14 verbunden. Vorzugsweise sind das Identifikationsmodul 9 mit der Fahrzeugdatenbank 10 sowie das Objekterkennungsmodul 7 unmittelbar mit dem Bildsensor 5 elektronisch verbunden.The image sensor 5 is how in 1 shown with the help of an evaluation unit 14 connected. The evaluation unit 14 may be a microprocessor on which the object recognition module 7 , the identification module 9 and the vehicle database 10 in the form of electronic components, such. B. transistors or memory elements are arranged. In any case, the image sensor 5 via an electronic way with the evaluation unit 14 connected. Preferably, the identification module 9 with the vehicle database 10 as well as the object recognition module 7 directly with the image sensor 5 electronically connected.

4 zeigt eine Draufsicht der Linse 6 und des Bildsensors 5, des zweiten Fahrzeuges 3 und eines vierten Fahrzeuges 41. 4 zeigt, dass es mit dem vorgeschlagenen Fahrerassistenzsystem 1 möglich ist, zumindest einem ersten Bildpunkt 43 ein erstes Volumenelement 44 mit einer Position in einem mit der Kamera 4 erfassbaren Volumen 45 zuzuordnen. Das zweite Fahrzeug 3 befindet sich hierbei zumindest teilweise in dem ersten Volumenelement 44, wobei ein von dem zweiten Fahrzeug 3 reflektierter Lichtstahl mithilfe der Linse 6 auf den ersten Bildpunkt 43 umgelenkt wird. 4 shows a plan view of the lens 6 and the image sensor 5 , the second vehicle 3 and a fourth vehicle 41 , 4 shows that it is with the proposed driver assistance system 1 is possible, at least a first pixel 43 a first volume element 44 with a position in one with the camera 4 detectable volume 45 assigned. The second vehicle 3 is here at least partially in the first volume element 44 , one of the second vehicle 3 reflected light steel with the help of the lens 6 at the first pixel 43 is diverted.

In gleicher Weise kann ein zweiter Bildpunkt 46 dem ersten Volumenelement 44 zugeordnet werden. Hierbei ist es nicht notwendig, dass der gesamte zweite Bildpunkt 46 von den von dem zweiten Fahrzeug 3 ausgehenden Lichtstrahlen erfasst wird. Wird der zweite Bildpunkt 46 nur teilweise von den von dem zweiten Fahrzeug 3 ausgehenden Lichtstrahlen erfasst, so reduziert sich lediglich eine mit dem zweiten Bildpunkt 46 erfasste Lichtintensität.In the same way, a second pixel 46 the first volume element 44 be assigned. It is not necessary that the entire second pixel 46 from the second vehicle 3 outgoing light rays is detected. Becomes the second pixel 46 only partially from that of the second vehicle 3 detected outgoing light rays, it reduces only one with the second pixel 46 recorded light intensity.

In gleicher Weise können ein dritter Bildpunkt 47 und ein vierter Bildpunkt 48 einem zweiten Volumenelement 49 mit einer zweiten Position in dem mit der Linse erfassbaren Volumen 45 zugeordnet werden. Bevorzugt kann eine jeweilige Lichtintensität der Bildpunkte 31, zu denen auch die Bildpunkte 43, 46, 47 und 48 gehören, mit Hilfe der Auswertungseinheit 14 erfasst werden.In the same way, a third pixel 47 and a fourth pixel 48 a second volume element 49 with a second position in the volume detectable by the lens 45 be assigned. Preferably, a respective light intensity of the pixels 31 , which include the pixels 43 . 46 . 47 and 48 belong, with the help of the evaluation unit 14 be recorded.

Weiterhin ist es möglich, dass mit Hilfe der Auswertungseinheit 14 der erste Bildpunkt 43 dem zweiten Fahrzeug 3 zugeordnet wird, wenn das Teil 8 des zweiten Fahrzeugs 3 mithilfe des Objekterkennungsmoduls 7 erkannt wird. Bevorzugt wird ein Azimutwinkel 50 zwischen einer Verbindungslinie 51, die zwischen dem zweiten Fahrzeug 3 und dem ersten Fahrzeug 2 verläuft, und einer optischen Achse 52 der Linse 6 berechnet.Furthermore, it is possible that with the help of the evaluation unit 14 the first pixel 43 the second vehicle 3 is assigned when the part 8th of the second vehicle 3 using the object recognition module 7 is recognized. An azimuth angle is preferred 50 between a connecting line 51 that between the second vehicle 3 and the first vehicle 2 runs, and an optical axis 52 the lens 6 calculated.

Mit Hilfe des Azimutwinkels 50 und der Entfernung 13 kann eine Position des zweiten Fahrzeugs 3 in einer horizontalen Umgebung des ersten Fahrzeugs 2 bestimmt werden. In gleicher Weise wie für die in 4 gezeigte horizontale Ebene kann in einer vertikalen Ebene ein Elevationswinkel des ersten Volumenelementes 44 bestimmt und in Verbindung mit der Entfernung 13 eine Position des zweiten Fahrzeugs 3 in einer vertikalen Umgebung des ersten Fahrzeugs 2 bestimmt werden.With the help of the azimuth angle 50 and the distance 13 can be a position of the second vehicle 3 in a horizontal environment of the first vehicle 2 be determined. In the same way as for in 4 shown horizontal plane can in a vertical plane, an elevation angle of the first volume element 44 determined and in connection with the distance 13 a position of the second vehicle 3 in a vertical environment of the first vehicle 2 be determined.

Dadurch, dass eine Gesamtanzahl der Bildpunkte 31 des Bildsensors 5 und ein mit der Linse 6 erfassbares gesamtes Volumen 45 bekannt sind, kann jedem Bildpunkt des Bildsensors 5 ein definiertes Volumenelement des gesamten Volumens 45 zugeordnet werden. Hierdurch wird das dreidimensionale Volumen 45 auf eine zweidimensionale Oberfläche der Bildpunkte 31 des Bildsensors 5 abgebildet. Wird ein einzelner Bildpunkt von einem Lichtstrahl, der von dem zweiten Fahrzeug 3 reflektiert wird, beleuchtet, so kann diesem einzelnen Bildpunkt und damit dem zweiten Fahrzeug 3 zum einen ein bestimmtes Volumenelement des Volumens 45 als auch ein entsprechender Elevationswinkel und ein entsprechender Azimutwinkel zugeordnet werden.By doing that, a total number of pixels 31 of the image sensor 5 and one with the lens 6 detectable total volume 45 are known, each pixel of the image sensor 5 a defined volume element of the entire volume 45 be assigned. This becomes the three-dimensional volume 45 on a two-dimensional surface of the pixels 31 of the image sensor 5 displayed. Is a single pixel of a ray of light from the second vehicle 3 is reflected, illuminated, so this single pixel and thus the second vehicle 3 on the one hand a certain volume element of the volume 45 as well as a corresponding elevation angle and a corresponding azimuth angle are assigned.

Eine besondere Variante des Verfahrens kann vorsehen, dass eine Bildweite, die durch einen Abstand 37 des Bildsensors von der Linse 6 definiert ist, zum Fokussieren des zweiten Fahrzeugs verändert wird und die Entfernung 13 anhand des Verhältnisses und der Bildweite bestimmt wird.A particular variant of the method may provide for an image distance defined by a distance 37 of the image sensor from the lens 6 is defined, for focusing the second vehicle is changed and the distance 13 determined on the basis of the ratio and the image width.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 10305935 A1 [0002]DE 10305935 A1 [0002]
  • DE 102011086025 A1 [0003]DE 102011086025 A1 [0003]
  • DE 10241464 A1 [0004]DE 10241464 A1 [0004]

Claims (10)

Fahrerassistenzsystem (1) mit einer Kamera (4) zur Bestimmung einer Entfernung (13) zwischen einem ersten Fahrzeug (2) und einem zweiten Fahrzeug (3), wobei die Kamera (4) einen Bildsensor (5) hat und die Kamera (4) ein zweidimensionales Bild mit Bildpunkten, auf dem das zweite Fahrzeug (3) zumindest teilweise abgebildet ist, erzeugt, und das Fahrerassistenzsystem (1) mit einem Objekterkennungsmodul (7) ein Teil (8) des zweiten Fahrzeugs (3) anhand des Bildes erkennt und mit einem Identifikationsmodul (9) ein Fahrzeugmodell des zweiten Fahrzeugs (3) anhand des Bildes bestimmt und das Fahrerassistenzsystem (1) eine Fahrzeugdatenbank (10), aus welcher zumindest eine Abmessung (11) des Teils (8) in Bezug zu dem Fahrzeugmodell auslesbar ist, aufweist, wobei das Fahrerassistenzsystem (1) eine zur Abmessung (11) korrespondierende Referenzabmessung des Teils (8) mithilfe der Bildpunkte des Bildes erfasst und die Entfernung (13) anhand eines Verhältnisses zwischen der Abmessung (11) und der Referenzabmessung bestimmt.Driver assistance system (1) having a camera (4) for determining a distance (13) between a first vehicle (2) and a second vehicle (3), the camera (4) having an image sensor (5) and the camera (4) a two-dimensional image with pixels on which the second vehicle (3) is at least partially displayed generated, and the driver assistance system (1) with an object recognition module (7) recognizes a part (8) of the second vehicle (3) based on the image and with an identification module (9) determines a vehicle model of the second vehicle (3) on the basis of the image and the driver assistance system (1) a vehicle database (10) from which at least one dimension (11) of the part (8) can be read in relation to the vehicle model, wherein the driver assistance system (1) detects a reference dimension of the part (8) corresponding to the dimension (11) using the picture elements of the image and the distance (13) based on a ratio between the dimension (11) and the R Reference dimension determined. Fahrerassistenzsystem (1) nach Anspruch 1, dadurch gekennzeichnet, dass die Abmessung (11) eine Höhe des Teils (8) ist.Driver assistance system (1) after Claim 1 , characterized in that the dimension (11) is a height of the part (8). Fahrerassistenzsystem (1) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das Fahrerassistenzsystem (1) einen Speicher aufweist, in welchem zumindest ein Neigungsverlauf einer von dem ersten Fahrzeug befahrenen Fahrbahn gespeichert ist, und das Fahrerassistenzsystem (1) die Entfernung (13) mithilfe des Neigungsverlaufes korrigiert.Driver assistance system (1) after Claim 1 or 2 , characterized in that the driver assistance system (1) has a memory in which at least one gradient of a roadway traveled by the first vehicle is stored, and the driver assistance system (1) corrects the distance (13) by means of the gradient course. Verfahren zur Bestimmung einer Entfernung (13) zwischen einem ersten Fahrzeug (2) und einem zweiten Fahrzeug (3) mithilfe eines Fahrerassistenzsystems (1) nach einem der Ansprüche 1 bis 3, mit den folgenden Schritten: - Erzeugen des zweidimensionalen Bildes mit der Kamera (4), auf dem das zweite Fahrzeug (3) zumindest teilweise abgebildet ist, - Erkennen des Teils (8) des zweiten Fahrzeugs (3) mithilfe des Objekterkennungsmoduls (7) und des Bildes, - Bestimmen des Fahrzeugmodells des zweiten Fahrzeugs (3) anhand des Bildes und mithilfe des Identifikationsmoduls (9), - Auslesen der Abmessung (11) des Teils (8) des zweiten Fahrzeugs (3) aus der Fahrzeugdatenbank (10) in Bezug zu dem Fahrzeugmodell, - Bestimmen der zur Abmessung (11) korrespondierenden Referenzabmessung des Teils (8) mithilfe der Bildpunkte des Bildes, - Berechnen des Verhältnisses zwischen der Abmessung (11) und der Referenzabmessung, - Bestimmen der Entfernung (13) anhand des Verhältnisses.Method for determining a distance (13) between a first vehicle (2) and a second vehicle (3) by means of a driver assistance system (1) according to one of Claims 1 to 3 comprising the following steps: - generating the two-dimensional image with the camera (4) on which the second vehicle (3) is at least partially imaged, - recognizing the part (8) of the second vehicle (3) using the object recognition module (7) and the image, - determining the vehicle model of the second vehicle (3) based on the image and using the identification module (9), - reading the dimension (11) of the part (8) of the second vehicle (3) from the vehicle database (10) Relating to the vehicle model, - determining the reference dimension of the part (8) corresponding to the dimension (11) using the pixels of the image, - calculating the ratio between the dimension (11) and the reference dimension, - determining the distance (13) from the ratio , Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass zu zumindest einem ersten Bildpunkt der Bildpunkte ein erstes Volumenelement (44) mit einer Position in einem mit der Kamera (4) erfassbaren Volumen zugeordnet wird, wobei sich das zweite Fahrzeug (3) zumindest teilweise in dem ersten Volumenelement (44) befindet und die Position dem zweiten Fahrzeug (3) zugeordnet wird.Method according to Claim 4 , Characterized in that to at least a first volume element (44) is associated with a position in one with the camera (4) detectable volume of a first pixel of the pixels, wherein the second vehicle (3) at least partially (in the first volume element 44 ) and the position is assigned to the second vehicle (3). Verfahren nach Anspruch 4 oder 5, dadurch gekennzeichnet, dass ein Azimutwinkel (50) zwischen einer Verbindungslinie (51) von dem zweiten Fahrzeug (3) zu dem ersten Fahrzeug (2) und einer optischen Achse (52) einer Linse (6) der Kamera (4) berechnet wird.Method according to Claim 4 or 5 characterized in that an azimuth angle (50) between a connecting line (51) from the second vehicle (3) to the first vehicle (2) and an optical axis (52) of a lens (6) of the camera (4) is calculated. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass mithilfe des Azimutwinkels (50) und der Entfernung (13) eine Position des zweiten Fahrzeugs (3) in einer Umgebung des ersten Fahrzeugs (2) bestimmt wird.Method according to Claim 6 , characterized in that by means of the azimuth angle (50) and the distance (13) a position of the second vehicle (3) in an environment of the first vehicle (2) is determined. Verfahren nach einem der Ansprüche 4 bis 7, dadurch gekennzeichnet, dass eine Höhe des Teils (8) als Abmessung (11) verwendet wird.Method according to one of Claims 4 to 7 , characterized in that a height of the part (8) is used as the dimension (11). Verfahren nach einem der Ansprüche 4 bis 8, dadurch gekennzeichnet, dass mit einer digitalen Karte ein Neigungsverlauf einer von dem ersten Fahrzeug (2) befahrenen Fahrbahn ermittelt und anhand des Neigungsverlaufes die Entfernung (13) korrigiert wird.Method according to one of Claims 4 to 8th , characterized in that with a digital map determines a slope course of a of the first vehicle (2) traveled roadway and the distance (13) is corrected based on the inclination curve. Verfahren nach einem der Ansprüche 4 bis 9, dadurch gekennzeichnet, dass eine Bildweite, die durch einen Abstand (37) des Bildsensors von einer Linse (6) der Kamera (4) definiert ist, zum Fokussieren des zweiten Fahrzeugs verändert wird und die Entfernung (13) anhand des Verhältnisses und der Bildweite bestimmt wird.Method according to one of Claims 4 to 9 characterized in that an image distance defined by a distance (37) of the image sensor from a lens (6) of the camera (4) is changed to focus the second vehicle, and the distance (13) is changed based on the ratio and the image width is determined.
DE102018124979.9A 2017-10-16 2018-10-10 Driver assistance system for determining a distance between two vehicles with a camera Pending DE102018124979A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102017123982.0A DE102017123982A1 (en) 2017-10-16 2017-10-16 Driver assistance system for determining a distance between two vehicles with a camera
DE102017123982.0 2017-10-16

Publications (1)

Publication Number Publication Date
DE102018124979A1 true DE102018124979A1 (en) 2018-11-22

Family

ID=60268723

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102017123982.0A Withdrawn DE102017123982A1 (en) 2017-10-16 2017-10-16 Driver assistance system for determining a distance between two vehicles with a camera
DE102018124979.9A Pending DE102018124979A1 (en) 2017-10-16 2018-10-10 Driver assistance system for determining a distance between two vehicles with a camera

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE102017123982.0A Withdrawn DE102017123982A1 (en) 2017-10-16 2017-10-16 Driver assistance system for determining a distance between two vehicles with a camera

Country Status (1)

Country Link
DE (2) DE102017123982A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019119253A1 (en) 2019-07-16 2019-09-05 FEV Group GmbH Assistance system for the sound-dependent detection of objects in traffic and a warning function
CN112904451A (en) * 2021-01-20 2021-06-04 浙江洁特智慧科技有限公司 Presence type inductor

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018104324A1 (en) 2018-02-26 2018-05-30 FEV Europe GmbH A two-wheeler with a sensor-controlled actuator acting on a front suspension for correcting an angle of the two-wheeler
DE102019108595A1 (en) * 2019-04-02 2020-10-08 Bayerische Motoren Werke Aktiengesellschaft Simulation of road users

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10241464A1 (en) 2002-09-06 2004-03-18 Robert Bosch Gmbh System monitoring surroundings of vehicle for e.g. parking purposes, combines inputs from near-field camera and far-field obstacle sensor, in display
DE10305935A1 (en) 2003-02-13 2004-08-26 Valeo Schalter Und Sensoren Gmbh Device for detecting objects in the environment of a motor vehicle
DE102011086025A1 (en) 2011-11-09 2013-05-16 Robert Bosch Gmbh Method for detecting objects in the environment of a vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10241464A1 (en) 2002-09-06 2004-03-18 Robert Bosch Gmbh System monitoring surroundings of vehicle for e.g. parking purposes, combines inputs from near-field camera and far-field obstacle sensor, in display
DE10305935A1 (en) 2003-02-13 2004-08-26 Valeo Schalter Und Sensoren Gmbh Device for detecting objects in the environment of a motor vehicle
DE102011086025A1 (en) 2011-11-09 2013-05-16 Robert Bosch Gmbh Method for detecting objects in the environment of a vehicle

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019119253A1 (en) 2019-07-16 2019-09-05 FEV Group GmbH Assistance system for the sound-dependent detection of objects in traffic and a warning function
CN112904451A (en) * 2021-01-20 2021-06-04 浙江洁特智慧科技有限公司 Presence type inductor

Also Published As

Publication number Publication date
DE102017123982A1 (en) 2017-11-30

Similar Documents

Publication Publication Date Title
EP2561419B1 (en) Method for determining the lane course for a vehicle
WO2018069405A1 (en) Motor vehicle and method for a 360° detection of the surroundings
DE102018124979A1 (en) Driver assistance system for determining a distance between two vehicles with a camera
EP2788245B1 (en) Method and device for locating a predefined parking position
DE112014002019B4 (en) Waveform modeling device, vehicle information processing system, waveform modeling method and waveform modeling program
DE102013205882A1 (en) Method and device for guiding a vehicle around an object
DE102015115012A1 (en) Method for generating an environment map of an environment of a motor vehicle based on an image of a camera, driver assistance system and motor vehicle
DE102016208025A1 (en) Method for detecting traffic signs
DE112017007347T5 (en) OBJECT DETECTION DEVICE AND VEHICLE
EP3520024A1 (en) Detection and validation of objects from sequential images from a camera by means of homographs
EP3520023A1 (en) Detection and validation of objects from sequential images from a camera
DE102018204451A1 (en) Method and device for auto-calibration of a vehicle camera system
EP2131598A2 (en) Stereo camera system and method of determining at least one calibration error in a stereo camera system
EP3293971B1 (en) Method for reproducing a section of an image
EP3520025A1 (en) Detection and validation of objects from sequential images from a camera by means of homographs
DE102008050456B4 (en) Method and apparatus for lane detection
DE102019126116A1 (en) Device for informing about a lane and control method therefor
DE102006007550A1 (en) Roadway markings detecting method for motor vehicle, involves analyzing pixels in such a manner that roadway markings for vehicle are detected, and using ridge-operator as image recognition operator during analysis of pixels
DE102018202753A1 (en) Method for determining a distance between a motor vehicle and an object
DE102019102922A1 (en) Method and device for multi-sensor data fusion for automated and autonomous vehicles
DE102012008780A1 (en) Method for detecting lane edge i.e. unlabelled lane edge, for creating track model for motor car, involves determining vanishing point in actual image utilizing dominant orientations, where point is utilized for creation of track model
DE102021205593B3 (en) Method and system for correcting a position of at least one feature in an environment of an ego vehicle
DE102019124498A1 (en) Method for compressing 3D point data in a 3D point cloud generated by means of a detection system of a vehicle
DE102014017904A1 (en) Method and apparatus for detecting raised objects and method for assisting a driver in driving a vehicle
WO2019057252A1 (en) Method and device for detecting lanes, driver assistance system and vehicle

Legal Events

Date Code Title Description
R084 Declaration of willingness to licence
R230 Request for early publication