DE102010009620B4 - Method and device for detecting at least one obstacle in a vehicle environment - Google Patents
Method and device for detecting at least one obstacle in a vehicle environment Download PDFInfo
- Publication number
- DE102010009620B4 DE102010009620B4 DE102010009620.2A DE102010009620A DE102010009620B4 DE 102010009620 B4 DE102010009620 B4 DE 102010009620B4 DE 102010009620 A DE102010009620 A DE 102010009620A DE 102010009620 B4 DE102010009620 B4 DE 102010009620B4
- Authority
- DE
- Germany
- Prior art keywords
- image
- pixel
- feature points
- obstacle
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/165—Anti-collision systems for passive traffic, e.g. including static obstacles, trees
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Verfahren zur Detektion mindestens eines Hindernisses (10) in einem Fahrzeugumfeld, wobei das Verfahren folgende Verfahrensschritte umfasst:- Erfassen eines ersten Bildes (B) mittels eines monokularen Bilderfassungssystems,- Detektion von Merkmalspunkten des ersten Bildes (B) im Bildbereich einer Fahrbahn (9) im ersten Bild (B),- Erfassen eines zweiten Bildes (B) mittels des monokularen Bilderfassungssystems, wobei das zweite Bild (B) zeitlich nach dem ersten Bild (B) erfasst wird,- Detektion von Merkmalspunkten des zweiten Bildes (B) im Bildbereich der Fahrbahn (9) im zweiten Bild (B),- Bestimmung von korrespondierenden Merkmalspunkten aus den Merkmalspunkten des ersten und des zweiten Bildes (BB),- Schätzung von mindestens einem Parameter einer projektiven Transformation aus den korrespondierenden Merkmalspunkten,- Transformation von mindestens einem Bildpunkt des ersten Bildes (B) mittels der projektiven Transformation in einen transformierten Bildpunkt des ersten Bildes (B),- Berechnung einer Differenz einer Intensität des transformierten Bildpunkts des ersten Bildes (B) und einer Intensität des zu dem transformierten Bildpunkt des ersten Bildes (B) korrespondierenden Bildpunkts des zweiten Bildes (B),- Vergleich der Differenz mit einem vorbestimmten Schwellwert (Thr) und- Detektion eines Hindernisses (10), falls die Differenz größer ist als der vorbestimmte Schwellwert (Thr).Method for detecting at least one obstacle (10) in a vehicle environment, the method comprising the following method steps: - acquiring a first image (B) by means of a monocular image capture system, - detecting feature points of the first image (B) in the image area of a carriageway (9) in the first image (B), - acquiring a second image (B) by means of the monocular image acquisition system, wherein the second image (B) is detected after the first image (B), - detection of feature points of the second image (B) in the image region the roadway (9) in the second image (B), - determination of corresponding feature points from the feature points of the first and second image (BB), - estimation of at least one parameter of a projective transformation from the corresponding feature points, - transformation of at least one pixel of the first image (B) by means of the projective transformation into a transformed pixel of the first image (B), - Bere a difference of an intensity of the transformed pixel of the first image (B) and an intensity of the pixel of the second image (B) corresponding to the transformed pixel of the first image (B), - comparison of the difference with a predetermined threshold (Thr) and- Detecting an obstacle (10) if the difference is greater than the predetermined threshold (Thr).
Description
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Detektion mindestens eines Hindernisses in einem Fahrzeugumfeld.The invention relates to a method and a device for detecting at least one obstacle in a vehicle environment.
In modernen Kraftfahrzeugen ist es üblich, ein Fahrzeugumfeld, insbesondere einen hinsichtlich des Fahrzeugs vorderen Fahrzeugkorridor und/oder rückwärtigen Fahrzeugkorridor, zu überwachen und gegebenenfalls vorhandene statische oder dynamische Hindernisse zu erkennen. Hierdurch wird u.a. eine Kollisionsvermeidung des Fahrzeugs mit solchen Hindernissen unterstützt.In modern motor vehicles, it is customary to monitor a vehicle environment, in particular a front vehicle corridor with respect to the vehicle and / or a rear vehicle corridor, and possibly detect existing static or dynamic obstacles. This will u.a. Supports a collision avoidance of the vehicle with such obstacles.
Eine Überwachung des Fahrzeugsumfelds geschieht üblicherweise mit Hilfe von Radar-, Lidar- und Ultraschall-Systemen. Weiter bekannt sind Bilderfassungssysteme, beispielsweise Kamerasysteme, die im oder am Fahrzeug angeordnet sind. Es sind z.B. stereobasierte Kamerasysteme bekannt, die eine dreidimensionale Erkennung von Hindernissen erlauben.A monitoring of the vehicle environment is usually done with the help of radar, lidar and ultrasound systems. Further known are image acquisition systems, such as camera systems, which are arranged in or on the vehicle. They are e.g. stereo-based camera systems known that allow a three-dimensional detection of obstacles.
Weiter sind so genannte monokulare Kamerasysteme bekannt, die eine nur zweidimensionale Erfassung eines Fahrzeugsumfelds erlauben. Diese monokularen Kamerasysteme erlauben eine Abbildung des Fahrzeugumfelds in ein zweidimensionales Kamerabild. Zur Erkennung von statischen Hindernissen im Fahrzeugumfeld werden hierbei u.a. so genannte „Structure from Motion“-Verfahren (SfM-Verfahren) eingesetzt. Diese erfordern einen hohen Rechenaufwand. Zudem ist eine Erkennung von dynamischen Hindernissen im Fahrzeugumfeld mit derartigen Verfahren derzeit nicht möglich.Further, so-called monocular camera systems are known which allow only two-dimensional detection of a vehicle environment. These monocular camera systems allow imaging of the vehicle environment into a two-dimensional camera image. To detect static obstacles in the vehicle environment here u.a. so-called "structure from motion" method (SfM method) used. These require a high computational effort. In addition, a detection of dynamic obstacles in the vehicle environment with such methods is currently not possible.
In der Schrift von C. Demonceaux; A. Potelle; D. Kachi-Akkouche: Obstacle detection in a road scene based on motion analysis. In: IEEE Transactions on Vehicular Technology, Volume 53, 2004, Issue 6, Seiten 1649 - 1656 ist ist ein Hinderniserkennungssystem mit einer Fahrzeugkamera beschrieben, wobei zuerst die Fahrbahnbewegung durch eine wavelets Analyse ermittelt wird. Anschließend erfolgt eine Erkennung von verschiedenen Bewegung mit Hilfe einer bayesischen Modulation. Mit Hilfe des Systems sollen Hindernisse auf der Straße in verschiedenen aufgenommenen Bildzuständen erkannt werden.In the writing by C. Demonceaux; A. Potelle; D. Kachi-Akkouche: Obstacle detection in a road scene based motion analysis. In: IEEE Transactions on Vehicular Technology, Volume 53, 2004,
Die
Die
Die
Es stellt sich das technische Problem, ein Verfahren und eine Vorrichtung zu schaffen, welche eine verbesserte Detektion von Hindernissen mittels eines monokularen Bilderfassungssystems, insbesondere eine hinsichtlich eines Rechenaufwands günstige Detektion, ermöglichen.The technical problem arises of providing a method and a device which enable an improved detection of obstacles by means of a monocular image acquisition system, in particular a detection that is favorable in terms of computational effort.
Die Lösung des technischen Problems ergibt sich aus den Gegenständen mit den Merkmalen der Patentansprüche 1 und 10. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.The solution of the technical problem results from the objects with the features of
Vorgeschlagen wird ein Verfahren zur Detektion mindestens eines Hindernisses in einem Fahrzeugumfeld. Insbesondere dient das Verfahren zur Detektion mindestens eines Hindernisses in einem rückwärtigen Fahrzeugkorridor oder in einem Fahrzeugkorridor vor dem Fahrzeug. Das vorgeschlagene Verfahren umfasst folgende Verfahrensschritte.Proposed is a method for detecting at least one obstacle in a vehicle environment. In particular, the method is used to detect at least one obstacle in a rear vehicle corridor or in a vehicle corridor in front of the vehicle. The proposed method comprises the following method steps.
In einem ersten Schritt wird mittels eines monokularen Bilderfassungssystems ein erstes Bild des Fahrzeugumfelds erfasst. Hierbei umfasst ein Erfassungsbereich des monokularen Bilderfassungssystems eine Fahrbahn, auf welcher das Fahrzeug fährt. Das monokulare Bilderfassungssystem kann beispielsweise ein Kamerasystem sein. Das monokulare Bilderfassungssystem erlaubt hierbei, zu einem bestimmten Zeitpunkt ein Bild der Fahrzeugumgebung aufzunehmen. Das monokulare Bilderfassungssystem erlaubt hierbei keine stereoskopische Erfassung des Fahrzeugumfelds. Vorstellbar ist jedoch, dass zur Durchführung des Verfahrens eine Kamera eines stereoskopischen Kamerasystems, welche z.B. in dem Fahrzeug vorhanden ist, genutzt wird.In a first step, a first image of the vehicle surroundings is acquired by means of a monocular image acquisition system. Here, a detection area of the monocular image sensing system includes a lane on which the vehicle is traveling. The monocular imaging system may be, for example, a camera system. The Monocular imaging system allows this to record at a certain time an image of the vehicle environment. The monocular imaging system does not allow stereoscopic detection of the vehicle environment. It is conceivable, however, that a camera of a stereoscopic camera system, which is present for example in the vehicle, is used to carry out the method.
Eine Abbildung der Fahrzeugumgebung wird durch die so genannten intrinsischen und extrinsischen Parameter des Bilderfassungssystems, insbesondere des Kamerasystems, bestimmt. Hierbei beschreiben extrinsische Parameter eine Lage und Orientierung eines Koordinatensystems des Bilderfassungssystems zu einem Koordinatensystem des Fahrzeugs. Hierdurch ist u.a. auch eine Blickrichtung des Bilderfassungssystems in Relation zu dem Koordinatensystem des Fahrzeugs bestimmbar. Intrinsische Parameter umfassen beispielsweise Parameter einer Verzerrung, einer Skalierung und einer Brennweite des Bilderfassungssystems. Mittels des Bilderfassungssystems erfolgt eine Abbildung des Fahrzeugumfelds in ein zweidimensionales Bild. Bildpunkten dieses Bildes können Bildkoordinaten zugeordnet werden. Beispielsweise erfolgt die Abbildung der Fahrzeugumgebung über ein oder mehrere Linsen auf einen CMOS- oder CCD-Chip.An image of the vehicle environment is determined by the so-called intrinsic and extrinsic parameters of the image acquisition system, in particular the camera system. Here, extrinsic parameters describe a position and orientation of a coordinate system of the image acquisition system to a coordinate system of the vehicle. This is u.a. Also a viewing direction of the image acquisition system in relation to the coordinate system of the vehicle determined. Intrinsic parameters include, for example, parameters of distortion, scaling and focal length of the imaging system. By means of the image acquisition system, an image of the vehicle environment is made into a two-dimensional image. Pixels of this image can be assigned image coordinates. For example, the imaging of the vehicle environment via one or more lenses on a CMOS or CCD chip.
Die extrinsischen Parameter des Bilderfassungssystems sind vorzugsweise vorbekannt. D.h., dass die Lage und die Orientierung des Koordinatensystems des Bilderfassungssystems in dem Koordinatensystem des Fahrzeugs bekannt ist.The extrinsic parameters of the imaging system are preferably previously known. That is, the position and orientation of the coordinate system of the image acquisition system in the coordinate system of the vehicle is known.
Aus einer vorbekannten Fahrzeuggeometrie kann eine Lage einer Fahrbahnebene im Koordinatensystem des Fahrzeugs bestimmt werden. Hierbei kann angenommen werden, dass die Fahrbahnebene eine plane Ebene ist, deren Normalenvektor parallel zu einer Hochachse (auch als Gierachse oder Vertikalachse bezeichnete Achse) des Fahrzeugs ist. Weiter kann über eine vorbekannte Fahrzeuggeometrie eine Höhe, also ein Abstand eines Koordinatenursprungs des Koordinatensystems des Fahrzeugs von der Fahrbahnebene entlang der Hochachse, bekannt sein. Somit kann also eine Lage einer so genannten idealen Fahrbahnebene im Koordinatensystem des Fahrzeugs bestimmt werden. Sind die extrinsischen und intrinsischen Parameter des Bilderfassungssystems vorbekannt, so kann ein Bildbereich des ersten Bildes bestimmt werden, in welchen die ideale Fahrbahnebene abgebildet wird. Dieser Bildbereich kann beispielsweise ein trapezförmiger Bildbereich sein. Der Bildbereich der Fahrbahn im ersten Bild umfasst also diejenigen zweidimensionalen Bildpunkte, auf welchen Punkte der Fahrbahnebene abbildbar sind.From a previously known vehicle geometry, a position of a road surface in the coordinate system of the vehicle can be determined. In this case, it can be assumed that the roadway plane is a plane plane whose normal vector is parallel to a vertical axis (also referred to as yaw axis or vertical axis) of the vehicle. Furthermore, a height, that is to say a distance of a coordinate origin of the coordinate system of the vehicle from the road plane along the vertical axis, can be known via a previously known vehicle geometry. Thus, therefore, a position of a so-called ideal road surface in the coordinate system of the vehicle can be determined. If the extrinsic and intrinsic parameters of the image acquisition system are already known, an image area of the first image can be determined in which the ideal roadway plane is imaged. This image area can be, for example, a trapezoidal image area. The image area of the roadway in the first image thus comprises those two-dimensional image points on which points of the roadway plane can be imaged.
In einem zweiten Schritt erfolgt eine Detektion von so genannten Merkmalspunkten des ersten Bildes im Bildbereich der Fahrbahn. Die Detektion von Merkmalspunkten kann hierbei z.B. mittels einer Einheit zur Bildverarbeitung erfolgen. Hierbei können Bilddaten des Bilderfassungssystems datentechnisch an die Einheit zur Bildverarbeitung übertragen werden. Merkmalspunkte bezeichnen hierbei charakteristische Punkte auf der Fahrbahnebene, die in den Bildbereich der Fahrbahn im ersten Bild abgebildet werden. Diese können insbesondere durch Fahrbahnmarkierungen oder besondere Strukturen auf der Fahrbahn gegeben sein. Die Detektion von diesen Merkmalspunkten umfasst hierbei die Identifizierung der Merkmalspunkte oder Merkmalsflächen und die Bestimmung von Bildkoordinaten dieser Merkmalspunkte oder - flächen. Eine Identifizierung von Merkmalspunkten oder -flächen kann hierbei z.B. bildpunktbasiert (pixelbasiert), flächenbasiert, intensitätsbasiert, kantenbasiert oder texturbasiert sein. Auch weitere Verfahren zur Identifizierung von geeigneten Merkmalspunkten können hierzu verwendet werden. Hierzu kann der Fachmann auf bekannte Verfahren zur Identifizierung von Merkmalspunkten (auch als Landmarken bezeichnet) im Bereich der Bildverarbeitung zurückgreifen. Im ersten Schritt wird also eine Menge von Bildkoordinaten von Merkmalspunkten bestimmt. Diese kann z.B. in einer Speichereinheit gespeichert werden.In a second step, a detection of so-called feature points of the first image in the image area of the roadway takes place. The detection of feature points may be e.g. by means of an image processing unit. In this case, image data of the image acquisition system can be transferred to the data processing unit for image processing. Characteristic points here designate characteristic points on the road surface, which are imaged in the image area of the roadway in the first image. These can be given in particular by road markings or special structures on the road. The detection of these feature points hereby includes the identification of the feature points or feature surfaces and the determination of image coordinates of these feature points or faces. Identification of feature points or areas here may be e.g. pixel-based, area-based, intensity-based, edge-based or texture-based. Other methods for identifying suitable feature points can also be used for this purpose. For this purpose, the skilled person can refer to known methods for the identification of feature points (also referred to as landmarks) in the field of image processing. In the first step, therefore, a set of image coordinates of feature points is determined. This can e.g. stored in a memory unit.
In einem dritten Schritt wird mittels des Bilderfassungssystems ein zweites Bild erfasst, wobei das zweite Bild zeitlich nach dem ersten Bild erfasst wird. Hierbei kann sich das Fahrzeug zwischen dem ersten und zweiten Zeitpunkt bewegt haben. Hierbei kann das zweite Bild mit einer vorbestimmten Zeitdauer nach dem ersten Bild erfasst werden. Auch kann das zweite Bild mit einer geschwindigkeitsabhängigen Zeitdauer nach dem ersten Bild erfasst werden. Analog zum ersten Bild werden Merkmalspunkte des zweiten Bildes im Bildbereich der Fahrbahn im zweiten Bild detektiert. Im dritten Schritt wird also eine Menge von Merkmalspunkten des zweiten Bildes erzeugt. Diese kann z.B. ebenfalls in einer Speichereinheit abgespeichert werden.In a third step, a second image is acquired by means of the image acquisition system, wherein the second image is recorded temporally after the first image. In this case, the vehicle may have moved between the first and second times. In this case, the second image can be acquired with a predetermined period of time after the first image. Also, the second image may be acquired with a speed-dependent period of time after the first image. As in the first image, feature points of the second image are detected in the image area of the roadway in the second image. In the third step, therefore, a set of feature points of the second image is generated. This can e.g. also be stored in a memory unit.
In einem vierten Schritt erfolgt eine Bestimmung von korrespondierenden Merkmalspunkten aus den Mengen der Merkmalspunkte des ersten und des zweiten Bildes. Die Bestimmung kann hierbei mittels einer Berechnungseinheit erfolgen. Vorzugsweise werden hierbei Punkt-Punkt-Korrespondenzen ausgewertet. Hierbei können z.B. räumliche Relationen zwischen den Merkmalspunkten des ersten Bildes und räumliche Relationen zwischen den Merkmalspunkten des zweiten Bildes ausgenutzt werden. Alternativ oder kumulativ können so genannte invariante Deskriptoren, die z.B. skalierungs- und/oder verzerrungsinvariante Merkmalsbeschreibungen der Punkte darstellen, ausgenutzt werden. Mittels der Bestimmung von korrespondierenden Merkmalspunkten wird daher eine Menge von korrespondierenden Merkmalspunkten erzeugt.In a fourth step, a determination of corresponding feature points from the sets of feature points of the first and the second image takes place. The determination can take place here by means of a calculation unit. Preferably, point-point correspondences are evaluated here. Here, for example, spatial relations between the feature points of the first image and spatial relations between the feature points of the second image can be exploited. Alternatively or cumulatively, so-called invariant descriptors, which represent for example scaling and / or distortion-invariant feature descriptions of the points, can be exploited. By means of Determination of corresponding feature points is therefore generated a set of corresponding feature points.
In einem fünften Schritt wird mittels der korrespondierenden Merkmalspunkte, die in dem vierten Schritt bestimmt wurden, mindestens ein Parameter einer projektiven Transformation geschätzt. Hierbei beschreibt die projektive Transformation eine allgemeine Abbildung von Punkten einer ersten Ebene auf Punkte einer zweiten Ebene, wobei die erste Ebene räumlich versetzt zur zweiten Ebene angeordnet ist, oder, in Bezug auf das Bilderfassungssystem, aus unterschiedlichen Lagen und/oder Orientierungen des Bilderfassungssystems abgebildet wurde. In der Regel sind bei einer projektiven Transformation
In einem sechsten Schritt wird mindestens ein Bildpunkt des ersten Bildes mittels der projektiven Transformation in einen transformierten Bildpunkt des ersten Bildes transformiert. Hierbei werden die im fünften Schritt geschätzten Parameter genutzt, um die Transformation durchzuführen. Vorzugsweise werden mehrere Bildpunkte des ersten Bildes transformiert. Vorzugsweise werden alle Bildpunkte im Bildbereich der Fahrbahn des ersten Bildes transformiert. Alternativ können auch alle Bildpunkte des ersten Bildes transformiert werden. Durch die Transformation der Bildpunkte des ersten Bildes wird eine rechnerische, durch die Transformation realisierte, Kompensation einer Bewegung des Bilderfassungssystems durchgeführt. Die transformierten Bildpunkte des ersten Bildes sind auch als bewegungskompensierte Bildpunkte zu bezeichnen. Hat sich das Fahrzeug zwischen dem Zeitpunkt der Erfassung des ersten Bildes und dem Zeitpunkt der Erfassung des zweiten Bildes bewegt, so ist eine Erkennung von statischen und dynamischen Hindernissen möglich. Hat sich das Fahrzeug zwischen dem Zeitpunkt der Erfassung des ersten Bildes und dem Zeitpunkt der Erfassung des zweiten Bildes nicht bewegt, so ist ausschließlich eine Erkennung von dynamischen Hindernissen möglich. Das Verfahren ermöglicht also in vorteilhafter Weise eine gleichzeitige Detektion von statischen und dynamischen Hindernissen, wenn sich das Fahrzeug zwischen dem Zeitpunkt der Erfassung des ersten Bildes und dem Zeitpunkt der Erfassung des zweiten Bildes bewegt hat. Hierin liegt ein wesentlicher Unterschied zum angeführten Stand der Technik.In a sixth step, at least one pixel of the first image is transformed by means of the projective transformation into a transformed pixel of the first image. In this case, the parameters estimated in the fifth step are used to carry out the transformation. Preferably, a plurality of pixels of the first image are transformed. Preferably, all pixels in the image area of the roadway of the first image are transformed. Alternatively, all pixels of the first image can be transformed. By the transformation of the pixels of the first image, a computational, realized by the transformation, compensation of a movement of the image acquisition system is performed. The transformed pixels of the first image should also be referred to as motion-compensated pixels. If the vehicle has moved between the time of acquisition of the first image and the time of detection of the second image, it is possible to detect static and dynamic obstacles. If the vehicle has not moved between the time of acquisition of the first image and the time of detection of the second image, only dynamic obstacle detection is possible. The method thus advantageously enables a simultaneous detection of static and dynamic obstacles when the vehicle has moved between the time of detection of the first image and the time of detection of the second image. This is an essential difference to the cited prior art.
In einem siebten Schritt erfolgt eine Berechnung einer Differenz einer Intensität des transformierten Bildpunkts des ersten Bildes und einer Intensität des zu dem transformierten Bildpunkt des ersten Bildes korrespondierenden Bildpunkts des zweiten Bildes. Hierbei hat der zu dem transformierten Bildpunkt des ersten Bildes korrespondierende Bildpunkt des zweiten Bildes die gleichen Bildkoordinaten wie der Bildpunkt des ersten Bildes. Vorzugsweise erfolgt die Berechnung einer Differenz für mehrere transformierte Bildpunkte des ersten Bildes, insbesondere für alle Bildpunkte des Bildbereichs der Fahrbahn des ersten Bildes. Die Bildpunkte, für welche eine Differenz der Intensität berechnet wurde, definieren hierbei ein so genanntes Differenzbild. Eine Intensität eines Bildpunkts bezeichnet hierbei beispielsweise eine Grauwertintensität, beispielsweise in einem Bereich von 0 bis 255, oder eine RGB- oder CYMK-basierte Intensität.In a seventh step, a difference between an intensity of the transformed pixel of the first image and an intensity of the pixel of the second image corresponding to the transformed pixel of the first image is calculated. Here, the pixel of the second image corresponding to the transformed pixel of the first image has the same image coordinates as the pixel of the first image. The calculation of a difference preferably takes place for a plurality of transformed pixels of the first image, in particular for all pixels of the image region of the roadway of the first image. The pixels for which a difference in intensity was calculated define a so-called difference image. An intensity of a pixel here denotes, for example, a gray scale intensity, for example in a range from 0 to 255, or an RGB or CYMK-based intensity.
Durch die projektive Transformation wird hierbei eine Bewegungskompensation für Punkte in der Fahrbahnebene durchgeführt. Folglich wird eine Differenz der Intensitäten von transformierten Bildpunkten, die Punkte der Fahrbahnebene abbilden, und zu diesen transformierten Bildpunkten korrespondierenden Bildpunkten, die auch Punkte der Fahrbahnebene abbilden, klein, idealerweise 0, sein. Punkte, die nicht in der Fahrbahnebene liegen, erzeugen eine Intensitätsdifferenz. Somit erzeugt jedes Element, welches aus der Fahrbahnebene hinausragt, eine Intensitätsdifferenz. Dies gilt für statische und dynamische Hindernisse, die aus der Fahrbahnebene herausragen. Eine solche Intensitätsdifferenz kann auch als so genannter Kompensationsfehler beschrieben werden. Dies folgt aus der Tatsache, dass die projektive Transformation nur eine Kompensation einer Fahrzeugbewegung für Bildpunkte gewährleistet, auf die Punkte der Fahrbahnebene abgebildet werden. Eine Transformation von Bildpunkten des ersten Bildes, die Punkte außerhalb der Fahrbahnebene abbilden, zu korrespondierenden Bildpunkten des zweiten Bildes, die Punkte außerhalb der Fahrbahnebene abbilden, erfolgt gemäß einer Transformation, die von der bestimmten projektiven Transformation unterschiedlich ist.The projective transformation in this case a motion compensation for points in the road level is performed. Consequently, a difference of the intensities of transformed pixels which map points of the road plane and pixels corresponding to these transformed pixels, which also depict points of the road plane, will be small, ideally 0. Points that are not in the road level generate an intensity difference. Thus, each element that protrudes from the roadway plane produces an intensity difference. This applies to static and dynamic obstacles that protrude from the road surface. Such an intensity difference can also be described as a so-called compensation error. This follows from the fact that the projective transformation only ensures compensation for vehicle movement for pixels onto which points of the road surface are mapped. A transformation of pixels of the first image that map points outside the roadway to corresponding pixels of the second image that map points outside the roadway plane is done in accordance with a transformation that is different from the particular projective transformation.
In einem achten Schritt wird die bestimmte Differenz oder werden die bestimmten Differenzen mit einem vorbestimmten Schwellwert verglichen. Der vorbestimmte Schwellwert kann beispielsweise in einer Speichereinheit abgelegt sein. Auch ist vorstellbar, dass der Schwellwert adaptiv, z.B. in Abhängigkeit eines Mittelwerts einer Grauwertverteilung im Bild, bestimmt wird. Ein Hindernis wird detektiert, falls die Differenz oder die Differenzen größer sind als der vorbestimmte Schwellwert.In an eighth step, the determined difference or the determined differences are compared with a predetermined threshold. The predetermined threshold value can be stored, for example, in a memory unit. It is also conceivable that the threshold value is adaptive, for example as a function of an average value of a gray value distribution in the picture, it is determined. An obstacle is detected if the difference or differences are greater than the predetermined threshold.
In dem vorhergehend geschilderten Verfahren dienen nur das erste und das zweite Bild sowie der vorbestimmte Schwellwert als Eingangsgröße. Eine Ausgangsgröße ist hierbei ein Signal, welches anzeigt, ob ein Hindernis detektiert wurde oder nicht.In the above-described method, only the first and second images and the predetermined threshold value serve as an input. An output variable here is a signal which indicates whether an obstacle has been detected or not.
Das vorgeschlagene Verfahren basiert also auf einer Bewegungskompensation von Bildinhalten mit anschließender Auswertung des Kompensationsfehlers. Hierbei wird angenommen, dass die Fahrbahn eine Ebene ist, wodurch die durch eine Fahrzeugbewegung bedingte Verschiebung von Bildpunkten mit Hilfe einer projektiven Transformation beschrieben und kompensiert werden kann. Mögliche Hindernisse liegen nicht in der Fahrbahnebene und führen somit zu einem Kompensationsfehler, der zur Detektion des Hindernisses genutzt wird. Hierdurch ergibt sich in vorteilhafter Weise ein einfach zu implementierendes, robustes und wenig rechenaufwändiges Verfahren zur Detektion eines statischen oder dynamischen Hindernisses in dem Fahrzeugumfeld.The proposed method is thus based on a motion compensation of image contents with subsequent evaluation of the compensation error. Here, it is assumed that the lane is a plane, whereby the displacement of pixels caused by a vehicle movement can be described and compensated by means of a projective transformation. Possible obstacles are not in the road level and thus lead to a compensation error, which is used to detect the obstacle. This results in an advantageously easy to implement, robust and less computationally expensive method for the detection of a static or dynamic obstacle in the vehicle environment.
In einer weiteren Ausführungsform erfolgt bei einer Bestimmung von Bildkoordinaten von Merkmalspunkten eine Kompensation von Abbildungsverfälschungen des monokularen Bilderfassungssystems. Insbesondere erfolgt eine Kompensation von Verzerrungen des Bilderfassungssystems. Sind intrinsische oder innere Parameter des Bilderfassungssystems bekannt, so können so genannte entzerrte Bildkoordinaten mit Hilfe einer Entzerrungsvorschrift, die abhängig von den intrinsischen Parametern des Bilderfassungssystems ist, berechnet werden. Neben der Verzerrung kann z.B. auch eine Skalierung des Bilderfassungssystems kompensiert werden. Hierdurch ergibt sich in vorteilhafter Weise, dass Abbildungsverfälschungen des Bilderfassungssystems nicht die Bildkoordinaten der Merkmalspunkte verfälschen und somit zu einem weniger genauen Verfahren führen. Hierdurch ergibt sich in vorteilhafter Weise eine verbesserte Sensitivität des Verfahrens zur Detektion von Hindernissen sowie eine größere Robustheit.In a further embodiment, in a determination of image coordinates of feature points, a compensation of image distortions of the monocular image capture system takes place. In particular, a compensation of distortions of the image acquisition system takes place. If intrinsic or internal parameters of the image acquisition system are known, so-called equalized image coordinates can be calculated with the aid of an equalization rule, which is dependent on the intrinsic parameters of the image acquisition system. Besides the distortion, e.g. Also a scaling of the image acquisition system can be compensated. This results in an advantageous manner that image distortions of the image acquisition system does not distort the image coordinates of the feature points and thus lead to a less accurate method. This advantageously results in an improved sensitivity of the method for the detection of obstacles and greater robustness.
In einer weiteren Ausführungsform erfolgt die Transformation von mindestens einem Bildpunkt des ersten Bildes auf Basis eines unverfälschten, insbesondere entzerrten, Bildpunkts des ersten Bildes. Hierzu sei angenommen, dass die Parameter der projektiven Transformation auf Basis von unverfälschten, korrespondierenden Merkmalspunkten im ersten und im zweiten Bild geschätzt wurden. Dann wird vor der Transformation von mindestens einem Bildpunkt des ersten Bildes mittels der projektiven Transformation ein unverfälschter Bildpunkt des ersten Bildes berechnet. Analog zur Kompensation von Abbildungsverfälschungen kann dieser unverfälschte Bildpunkt des ersten Bildes mit Hilfe einer Entzerrungsvorschrift berechnet werden, die von intrinsischen Parametern des Bilderfassungssystems abhängt. Dieser unverfälschte Bildpunkt des ersten Bildes wird dann mittels der projektiven Transformation in einen transformierten, unverfälschten Bildpunkt des ersten Bildes transformiert. Nachfolgend wird dieser transformierte, unverfälschte Bildpunkt des ersten Bildes wieder verfälscht. Eine Verfälschung erfolgt beispielsweise mittels einer so genannten Verzerrungsvorschrift, die wiederum abhängig von den intrinsischen Parametern des Bilderfassungssystems ist. Hierbei kann die Verzerrungsvorschrift eine zu der Entzerrungsvorschrift inverse Funktion sein. Hierdurch ergibt sich in vorteilhafter Weise, dass die Bewegungskompensation auf Grundlage von unverfälschten Bildkoordinaten erfolgt. Hierdurch werden eine verbesserte Sensibilität des Verfahrens zur Detektion eines Hindernisses und eine verbesserte Robustheit bei der Detektion erreicht.In a further embodiment, the transformation of at least one pixel of the first image takes place on the basis of an unadulterated, in particular equalized, pixel of the first image. For this purpose, it is assumed that the parameters of the projective transformation were estimated on the basis of unadulterated, corresponding feature points in the first and in the second image. Then, before the transformation of at least one pixel of the first image by means of the projective transformation, an unadulterated pixel of the first image is calculated. Analogous to the compensation of image distortions, this unadulterated pixel of the first image can be calculated by means of an equalization rule, which depends on intrinsic parameters of the image acquisition system. This unadulterated pixel of the first image is then transformed by means of the projective transformation into a transformed, unadulterated pixel of the first image. Subsequently, this transformed, unadulterated pixel of the first image is again falsified. Falsification takes place for example by means of a so-called distortion rule, which in turn is dependent on the intrinsic parameters of the image acquisition system. Here, the distortion rule may be an inverse function to the equalization rule. This results in an advantageous manner that the motion compensation takes place on the basis of unadulterated image coordinates. This achieves improved sensitivity of the method for detecting an obstacle and improved robustness in the detection.
In einer weiteren Ausführungsform wird ein Differenzbild in mindestens zwei Teilbereiche unterteilt, wobei ein Hindernis in einem Teilbereich detektiert wird, falls eine vorbestimmte Anzahl von Differenzen in dem Teilbereich größer ist als der vorbestimmte Schwellwert. Teilbereiche können beispielsweise rechteckförmige oder kreisförmige Bildbereiche sein. Hierbei kann die geometrische Form eines Teilbereichs abhängig von der Form des zu detektierenden Hindernisses sein. Ein Hindernis wird also nur dann detektiert, falls für eine vorbestimmte Anzahl von Bildpunkten im Teilbereich des Differenzbilds eine Differenz größer ist als der vorbestimmte Schwellwert. Hierdurch wird in vorteilhafter Weise eine Rauschanfälligkeit des Verfahrens verringert bzw. eine Robustheit des Verfahrens erhöht. Hierbei wird angenommen, dass ein Hindernis eine Differenz der Intensität nicht ausschließlich für einen Bildpunkt des Differenzbildes erzeugt, sondern für mehrere Bildpunkte des Differenzbildes, die im Differenzbild innerhalb eines Teilbereiches des Differenzbildes liegen.In a further embodiment, a difference image is subdivided into at least two partial areas, wherein an obstacle in a partial area is detected if a predetermined number of differences in the partial area is greater than the predetermined threshold value. Subareas may be, for example, rectangular or circular image areas. In this case, the geometric shape of a partial area can be dependent on the shape of the obstacle to be detected. An obstacle is thus detected only if, for a predetermined number of pixels in the subregion of the difference image, a difference is greater than the predetermined threshold value. As a result, a noise susceptibility of the method is advantageously reduced or a robustness of the method is increased. In this case, it is assumed that an obstacle does not generate a difference in the intensity exclusively for one pixel of the difference image, but rather for a plurality of pixels of the difference image which lie in the difference image within a partial area of the difference image.
In einer weiteren Ausführungsform sind die mindestens zwei Teilbereiche horizontale Teilbereiche des Differenzbildes. Hierzu kann das Differenzbild in horizontale Teilbereiche aufgeteilt werden, die jeweils ein oder mehrere Bildzeilen des Differenzbildes umfassen. Hierdurch ergibt sich in vorteilhafter Weise, dass auch flache Hindernisse mit einer ausreichenden Sensitivität und Robustheit erkannt werden können.In a further embodiment, the at least two partial regions are horizontal partial regions of the differential image. For this purpose, the difference image can be divided into horizontal subregions, each comprising one or more image lines of the difference image. This results in an advantageous manner that even flat obstacles can be detected with sufficient sensitivity and robustness.
In einer weiteren Ausführungsform werden Bildkoordinaten von mindestens einem Fußpunkt eines Hindernisses bestimmt. Als Fußpunkt wird hierbei eine Unterkante eines detektierten Hindernisses in Bildkoordinaten bestimmt. Eine Unterkante eines Hindernisses ist hierbei der Teilbereich des Hindernisses im Differenzbild, der den geringsten Abstand von einem unteren Bildrand des Differenzbildes aufweist. Weiter ist möglich, die Detektion mindestens eines Hindernisses nur in einem oberen Teilbereich des Bildes durchzuführen, wodurch ein Kompensationsfehler im unteren Bildbereich, der z.B. durch eine Stoßstange des Fahrzeugs verursacht wird, ignoriert wird. Der obere Teilbereich umfasst hierbei einen Teilbereich des Bildes, der keine Abbildung von Fahrzeugteilen enthält.In a further embodiment, image coordinates of at least one foot point of an obstacle are determined. In this case, a lower edge of a detected obstacle in image coordinates is determined as footing. A lower edge of a In this case, the obstacle is the subarea of the obstacle in the difference image, which has the smallest distance from a lower image edge of the difference image. Further, it is possible to perform the detection of at least one obstacle only in an upper portion of the image, whereby a compensation error in the lower image area, which is caused for example by a bumper of the vehicle is ignored. In this case, the upper subarea includes a subarea of the image that does not contain any imaging of vehicle parts.
Weiter kann in Abhängigkeit der Bildkoordinaten des mindestens einen Fußpunktes des Hindernisses eine Entfernung des Hindernisses von dem Fahrzeug geschätzt werden. Hierdurch ergibt sich in vorteilhafter Weise, dass neben der reinen Detektion eines Hindernisses auch dessen Entfernung vom Fahrzeug geschätzt werden kann. Hierbei sind die Eingangsgrößen des Verfahrens das erste und das zweite Bild, der vorbestimmte Schwellwert, die extrinsischen und intrinsischen Parameter des Bilderfassungssystems sowie die Lage und Orientierung des Koordinatensystems des Bilderfassungssystems in Relation zu dem Koordinatensystem des Fahrzeugs. Hierbei wird angenommen, dass eine Lage und Orientierung (extrinsische Parameter) und intrinsische Parameter des Bilderfassungssystems vorbekannt sind. Mit Hilfe dieser Parameter kann ein Schnittpunkt einer Sichtlinie mit der Fahrbahnebene berechnet werden. Die Sichtlinie bezeichnet hierbei die Linie, entlang welcher der Fußpunkt des Hindernisses in eine Bildebene des Bilderfassungssystems projiziert wird. Wird die Lage und Orientierung eines Koordinatensystems des Bilderfassungssystems hinsichtlich eines Koordinatensystems des Fahrzeugs als bekannt angenommen, kann auch eine Entfernung des Hindernisses vom Fahrzeug geschätzt werden. Allerdings kann die Schätzung der Entfernung des Hindernisses durch verschiedene Faktoren verfälscht werden. Z.B. können verschiedene Beladungszustände des Fahrzeugs und eine unebene Fahrbahn, wie z.B. eine Rampe, die Schätzung der Entfernung des Hindernisses verfälschen.Further, depending on the image coordinates of the at least one foot point of the obstacle, a distance of the obstacle from the vehicle can be estimated. This results in an advantageous manner that in addition to the pure detection of an obstacle and its distance from the vehicle can be estimated. Here, the input variables of the method are the first and the second image, the predetermined threshold value, the extrinsic and intrinsic parameters of the image acquisition system and the position and orientation of the coordinate system of the image acquisition system in relation to the coordinate system of the vehicle. Here, it is assumed that a position and orientation (extrinsic parameters) and intrinsic parameters of the image acquisition system are previously known. These parameters can be used to calculate an intersection of a line of sight with the road surface. The line of sight here denotes the line along which the foot point of the obstacle is projected into an image plane of the image acquisition system. When the position and orientation of a coordinate system of the image acquisition system with respect to a coordinate system of the vehicle is assumed to be known, a distance of the obstacle from the vehicle can also be estimated. However, the estimation of the distance of the obstacle can be falsified by various factors. For example, For example, different loading conditions of the vehicle and an uneven roadway, such as e.g. a ramp, distort the estimate of the distance of the obstacle.
In einer bevorzugten Ausführungsform werden aus der Menge von korrespondierenden Merkmalspunkten zur Bestimmung der Parameter der projektiven Transformation nur ausgewählte, korrespondierende Merkmalspunkte verwendet. Hierbei kann ein Verfahren zur Punktauswahl angewendet werden. Hierdurch wird in vorteilhafter Weise erreicht, dass die Schätzung der Parameter der projektiven Transformation nur auf Basis von zuverlässigen Merkmalspunkten, insbesondere von Merkmalspunkten, die charakteristischen Punkten in der Fahrbahnebene entsprechen, basiert. Beispielsweise kann das so genannte RANSAC-Verfahren zur Schätzung der Parameter der projektiven Transformation angewendet werden. Das RANSAC-Verfahren ist hierbei ein Verfahren zur robusten Parameterschätzung. Hierdurch wird der Einfluss von so genannten Ausreißern in der Menge der korrespondierenden Merkmalspunkte, insbesondere von Merkmalspunkten, die Punkte außerhalb der Fahrbahnebene abbilden, reduziert. Ein für das RANSAC-Verfahren benötigtes Modell ist beispielsweise durch die vorbekannte Lage der idealen Fahrbahnebene gegeben. Das Modell der idealen Fahrbahnebene bedingt hierbei, dass Merkmalspunkte im ersten und im zweiten Bild der Bedingung genügen müssen, in der vorab bekannten Fahrbahnebene zu liegen. Hierbei kann wie vorhergehend erläutert, ausgenutzt werden, dass die Abbildung einer idealen Fahrbahnebene in den Bildbereich des Bilderfassungssystems in Abhängigkeit von vorbekannten extrinsischen und gegebenenfalls intrinsischen Parametern bekannt ist. Definieren z.B. Merkmalspunkte des ersten Bildes eine Ebene, die mehr als ein vorbestimmtes Maß von der Abbildung der idealen Fahrbahnebene in den Bildbereich des Bilderfassungssystems abweicht, so kann ein oder können mehrere dieser Merkmalspunkte verworfen werden. Selbstverständlich können auch andere, dem Fachmann bekannte, Verfahren zur robusten Parameterschätzung angewendet werden.In a preferred embodiment, only selected, corresponding feature points are used from the set of corresponding feature points to determine the parameters of the projective transformation. Here, a method for point selection can be applied. In this way, it is advantageously achieved that the estimation of the parameters of the projective transformation is based only on the basis of reliable feature points, in particular feature points corresponding to characteristic points in the roadway plane. For example, the so-called RANSAC method can be used to estimate the parameters of the projective transformation. The RANSAC method is a method for robust parameter estimation. This reduces the influence of so-called outliers in the set of corresponding feature points, in particular feature points that map points outside the roadway plane. A model required for the RANSAC method is given, for example, by the previously known position of the ideal roadway plane. In this case, the model of the ideal roadway plane requires that feature points in the first and in the second image must satisfy the condition of being in the previously known roadway plane. In this case, as explained above, it can be utilized that the imaging of an ideal roadway plane into the image area of the image acquisition system is known as a function of previously known extrinsic and optionally intrinsic parameters. Defining e.g. Feature points of the first image, a plane that deviates more than a predetermined amount from imaging the ideal roadway plane into the image area of the image acquisition system, one or more of these feature points may be discarded. Of course, other, known in the art, methods for robust parameter estimation can be applied.
In einer weiteren Ausführungsform wird das vorgeschlagene Verfahren für mindestens zwei Teilbereiche des Bildbereichs der Fahrbahn durchgeführt. Hierdurch wird es in vorteilhafter Weise ermöglicht, eine z.B. nicht plane Fahrbahn in quasi-plane Teile der Fahrbahn zu unterteilen und für jeden dieser Teilbereiche eine separate Hinderniserkennung durchzuführen.In a further embodiment, the proposed method is carried out for at least two subareas of the image area of the roadway. This advantageously makes it possible to obtain an e.g. subdividing non-flat roadway into quasi-planar parts of the roadway and performing a separate obstacle detection for each of these subareas.
Auch kann, z.B. bei einer vorbekannten Krümmung oder vorbekannten Neigung der Fahrbahn, die Krümmung oder Neigung der Fahrbahn rechnerisch kompensiert werden. Auch kann eine Krümmung oder Neidung der Fahrbahn mit Hilfe von Sensoren geschätzt werden. Analog zur Entfälschung oder Entzerrung ist es hierdurch in vorteilhafter Weise möglich, eine Krümmung der Fahrbahn in dem vorgeschlagenen Verfahren zu kompensieren.Also, e.g. at a previously known curvature or prior art inclination of the road, the curvature or inclination of the road are computationally compensated. Also, a curvature or recession of the roadway can be estimated by means of sensors. Analogously to the deletion or equalization, this makes it possible in an advantageous manner to compensate for a curvature of the road in the proposed method.
Vorgeschlagen wird weiter eine Vorrichtung zur Detektion mindestens eines Hindernisses. Die Vorrichtung umfasst mindestens ein monokulares Kamerasystem, mindestens eine Einheit zur Bildverarbeitung, mindestens eine Berechnungseinheit und mindestens eine Vergleichseinheit. Mittels dieser Vorrichtung sind die vorgeschlagenen Verfahren durchführbar. Hierbei ist es selbstverständlich möglich, dass einzelne Verfahrensschritte von nur einer Einheit, beispielsweise der Berechnungseinheit, oder von separaten Einheiten durchgeführt werden.Further proposed is a device for detecting at least one obstacle. The device comprises at least one monocular camera system, at least one unit for image processing, at least one calculation unit and at least one comparison unit. By means of this device, the proposed method can be carried out. It is of course possible for individual method steps to be performed by only one unit, for example the calculation unit, or by separate units.
Die Erfindung wird anhand eines Ausführungsbeispiels näher erläutert. Die Figuren zeigen:
-
1 ein schematisches Blockschaltbild einer Vorrichtung zur Detektion mindestens eines Hindernisses, -
2 ein schematisches Flussdiagramm eines Verfahrens zur Detektion mindestens eines Hindernisses und -
3 eine schematische Bestimmung einer Entfernung eines Fußpunkts eines Hindernisses von einem Fahrzeug.
-
1 1 is a schematic block diagram of a device for detecting at least one obstacle; -
2 a schematic flow diagram of a method for detecting at least one obstacle and -
3 a schematic determination of a distance of a foot point of an obstacle from a vehicle.
Nachfolgend bezeichnen Elemente mit gleichen Bezugszeichen Elemente mit gleichen oder ähnlichen technischen Eigenschaften.Hereinafter, like reference numerals designate elements having the same or similar technical characteristics.
In
In
In
BezugszeichenlisteLIST OF REFERENCE NUMBERS
- 11
- Vorrichtung zur Detektion mindestens eines HindernissesDevice for detecting at least one obstacle
- 22
- Kameracamera
- 33
- Einheit zur BildverarbeitungImage processing unit
- 44
- Speichereinheitstorage unit
- 55
- Berechnungseinheitcalculation unit
- 66
- Vergleichseinheitcomparing unit
- 77
- weitere Speichereinheitadditional storage unit
- 88th
- Warneinheitwarning unit
- 99
- Fahrbahnroadway
- 1010
- Hindernisobstacle
- 1111
- erster Schritt des Verfahrensfirst step of the procedure
- 1212
- zweiter Schritt des Verfahrenssecond step of the procedure
- 1313
- dritter Schritt des Verfahrensthird step of the procedure
- 1414
- vierter Schritt des Verfahrensfourth step of the procedure
- 1515
- fünfter Schritt des Verfahrensfifth step of the procedure
- 1616
- sechster Schritt des Verfahrenssixth step of the procedure
- 1717
- siebter Schritt des Verfahrensseventh step of the procedure
- 1818
- Anzeigeeinheitdisplay unit
- Bk-1 Bk-1
- erstes Bildfirst picture
- Bk B k
- zweites Bildsecond picture
- Pintpint
- intrinsische Kameraparameterintrinsic camera parameters
- Pext P ext
- extrinsische Kameraparameterextrinsic camera parameters
- ThrThr
- vorbestimmter Schwellwertpredetermined threshold
- yK y K
- Achse eines Koordinatensystems einer KameraAxis of a coordinate system of a camera
- zK z K
- Achse des Koordinatensystems einer KameraAxis of the coordinate system of a camera
- yF y F
- Achse eines Koordinatensystems eines FahrzeugsAxis of a coordinate system of a vehicle
- zF z F
- Achse eines Koordinatensystems eines FahrzeugsAxis of a coordinate system of a vehicle
- HF H F
- Höhe des Koordinatensystems des Fahrzeugs über der FahrbahnHeight of the coordinate system of the vehicle above the roadway
- zH,K z H, K
- Entfernung eines Hindernisses von einer KameraRemoval of an obstacle from a camera
- 1919
- Sichtlinieline of sight
- 2020
- optische Achseoptical axis
- α .α.
- Winkelcorner
- ϑθ
- Winkelcorner
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102010009620.2A DE102010009620B4 (en) | 2010-02-27 | 2010-02-27 | Method and device for detecting at least one obstacle in a vehicle environment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102010009620.2A DE102010009620B4 (en) | 2010-02-27 | 2010-02-27 | Method and device for detecting at least one obstacle in a vehicle environment |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102010009620A1 DE102010009620A1 (en) | 2011-09-01 |
DE102010009620B4 true DE102010009620B4 (en) | 2019-09-12 |
Family
ID=44501962
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102010009620.2A Active DE102010009620B4 (en) | 2010-02-27 | 2010-02-27 | Method and device for detecting at least one obstacle in a vehicle environment |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102010009620B4 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011111856B4 (en) | 2011-08-27 | 2019-01-10 | Volkswagen Aktiengesellschaft | Method and device for detecting at least one lane in a vehicle environment |
DE102019212021B4 (en) * | 2019-08-09 | 2024-02-08 | Volkswagen Aktiengesellschaft | Method and device for detecting a parallax problem in sensor data from two sensors |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1830321A2 (en) | 2006-03-02 | 2007-09-05 | Hitachi, Ltd. | Obstacle detection system |
DE102006060893A1 (en) | 2006-05-12 | 2007-11-15 | Adc Automotive Distance Control Systems Gmbh | Device and method for determining a free space in front of a vehicle |
US20100002078A1 (en) | 2008-07-03 | 2010-01-07 | Alpine Electronics, Inc. | Periphery monitoring apparatus |
-
2010
- 2010-02-27 DE DE102010009620.2A patent/DE102010009620B4/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1830321A2 (en) | 2006-03-02 | 2007-09-05 | Hitachi, Ltd. | Obstacle detection system |
DE102006060893A1 (en) | 2006-05-12 | 2007-11-15 | Adc Automotive Distance Control Systems Gmbh | Device and method for determining a free space in front of a vehicle |
US20100002078A1 (en) | 2008-07-03 | 2010-01-07 | Alpine Electronics, Inc. | Periphery monitoring apparatus |
Non-Patent Citations (1)
Title |
---|
C. Demonceaux ; A. Potelle ; D. Kachi-Akkouche: Obstacle detection in a road scene based on motion analysis. In: IEEE Transactions on Vehicular Technology, 53, 2004, 6, 1649 - 1656. * |
Also Published As
Publication number | Publication date |
---|---|
DE102010009620A1 (en) | 2011-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102013209415B4 (en) | Dynamic clue overlay with image cropping | |
DE112008004291B4 (en) | Motion state estimator | |
DE10251880B4 (en) | Image recognition device | |
DE602004012962T2 (en) | REAL-TIME OBSTACLE DETECTION WITH A CALIBRATED CAMERA AND KNOWN EGO MOTION | |
WO2017206999A1 (en) | Method for evaluating image data of a vehicle camera | |
EP2788245B1 (en) | Method and device for locating a predefined parking position | |
WO2016026568A1 (en) | Method and axle-counting device for contact-free axle counting of a vehicle and axle-counting system for road traffic | |
DE102014222617B4 (en) | Vehicle detection method and vehicle detection system | |
DE102017218366A1 (en) | METHOD AND PEDESTRIAN DETECTION APPROACH IN A VEHICLE | |
EP1480187A2 (en) | Camerabased position detection for road vehicles | |
DE102011004006A1 (en) | Lane mark recognition system with improved recognition behavior | |
DE102016104729A1 (en) | Method for extrinsic calibration of a camera, computing device, driver assistance system and motor vehicle | |
DE102016104732A1 (en) | Method for motion estimation between two images of an environmental region of a motor vehicle, computing device, driver assistance system and motor vehicle | |
DE102013205854B4 (en) | Method for detecting a free path using temporary coherence | |
DE102016104730A1 (en) | Method for detecting an object along a road of a motor vehicle, computing device, driver assistance system and motor vehicle | |
DE102018204451A1 (en) | Method and device for auto-calibration of a vehicle camera system | |
DE102014113359B4 (en) | Filtering device and environment detection system | |
DE102016104731A1 (en) | Method for detecting a rolling shutter effect in images of an environmental region of a motor vehicle, computing device, driver assistance system and motor vehicle | |
DE102006044615A1 (en) | Image capturing device calibrating method for vehicle, involves locating objects in vehicle surrounding based on image information detected by image capturing device, and evaluating geometrical relations of objects | |
DE102013002889A1 (en) | Method for modeling road edge of road for vehicle, involves determining road curvature using two curvature corrected inspection of search area in image, where inspection is corrected according to two different road curvature hypotheses | |
DE102010009620B4 (en) | Method and device for detecting at least one obstacle in a vehicle environment | |
EP1352363B1 (en) | Method and device for compensating for the maladjustment of an image producing device | |
EP1724726B1 (en) | Method and apparatus for measuring a parking space with a single camera | |
DE102020109598A1 (en) | System and method for tracking a coupled vehicle | |
DE102011111856B4 (en) | Method and device for detecting at least one lane in a vehicle environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R163 | Identified publications notified |
Effective date: 20111028 |
|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009620000 Ipc: G06V0030190000 |