DE102010009620B4 - Method and device for detecting at least one obstacle in a vehicle environment - Google Patents

Method and device for detecting at least one obstacle in a vehicle environment Download PDF

Info

Publication number
DE102010009620B4
DE102010009620B4 DE102010009620.2A DE102010009620A DE102010009620B4 DE 102010009620 B4 DE102010009620 B4 DE 102010009620B4 DE 102010009620 A DE102010009620 A DE 102010009620A DE 102010009620 B4 DE102010009620 B4 DE 102010009620B4
Authority
DE
Germany
Prior art keywords
image
pixel
feature points
obstacle
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102010009620.2A
Other languages
German (de)
Other versions
DE102010009620A1 (en
Inventor
Dr. Haja Andreas
Hellward Broszio
Nikolaus Meine
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102010009620.2A priority Critical patent/DE102010009620B4/en
Publication of DE102010009620A1 publication Critical patent/DE102010009620A1/en
Application granted granted Critical
Publication of DE102010009620B4 publication Critical patent/DE102010009620B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Verfahren zur Detektion mindestens eines Hindernisses (10) in einem Fahrzeugumfeld, wobei das Verfahren folgende Verfahrensschritte umfasst:- Erfassen eines ersten Bildes (B) mittels eines monokularen Bilderfassungssystems,- Detektion von Merkmalspunkten des ersten Bildes (B) im Bildbereich einer Fahrbahn (9) im ersten Bild (B),- Erfassen eines zweiten Bildes (B) mittels des monokularen Bilderfassungssystems, wobei das zweite Bild (B) zeitlich nach dem ersten Bild (B) erfasst wird,- Detektion von Merkmalspunkten des zweiten Bildes (B) im Bildbereich der Fahrbahn (9) im zweiten Bild (B),- Bestimmung von korrespondierenden Merkmalspunkten aus den Merkmalspunkten des ersten und des zweiten Bildes (BB),- Schätzung von mindestens einem Parameter einer projektiven Transformation aus den korrespondierenden Merkmalspunkten,- Transformation von mindestens einem Bildpunkt des ersten Bildes (B) mittels der projektiven Transformation in einen transformierten Bildpunkt des ersten Bildes (B),- Berechnung einer Differenz einer Intensität des transformierten Bildpunkts des ersten Bildes (B) und einer Intensität des zu dem transformierten Bildpunkt des ersten Bildes (B) korrespondierenden Bildpunkts des zweiten Bildes (B),- Vergleich der Differenz mit einem vorbestimmten Schwellwert (Thr) und- Detektion eines Hindernisses (10), falls die Differenz größer ist als der vorbestimmte Schwellwert (Thr).Method for detecting at least one obstacle (10) in a vehicle environment, the method comprising the following method steps: - acquiring a first image (B) by means of a monocular image capture system, - detecting feature points of the first image (B) in the image area of a carriageway (9) in the first image (B), - acquiring a second image (B) by means of the monocular image acquisition system, wherein the second image (B) is detected after the first image (B), - detection of feature points of the second image (B) in the image region the roadway (9) in the second image (B), - determination of corresponding feature points from the feature points of the first and second image (BB), - estimation of at least one parameter of a projective transformation from the corresponding feature points, - transformation of at least one pixel of the first image (B) by means of the projective transformation into a transformed pixel of the first image (B), - Bere a difference of an intensity of the transformed pixel of the first image (B) and an intensity of the pixel of the second image (B) corresponding to the transformed pixel of the first image (B), - comparison of the difference with a predetermined threshold (Thr) and- Detecting an obstacle (10) if the difference is greater than the predetermined threshold (Thr).

Description

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Detektion mindestens eines Hindernisses in einem Fahrzeugumfeld.The invention relates to a method and a device for detecting at least one obstacle in a vehicle environment.

In modernen Kraftfahrzeugen ist es üblich, ein Fahrzeugumfeld, insbesondere einen hinsichtlich des Fahrzeugs vorderen Fahrzeugkorridor und/oder rückwärtigen Fahrzeugkorridor, zu überwachen und gegebenenfalls vorhandene statische oder dynamische Hindernisse zu erkennen. Hierdurch wird u.a. eine Kollisionsvermeidung des Fahrzeugs mit solchen Hindernissen unterstützt.In modern motor vehicles, it is customary to monitor a vehicle environment, in particular a front vehicle corridor with respect to the vehicle and / or a rear vehicle corridor, and possibly detect existing static or dynamic obstacles. This will u.a. Supports a collision avoidance of the vehicle with such obstacles.

Eine Überwachung des Fahrzeugsumfelds geschieht üblicherweise mit Hilfe von Radar-, Lidar- und Ultraschall-Systemen. Weiter bekannt sind Bilderfassungssysteme, beispielsweise Kamerasysteme, die im oder am Fahrzeug angeordnet sind. Es sind z.B. stereobasierte Kamerasysteme bekannt, die eine dreidimensionale Erkennung von Hindernissen erlauben.A monitoring of the vehicle environment is usually done with the help of radar, lidar and ultrasound systems. Further known are image acquisition systems, such as camera systems, which are arranged in or on the vehicle. They are e.g. stereo-based camera systems known that allow a three-dimensional detection of obstacles.

Weiter sind so genannte monokulare Kamerasysteme bekannt, die eine nur zweidimensionale Erfassung eines Fahrzeugsumfelds erlauben. Diese monokularen Kamerasysteme erlauben eine Abbildung des Fahrzeugumfelds in ein zweidimensionales Kamerabild. Zur Erkennung von statischen Hindernissen im Fahrzeugumfeld werden hierbei u.a. so genannte „Structure from Motion“-Verfahren (SfM-Verfahren) eingesetzt. Diese erfordern einen hohen Rechenaufwand. Zudem ist eine Erkennung von dynamischen Hindernissen im Fahrzeugumfeld mit derartigen Verfahren derzeit nicht möglich.Further, so-called monocular camera systems are known which allow only two-dimensional detection of a vehicle environment. These monocular camera systems allow imaging of the vehicle environment into a two-dimensional camera image. To detect static obstacles in the vehicle environment here u.a. so-called "structure from motion" method (SfM method) used. These require a high computational effort. In addition, a detection of dynamic obstacles in the vehicle environment with such methods is currently not possible.

In der Schrift von C. Demonceaux; A. Potelle; D. Kachi-Akkouche: Obstacle detection in a road scene based on motion analysis. In: IEEE Transactions on Vehicular Technology, Volume 53, 2004, Issue 6, Seiten 1649 - 1656 ist ist ein Hinderniserkennungssystem mit einer Fahrzeugkamera beschrieben, wobei zuerst die Fahrbahnbewegung durch eine wavelets Analyse ermittelt wird. Anschließend erfolgt eine Erkennung von verschiedenen Bewegung mit Hilfe einer bayesischen Modulation. Mit Hilfe des Systems sollen Hindernisse auf der Straße in verschiedenen aufgenommenen Bildzuständen erkannt werden.In the writing by C. Demonceaux; A. Potelle; D. Kachi-Akkouche: Obstacle detection in a road scene based motion analysis. In: IEEE Transactions on Vehicular Technology, Volume 53, 2004, Issue 6, pages 1649-1656 is described an obstacle detection system with a vehicle camera, wherein first the road motion is determined by a wavelets analysis. Subsequently, a detection of different movement by means of a Bayesian modulation. With the help of the system obstacles on the street are to be recognized in different recorded image states.

Die EP 1 830 321 A2 offenbart ein Hinderniserkennungssystem mit einer Fahrzeugkamera, bei dem ein erstes Bildes und ein zweites Bild, welches zu einem anderen Zeitpunkt erzeugt wird, verknüpft werden. Dabei wird die charakteristische Form der Straßenoberfläche erfasst und die Bilder anhand der charakteristischen Form der Straßenoberfläche ausgerichtet. Dabei wird der Bereich als Bereich beurteilt, der ein Hindernis enthält, bei dem ein Unterschied auftritt.The EP 1 830 321 A2 discloses an obstacle detection system including a vehicle camera in which a first image and a second image generated at a different time are linked. The characteristic shape of the road surface is detected and the images are aligned on the basis of the characteristic shape of the road surface. In this case, the area is judged as an area containing an obstacle in which a difference occurs.

Die US 2010/0002078 A1 offenbart ein Umfeldüberwachungssystem mittels einer Kamera, wobei ein Hindernis auf der Grundlage einer Differenz zwischen Bildabschnitten erkannt wird, die denselben erfassten Bereich entsprechen.The US 2010/0002078 A1 discloses an environmental monitoring system by means of a camera, wherein an obstacle is detected on the basis of a difference between image portions corresponding to the same detected area.

Die DE 10 2006 060 893 A1 offenbart eine Vorrichtung zum Bestimmen eines Freiraums vor einem Fahrzeug. Hierbei ist ein bildgebender Sensor derart ausgebildet, dass er zu einem ersten Zeitpunkt ein erstes Bild und zu einem nach dem ersten Zeitpunkt liegenden zweiten Zeitpunkt ein zweites Bild eines Beobachtungsbereiches vor dem Fahrzeug aufnimmt. Weiter ist eine Bildverarbeitungseinheit derart ausgebildet, durch Bilden einer Differenz von Bilddaten des ersten Bildes und Bilddaten des zweiten Bildes ein Differenzbild zu erhalten, welches Bewegungskanten aufweist. Die Bewegungskanten sind hierbei durch sich unterscheidende Bildpunktwerte der Bilddaten des ersten Bildes gegenüber den Bilddaten des zweiten Bildes definiert. Weiter wird das Differenzbild als Verarbeitungsbild bereitgestellt. Eine Mustererkennungseinheit ist derart ausgebildet, dass sie als Freiraum vor dem Fahrzeug denjenigen Teil des Beobachtungsbereichs bestimmt, der einen bewegungskantenfreien Bereich des Differenzbildes, ausgehend von einem unteren Bildrand des Differenzbildes, entspricht.The DE 10 2006 060 893 A1 discloses an apparatus for determining a clearance in front of a vehicle. In this case, an imaging sensor is designed such that it receives a first image at a first time and a second image of an observation area in front of the vehicle at a second time after the first time. Further, an image processing unit is configured to obtain a difference image having motion edges by forming a difference of image data of the first image and image data of the second image. The movement edges are defined here by differing pixel values of the image data of the first image with respect to the image data of the second image. Furthermore, the difference image is provided as a processing image. A pattern recognition unit is designed in such a way that it determines, as a free space in front of the vehicle, that part of the observation area which corresponds to a region of the difference image free of movement edges, starting from a lower image edge of the difference image.

Es stellt sich das technische Problem, ein Verfahren und eine Vorrichtung zu schaffen, welche eine verbesserte Detektion von Hindernissen mittels eines monokularen Bilderfassungssystems, insbesondere eine hinsichtlich eines Rechenaufwands günstige Detektion, ermöglichen.The technical problem arises of providing a method and a device which enable an improved detection of obstacles by means of a monocular image acquisition system, in particular a detection that is favorable in terms of computational effort.

Die Lösung des technischen Problems ergibt sich aus den Gegenständen mit den Merkmalen der Patentansprüche 1 und 10. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.The solution of the technical problem results from the objects with the features of claims 1 and 10. Further advantageous embodiments of the invention will become apparent from the dependent claims.

Vorgeschlagen wird ein Verfahren zur Detektion mindestens eines Hindernisses in einem Fahrzeugumfeld. Insbesondere dient das Verfahren zur Detektion mindestens eines Hindernisses in einem rückwärtigen Fahrzeugkorridor oder in einem Fahrzeugkorridor vor dem Fahrzeug. Das vorgeschlagene Verfahren umfasst folgende Verfahrensschritte.Proposed is a method for detecting at least one obstacle in a vehicle environment. In particular, the method is used to detect at least one obstacle in a rear vehicle corridor or in a vehicle corridor in front of the vehicle. The proposed method comprises the following method steps.

In einem ersten Schritt wird mittels eines monokularen Bilderfassungssystems ein erstes Bild des Fahrzeugumfelds erfasst. Hierbei umfasst ein Erfassungsbereich des monokularen Bilderfassungssystems eine Fahrbahn, auf welcher das Fahrzeug fährt. Das monokulare Bilderfassungssystem kann beispielsweise ein Kamerasystem sein. Das monokulare Bilderfassungssystem erlaubt hierbei, zu einem bestimmten Zeitpunkt ein Bild der Fahrzeugumgebung aufzunehmen. Das monokulare Bilderfassungssystem erlaubt hierbei keine stereoskopische Erfassung des Fahrzeugumfelds. Vorstellbar ist jedoch, dass zur Durchführung des Verfahrens eine Kamera eines stereoskopischen Kamerasystems, welche z.B. in dem Fahrzeug vorhanden ist, genutzt wird.In a first step, a first image of the vehicle surroundings is acquired by means of a monocular image acquisition system. Here, a detection area of the monocular image sensing system includes a lane on which the vehicle is traveling. The monocular imaging system may be, for example, a camera system. The Monocular imaging system allows this to record at a certain time an image of the vehicle environment. The monocular imaging system does not allow stereoscopic detection of the vehicle environment. It is conceivable, however, that a camera of a stereoscopic camera system, which is present for example in the vehicle, is used to carry out the method.

Eine Abbildung der Fahrzeugumgebung wird durch die so genannten intrinsischen und extrinsischen Parameter des Bilderfassungssystems, insbesondere des Kamerasystems, bestimmt. Hierbei beschreiben extrinsische Parameter eine Lage und Orientierung eines Koordinatensystems des Bilderfassungssystems zu einem Koordinatensystem des Fahrzeugs. Hierdurch ist u.a. auch eine Blickrichtung des Bilderfassungssystems in Relation zu dem Koordinatensystem des Fahrzeugs bestimmbar. Intrinsische Parameter umfassen beispielsweise Parameter einer Verzerrung, einer Skalierung und einer Brennweite des Bilderfassungssystems. Mittels des Bilderfassungssystems erfolgt eine Abbildung des Fahrzeugumfelds in ein zweidimensionales Bild. Bildpunkten dieses Bildes können Bildkoordinaten zugeordnet werden. Beispielsweise erfolgt die Abbildung der Fahrzeugumgebung über ein oder mehrere Linsen auf einen CMOS- oder CCD-Chip.An image of the vehicle environment is determined by the so-called intrinsic and extrinsic parameters of the image acquisition system, in particular the camera system. Here, extrinsic parameters describe a position and orientation of a coordinate system of the image acquisition system to a coordinate system of the vehicle. This is u.a. Also a viewing direction of the image acquisition system in relation to the coordinate system of the vehicle determined. Intrinsic parameters include, for example, parameters of distortion, scaling and focal length of the imaging system. By means of the image acquisition system, an image of the vehicle environment is made into a two-dimensional image. Pixels of this image can be assigned image coordinates. For example, the imaging of the vehicle environment via one or more lenses on a CMOS or CCD chip.

Die extrinsischen Parameter des Bilderfassungssystems sind vorzugsweise vorbekannt. D.h., dass die Lage und die Orientierung des Koordinatensystems des Bilderfassungssystems in dem Koordinatensystem des Fahrzeugs bekannt ist.The extrinsic parameters of the imaging system are preferably previously known. That is, the position and orientation of the coordinate system of the image acquisition system in the coordinate system of the vehicle is known.

Aus einer vorbekannten Fahrzeuggeometrie kann eine Lage einer Fahrbahnebene im Koordinatensystem des Fahrzeugs bestimmt werden. Hierbei kann angenommen werden, dass die Fahrbahnebene eine plane Ebene ist, deren Normalenvektor parallel zu einer Hochachse (auch als Gierachse oder Vertikalachse bezeichnete Achse) des Fahrzeugs ist. Weiter kann über eine vorbekannte Fahrzeuggeometrie eine Höhe, also ein Abstand eines Koordinatenursprungs des Koordinatensystems des Fahrzeugs von der Fahrbahnebene entlang der Hochachse, bekannt sein. Somit kann also eine Lage einer so genannten idealen Fahrbahnebene im Koordinatensystem des Fahrzeugs bestimmt werden. Sind die extrinsischen und intrinsischen Parameter des Bilderfassungssystems vorbekannt, so kann ein Bildbereich des ersten Bildes bestimmt werden, in welchen die ideale Fahrbahnebene abgebildet wird. Dieser Bildbereich kann beispielsweise ein trapezförmiger Bildbereich sein. Der Bildbereich der Fahrbahn im ersten Bild umfasst also diejenigen zweidimensionalen Bildpunkte, auf welchen Punkte der Fahrbahnebene abbildbar sind.From a previously known vehicle geometry, a position of a road surface in the coordinate system of the vehicle can be determined. In this case, it can be assumed that the roadway plane is a plane plane whose normal vector is parallel to a vertical axis (also referred to as yaw axis or vertical axis) of the vehicle. Furthermore, a height, that is to say a distance of a coordinate origin of the coordinate system of the vehicle from the road plane along the vertical axis, can be known via a previously known vehicle geometry. Thus, therefore, a position of a so-called ideal road surface in the coordinate system of the vehicle can be determined. If the extrinsic and intrinsic parameters of the image acquisition system are already known, an image area of the first image can be determined in which the ideal roadway plane is imaged. This image area can be, for example, a trapezoidal image area. The image area of the roadway in the first image thus comprises those two-dimensional image points on which points of the roadway plane can be imaged.

In einem zweiten Schritt erfolgt eine Detektion von so genannten Merkmalspunkten des ersten Bildes im Bildbereich der Fahrbahn. Die Detektion von Merkmalspunkten kann hierbei z.B. mittels einer Einheit zur Bildverarbeitung erfolgen. Hierbei können Bilddaten des Bilderfassungssystems datentechnisch an die Einheit zur Bildverarbeitung übertragen werden. Merkmalspunkte bezeichnen hierbei charakteristische Punkte auf der Fahrbahnebene, die in den Bildbereich der Fahrbahn im ersten Bild abgebildet werden. Diese können insbesondere durch Fahrbahnmarkierungen oder besondere Strukturen auf der Fahrbahn gegeben sein. Die Detektion von diesen Merkmalspunkten umfasst hierbei die Identifizierung der Merkmalspunkte oder Merkmalsflächen und die Bestimmung von Bildkoordinaten dieser Merkmalspunkte oder - flächen. Eine Identifizierung von Merkmalspunkten oder -flächen kann hierbei z.B. bildpunktbasiert (pixelbasiert), flächenbasiert, intensitätsbasiert, kantenbasiert oder texturbasiert sein. Auch weitere Verfahren zur Identifizierung von geeigneten Merkmalspunkten können hierzu verwendet werden. Hierzu kann der Fachmann auf bekannte Verfahren zur Identifizierung von Merkmalspunkten (auch als Landmarken bezeichnet) im Bereich der Bildverarbeitung zurückgreifen. Im ersten Schritt wird also eine Menge von Bildkoordinaten von Merkmalspunkten bestimmt. Diese kann z.B. in einer Speichereinheit gespeichert werden.In a second step, a detection of so-called feature points of the first image in the image area of the roadway takes place. The detection of feature points may be e.g. by means of an image processing unit. In this case, image data of the image acquisition system can be transferred to the data processing unit for image processing. Characteristic points here designate characteristic points on the road surface, which are imaged in the image area of the roadway in the first image. These can be given in particular by road markings or special structures on the road. The detection of these feature points hereby includes the identification of the feature points or feature surfaces and the determination of image coordinates of these feature points or faces. Identification of feature points or areas here may be e.g. pixel-based, area-based, intensity-based, edge-based or texture-based. Other methods for identifying suitable feature points can also be used for this purpose. For this purpose, the skilled person can refer to known methods for the identification of feature points (also referred to as landmarks) in the field of image processing. In the first step, therefore, a set of image coordinates of feature points is determined. This can e.g. stored in a memory unit.

In einem dritten Schritt wird mittels des Bilderfassungssystems ein zweites Bild erfasst, wobei das zweite Bild zeitlich nach dem ersten Bild erfasst wird. Hierbei kann sich das Fahrzeug zwischen dem ersten und zweiten Zeitpunkt bewegt haben. Hierbei kann das zweite Bild mit einer vorbestimmten Zeitdauer nach dem ersten Bild erfasst werden. Auch kann das zweite Bild mit einer geschwindigkeitsabhängigen Zeitdauer nach dem ersten Bild erfasst werden. Analog zum ersten Bild werden Merkmalspunkte des zweiten Bildes im Bildbereich der Fahrbahn im zweiten Bild detektiert. Im dritten Schritt wird also eine Menge von Merkmalspunkten des zweiten Bildes erzeugt. Diese kann z.B. ebenfalls in einer Speichereinheit abgespeichert werden.In a third step, a second image is acquired by means of the image acquisition system, wherein the second image is recorded temporally after the first image. In this case, the vehicle may have moved between the first and second times. In this case, the second image can be acquired with a predetermined period of time after the first image. Also, the second image may be acquired with a speed-dependent period of time after the first image. As in the first image, feature points of the second image are detected in the image area of the roadway in the second image. In the third step, therefore, a set of feature points of the second image is generated. This can e.g. also be stored in a memory unit.

In einem vierten Schritt erfolgt eine Bestimmung von korrespondierenden Merkmalspunkten aus den Mengen der Merkmalspunkte des ersten und des zweiten Bildes. Die Bestimmung kann hierbei mittels einer Berechnungseinheit erfolgen. Vorzugsweise werden hierbei Punkt-Punkt-Korrespondenzen ausgewertet. Hierbei können z.B. räumliche Relationen zwischen den Merkmalspunkten des ersten Bildes und räumliche Relationen zwischen den Merkmalspunkten des zweiten Bildes ausgenutzt werden. Alternativ oder kumulativ können so genannte invariante Deskriptoren, die z.B. skalierungs- und/oder verzerrungsinvariante Merkmalsbeschreibungen der Punkte darstellen, ausgenutzt werden. Mittels der Bestimmung von korrespondierenden Merkmalspunkten wird daher eine Menge von korrespondierenden Merkmalspunkten erzeugt.In a fourth step, a determination of corresponding feature points from the sets of feature points of the first and the second image takes place. The determination can take place here by means of a calculation unit. Preferably, point-point correspondences are evaluated here. Here, for example, spatial relations between the feature points of the first image and spatial relations between the feature points of the second image can be exploited. Alternatively or cumulatively, so-called invariant descriptors, which represent for example scaling and / or distortion-invariant feature descriptions of the points, can be exploited. By means of Determination of corresponding feature points is therefore generated a set of corresponding feature points.

In einem fünften Schritt wird mittels der korrespondierenden Merkmalspunkte, die in dem vierten Schritt bestimmt wurden, mindestens ein Parameter einer projektiven Transformation geschätzt. Hierbei beschreibt die projektive Transformation eine allgemeine Abbildung von Punkten einer ersten Ebene auf Punkte einer zweiten Ebene, wobei die erste Ebene räumlich versetzt zur zweiten Ebene angeordnet ist, oder, in Bezug auf das Bilderfassungssystem, aus unterschiedlichen Lagen und/oder Orientierungen des Bilderfassungssystems abgebildet wurde. In der Regel sind bei einer projektiven Transformation 8 unbekannte Parameter der projektiven Transformation zu schätzen. Hierzu kann der Fachmann ein vorbekanntes Schätzverfahren anwenden, z.B. ein Verfahren basierend auf der Methode der kleinsten Quadrate. Auch iterative Schätzverfahren können zum Schätzen der Parameter der projektiven Transformation genutzt werden. Startwerte für ein solches iteratives Schätzverfahren ergeben sich z.B. durch die vorbekannte Abbildung der Fahrbahnebene in einen Bildbereich der Fahrbahn im ersten und im zweiten Bild. Hierdurch wird die Bedingung berücksichtigt, dass Punkte, die sich im ersten Bild im Bildbereich der Fahrbahn befanden, sich im zweiten Bild ebenfalls im Bildbereich der Fahrbahn befinden müssen.In a fifth step, at least one parameter of a projective transformation is estimated by means of the corresponding feature points determined in the fourth step. Here, the projective transformation describes a general mapping of points of a first plane to points of a second plane, wherein the first plane is spatially offset from the second plane, or, with respect to the image capture system, has been imaged from different layers and / or orientations of the image capture system , As a rule, in a projective transformation 8th estimate unknown parameters of the projective transformation. For this purpose, the person skilled in the art can apply a previously known estimation method, eg a method based on the least squares method. Iterative estimation methods can also be used to estimate the parameters of the projective transformation. Starting values for such an iterative estimation method result, for example, from the previously known image of the roadway level in an image region of the roadway in the first and in the second image. This takes into account the condition that points which were in the image area of the road in the first image must also be located in the image area of the roadway in the second image.

In einem sechsten Schritt wird mindestens ein Bildpunkt des ersten Bildes mittels der projektiven Transformation in einen transformierten Bildpunkt des ersten Bildes transformiert. Hierbei werden die im fünften Schritt geschätzten Parameter genutzt, um die Transformation durchzuführen. Vorzugsweise werden mehrere Bildpunkte des ersten Bildes transformiert. Vorzugsweise werden alle Bildpunkte im Bildbereich der Fahrbahn des ersten Bildes transformiert. Alternativ können auch alle Bildpunkte des ersten Bildes transformiert werden. Durch die Transformation der Bildpunkte des ersten Bildes wird eine rechnerische, durch die Transformation realisierte, Kompensation einer Bewegung des Bilderfassungssystems durchgeführt. Die transformierten Bildpunkte des ersten Bildes sind auch als bewegungskompensierte Bildpunkte zu bezeichnen. Hat sich das Fahrzeug zwischen dem Zeitpunkt der Erfassung des ersten Bildes und dem Zeitpunkt der Erfassung des zweiten Bildes bewegt, so ist eine Erkennung von statischen und dynamischen Hindernissen möglich. Hat sich das Fahrzeug zwischen dem Zeitpunkt der Erfassung des ersten Bildes und dem Zeitpunkt der Erfassung des zweiten Bildes nicht bewegt, so ist ausschließlich eine Erkennung von dynamischen Hindernissen möglich. Das Verfahren ermöglicht also in vorteilhafter Weise eine gleichzeitige Detektion von statischen und dynamischen Hindernissen, wenn sich das Fahrzeug zwischen dem Zeitpunkt der Erfassung des ersten Bildes und dem Zeitpunkt der Erfassung des zweiten Bildes bewegt hat. Hierin liegt ein wesentlicher Unterschied zum angeführten Stand der Technik.In a sixth step, at least one pixel of the first image is transformed by means of the projective transformation into a transformed pixel of the first image. In this case, the parameters estimated in the fifth step are used to carry out the transformation. Preferably, a plurality of pixels of the first image are transformed. Preferably, all pixels in the image area of the roadway of the first image are transformed. Alternatively, all pixels of the first image can be transformed. By the transformation of the pixels of the first image, a computational, realized by the transformation, compensation of a movement of the image acquisition system is performed. The transformed pixels of the first image should also be referred to as motion-compensated pixels. If the vehicle has moved between the time of acquisition of the first image and the time of detection of the second image, it is possible to detect static and dynamic obstacles. If the vehicle has not moved between the time of acquisition of the first image and the time of detection of the second image, only dynamic obstacle detection is possible. The method thus advantageously enables a simultaneous detection of static and dynamic obstacles when the vehicle has moved between the time of detection of the first image and the time of detection of the second image. This is an essential difference to the cited prior art.

In einem siebten Schritt erfolgt eine Berechnung einer Differenz einer Intensität des transformierten Bildpunkts des ersten Bildes und einer Intensität des zu dem transformierten Bildpunkt des ersten Bildes korrespondierenden Bildpunkts des zweiten Bildes. Hierbei hat der zu dem transformierten Bildpunkt des ersten Bildes korrespondierende Bildpunkt des zweiten Bildes die gleichen Bildkoordinaten wie der Bildpunkt des ersten Bildes. Vorzugsweise erfolgt die Berechnung einer Differenz für mehrere transformierte Bildpunkte des ersten Bildes, insbesondere für alle Bildpunkte des Bildbereichs der Fahrbahn des ersten Bildes. Die Bildpunkte, für welche eine Differenz der Intensität berechnet wurde, definieren hierbei ein so genanntes Differenzbild. Eine Intensität eines Bildpunkts bezeichnet hierbei beispielsweise eine Grauwertintensität, beispielsweise in einem Bereich von 0 bis 255, oder eine RGB- oder CYMK-basierte Intensität.In a seventh step, a difference between an intensity of the transformed pixel of the first image and an intensity of the pixel of the second image corresponding to the transformed pixel of the first image is calculated. Here, the pixel of the second image corresponding to the transformed pixel of the first image has the same image coordinates as the pixel of the first image. The calculation of a difference preferably takes place for a plurality of transformed pixels of the first image, in particular for all pixels of the image region of the roadway of the first image. The pixels for which a difference in intensity was calculated define a so-called difference image. An intensity of a pixel here denotes, for example, a gray scale intensity, for example in a range from 0 to 255, or an RGB or CYMK-based intensity.

Durch die projektive Transformation wird hierbei eine Bewegungskompensation für Punkte in der Fahrbahnebene durchgeführt. Folglich wird eine Differenz der Intensitäten von transformierten Bildpunkten, die Punkte der Fahrbahnebene abbilden, und zu diesen transformierten Bildpunkten korrespondierenden Bildpunkten, die auch Punkte der Fahrbahnebene abbilden, klein, idealerweise 0, sein. Punkte, die nicht in der Fahrbahnebene liegen, erzeugen eine Intensitätsdifferenz. Somit erzeugt jedes Element, welches aus der Fahrbahnebene hinausragt, eine Intensitätsdifferenz. Dies gilt für statische und dynamische Hindernisse, die aus der Fahrbahnebene herausragen. Eine solche Intensitätsdifferenz kann auch als so genannter Kompensationsfehler beschrieben werden. Dies folgt aus der Tatsache, dass die projektive Transformation nur eine Kompensation einer Fahrzeugbewegung für Bildpunkte gewährleistet, auf die Punkte der Fahrbahnebene abgebildet werden. Eine Transformation von Bildpunkten des ersten Bildes, die Punkte außerhalb der Fahrbahnebene abbilden, zu korrespondierenden Bildpunkten des zweiten Bildes, die Punkte außerhalb der Fahrbahnebene abbilden, erfolgt gemäß einer Transformation, die von der bestimmten projektiven Transformation unterschiedlich ist.The projective transformation in this case a motion compensation for points in the road level is performed. Consequently, a difference of the intensities of transformed pixels which map points of the road plane and pixels corresponding to these transformed pixels, which also depict points of the road plane, will be small, ideally 0. Points that are not in the road level generate an intensity difference. Thus, each element that protrudes from the roadway plane produces an intensity difference. This applies to static and dynamic obstacles that protrude from the road surface. Such an intensity difference can also be described as a so-called compensation error. This follows from the fact that the projective transformation only ensures compensation for vehicle movement for pixels onto which points of the road surface are mapped. A transformation of pixels of the first image that map points outside the roadway to corresponding pixels of the second image that map points outside the roadway plane is done in accordance with a transformation that is different from the particular projective transformation.

In einem achten Schritt wird die bestimmte Differenz oder werden die bestimmten Differenzen mit einem vorbestimmten Schwellwert verglichen. Der vorbestimmte Schwellwert kann beispielsweise in einer Speichereinheit abgelegt sein. Auch ist vorstellbar, dass der Schwellwert adaptiv, z.B. in Abhängigkeit eines Mittelwerts einer Grauwertverteilung im Bild, bestimmt wird. Ein Hindernis wird detektiert, falls die Differenz oder die Differenzen größer sind als der vorbestimmte Schwellwert.In an eighth step, the determined difference or the determined differences are compared with a predetermined threshold. The predetermined threshold value can be stored, for example, in a memory unit. It is also conceivable that the threshold value is adaptive, for example as a function of an average value of a gray value distribution in the picture, it is determined. An obstacle is detected if the difference or differences are greater than the predetermined threshold.

In dem vorhergehend geschilderten Verfahren dienen nur das erste und das zweite Bild sowie der vorbestimmte Schwellwert als Eingangsgröße. Eine Ausgangsgröße ist hierbei ein Signal, welches anzeigt, ob ein Hindernis detektiert wurde oder nicht.In the above-described method, only the first and second images and the predetermined threshold value serve as an input. An output variable here is a signal which indicates whether an obstacle has been detected or not.

Das vorgeschlagene Verfahren basiert also auf einer Bewegungskompensation von Bildinhalten mit anschließender Auswertung des Kompensationsfehlers. Hierbei wird angenommen, dass die Fahrbahn eine Ebene ist, wodurch die durch eine Fahrzeugbewegung bedingte Verschiebung von Bildpunkten mit Hilfe einer projektiven Transformation beschrieben und kompensiert werden kann. Mögliche Hindernisse liegen nicht in der Fahrbahnebene und führen somit zu einem Kompensationsfehler, der zur Detektion des Hindernisses genutzt wird. Hierdurch ergibt sich in vorteilhafter Weise ein einfach zu implementierendes, robustes und wenig rechenaufwändiges Verfahren zur Detektion eines statischen oder dynamischen Hindernisses in dem Fahrzeugumfeld.The proposed method is thus based on a motion compensation of image contents with subsequent evaluation of the compensation error. Here, it is assumed that the lane is a plane, whereby the displacement of pixels caused by a vehicle movement can be described and compensated by means of a projective transformation. Possible obstacles are not in the road level and thus lead to a compensation error, which is used to detect the obstacle. This results in an advantageously easy to implement, robust and less computationally expensive method for the detection of a static or dynamic obstacle in the vehicle environment.

In einer weiteren Ausführungsform erfolgt bei einer Bestimmung von Bildkoordinaten von Merkmalspunkten eine Kompensation von Abbildungsverfälschungen des monokularen Bilderfassungssystems. Insbesondere erfolgt eine Kompensation von Verzerrungen des Bilderfassungssystems. Sind intrinsische oder innere Parameter des Bilderfassungssystems bekannt, so können so genannte entzerrte Bildkoordinaten mit Hilfe einer Entzerrungsvorschrift, die abhängig von den intrinsischen Parametern des Bilderfassungssystems ist, berechnet werden. Neben der Verzerrung kann z.B. auch eine Skalierung des Bilderfassungssystems kompensiert werden. Hierdurch ergibt sich in vorteilhafter Weise, dass Abbildungsverfälschungen des Bilderfassungssystems nicht die Bildkoordinaten der Merkmalspunkte verfälschen und somit zu einem weniger genauen Verfahren führen. Hierdurch ergibt sich in vorteilhafter Weise eine verbesserte Sensitivität des Verfahrens zur Detektion von Hindernissen sowie eine größere Robustheit.In a further embodiment, in a determination of image coordinates of feature points, a compensation of image distortions of the monocular image capture system takes place. In particular, a compensation of distortions of the image acquisition system takes place. If intrinsic or internal parameters of the image acquisition system are known, so-called equalized image coordinates can be calculated with the aid of an equalization rule, which is dependent on the intrinsic parameters of the image acquisition system. Besides the distortion, e.g. Also a scaling of the image acquisition system can be compensated. This results in an advantageous manner that image distortions of the image acquisition system does not distort the image coordinates of the feature points and thus lead to a less accurate method. This advantageously results in an improved sensitivity of the method for the detection of obstacles and greater robustness.

In einer weiteren Ausführungsform erfolgt die Transformation von mindestens einem Bildpunkt des ersten Bildes auf Basis eines unverfälschten, insbesondere entzerrten, Bildpunkts des ersten Bildes. Hierzu sei angenommen, dass die Parameter der projektiven Transformation auf Basis von unverfälschten, korrespondierenden Merkmalspunkten im ersten und im zweiten Bild geschätzt wurden. Dann wird vor der Transformation von mindestens einem Bildpunkt des ersten Bildes mittels der projektiven Transformation ein unverfälschter Bildpunkt des ersten Bildes berechnet. Analog zur Kompensation von Abbildungsverfälschungen kann dieser unverfälschte Bildpunkt des ersten Bildes mit Hilfe einer Entzerrungsvorschrift berechnet werden, die von intrinsischen Parametern des Bilderfassungssystems abhängt. Dieser unverfälschte Bildpunkt des ersten Bildes wird dann mittels der projektiven Transformation in einen transformierten, unverfälschten Bildpunkt des ersten Bildes transformiert. Nachfolgend wird dieser transformierte, unverfälschte Bildpunkt des ersten Bildes wieder verfälscht. Eine Verfälschung erfolgt beispielsweise mittels einer so genannten Verzerrungsvorschrift, die wiederum abhängig von den intrinsischen Parametern des Bilderfassungssystems ist. Hierbei kann die Verzerrungsvorschrift eine zu der Entzerrungsvorschrift inverse Funktion sein. Hierdurch ergibt sich in vorteilhafter Weise, dass die Bewegungskompensation auf Grundlage von unverfälschten Bildkoordinaten erfolgt. Hierdurch werden eine verbesserte Sensibilität des Verfahrens zur Detektion eines Hindernisses und eine verbesserte Robustheit bei der Detektion erreicht.In a further embodiment, the transformation of at least one pixel of the first image takes place on the basis of an unadulterated, in particular equalized, pixel of the first image. For this purpose, it is assumed that the parameters of the projective transformation were estimated on the basis of unadulterated, corresponding feature points in the first and in the second image. Then, before the transformation of at least one pixel of the first image by means of the projective transformation, an unadulterated pixel of the first image is calculated. Analogous to the compensation of image distortions, this unadulterated pixel of the first image can be calculated by means of an equalization rule, which depends on intrinsic parameters of the image acquisition system. This unadulterated pixel of the first image is then transformed by means of the projective transformation into a transformed, unadulterated pixel of the first image. Subsequently, this transformed, unadulterated pixel of the first image is again falsified. Falsification takes place for example by means of a so-called distortion rule, which in turn is dependent on the intrinsic parameters of the image acquisition system. Here, the distortion rule may be an inverse function to the equalization rule. This results in an advantageous manner that the motion compensation takes place on the basis of unadulterated image coordinates. This achieves improved sensitivity of the method for detecting an obstacle and improved robustness in the detection.

In einer weiteren Ausführungsform wird ein Differenzbild in mindestens zwei Teilbereiche unterteilt, wobei ein Hindernis in einem Teilbereich detektiert wird, falls eine vorbestimmte Anzahl von Differenzen in dem Teilbereich größer ist als der vorbestimmte Schwellwert. Teilbereiche können beispielsweise rechteckförmige oder kreisförmige Bildbereiche sein. Hierbei kann die geometrische Form eines Teilbereichs abhängig von der Form des zu detektierenden Hindernisses sein. Ein Hindernis wird also nur dann detektiert, falls für eine vorbestimmte Anzahl von Bildpunkten im Teilbereich des Differenzbilds eine Differenz größer ist als der vorbestimmte Schwellwert. Hierdurch wird in vorteilhafter Weise eine Rauschanfälligkeit des Verfahrens verringert bzw. eine Robustheit des Verfahrens erhöht. Hierbei wird angenommen, dass ein Hindernis eine Differenz der Intensität nicht ausschließlich für einen Bildpunkt des Differenzbildes erzeugt, sondern für mehrere Bildpunkte des Differenzbildes, die im Differenzbild innerhalb eines Teilbereiches des Differenzbildes liegen.In a further embodiment, a difference image is subdivided into at least two partial areas, wherein an obstacle in a partial area is detected if a predetermined number of differences in the partial area is greater than the predetermined threshold value. Subareas may be, for example, rectangular or circular image areas. In this case, the geometric shape of a partial area can be dependent on the shape of the obstacle to be detected. An obstacle is thus detected only if, for a predetermined number of pixels in the subregion of the difference image, a difference is greater than the predetermined threshold value. As a result, a noise susceptibility of the method is advantageously reduced or a robustness of the method is increased. In this case, it is assumed that an obstacle does not generate a difference in the intensity exclusively for one pixel of the difference image, but rather for a plurality of pixels of the difference image which lie in the difference image within a partial area of the difference image.

In einer weiteren Ausführungsform sind die mindestens zwei Teilbereiche horizontale Teilbereiche des Differenzbildes. Hierzu kann das Differenzbild in horizontale Teilbereiche aufgeteilt werden, die jeweils ein oder mehrere Bildzeilen des Differenzbildes umfassen. Hierdurch ergibt sich in vorteilhafter Weise, dass auch flache Hindernisse mit einer ausreichenden Sensitivität und Robustheit erkannt werden können.In a further embodiment, the at least two partial regions are horizontal partial regions of the differential image. For this purpose, the difference image can be divided into horizontal subregions, each comprising one or more image lines of the difference image. This results in an advantageous manner that even flat obstacles can be detected with sufficient sensitivity and robustness.

In einer weiteren Ausführungsform werden Bildkoordinaten von mindestens einem Fußpunkt eines Hindernisses bestimmt. Als Fußpunkt wird hierbei eine Unterkante eines detektierten Hindernisses in Bildkoordinaten bestimmt. Eine Unterkante eines Hindernisses ist hierbei der Teilbereich des Hindernisses im Differenzbild, der den geringsten Abstand von einem unteren Bildrand des Differenzbildes aufweist. Weiter ist möglich, die Detektion mindestens eines Hindernisses nur in einem oberen Teilbereich des Bildes durchzuführen, wodurch ein Kompensationsfehler im unteren Bildbereich, der z.B. durch eine Stoßstange des Fahrzeugs verursacht wird, ignoriert wird. Der obere Teilbereich umfasst hierbei einen Teilbereich des Bildes, der keine Abbildung von Fahrzeugteilen enthält.In a further embodiment, image coordinates of at least one foot point of an obstacle are determined. In this case, a lower edge of a detected obstacle in image coordinates is determined as footing. A lower edge of a In this case, the obstacle is the subarea of the obstacle in the difference image, which has the smallest distance from a lower image edge of the difference image. Further, it is possible to perform the detection of at least one obstacle only in an upper portion of the image, whereby a compensation error in the lower image area, which is caused for example by a bumper of the vehicle is ignored. In this case, the upper subarea includes a subarea of the image that does not contain any imaging of vehicle parts.

Weiter kann in Abhängigkeit der Bildkoordinaten des mindestens einen Fußpunktes des Hindernisses eine Entfernung des Hindernisses von dem Fahrzeug geschätzt werden. Hierdurch ergibt sich in vorteilhafter Weise, dass neben der reinen Detektion eines Hindernisses auch dessen Entfernung vom Fahrzeug geschätzt werden kann. Hierbei sind die Eingangsgrößen des Verfahrens das erste und das zweite Bild, der vorbestimmte Schwellwert, die extrinsischen und intrinsischen Parameter des Bilderfassungssystems sowie die Lage und Orientierung des Koordinatensystems des Bilderfassungssystems in Relation zu dem Koordinatensystem des Fahrzeugs. Hierbei wird angenommen, dass eine Lage und Orientierung (extrinsische Parameter) und intrinsische Parameter des Bilderfassungssystems vorbekannt sind. Mit Hilfe dieser Parameter kann ein Schnittpunkt einer Sichtlinie mit der Fahrbahnebene berechnet werden. Die Sichtlinie bezeichnet hierbei die Linie, entlang welcher der Fußpunkt des Hindernisses in eine Bildebene des Bilderfassungssystems projiziert wird. Wird die Lage und Orientierung eines Koordinatensystems des Bilderfassungssystems hinsichtlich eines Koordinatensystems des Fahrzeugs als bekannt angenommen, kann auch eine Entfernung des Hindernisses vom Fahrzeug geschätzt werden. Allerdings kann die Schätzung der Entfernung des Hindernisses durch verschiedene Faktoren verfälscht werden. Z.B. können verschiedene Beladungszustände des Fahrzeugs und eine unebene Fahrbahn, wie z.B. eine Rampe, die Schätzung der Entfernung des Hindernisses verfälschen.Further, depending on the image coordinates of the at least one foot point of the obstacle, a distance of the obstacle from the vehicle can be estimated. This results in an advantageous manner that in addition to the pure detection of an obstacle and its distance from the vehicle can be estimated. Here, the input variables of the method are the first and the second image, the predetermined threshold value, the extrinsic and intrinsic parameters of the image acquisition system and the position and orientation of the coordinate system of the image acquisition system in relation to the coordinate system of the vehicle. Here, it is assumed that a position and orientation (extrinsic parameters) and intrinsic parameters of the image acquisition system are previously known. These parameters can be used to calculate an intersection of a line of sight with the road surface. The line of sight here denotes the line along which the foot point of the obstacle is projected into an image plane of the image acquisition system. When the position and orientation of a coordinate system of the image acquisition system with respect to a coordinate system of the vehicle is assumed to be known, a distance of the obstacle from the vehicle can also be estimated. However, the estimation of the distance of the obstacle can be falsified by various factors. For example, For example, different loading conditions of the vehicle and an uneven roadway, such as e.g. a ramp, distort the estimate of the distance of the obstacle.

In einer bevorzugten Ausführungsform werden aus der Menge von korrespondierenden Merkmalspunkten zur Bestimmung der Parameter der projektiven Transformation nur ausgewählte, korrespondierende Merkmalspunkte verwendet. Hierbei kann ein Verfahren zur Punktauswahl angewendet werden. Hierdurch wird in vorteilhafter Weise erreicht, dass die Schätzung der Parameter der projektiven Transformation nur auf Basis von zuverlässigen Merkmalspunkten, insbesondere von Merkmalspunkten, die charakteristischen Punkten in der Fahrbahnebene entsprechen, basiert. Beispielsweise kann das so genannte RANSAC-Verfahren zur Schätzung der Parameter der projektiven Transformation angewendet werden. Das RANSAC-Verfahren ist hierbei ein Verfahren zur robusten Parameterschätzung. Hierdurch wird der Einfluss von so genannten Ausreißern in der Menge der korrespondierenden Merkmalspunkte, insbesondere von Merkmalspunkten, die Punkte außerhalb der Fahrbahnebene abbilden, reduziert. Ein für das RANSAC-Verfahren benötigtes Modell ist beispielsweise durch die vorbekannte Lage der idealen Fahrbahnebene gegeben. Das Modell der idealen Fahrbahnebene bedingt hierbei, dass Merkmalspunkte im ersten und im zweiten Bild der Bedingung genügen müssen, in der vorab bekannten Fahrbahnebene zu liegen. Hierbei kann wie vorhergehend erläutert, ausgenutzt werden, dass die Abbildung einer idealen Fahrbahnebene in den Bildbereich des Bilderfassungssystems in Abhängigkeit von vorbekannten extrinsischen und gegebenenfalls intrinsischen Parametern bekannt ist. Definieren z.B. Merkmalspunkte des ersten Bildes eine Ebene, die mehr als ein vorbestimmtes Maß von der Abbildung der idealen Fahrbahnebene in den Bildbereich des Bilderfassungssystems abweicht, so kann ein oder können mehrere dieser Merkmalspunkte verworfen werden. Selbstverständlich können auch andere, dem Fachmann bekannte, Verfahren zur robusten Parameterschätzung angewendet werden.In a preferred embodiment, only selected, corresponding feature points are used from the set of corresponding feature points to determine the parameters of the projective transformation. Here, a method for point selection can be applied. In this way, it is advantageously achieved that the estimation of the parameters of the projective transformation is based only on the basis of reliable feature points, in particular feature points corresponding to characteristic points in the roadway plane. For example, the so-called RANSAC method can be used to estimate the parameters of the projective transformation. The RANSAC method is a method for robust parameter estimation. This reduces the influence of so-called outliers in the set of corresponding feature points, in particular feature points that map points outside the roadway plane. A model required for the RANSAC method is given, for example, by the previously known position of the ideal roadway plane. In this case, the model of the ideal roadway plane requires that feature points in the first and in the second image must satisfy the condition of being in the previously known roadway plane. In this case, as explained above, it can be utilized that the imaging of an ideal roadway plane into the image area of the image acquisition system is known as a function of previously known extrinsic and optionally intrinsic parameters. Defining e.g. Feature points of the first image, a plane that deviates more than a predetermined amount from imaging the ideal roadway plane into the image area of the image acquisition system, one or more of these feature points may be discarded. Of course, other, known in the art, methods for robust parameter estimation can be applied.

In einer weiteren Ausführungsform wird das vorgeschlagene Verfahren für mindestens zwei Teilbereiche des Bildbereichs der Fahrbahn durchgeführt. Hierdurch wird es in vorteilhafter Weise ermöglicht, eine z.B. nicht plane Fahrbahn in quasi-plane Teile der Fahrbahn zu unterteilen und für jeden dieser Teilbereiche eine separate Hinderniserkennung durchzuführen.In a further embodiment, the proposed method is carried out for at least two subareas of the image area of the roadway. This advantageously makes it possible to obtain an e.g. subdividing non-flat roadway into quasi-planar parts of the roadway and performing a separate obstacle detection for each of these subareas.

Auch kann, z.B. bei einer vorbekannten Krümmung oder vorbekannten Neigung der Fahrbahn, die Krümmung oder Neigung der Fahrbahn rechnerisch kompensiert werden. Auch kann eine Krümmung oder Neidung der Fahrbahn mit Hilfe von Sensoren geschätzt werden. Analog zur Entfälschung oder Entzerrung ist es hierdurch in vorteilhafter Weise möglich, eine Krümmung der Fahrbahn in dem vorgeschlagenen Verfahren zu kompensieren.Also, e.g. at a previously known curvature or prior art inclination of the road, the curvature or inclination of the road are computationally compensated. Also, a curvature or recession of the roadway can be estimated by means of sensors. Analogously to the deletion or equalization, this makes it possible in an advantageous manner to compensate for a curvature of the road in the proposed method.

Vorgeschlagen wird weiter eine Vorrichtung zur Detektion mindestens eines Hindernisses. Die Vorrichtung umfasst mindestens ein monokulares Kamerasystem, mindestens eine Einheit zur Bildverarbeitung, mindestens eine Berechnungseinheit und mindestens eine Vergleichseinheit. Mittels dieser Vorrichtung sind die vorgeschlagenen Verfahren durchführbar. Hierbei ist es selbstverständlich möglich, dass einzelne Verfahrensschritte von nur einer Einheit, beispielsweise der Berechnungseinheit, oder von separaten Einheiten durchgeführt werden.Further proposed is a device for detecting at least one obstacle. The device comprises at least one monocular camera system, at least one unit for image processing, at least one calculation unit and at least one comparison unit. By means of this device, the proposed method can be carried out. It is of course possible for individual method steps to be performed by only one unit, for example the calculation unit, or by separate units.

Die Erfindung wird anhand eines Ausführungsbeispiels näher erläutert. Die Figuren zeigen:

  • 1 ein schematisches Blockschaltbild einer Vorrichtung zur Detektion mindestens eines Hindernisses,
  • 2 ein schematisches Flussdiagramm eines Verfahrens zur Detektion mindestens eines Hindernisses und
  • 3 eine schematische Bestimmung einer Entfernung eines Fußpunkts eines Hindernisses von einem Fahrzeug.
The invention will be explained in more detail with reference to an embodiment. The figures show:
  • 1 1 is a schematic block diagram of a device for detecting at least one obstacle;
  • 2 a schematic flow diagram of a method for detecting at least one obstacle and
  • 3 a schematic determination of a distance of a foot point of an obstacle from a vehicle.

Nachfolgend bezeichnen Elemente mit gleichen Bezugszeichen Elemente mit gleichen oder ähnlichen technischen Eigenschaften.Hereinafter, like reference numerals designate elements having the same or similar technical characteristics.

In 1 ist ein schematisches Blockschaltbild einer Vorrichtung 1 zur Detektion mindestens eines Hindernisses 10 dargestellt. Die Vorrichtung 1 umfasst eine monokulare Kamera 2, eine Einheit 3 zur Bildverarbeitung, eine Speichereinheit 4 und eine Berechnungseinheit 5. Die Kamera 2 ist datentechnisch mit der Einheit 3 zur Bildverarbeitung verbunden. Die Einheit 3 zur Bildverarbeitung ist datentechnisch mit der Speichereinheit 4 und der Berechnungseinheit 5 verbunden. Die Speichereinheit 4 ist datentechnisch mit der Berechnungseinheit 5 verbunden. Die Kamera ist hierbei in oder an einem nicht dargestellten Fahrzeug angeordnet. Mittels der Kamera 2 wird ein Fahrzeugumfeld überwacht. Hierbei erfasst die Kamera 2 auch eine Fahrbahn 9, auf der das Fahrzeug fährt. Auch erfasst die Kamera 2 ein Hindernis 10, welches sich auf der Fahrbahn 9 befindet und nach oben aus dieser herausragt. Ein von der Kamera 2 erfasstes erstes Bild Bk-1 (siehe 2) der Fahrzeugumgebung, insbesondere der Fahrbahn 9 und des Hindernisses 10, wird datentechnisch an die Einheit 3 zur Bildverarbeitung übertragen. Die Einheit 3 zur Bildverarbeitung führt hierbei eine Detektion von Merkmalspunkten im von der Kamera 2 übertragenen ersten Bild Bk-1 durch. Auch kann die Einheit 3 zur Bildverarbeitung in einer Vorverarbeitung z.B. eine Rauschfilterung durchführen. Bei einer Detektion von Merkmalspunkten identifiziert die Einheit 3 zur Bildverarbeitung charakteristische Punkte der Fahrbahn 9, die in einen Bildbereich der Fahrbahn 9 des ersten Bildes Bk-1 abgebildet werden. Hierbei ist es möglich, dass die Einheit 3 zur Bildverarbeitung als Merkmalspunkte auch Punkte detektiert, die charakteristischen Punkten des Hindernisses 10 entsprechen. Die derart detektierten Merkmalspunkte, die durch die Abbildung der Fahrbahn 9 und des Hindernisses 10 erzeugt werden, werden in der Speichereinheit 4 gespeichert. Die Kamera 2 erfasst zu einem späteren Zeitpunkt ein zweites Bild Bk (siehe 2) des Fahrzeugumfeldes. Hierbei wird angenommen, dass sich das Fahrzeug während der Aufnahme des ersten Bildes Bk-1 und des zweiten Bildes Bk auf der Fahrbahn 9 bewegt hat. In analoger Weise detektiert die Einheit 3 zur Bildverarbeitung Merkmalspunkte im zweiten Bild Bk der Kamera 2. Die Merkmalspunkte des zweiten Bildes Bk werden datentechnisch an die Berechnungseinheit 5 übertragen. Die Berechnungseinheit 5 bestimmt aus der Menge von Merkmalspunkten des ersten Bildes Bk-1 , die der Berechnungseinheit 5 von der Speichereinheit 4 datentechnisch übertragen werden, und der Menge von Merkmalspunkten des zweiten Bildes Bk eine Menge von korrespondierenden Merkmalspunkten des ersten und zweiten Bildes Bk-1 , Bk . Weiter schätzt die Berechnungseinheit 5 Parameter einer projektiven Transformation aus der Menge von korrespondieren Merkmalspunkten. Weiter transformiert die Berechnungseinheit 5 alle Bildpunkte des Bildbereiches der Fahrbahn 9 des ersten Bildes Bk-1 mittels der projektiven Transformation, die mit den vorher geschätzten Parametern parametrisiert ist. Hiernach berechnet die Berechnungseinheit 5 ein Differenzbild aus einer Differenz von Intensitäten von Bildpunkten des Bildbereichs der Fahrbahn 9 des zweiten Bildes Bk und transformierten Bildpunkten des Bildbereichs der Fahrbahn 9 des ersten Bildes Bk-1 . Weiter überträgt die Berechnungseinheit 5 dieses Differenzbild an die Vergleichseinheit 6. Die Vergleichseinheit 6 vergleicht einzelne Teilbereiche des Differenzbildes, beispielsweise horizontale Teilbereiche des Differenzbildes, mit einem vorab bestimmten Schwellwert, der in einer weiteren Speichereinheit 7 gespeichert und datentechnisch an die Vergleichseinheit 6 übertragen wird. Weist eine vorbestimmte Anzahl, die beispielsweise ebenfalls in der weiteren Speichereinheit 7 gespeichert ist, eine höhere Differenz als den vorbestimmten Schwellwert auf, so erzeugt die Vergleichseinheit 6 ein Aktivierungssignal für eine Warneinheit 8. Die Warneinheit 8 dient hierbei der Warnung eines Fahrzeugführers und wird aktiviert, falls ein Hindernis detektiert wurde.In 1 is a schematic block diagram of a device 1 to detect at least one obstacle 10 shown. The device 1 includes a monocular camera 2 , one unity 3 for image processing, a storage unit 4 and a calculation unit 5 , The camera 2 is data technology with the unit 3 connected to image processing. The unit 3 for image processing is data technology with the storage unit 4 and the calculation unit 5 connected. The storage unit 4 is data technology with the calculation unit 5 connected. The camera is hereby arranged in or on a vehicle, not shown. By means of the camera 2 a vehicle environment is monitored. This captures the camera 2 also a roadway 9 on which the vehicle drives. Also captures the camera 2 an obstacle 10 , which is on the road 9 located and sticking out of this. One from the camera 2 recorded first picture Bk-1 (please refer 2 ) of the vehicle environment, in particular the roadway 9 and the obstacle 10 , is data technically to the unit 3 transferred for image processing. The unit 3 For image processing this leads to a detection of feature points in the camera 2 transmitted first image Bk-1 by. Also, the unit can 3 For image processing in a pre-processing, for example, perform a noise filtering. Upon detection of feature points, the unit identifies 3 characteristic for the image processing points of the road 9 that are in an image area of the roadway 9 of the first picture Bk-1 be imaged. It is possible that the unit 3 For image processing as feature points also points detected, the characteristic points of the obstacle 10 correspond. The feature points thus detected by the image of the roadway 9 and the obstacle 10 are generated in the storage unit 4 saved. The camera 2 captures a second image at a later time B k (please refer 2 ) of the vehicle environment. It is assumed that the vehicle is during the recording of the first image Bk-1 and the second picture B k on the roadway 9 has moved. In an analogous way, the unit detects 3 for image processing feature points in the second image B k the camera 2 , The feature points of the second image B k are data-technically to the calculation unit 5 transfer. The calculation unit 5 determined from the set of feature points of the first image Bk-1 , the calculation unit 5 from the storage unit 4 data transfer, and the set of feature points of the second image B k a set of corresponding feature points of the first and second images Bk-1 . B k , Next estimates the calculation unit 5 Parameters of a projective transformation from the set of corresponding feature points. The calculation unit further transforms 5 all pixels of the image area of the roadway 9 of the first picture Bk-1 by means of the projective transformation, which is parameterized with the previously estimated parameters. After that, the calculation unit calculates 5 a difference image from a difference of intensities of pixels of the image area of the roadway 9 of the second picture B k and transformed pixels of the image area of the roadway 9 of the first picture Bk-1 , Next transfers the calculation unit 5 this difference image to the comparison unit 6 , The comparison unit 6 compares individual subareas of the difference image, for example, horizontal subregions of the difference image, with a predetermined threshold, in a further memory unit 7 stored and data technology to the comparison unit 6 is transmitted. Has a predetermined number, for example, also in the further memory unit 7 is stored, a higher difference than the predetermined threshold, the comparison unit generates 6 an activation signal for a warning unit 8th , The warning unit 8th serves the warning of a driver and is activated if an obstacle was detected.

In 2 ist ein schematisches Flussdiagramm eines Verfahrens zur Detektion mindestens eines Hindernisses in einem Fahrzeugumfeld dargestellt. Hierbei bilden ein erstes Bild Bk-1 und ein zweites Bild Bk sowie intrinsische Kameraparameter Pint, extrinsische Kameraparameter Pext und ein vorbestimmter Schwellwert Thr die Eingangsgrößen des Verfahrens. In einem ersten Schritt 11 werden im ersten und im zweiten Bild Bk-1 , Bk Merkmalspunkte detektiert sowie korrespondierende Merkmalspunkte des ersten Bildes Bk-1 und des zweiten Bildes Bk bestimmt. In Abhängigkeit der intrinsischen Kameraparameter Pint wird in einem zweiten Schritt 12 eine Kompensation einer Linsenverzerrung der z.B. in 1 dargestellten Kamera 2 durchgeführt. Hierbei werden so genannte entzerrte Bildpunkte der korrespondierenden Merkmalspunkte aus den Bildpunkten der im ersten Schritt 11 bestimmten korrespondierenden Merkmalspunkte in Abhängigkeit der intrinsischen Kameraparameter Pint bestimmt. In einem dritten Schritt 13 erfolgt eine Schätzung von Parametern einer projektiven Transformation aus den entzerrten, korrespondierenden Merkmalspunkten. In einem vierten Schritt 14 erfolgt eine Kompensation der Kamerabewegung. Hierbei wird das erste Bild Bk-1 in Abhängigkeit der intrinsischen Kameraparameter Pint entzerrt, mittels der im dritten Schritt 13 geschätzten projektiven Transformation transformiert und wiederum in Abhängigkeit der intrinsischen Kameraparameter Pint verzerrt. Hierdurch wird also ein bewegungskompensiertes, verzerrtes erstes Bild berechnet. Aus diesem und dem zweiten Bild Bk wird in einem fünften Schritt 15 ein Differenzbild erzeugt. Durch einen Vergleich von Intensitäten der Bildpunkte des Differenzbildes mit einem vorbestimmten Schwellwert Thr wird ein Hindernis 10 detektiert, falls die Intensitäten der Bildpunkte des Differenzbildes größer als der vorbestimmte Schwellwert Thr ist (sechster Schritt 16). In einem siebten Schritt 17 erfolgt eine Schätzung der Entfernung des detektierten Hindernisses 10 vom Fahrzeug in Abhängigkeit der intrinsischen Kameraparameter Pint und der extrinsischen Kameraparameter Pext , wobei die extrinsischen Kameraparameter Pext eine Lage und Orientierung eines Koordinatensystems der Kamera 2 im Fahrzeug angeben. Die im siebten Schritt 17 geschätzte Entfernung des Hindernisses 10 kann dem Fahrer beispielsweise auf einer Anzeigeeinheit 18 dargestellt werden.In 2 1 is a schematic flowchart of a method for detecting at least one obstacle in a vehicle environment. Hereby form a first picture Bk-1 and a second picture B k as well as intrinsic camera parameters pint , extrinsic camera parameters P ext and a predetermined threshold Thr the input variables of the method. In a first step 11 become in the first and in the second picture Bk-1 . B k Feature points detected as well as corresponding feature points of the first image Bk-1 and the second picture B k certainly. Depending on the intrinsic camera parameters pint will be in a second step 12 a compensation of a lens distortion of eg in 1 illustrated camera 2 carried out. In this case, so-called equalized pixels of the corresponding feature points from the pixels in the first step 11 certain corresponding feature points depending on the intrinsic camera parameters pint certainly. In a third step 13 An estimation of parameters of a projective transformation is carried out from the equalized, corresponding feature points. In a fourth step 14 is a Compensation of the camera movement. This will be the first picture Bk-1 depending on the intrinsic camera parameters pint equalized, by means of the third step 13 estimated projective transformation and in turn depending on the intrinsic camera parameters pint distorted. As a result, a motion-compensated, distorted first image is calculated. From this and the second picture B k will be in a fifth step 15 generates a difference image. By comparing intensities of the pixels of the difference image with a predetermined threshold value Thr becomes an obstacle 10 detected if the intensities of the pixels of the difference image is greater than the predetermined threshold value Thr is (sixth step 16 ). In a seventh step 17 an estimate of the distance of the detected obstacle is made 10 from the vehicle depending on the intrinsic camera parameters pint and the extrinsic camera parameter P ext , where the extrinsic camera parameters P ext a location and orientation of a coordinate system of the camera 2 indicate in the vehicle. The seventh step 17 estimated distance of the obstacle 10 For example, the driver may be on a display unit 18 being represented.

In 3 ist schematisch die Schätzung einer Entfernung eines Hindernisses 10 von einem Fahrzeug dargestellt. Hierbei bezeichnen die Achsen yF und zF die Achsen eines Koordinatensystems des Fahrzeugs. Weiter bezeichnen yK und zK die Achsen eines Koordinatensystems der z.B. in 1 dargestellten Kamera 2. Die Lage und Orientierung des Koordinatensystems der Kamera 2 im Koordinatensystem des Fahrzeugs ist hierbei bekannt. Hierbei sei weiter angenommen, dass das Hindernis 10 bereits mittels des vorhergehend geschilderten Verfahrens detektiert wurde. Weiter sei angenommen, dass im Differenzbild ein Fußpunkt des Hindernisses 10 bestimmt wurde. Weiter wird dann eine Sichtlinie 19 bestimmt, auf welcher der Fußpunkt des Hindernisses 10 in die Bildebene der Kamera 2 abgebildet wird. Die Sichtlinie 19 schließt hierbei einen Winkel α mit einer optischen Achse 20 der Kamera 2 ein. Die optische Achse 20 schließt einen Winkel ϑ mit der Achse yK des Koordinatensystems der Kamera 2 ein. Weiter sei angenommen, dass eine Höhe HF des Fahrzeugs über einer Fahrbahn 9 bekannt ist. Aus der vorbekannten Lage und Orientierung des Koordinatensystems der Kamera 2 zu dem Koordinatensystem des Fahrzeugs und der Höhe HF des Fahrzeugs über der Fahrbahn 9 lässt sich in einem ersten Schritt eine Entfernung zH,K des Hindernisses 10 von der Kamera 2 entlang der Achse zk der Kamera 2 bestimmen. Mittels der vorbekannten Lage des Koordinatensystems der Kamera 2 zum Koordinatensystem des Fahrzeugs lässt sich in einem zweiten Schritt eine Entfernung des Hindernisses 10 vom Koordinatensystem des Fahrzeugs entlang der Achse zF bestimmen.In 3 schematically is the estimation of a distance of an obstacle 10 represented by a vehicle. Here are the axes y F and z F the axes of a coordinate system of the vehicle. Next designate y K and z K the axes of a coordinate system of eg in 1 illustrated camera 2 , The location and orientation of the coordinate system of the camera 2 in the coordinate system of the vehicle is known here. It is further assumed that the obstacle 10 has already been detected by means of the previously described method. Next, suppose that in the difference image is a foot of the obstacle 10 was determined. Next then becomes a line of sight 19 determines on which the base of the obstacle 10 into the picture plane of the camera 2 is shown. The line of sight 19 closes an angle here α with an optical axis 20 the camera 2 on. The optical axis 20 closes an angle θ with the axis y K of the coordinate system of the camera 2 on. Next, suppose that a height H F of the vehicle over a carriageway 9 is known. From the known position and orientation of the coordinate system of the camera 2 to the coordinate system of the vehicle and the height H F of the vehicle above the carriageway 9 can be removed in a first step z H, K of the obstacle 10 from the camera 2 along the axis z k of the camera 2 determine. By means of the known position of the coordinate system of the camera 2 to the coordinate system of the vehicle can be removed in a second step, a removal of the obstacle 10 from the coordinate system of the vehicle along the axis z F determine.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

11
Vorrichtung zur Detektion mindestens eines HindernissesDevice for detecting at least one obstacle
22
Kameracamera
33
Einheit zur BildverarbeitungImage processing unit
44
Speichereinheitstorage unit
55
Berechnungseinheitcalculation unit
66
Vergleichseinheitcomparing unit
77
weitere Speichereinheitadditional storage unit
88th
Warneinheitwarning unit
99
Fahrbahnroadway
1010
Hindernisobstacle
1111
erster Schritt des Verfahrensfirst step of the procedure
1212
zweiter Schritt des Verfahrenssecond step of the procedure
1313
dritter Schritt des Verfahrensthird step of the procedure
1414
vierter Schritt des Verfahrensfourth step of the procedure
1515
fünfter Schritt des Verfahrensfifth step of the procedure
1616
sechster Schritt des Verfahrenssixth step of the procedure
1717
siebter Schritt des Verfahrensseventh step of the procedure
1818
Anzeigeeinheitdisplay unit
Bk-1 Bk-1
erstes Bildfirst picture
Bk B k
zweites Bildsecond picture
Pintpint
intrinsische Kameraparameterintrinsic camera parameters
Pext P ext
extrinsische Kameraparameterextrinsic camera parameters
ThrThr
vorbestimmter Schwellwertpredetermined threshold
yK y K
Achse eines Koordinatensystems einer KameraAxis of a coordinate system of a camera
zK z K
Achse des Koordinatensystems einer KameraAxis of the coordinate system of a camera
yF y F
Achse eines Koordinatensystems eines FahrzeugsAxis of a coordinate system of a vehicle
zF z F
Achse eines Koordinatensystems eines FahrzeugsAxis of a coordinate system of a vehicle
HF H F
Höhe des Koordinatensystems des Fahrzeugs über der FahrbahnHeight of the coordinate system of the vehicle above the roadway
zH,K z H, K
Entfernung eines Hindernisses von einer KameraRemoval of an obstacle from a camera
1919
Sichtlinieline of sight
2020
optische Achseoptical axis
α .α.
Winkelcorner
ϑθ
Winkelcorner

Claims (10)

Verfahren zur Detektion mindestens eines Hindernisses (10) in einem Fahrzeugumfeld, wobei das Verfahren folgende Verfahrensschritte umfasst: - Erfassen eines ersten Bildes (Bk-1) mittels eines monokularen Bilderfassungssystems, - Detektion von Merkmalspunkten des ersten Bildes (Bk-1) im Bildbereich einer Fahrbahn (9) im ersten Bild (Bk-1), - Erfassen eines zweiten Bildes (Bk) mittels des monokularen Bilderfassungssystems, wobei das zweite Bild (Bk) zeitlich nach dem ersten Bild (Bk-1) erfasst wird, - Detektion von Merkmalspunkten des zweiten Bildes (Bk) im Bildbereich der Fahrbahn (9) im zweiten Bild (Bk), - Bestimmung von korrespondierenden Merkmalspunkten aus den Merkmalspunkten des ersten und des zweiten Bildes (Bk-1, Bk), - Schätzung von mindestens einem Parameter einer projektiven Transformation aus den korrespondierenden Merkmalspunkten, - Transformation von mindestens einem Bildpunkt des ersten Bildes (Bk-1) mittels der projektiven Transformation in einen transformierten Bildpunkt des ersten Bildes (Bk-1), - Berechnung einer Differenz einer Intensität des transformierten Bildpunkts des ersten Bildes (Bk-1) und einer Intensität des zu dem transformierten Bildpunkt des ersten Bildes (Bk-1) korrespondierenden Bildpunkts des zweiten Bildes (Bk), - Vergleich der Differenz mit einem vorbestimmten Schwellwert (Thr) und - Detektion eines Hindernisses (10), falls die Differenz größer ist als der vorbestimmte Schwellwert (Thr).Method for detecting at least one obstacle (10) in a vehicle environment, the method comprising the following method steps: - acquiring a first image (B k-1 ) by means of a monocular image acquisition system, - detecting feature points of the first image (B k-1 ) in FIG Image area of a carriageway (9) in the first image (B k-1 ), - acquiring a second image (B k ) by means of the monocular image acquisition system, wherein the second image (B k ) detects time after the first image (B k-1 ) - Detection of feature points of the second image (B k ) in the image area of the carriageway (9) in the second image (B k ), - Determination of corresponding feature points from the feature points of the first and the second image (B k-1, B k ), - Estimation of at least one parameter of a projective transformation from the corresponding feature points, - Transformation of at least one pixel of the first image (B k-1 ) by means of the projective transformation into a t ransformierten pixel of the first image (B k-1 ), - calculating a difference of an intensity of the transformed pixel of the first image (B k-1 ) and an intensity of the transformed pixel of the first image (B k-1 ) corresponding pixel of the second image (B k ), - comparing the difference with a predetermined threshold (Thr) and - detecting an obstacle (10) if the difference is greater than the predetermined threshold (Thr). Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass bei einer Bestimmung von Bildkoordinaten von Merkmalspunkten eine Kompensation von Abbildungsverfälschungen des monokularen Bilderfassungssystems erfolgt.Method according to Claim 1 , characterized in that in a determination of image coordinates of feature points, a compensation of image distortions of the monocular imaging system takes place. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass vor der Transformation von mindestens einem Bildpunkt des ersten Bildes (Bk-1) mittels der projektiven Transformation in einen transformierten Bildpunkt des ersten Bildes (Bk-1) mindestens ein unverfälschter Bildpunkt des ersten Bildes (Bk-1) berechnet wird, wobei Abbildungsverfälschungen des monokularen Bilderfassungssystems bei der Abbildung des mindestens einen Bildpunktes des ersten Bildes (Bk-1) kompensiert werden, eine Transformation des mindestens einen unverfälschten Bildpunktes des ersten Bildes (Bk-1) in einen transformierten, unverfälschten Bildpunkt des ersten Bildes (Bk-1) erfolgt und nach der Transformation aus dem mindestens einen transformierten, unverfälschten Bildpunkt des ersten Bildes (Bk-1) ein transformierter, verfälschter Bildpunkt des ersten Bildes (Bk-1) berechnet wird, wobei Abbildungsverfälschungen des monokularen Bilderfassungssystems berücksichtigt werden.,Method according to Claim 2 , characterized in that before the transformation of at least one pixel of the first image (B k-1 ) by means of the projective transformation into a transformed pixel of the first image (B k-1 ) at least one unadulterated pixel of the first image (B k-1 ), wherein imaging distortions of the monocular imaging system are compensated in imaging the at least one pixel of the first image (B k-1 ), transforming the at least one unadorned pixel of the first image (B k-1 ) into a transformed, unadulterated pixel of the first image (B k-1 ) and after transformation from the at least one transformed, unadulterated pixel of the first image (B k-1 ) a transformed, corrupted pixel of the first image (B k-1 ) is calculated, wherein image distortions of the monocular imaging system., Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass ein Differenzbild in mindestens zwei Teilbereiche unterteilt wird, wobei ein Hindernis in einem Teilbereich detektiert wird, falls eine vorbestimmte Anzahl von Differenzen in dem Teilbereich größer ist als der vorbestimmte Schwellwert (Thr).Method according to one of the preceding claims, characterized in that a difference image is divided into at least two subregions, wherein an obstacle is detected in a subregion, if a predetermined number of differences in the subregion is greater than the predetermined threshold value (Thr). Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die mindestens zwei Teilbereiche horizontale Teilbereiche sind.Method according to Claim 4 , characterized in that the at least two subregions are horizontal subregions. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass Bildkoordinaten von mindestens einem Fußpunkt eines Hindernisses (10) bestimmt werden.Method according to one of the preceding claims, characterized in that image coordinates of at least one base point of an obstacle (10) are determined. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass in Abhängigkeit der Bildkoordinaten des mindestens einen Fußpunkts des Hindernisses (10) eine Entfernung des Hindernisses (10) von dem Fahrzeug geschätzt wird.Method according to Claim 6 , characterized in that depending on the image coordinates of the at least one foot of the obstacle (10), a distance of the obstacle (10) is estimated by the vehicle. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Schätzung von mindestens einem Parameter einer projektiven Transformation aus ausgewählten, korrespondierenden Merkmalspunkten erfolgt, wobei ausgewählte, korrespondierende Merkmalspunkte mittels eines Verfahrens zur Punktauswahl ausgewählt werden.Method according to one of the preceding claims, characterized in that the estimation of at least one parameter of a projective transformation from selected, corresponding feature points takes place, wherein selected, corresponding feature points are selected by means of a method for point selection. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass das Verfahren zur Detektion mindestens eines Hindernisses (10) für mindestens zwei Teilbereiche des Bildbereichs der Fahrbahn (9) durchgeführt wird.Method according to one of the preceding claims, characterized in that the method for detecting at least one obstacle (10) for at least two subregions of the image area of the roadway (9) is performed. Vorrichtung zur Detektion mindestens eines Hindernisses (10), wobei die Vorrichtung mindestens ein monokulares Bilderfassungssystem, mindestens eine Einheit (3) zur Bildverarbeitung, mindestens eine Berechnungseinheit (5) und mindestens eine Vergleichseinheit (6) umfasst, wobei mittels des monokularen Bilderfassungssystems ein erstes und mindestens ein zweites Bild (Bk-1, Bk) erfassbar ist, wobei das zweite Bild (Bk) zeitlich nach dem ersten Bild (Bk-1) erfassbar ist, wobei mittels der Einheit (3) zur Bildverarbeitung Merkmalspunkte des ersten Bildes (Bk-1) im Bildbereich einer Fahrbahn (9) im ersten Bild (Bk-1) und Merkmalspunkte des zweiten Bildes (Bk) im Bildbereich der Fahrbahn (9) im zweiten Bild (Bk) detektierbar sind, wobei mittels der Berechnungseinheit (5) korrespondierende Merkmalspunkte aus den Merkmalspunkten des ersten und des zweiten Bildes (Bk-1, Bk) bestimmbar sind, mindestens ein Parameter einer projektiven Transformation aus den korrespondierenden Merkmalspunkten schätzbar ist, mindestens ein Bildpunkt des ersten Bildes (Bk-1) mittels der projektiven Transformation in einen transformierten Bildpunkt des ersten Bildes (Bk-1) transformierbar ist, eine Differenz einer Intensität des transformierten Bildpunkts des ersten Bildes (Bk-1) und einer Intensität des zu dem transformierten Bildpunkt des ersten Bildes (Bk-1) korrespondierenden Bildpunkts des zweiten Bildes (Bk) berechenbar ist, wobei mittels der Vergleichseinheit (6) die Differenz mit einem vorbestimmten Schwellwert (Thr) vergleichbar ist und ein Hindernis (10) detektierbar ist, falls die Differenz größer als der vorbestimmte Schwellwert (Thr) istDevice for detecting at least one obstacle (10), wherein the device comprises at least one monocular imaging system, at least one unit (3) for image processing, at least one calculation unit (5) and at least one comparison unit (6), wherein a first and a second imaging system are provided by the monocular imaging system at least one second image (B k-1 , B k ) can be detected, wherein the second image (B k ) is detectable in time after the first image (B k-1 ), wherein by means of the unit (3) for image processing feature points of the first Image (B k-1 ) in the image area of a roadway (9) in the first image (B k-1 ) and feature points of the second image (B k ) in the image area of the roadway (9) in the second image (B k ) are detectable, wherein by means of the calculation unit (5) corresponding feature points from the feature points of the first and the second image (B k-1 , B k ) are determinable, at least one parameter of a projective transformation of the corresponding feature points can be estimated, at least one pixel of the first image (B k-1 ) is transformed by the projective transformation into a transformed pixel of the first image (B k-1 ), a difference of an intensity of the transformed pixel of the first image (B k -1 ) and an intensity of the image point of the second image (B k ) corresponding to the transformed pixel of the first image (B k-1 ) can be calculated, the difference being comparable to a predetermined threshold value (Thr) by means of the comparison unit (6) and an obstacle (10) is detectable if the difference is greater than the predetermined threshold (Thr)
DE102010009620.2A 2010-02-27 2010-02-27 Method and device for detecting at least one obstacle in a vehicle environment Active DE102010009620B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102010009620.2A DE102010009620B4 (en) 2010-02-27 2010-02-27 Method and device for detecting at least one obstacle in a vehicle environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102010009620.2A DE102010009620B4 (en) 2010-02-27 2010-02-27 Method and device for detecting at least one obstacle in a vehicle environment

Publications (2)

Publication Number Publication Date
DE102010009620A1 DE102010009620A1 (en) 2011-09-01
DE102010009620B4 true DE102010009620B4 (en) 2019-09-12

Family

ID=44501962

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010009620.2A Active DE102010009620B4 (en) 2010-02-27 2010-02-27 Method and device for detecting at least one obstacle in a vehicle environment

Country Status (1)

Country Link
DE (1) DE102010009620B4 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011111856B4 (en) 2011-08-27 2019-01-10 Volkswagen Aktiengesellschaft Method and device for detecting at least one lane in a vehicle environment
DE102019212021B4 (en) * 2019-08-09 2024-02-08 Volkswagen Aktiengesellschaft Method and device for detecting a parallax problem in sensor data from two sensors

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1830321A2 (en) 2006-03-02 2007-09-05 Hitachi, Ltd. Obstacle detection system
DE102006060893A1 (en) 2006-05-12 2007-11-15 Adc Automotive Distance Control Systems Gmbh Device and method for determining a free space in front of a vehicle
US20100002078A1 (en) 2008-07-03 2010-01-07 Alpine Electronics, Inc. Periphery monitoring apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1830321A2 (en) 2006-03-02 2007-09-05 Hitachi, Ltd. Obstacle detection system
DE102006060893A1 (en) 2006-05-12 2007-11-15 Adc Automotive Distance Control Systems Gmbh Device and method for determining a free space in front of a vehicle
US20100002078A1 (en) 2008-07-03 2010-01-07 Alpine Electronics, Inc. Periphery monitoring apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
C. Demonceaux ; A. Potelle ; D. Kachi-Akkouche: Obstacle detection in a road scene based on motion analysis. In: IEEE Transactions on Vehicular Technology, 53, 2004, 6, 1649 - 1656. *

Also Published As

Publication number Publication date
DE102010009620A1 (en) 2011-09-01

Similar Documents

Publication Publication Date Title
DE102013209415B4 (en) Dynamic clue overlay with image cropping
DE112008004291B4 (en) Motion state estimator
DE10251880B4 (en) Image recognition device
DE602004012962T2 (en) REAL-TIME OBSTACLE DETECTION WITH A CALIBRATED CAMERA AND KNOWN EGO MOTION
WO2017206999A1 (en) Method for evaluating image data of a vehicle camera
EP2788245B1 (en) Method and device for locating a predefined parking position
WO2016026568A1 (en) Method and axle-counting device for contact-free axle counting of a vehicle and axle-counting system for road traffic
DE102014222617B4 (en) Vehicle detection method and vehicle detection system
DE102017218366A1 (en) METHOD AND PEDESTRIAN DETECTION APPROACH IN A VEHICLE
EP1480187A2 (en) Camerabased position detection for road vehicles
DE102011004006A1 (en) Lane mark recognition system with improved recognition behavior
DE102016104729A1 (en) Method for extrinsic calibration of a camera, computing device, driver assistance system and motor vehicle
DE102016104732A1 (en) Method for motion estimation between two images of an environmental region of a motor vehicle, computing device, driver assistance system and motor vehicle
DE102013205854B4 (en) Method for detecting a free path using temporary coherence
DE102016104730A1 (en) Method for detecting an object along a road of a motor vehicle, computing device, driver assistance system and motor vehicle
DE102018204451A1 (en) Method and device for auto-calibration of a vehicle camera system
DE102014113359B4 (en) Filtering device and environment detection system
DE102016104731A1 (en) Method for detecting a rolling shutter effect in images of an environmental region of a motor vehicle, computing device, driver assistance system and motor vehicle
DE102006044615A1 (en) Image capturing device calibrating method for vehicle, involves locating objects in vehicle surrounding based on image information detected by image capturing device, and evaluating geometrical relations of objects
DE102013002889A1 (en) Method for modeling road edge of road for vehicle, involves determining road curvature using two curvature corrected inspection of search area in image, where inspection is corrected according to two different road curvature hypotheses
DE102010009620B4 (en) Method and device for detecting at least one obstacle in a vehicle environment
EP1352363B1 (en) Method and device for compensating for the maladjustment of an image producing device
EP1724726B1 (en) Method and apparatus for measuring a parking space with a single camera
DE102020109598A1 (en) System and method for tracking a coupled vehicle
DE102011111856B4 (en) Method and device for detecting at least one lane in a vehicle environment

Legal Events

Date Code Title Description
R163 Identified publications notified
R163 Identified publications notified

Effective date: 20111028

R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000