DE102011113099A1 - Method for determining e.g. wall in rear area of passenger car during parking, involves determining surroundings information, and determining positional information of dynamic objects in surroundings based on two surroundings information - Google Patents
Method for determining e.g. wall in rear area of passenger car during parking, involves determining surroundings information, and determining positional information of dynamic objects in surroundings based on two surroundings information Download PDFInfo
- Publication number
- DE102011113099A1 DE102011113099A1 DE102011113099A DE102011113099A DE102011113099A1 DE 102011113099 A1 DE102011113099 A1 DE 102011113099A1 DE 102011113099 A DE102011113099 A DE 102011113099A DE 102011113099 A DE102011113099 A DE 102011113099A DE 102011113099 A1 DE102011113099 A1 DE 102011113099A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- vehicle
- information
- determining
- environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30264—Parking
Abstract
Description
Die vorliegende Erfindung betrifft ein Verfahren zur Bestimmung von Objekten in einer Umgebung eines Fahrzeugs und ein Fahrerassistenzsystem, welches das Verfahren Zur Bestimmung von Objekten verwendet. Die vorliegende Erfindung betrifft insbesondere ein Verfahren zur Bestimmung von Objekten in einem Rückraum des Fahrzeugs, um beispielsweise einem Fahrer des Fahrzeugs Informationen über Objekte hinter dem Fahrzeug beim Rangieren und Einparken bereitzustellen.The present invention relates to a method for determining objects in an environment of a vehicle and to a driver assistance system that uses the method for determining objects. More particularly, the present invention relates to a method of determining objects in a vehicle's rear space to provide, for example, information about objects behind the vehicle when maneuvering and parking to a driver of the vehicle.
Fahrzeuge, beispielsweise Personenkraftwagen oder Lastkraftwagen, können über sogenannte Fahrerassistenzsysteme verfügen, um einen Fahrer des Fahrzeugs beim Führen des Fahrzeugs zu unterstützen. Beispielsweise kann ein Fahrerassistenzsystem einem Fahrer des Fahrzeugs beim Rückwärtsfahren anzeigen, ob im Bereich hinter dem Fahrzeug kollisionsgefährdete Objekte vorhanden sind.Vehicles, such as passenger cars or trucks, may have so-called driver assistance systems to assist a driver of the vehicle in driving the vehicle. For example, a driver assistance system can indicate to a driver of the vehicle when reversing whether there are collision-prone objects in the area behind the vehicle.
In diesem Zusammenhang ist beispielsweise aus der
Die
Die
Die
Die
Die
Bei einer Auslegung von Fahrerassistenzsystemen mit einem Regeleingriff oder einer Warnausgabe ist es aus Sicherheitsgründen wünschenswert, eine unterschiedliche Behandlung von statischen und bewegten Objekten vorzusehen. Beispielsweise kann bei statischen Hindernissen eine optische Warnausgabe erfolgen, wohingegen bei bewegten Hindernissen eine akustische Warnausgabe erfolgt. Übliche Klassifikationsverfahren zur gezielten Erkennung von Fußgängern sind jedoch bei Park- und Rangieranwendungen nur bedingt geeignet, da üblicherweise verwendete Kameras, sogenannte Parkkameras, in der Regel eine hohe Linsenverzerrung aufweisen und insbesondere im Nahbereich des Fahrzeugs Hindernisse nur teilweise sichtbar sind. Die üblichen Klassifikationsverfahren können mit diesen Problemen nur bedingt umgehen, wodurch insbesondere bewegliche Hindernisse häufig nicht erkannt werden. Um die Probleme bei üblichen Klassifikationsverfahren zu vermeiden, kann beispielsweise das sogenannte Trainings-Set des Klassifikationsverfahrens erweitert werden, d. h., eine Datenbasis des Klassifikationsverfahrens wird um spezielle Teilansichten von beispielsweise Fußgängern erweitert. Zur Kompensation der starken Linsenverzerrung kann beispielsweise die Gestalt von Objekten im Trainings-Set adaptiv an die für die jeweilige Bildposition geltenden Verzerrungsparameter angepasst werden. Dies erfordert jedoch einen erheblichen Rechenaufwand und ist im Allgemeinen nicht hinreichend robust.In a design of driver assistance systems with a control intervention or a warning output, it is desirable for safety reasons to provide a different treatment of static and moving objects. For example, in the case of static obstacles, an optical warning output can take place, whereas with moving obstacles an acoustic warning output takes place. However, conventional classification methods for the targeted detection of pedestrians are only of limited suitability in parking and maneuvering applications, since conventionally used cameras, so-called parking cameras, generally have a high lens distortion and, in particular, obstacles are only partially visible in the vicinity of the vehicle. The usual classification methods can only handle these problems to a limited extent, as a result of which, in particular, moving obstacles are frequently not recognized. To avoid the problems with conventional classification methods, for example, the so-called training set of the classification method can be extended, i. h., a database of the classification method is extended to special partial views of, for example, pedestrians. To compensate for the strong lens distortion, for example, the shape of objects in the training set can be adapted adaptively to the distortion parameters that apply to the respective image position. However, this requires a considerable amount of computation and is generally not sufficiently robust.
Aufgabe der vorliegenden Erfindung ist es daher, eine einfache durchführbare und robuste Hinderniserkennung auf der Grundlage von Bildern einer Parkkamera bereitzustellen.The object of the present invention is therefore to provide a simple and robust obstacle detection based on images of a parking camera.
Diese Aufgabe wird gemäß der vorliegenden Erfindung durch ein Verfahren zur Bestimmung von Objekten in einer Umgebung eines Fahrzeugs nach Anspruch 1, ein Fahrerassistenzsystem nach Anspruch 8 und ein Fahrzeug nach Anspruch 10 gelöst. Die abhängigen Ansprüche definieren bevorzugte und vorteilhafte Ausführungsformen der Erfindung.This object is achieved according to the present invention by a method for determining objects in an environment of a vehicle according to
Gemäß der vorliegenden Erfindung wird ein Verfahren zur Bestimmung von Objekten in einer Umgebung eines Fahrzeugs bereitgestellt. Bei dem Verfahren wird eine erste Umgebungsinformation bestimmt, welche nur Positionsinformationen von statischen Objekten in der Umgebung aufweist. Weiterhin wird eine zweite Umgebungsinformation bestimmt, welche Positionsinformationen von statischen und dynamischen Objekten in der Umgebung aufweist. In Abhängigkeit von der ersten Umgebungsinformation und der zweiten Umgebungsinformation werden Positionsinformationen von dynamischen Objekten in der Umgebung bestimmt. Verfahren zur Bestimmung von nur statischen Objekten in der Umgebung, beispielsweise ein sogenanntes Structure-from-Motion-Verfahren, arbeiten zuverlässig und sind mit verhältnismäßig geringem Rechenaufwand realisierbar. Ein Verfahren zur Bestimmung von Positionsinformationen von Objekten allgemein, d. h., von statischen und dynamischen Objekten, kann beispielsweise mit einem sogenannten Differenzbildverfahren realisiert werden. Ein derartiges Verfahren liefert zwar keine Unterscheidung zwischen statischen und dynamischen Objekten, kann jedoch Objekte allgemein zuverlässig bestimmen und mit verhältnismäßig geringem Rechenaufwand realisiert werden. Darüber hinaus können beide Verfahren auch in Verbindung mit Bildern verwendet werden, welche eine hohe Linsenverzerrung aufweisen, wie sie üblicherweise von einer Parkkamera eines Fahrzeugs geliefert werden. Da beide Verfahren ohne Mustervergleiche mit Trainingsdaten arbeiten, sind sie nicht nur robust gegenüber Linsenverzerrungen, sondern auch gegenüber teilweise verdeckten oder nur teilweise erfassten Objekten. Durch Verwenden der Positionsinformationen der statischen Objekte in der Umgebung in Kombination mit den Positionsinformationen von statischen und dynamischen, d. h. unbestimmten oder beliebigen Objekten in der Umgebung, können Positionsinformationen von dynamischen Objekten auf einfache Art und Weise bestimmt werden. Dadurch ist eine zuverlässige Unterscheidung und Bestimmung von statischen und dynamischen Objekten in der Umgebung des Fahrzeugs möglich.According to the present invention, a method for determining objects in an environment of a vehicle is provided. In the method, a first environment information is determined which has only position information of static objects in the environment. Furthermore, a second environment information is determined which has position information of static and dynamic objects in the environment. Depending on the first environment information and the second environment information, positional information of dynamic objects in the environment is determined. Methods for determining only static objects in the environment, for example a so-called structure-from-motion method, operate reliably and can be implemented with relatively little computational effort. A method for determining position information of objects in general, d. h., Of static and dynamic objects, can be realized for example with a so-called difference image method. Although such a method provides no distinction between static and dynamic objects, but can generally reliably determine objects and realized with relatively little computational effort. Moreover, both methods can also be used in conjunction with images having high lens distortion, such as are commonly provided by a parking camera of a vehicle. Since both methods work without pattern comparisons with training data, they are not only robust against lens distortions, but also against partially obscured or only partially detected objects. By using the position information of the static objects in the environment in combination with the position information of static and dynamic, d. H. indefinite or arbitrary objects in the environment, position information of dynamic objects can be easily determined. This makes it possible to reliably distinguish and determine static and dynamic objects in the surroundings of the vehicle.
Die zuvor verwendeten Begriffe „statisches Objekt” und „dynamisches Objekt”, welche auch nachfolgend verwendet werden, werden nachfolgend definiert: ein statisches Objekt in der Umgebung des Fahrzeugs bezeichnet ein Objekt, welches sich bezogen auf die Umgebung des Fahrzeugs, also beispielsweise bezogen auf die Fahrbahn, nicht bewegt. Demgegenüber bezeichnet ein dynamisches Objekt ein Objekt, welches sich bezogen auf die Umgebung bewegt. Ein statisches Objekt kann beispielsweise ein Pfosten, ein geparktes Fahrzeug, ein Laternenmast, eine Mauer, ein Randstein oder dergleichen sein. Ein dynamisches Objekt kann beispielsweise ein sich bewegender Fußgänger, ein sich bewegender Radfahrer, ein sich bewegendes Tier oder dergleichen sein.The previously used terms "static object" and "dynamic object", which are also used below, are defined below: a static object in the vicinity of the vehicle denotes an object which relates to the surroundings of the vehicle, that is to say, for example Road surface, not moving. In contrast, a dynamic object refers to an object that moves relative to the environment. A static object may be, for example, a post, a parked vehicle, a lamppost, a wall, a curb or the like. For example, a dynamic object may be a moving pedestrian, a be a moving cyclist, a moving animal or the like.
Gemäß einer Ausführungsform umfasst das Bestimmen der ersten Umgebungsinformation ein Erfassen eines ersten Bildes der Umgebung des Fahrzeugs, ein Erfassen eines zweiten Bildes der Umgebung des Fahrzeugs und ein Bestimmen einer Bewegung des Fahrzeugs zwischen dem Erfassen des ersten Bildes und dem Erfassen des zweiten Bildes. Anders ausgedrückt werden das erste Bild und das zweite Bild nacheinander während einer Bewegung des Fahrzeugs erfasst. Ein Aufnahmewinkel und ein Aufnahmeausschnitt des ersten und zweiten Beides sind bezogen auf das Fahrzeug gleich. Das erste Bild und das zweite Bild können also beispielsweise mit Hilfe einer an dem Fahrzeug fest angebrachten Kamera erfasst werden. Das Bestimmender Bewegung des Fahrzeugs zwischen dem Erfassendes ersten Bildes und dem Erfassen des zweiten Bildes kann beispielsweise auf Odometriedaten des Fahrzeugs, beispielsweise einer zwischen dem Erfassen des ersten Bildes und dem Erfassen des zweiten Bildes zurückgelegten Wegstrecke und dabei eingestelltem Lenkwinkel, bestimmt werden. In Abhängigkeit von dem ersten Bild, dem zweiten Bild und der Bewegung des Fahrzeugs zwischen dem Erfassen des ersten Bildes und dem Erfassen des zweiten Bildes wird die erste Umgebungsinformation bestimmt. Die Bestimmung der ersten Umgebungsinformation kann beispielsweise mit Hilfe eines in dem Stand der Technik bekannten Structure-from-Motion-Verfahren (SfM) bestimmt werden, welches eine Menge von 3D-Punkten auf rein statischen Objekten mit hoher Genauigkeit liefert.According to one embodiment, determining the first environmental information comprises acquiring a first image of the surroundings of the vehicle, acquiring a second image of the surroundings of the vehicle, and determining movement of the vehicle between acquiring the first image and acquiring the second image. In other words, the first image and the second image are sequentially detected during movement of the vehicle. A take-up angle and a take-up detail of the first and second both are the same with respect to the vehicle. The first image and the second image can thus be detected, for example, by means of a camera fixedly attached to the vehicle. The determination of the movement of the vehicle between the detection of the first image and the detection of the second image can be determined for example on odometry data of the vehicle, for example a distance covered between the detection of the first image and the detection of the second image and the steering angle set. Depending on the first image, the second image and the movement of the vehicle between the detection of the first image and the detection of the second image, the first environmental information is determined. The determination of the first environment information may be determined, for example, by means of a structure-from-motion (SfM) method known in the art, which provides a set of 3D points on purely static objects with high accuracy.
Gemäß einer weiteren Ausführungsform wird das Bestimmen der zweiten Umgebungsinformation durchgeführt, indem ein erstes Bild der Umgebung des Fahrzeugs erfasst wird und ein zweites Bild der Umgebung des Fahrzeugs erfasst wird. Es können auch die zur Bestimmung der ersten Umgebungsinformation erfassten Bilder verwendet werden. In Abhängigkeit von dem ersten Bild und dem zweiten Bild wird ein Differenzbild bestimmt, indem einem Bildpunkt des Differenzbildes ein Differenzwert zwischen einem Wert eines Bildpunktes des ersten Bildes und einem Wert eines Bildpunktes des zweiten Bildes zugeordnet wird. Die zweite Umgebungsinformation wird in Abhängigkeit von dem Differenzbild bestimmt. Da sich das Fahrzeug zwischen dem Erfassen des ersten Bildes und dem Erfassen des zweiten Bildes bewegen kann und somit die Perspektiven des ersten Bildes und des zweiten Bildes unterschiedlich sind, kann das Differenzbild bestimmt werden, indem in dem ersten Bild mindestens ein Fahrbahnmerkmal bestimmt wird und das Fahrbahnmerkmal zusätzlich in dem zweiten Bild bestimmt wird. Auf der Grundlage des zweiten Bildes wird ein drittes Bild derart erzeugt, dass das mindestens eine Fahrbahnmerkmal in dem dritten Bild an der gleichen Position wie in dem ersten Bild angeordnet ist. Anders ausgedrückt wird das dritte Bild erzeugt, indem das zweite Bild derart verschoben wird, dass es bezüglich dem Fahrbahnmerkmal mit dem ersten Bild korrespondiert. Für eine möglichst genaue Schätzung der Fahrbahnebene können beispielsweise vier oder mehr Fahrbahnmerkmale verwendet werden, oder das mindestens eine Fahrbahnmerkmal kann vier oder mehr signifikante Teilmerkmale aufweisen, die durch verschieben des zweiten Bildes zu dem ersten Bild ausgerichtet werden. Das Differenzbild wird schließlich bestimmt, indem einem Bildpunkt des Differenzbildes ein Differenzwert zwischen einem Wert eines Bildpunktes des ersten Bildes und einem Wert eines entsprechenden Bildpunktes des dritten Bildes zugeordnet wird. Bewegte Objekte weisen in dem ersten Bild und in dem zweiten Bild (und somit auch in dem dritten Bild) eine unterschiedliche Position auf. In dem Differenzbild ergeben sich somit Differenzwerte ungleich Null für Bildpunkte, welche dem bewegten Objekt entsprechen. Statische Objekte weisen in Abhängigkeit ihrer perspektivischen Läge zu der Fahrbahn ebenfalls unterschiedliche Positionen im ersten und zweiten Bild (und somit auch im dritten Bild) auf. Lediglich die Fahrbahn selbst ist in dem ersten und dritten Bild im Wesentlichen identisch, so dass in dem Differenzbild an den Stellen ein Objekt angezeigt wird, an denen der Differenzwert im Wesentlichen ungleich Null ist. Eine Unterscheidung zwischen statischen und dynamischen Objekten ist in dem Differenzbild hingegen nicht möglich. Dafür ist das Differenzbild auf einfache Art und Weise berechenbar, indem jedem Bildpunkt ein Differenzwert entsprechender Bildpunkte des ersten und dritten Bildes zugeordnet wird.In accordance with a further embodiment, the determination of the second environment information is performed by acquiring a first image of the surroundings of the vehicle and acquiring a second image of the surroundings of the vehicle. It is also possible to use the images acquired to determine the first environment information. Depending on the first image and the second image, a difference image is determined by assigning a pixel of the difference image a difference value between a value of a pixel of the first image and a value of a pixel of the second image. The second environment information is determined depending on the difference image. Since the vehicle can move between the detection of the first image and the detection of the second image and thus the perspectives of the first image and the second image are different, the difference image can be determined by determining at least one lane feature in the first image and the Track feature is additionally determined in the second image. Based on the second image, a third image is formed such that the at least one lane feature in the third image is located at the same position as in the first image. In other words, the third image is generated by shifting the second image to correspond to the first image with respect to the lane feature. For example, four or more lane features may be used for the most accurate estimate of the lane plane, or the at least one lane feature may have four or more significant sub-features that are aligned by shifting the second image to the first image. The difference image is finally determined by assigning to a pixel of the difference image a difference value between a value of a pixel of the first image and a value of a corresponding pixel of the third image. Moving objects have a different position in the first image and in the second image (and thus also in the third image). In the differential image, therefore, difference values not equal to zero result for pixels which correspond to the moving object. Static objects also have different positions in the first and second image (and thus also in the third image) as a function of their perspective position relative to the roadway. Only the lane itself is substantially identical in the first and third images, so that in the difference image at the locations an object is displayed at which the difference value is substantially nonzero. A distinction between static and dynamic objects, however, is not possible in the difference image. For this purpose, the difference image can be calculated in a simple way by assigning to each pixel a difference value of corresponding pixels of the first and third images.
Durch Kombinieren der beiden Verfahren können Positionsinformationen von Objekten der zweiten Umgebungsinformation auf der Basis der ersten Umgebungsinformation in statische und dynamische Objekte unterschieden werden.By combining the two methods, position information of objects of the second environment information can be distinguished into static and dynamic objects based on the first environment information.
Vorzugsweise umfassen das erste Bild und das zweite Bild jeweils eine Draufsicht eines Fahrbahnbereichs hinter dem Fahrzeug. Eine derartige Draufsicht kann beispielsweise mit Hilfe einer Parkkamera, welche beispielsweise an einer Rückseite des Fahrzeugs angebracht ist und ein entsprechendes Weitwinkelobjektiv aufweist, erfasst werden.Preferably, the first image and the second image each comprise a plan view of a roadway area behind the vehicle. Such a top view can be detected, for example, with the aid of a parking camera, which is attached, for example, to a rear side of the vehicle and has a corresponding wide-angle lens.
Gemäß einer weiteren Ausführungsform wird eine Information an einen Fahrer des Fahrzeugs in Abhängigkeit von den Positionsinformationen der dynamischen Objekte ausgegeben. Darüber hinaus kann eine weitere Information in Abhängigkeit von den Positionsinformationen der statischen Objekte an den Fahrer des Fahrzeugs ausgegeben werden. Vorzugsweise werden in Abhängigkeit davon, ob statische oder dynamische Objekte in der Umgebung des Fahrzeugs erfasst werde, unterschiedliche Informationen an den Fahrer ausgegeben, beispielsweise eine akustische Warnung bei dynamischen Objekten und eine optische Warnung bei statischen Objekten. Dadurch kann der Fahrer bei einer drohenden Kollision mit beispielsweise einem Fußgänger besonders intensiv gewarnt werden, wohingegen eine drohende Kollision mit einem statischen Objekt, beispielsweise einem Pfosten, lediglich über eine entsprechende Anzeigevorrichtung dargestellt wird.According to a further embodiment, information is output to a driver of the vehicle in dependence on the position information of the dynamic objects. In addition, further information may be output to the driver of the vehicle depending on the position information of the static objects. Preferably, depending on whether there are static or dynamic objects in the environment the vehicle is detected, different information output to the driver, such as an audible warning of dynamic objects and an optical warning of static objects. As a result, the driver can be particularly intensively warned in the event of an imminent collision with, for example, a pedestrian, whereas an imminent collision with a static object, for example a post, is only displayed via a corresponding display device.
Gemäß der vorliegenden Erfindung wird ferner ein Fahrerassistenzsystem bereitgestellt, welches eine Kamera und eine Verarbeitungseinheit umfasst. Die Kamera ist in der Lage, Bilder einer Umgebung des Fahrzeugs, insbesondere eines Rückraums des Fahrzeugs in einer Draufsicht, zu erfassen. Die Verarbeitungseinheit ist ausgestaltet, in Abhängigkeit von den erfassten Bildern eine erste Umgebungsinformation zu bestimmen, welche Positionsinformationen von statischen Objekten in der Umgebung aufweist, und in Abhängigkeit von den erfassten Bildern eine zweite Umgebungsinformation zu bestimmen, welche Positionsinformationen von statischen und dynamischen Objekten in der Umgebung aufweist. Weiterhin ist die Verarbeitungseinheit in der Lage, in Abhängigkeit von der ersten Umgebungsinformation und der zweiten Umgebungsinformation Positionsinformationen von dynamischen Objekten in der Umgebung zu bestimmen. Das Fahrerassistenzsystem ist somit zur Durchführung des zuvor beschriebenen Verfahrens und seiner Ausführungsformen ausgestaltet und umfasst daher auch die zuvor beschriebenen Vorteile.According to the present invention there is further provided a driver assistance system comprising a camera and a processing unit. The camera is able to capture images of an environment of the vehicle, in particular a rear space of the vehicle in a plan view. The processing unit is configured to determine depending on the captured images a first environment information having position information of static objects in the environment, and depending on the captured images, to determine second environmental information which position information of static and dynamic objects in the environment having. Furthermore, the processing unit is able to determine position information of dynamic objects in the environment in dependence on the first environment information and the second environment information. The driver assistance system is thus designed to carry out the method described above and its embodiments, and therefore also includes the advantages described above.
Gemäß der vorliegenden Erfindung wird schließlich ein Fahrzeug mit einem Fahrerassistenzsystem, wie es zuvor beschrieben wurde, bereitgestellt. Mit Hilfe des Fahrerassistenzsystems kann einem Fahrer des Fahrzeugs eine zuverlässige Information über dynamische Objekte in der Umgebung des Fahrzeugs, insbesondere in einem Rückraum des Fahrzeugs beim Rangieren und Einparken, gegeben werden, wodurch eine Kollisionsgefahr mit einem dynamischen Objekt, beispielsweise einem Fußgänger, vermindert werden kann.Finally, according to the present invention, a vehicle having a driver assistance system as described above is provided. With the aid of the driver assistance system, reliable information about dynamic objects in the surroundings of the vehicle, in particular in a rear space of the vehicle when maneuvering and parking, can be given to a driver of the vehicle, whereby a risk of collision with a dynamic object, for example a pedestrian, can be reduced ,
Die vorliegende Erfindung wird nachfolgend unter Bezugnahme auf die beigefügten Zeichnungen im Detail beschrieben werden.The present invention will be described below in detail with reference to the accompanying drawings.
In Schritt
Das zuvor beschriebene Verfahren wird nachfolgend an einem Beispiel unter Bezugnahme auf die
Das erste und das zweite erfasste Bild werden der Differenzbildanalyse
Zusammenfassend stellt die Differenzbildanalyse
Das erste und das zweite Kamerabild werden dem Structure-from-Motion-Verfahren
Statt der zuvor beschriebenen Differenzbildanalyse auf der Grundlage des ersten Bildes und des zweiten Bildes kann auch eine Bestimmung einer Umgebungsinformation auf der Grundlage von Ultraschallsignalen verwendet werden. Bei einer Hinderniserkennung mit Ultraschallsignalen können ebenfalls bewegte und statische Hindernisse erkannt, aber nicht unterschieden werden. Diese Unterscheidung kann jedoch mit Hilfe des ersten und zweiten Bildes und dem Structure-from-Motion-Verfahren durchgeführt werden.Instead of the above-described difference image analysis on the basis of the first image and the second image, it is also possible to use a determination of environmental information on the basis of ultrasound signals. In obstacle detection with ultrasonic signals, moving and static obstacles can also be detected, but not differentiated. However, this distinction can be made using the first and second images and the structure-from-motion technique.
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- DE 102009012917 A1 [0003] DE 102009012917 A1 [0003]
- DE 102009023326 A1 [0004] DE 102009023326 A1 [0004]
- DE 102009057336 A1 [0005] DE 102009057336 A1 [0005]
- DE 102007022524 A1 [0006] DE 102007022524 A1 [0006]
- DE 102007053311 A1 [0007] DE 102007053311 A1 [0007]
- DE 69633202 T2 [0008] DE 69633202 T2 [0008]
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102011113099A DE102011113099A1 (en) | 2011-09-09 | 2011-09-09 | Method for determining e.g. wall in rear area of passenger car during parking, involves determining surroundings information, and determining positional information of dynamic objects in surroundings based on two surroundings information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102011113099A DE102011113099A1 (en) | 2011-09-09 | 2011-09-09 | Method for determining e.g. wall in rear area of passenger car during parking, involves determining surroundings information, and determining positional information of dynamic objects in surroundings based on two surroundings information |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102011113099A1 true DE102011113099A1 (en) | 2013-03-14 |
Family
ID=47740117
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102011113099A Pending DE102011113099A1 (en) | 2011-09-09 | 2011-09-09 | Method for determining e.g. wall in rear area of passenger car during parking, involves determining surroundings information, and determining positional information of dynamic objects in surroundings based on two surroundings information |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102011113099A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017209427B3 (en) | 2017-06-02 | 2018-06-28 | Volkswagen Aktiengesellschaft | Device for driving safety hoses |
DE102014111187B4 (en) | 2013-08-09 | 2022-03-24 | GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) | vehicle path assessment |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69633202T2 (en) | 1995-04-17 | 2005-01-13 | Honda Giken Kogyo K.K. | Automatic course control system for a vehicle |
DE102007022524A1 (en) | 2007-05-14 | 2008-11-20 | Bayerische Motoren Werke Aktiengesellschaft | motor vehicle |
DE102007053311A1 (en) | 2007-06-21 | 2008-12-24 | Robert Bosch Gmbh | Drive system for a robotic vehicle |
DE102009012917A1 (en) | 2008-03-18 | 2009-09-24 | Denso Corporation, Kariya-City | Obstacle detection device for vehicles |
DE102009023326A1 (en) | 2008-06-04 | 2010-02-04 | Mando Corp., Pyeongtaek | Apparatus and method for detecting a critical area and pedestrian detection apparatus using the same |
DE102009057336A1 (en) | 2008-12-12 | 2010-07-22 | Technische Universität München | Device for monitoring spatial area outside car, has processing unit containing information about static object and about objects and persons within spatial area, so that display unit generates alert and controls actuation of vehicle door |
-
2011
- 2011-09-09 DE DE102011113099A patent/DE102011113099A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69633202T2 (en) | 1995-04-17 | 2005-01-13 | Honda Giken Kogyo K.K. | Automatic course control system for a vehicle |
DE102007022524A1 (en) | 2007-05-14 | 2008-11-20 | Bayerische Motoren Werke Aktiengesellschaft | motor vehicle |
DE102007053311A1 (en) | 2007-06-21 | 2008-12-24 | Robert Bosch Gmbh | Drive system for a robotic vehicle |
DE102009012917A1 (en) | 2008-03-18 | 2009-09-24 | Denso Corporation, Kariya-City | Obstacle detection device for vehicles |
DE102009023326A1 (en) | 2008-06-04 | 2010-02-04 | Mando Corp., Pyeongtaek | Apparatus and method for detecting a critical area and pedestrian detection apparatus using the same |
DE102009057336A1 (en) | 2008-12-12 | 2010-07-22 | Technische Universität München | Device for monitoring spatial area outside car, has processing unit containing information about static object and about objects and persons within spatial area, so that display unit generates alert and controls actuation of vehicle door |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014111187B4 (en) | 2013-08-09 | 2022-03-24 | GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) | vehicle path assessment |
DE102017209427B3 (en) | 2017-06-02 | 2018-06-28 | Volkswagen Aktiengesellschaft | Device for driving safety hoses |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3183721B1 (en) | Method and axle-counting device for contact-free axle counting of a vehicle and axle-counting system for road traffic | |
DE102016106298B4 (en) | Fusion method for a cross-traffic application using radar devices and a camera | |
DE102015105248B4 (en) | Method and system for generating an image of the surroundings of an articulated vehicle | |
DE102016106299A1 (en) | Wheel detection and its application for object tracking and sensor registration | |
DE102017108254B4 (en) | All-round camera system for object recognition and tracking and method for equipping a vehicle with a panoramic camera system | |
DE102014107917A1 (en) | A method and apparatus for avoiding a collision of a vehicle comprising a motor vehicle and a trailer with an obstacle | |
DE102016100030A1 (en) | DEVICE FOR SAFE RIDING OF A VEHICLE | |
DE102015223176A1 (en) | Method and device for determining occlusion areas in the vehicle environment of a vehicle | |
EP3044727B1 (en) | Method and device for detecting objects from depth-resolved image data | |
EP2788968A1 (en) | Method and vehicle assistance system for active warning and/or for navigation aid for preventing a collision of a vehicle body part and/or a vehicle wheel with an object | |
DE102015206546A1 (en) | Road marking recognition device | |
DE102012018112A1 (en) | Method for determining the orientation of a parking space, parking assistance system and motor vehicle | |
DE102020109279A1 (en) | TRAILER ALIGNMENT SYSTEM AND PROCEDURE | |
DE102015116542A1 (en) | Method for determining a parking area for parking a motor vehicle, driver assistance system and motor vehicle | |
EP3477249B1 (en) | Method for shape recognition of an object in an external area of a motor vehicle and motor vehicle | |
DE102014111012A1 (en) | A method for assisting a driver of a motor vehicle when parking out, driver assistance system and motor vehicle | |
DE102016104730A1 (en) | Method for detecting an object along a road of a motor vehicle, computing device, driver assistance system and motor vehicle | |
EP3857532A1 (en) | Method for evaluating an effect of an object in the surroundings of a means of transport on a driving manoeuvre of the means of transport | |
DE102008025773A1 (en) | Local and movement conditions estimating method for observed object i.e. vehicle, involves determining distance, detecting shifting of portion of object, and estimating parameter of local and movement condition | |
DE102010013093A1 (en) | Method for creating model of surrounding area of motor vehicle i.e. car, involves determining whether card cells are loaded with object represented by three- dimensional structures | |
EP1944212B1 (en) | Method and device for recognising potentially dangerous objects for a vehicle | |
DE102011113099A1 (en) | Method for determining e.g. wall in rear area of passenger car during parking, involves determining surroundings information, and determining positional information of dynamic objects in surroundings based on two surroundings information | |
WO2019162327A2 (en) | Method for determining a distance between a motor vehicle and an object | |
EP3520020B1 (en) | Road sign classification in a surrounding area of a motor vehicle | |
DE102013010233B4 (en) | A method of displaying environmental information in a vehicle and a display system for a vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R163 | Identified publications notified |
Effective date: 20131030 |
|
R012 | Request for examination validly filed |
Effective date: 20131116 |
|
R016 | Response to examination communication | ||
R016 | Response to examination communication |