DE102010013093A1 - Method for creating model of surrounding area of motor vehicle i.e. car, involves determining whether card cells are loaded with object represented by three- dimensional structures - Google Patents

Method for creating model of surrounding area of motor vehicle i.e. car, involves determining whether card cells are loaded with object represented by three- dimensional structures Download PDF

Info

Publication number
DE102010013093A1
DE102010013093A1 DE102010013093A DE102010013093A DE102010013093A1 DE 102010013093 A1 DE102010013093 A1 DE 102010013093A1 DE 102010013093 A DE102010013093 A DE 102010013093A DE 102010013093 A DE102010013093 A DE 102010013093A DE 102010013093 A1 DE102010013093 A1 DE 102010013093A1
Authority
DE
Germany
Prior art keywords
camera
environment
vehicle
images
structures
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102010013093A
Other languages
German (de)
Inventor
Dr. Graf Thorsten
Daniel Mossau
Wojciech Waclaw Derendarz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102010013093A priority Critical patent/DE102010013093A1/en
Publication of DE102010013093A1 publication Critical patent/DE102010013093A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • G01C11/12Interpretation of pictures by comparison of two or more pictures of the same area the pictures being supported in the same relative position as when they were taken
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)

Abstract

The method involves detecting surrounding area of a car (10) in travel direction of the car by utilizing a camera i.e. mono camera, and producing multiple images of the surrounding area. Three-dimensional structures and position of the car in the surrounding area are detected through the images. A movement of the structures within an image sequence is tracked. Information is transmitted via the structures into a two-dimensional cell-based card. The information allocated to cells of the card is determined whether the cells are loaded with an object (1) represented by the structures. An independent claim is also included for a system for creating a model of a surrounding area of a car.

Description

Die vorlegende Erfindung betrifft ein Verfahren und ein System zur Fahrzeugumfeldrekonstruktion mittels einer Kamera sowie eine entsprechend ausgestaltetes Fahrzeug.The present invention relates to a method and a system for vehicle environment reconstruction by means of a camera as well as a correspondingly configured vehicle.

Nach dem Stand der Technik sind zum einen Verfahren bekannt, um mittels einer Kamera aus einem fahrenden Fahrzeug heraus Verkehrszeichen zu erfassen; siehe dazu DE 10 2007 021 576 A1 oder EP 2 048 618 A1 . Darüber hinaus ist es aus der DE 10 2006 039 104 A1 bekannt, eine Entfernungsmessung von Objekten auf der Grundlage von Bilddaten eines Kamerasystems vorzunehmen. Die DE 10 2006 055 908 A1 offenbart ein Verfahren zur automatischen Fernlichtsteuerung von Kraftfahrzeugscheinwerfern basierend auf einem Kamerasensor, mit welchem die Fahrzeugumgebung überwacht wird.According to the prior art, a method is known for detecting traffic signs from a moving vehicle by means of a camera; see DE 10 2007 021 576 A1 or EP 2 048 618 A1 , In addition, it is from the DE 10 2006 039 104 A1 is known to make a distance measurement of objects based on image data of a camera system. The DE 10 2006 055 908 A1 discloses a method for automatic high beam control of automotive headlights based on a camera sensor with which the vehicle environment is monitored.

Die vorliegende Erfindung stellt sich die Aufgabe, ein Modell eines Umfelds eines Fahrzeugs zu erstellen, welches dieses Umfeld genauer beschreibt, als es nach dem Stand der Technik möglich ist.The object of the present invention is to create a model of an environment of a vehicle, which describes this environment in more detail than is possible according to the prior art.

Erfindungsgemäß wird diese Aufgabe durch ein Verfahren zur Erstellung eines Modells eines Umfelds eines Fahrzeugs nach Anspruch 1, durch ein System zur Erstellung eines Modells eines Umfelds eines Fahrzeugs nach Anspruch 11 und durch ein Fahrzeug nach Anspruch 13 gelöst. Die abhängigen Ansprüche definieren bevorzugte und vorteilhafte Ausführungsformen der vorliegenden Erfindung.According to the invention, this object is achieved by a method for creating a model of an environment of a vehicle according to claim 1, by a system for creating a model of an environment of a vehicle according to claim 11 and by a vehicle according to claim 13. The dependent claims define preferred and advantageous embodiments of the present invention.

Im Rahmen der vorliegenden Erfindung wird ein Verfahren zur Erstellung eines Modells eines Umfelds eines Fahrzeugs bereitgestellt. Dabei wird mit Hilfe einer Kamera, insbesondere einer Monokamera, das Umfeld in Fahrtrichtung des Fahrzeugs erfasst und mehrere Bilder dieses Umfelds mittels der Kamera erzeugt. Über diese Bilder werden dreidimensionale Strukturen und deren Position innerhalb des Umfelds bestimmt, indem beispielsweise mit Bildverarbeitungsalgorithmen die Bewegung dieser Strukturen oder der diese Strukturen ausbildenden Pixel innerhalb einer Bildsequenz verfolgt wird, welche aus den mehreren Bildern besteht. Dabei werden Informationen über diese dreidimensionalen Strukturen oder der diese Strukturen beschreibenden 3D-Punkte in eine zweidimensionale in Zellen unterteilte Belegungskarte bzw. Umfeldkarte eingetragen, wobei diese Belegungskarte eine zweidimensionale Diskretisierung des Fahrzeugumfelds darstellt. Dabei wird jeder Zelle der Belegungskarte eine Information zugewiesen, ob die entsprechende Zelle mit einem durch die Strukturen repräsentierten Objekt belegt ist. Dies kann beispielweise über Wahrscheinlichkeitswerte erfolgen, welche diesen Zellen zugewiesen werden und welche einen Wert für eine Wahrscheinlichkeit angeben, mit welcher die entsprechende Zelle mit einem Objekt belegt ist.In the context of the present invention, a method for creating a model of an environment of a vehicle is provided. In this case, with the help of a camera, in particular a monocamera, the environment in the direction of travel of the vehicle is detected and several images of this environment generated by means of the camera. These images are used to determine three-dimensional structures and their position within the environment, for example by using image processing algorithms to track the movement of these structures or of the pixels forming these structures within an image sequence which consists of the multiple images. In this case, information about these three-dimensional structures or the 3D points describing these structures is entered in a two-dimensional occupancy map or environment map subdivided into cells, this occupancy map representing a two-dimensional discretization of the vehicle surroundings. In this case, each cell of the occupancy card is assigned an information as to whether the corresponding cell is occupied by an object represented by the structures. This can be done, for example, via probability values which are assigned to these cells and which indicate a value for a probability with which the corresponding cell is occupied by an object.

Mit anderen Worten werden in einem ersten Schritt des erfindungsgemäßen Verfahrens beispielsweise mittels eines Ansatzes wie ”Structure from Motion” bestimmte Strukturen und dadurch bestimmte Objekte samt ihrer Position in dem Umfeld des Fahrzeugs erfasst, während in einem zweiten Schritt Informationen über diese Strukturen oder Objekte in eine Karte übertragen werden, in welcher für die Ebene, auf welcher sich das Fahrzeug bewegt, freie und belegte Flächen vorhanden sind. Dabei wird unter einer belegten Fläche oder Zelle eine Fläche bzw. Zelle verstanden, welche von einem Objekt belegt ist, während eine freie Fläche oder Zelle von keinem Objekt belegt ist.In other words, in a first step of the method according to the invention, for example by means of an approach such as "structure from motion" certain structures and thereby determined objects including their position in the environment of the vehicle detected, while in a second step information about these structures or objects in one Map are transferred, in which for the plane on which the vehicle moves, free and occupied areas are available. In this case, an occupied surface or cell is understood to mean an area or cell occupied by an object, while a free area or cell is not occupied by any object.

Die beispielsweise mittels ”Structure from Motion” bestimmten Strukturen und Objekte können auch in einer dreidimensionalen Karte bzw. einem dreidimensionalen Datensatz gespeichert werden, aus welchem dann die entsprechenden Informationen extrahiert und in die zweidimensionale Karte übertragen werden. Die Speicherung in der dreidimensionalen Karte weist den Vorteil auf, dass hier auch eine Höheninformation hinterlegt ist.The structures and objects determined for example by means of "structure from motion" can also be stored in a three-dimensional map or a three-dimensional data record, from which the corresponding information is then extracted and transmitted to the two-dimensional map. The storage in the three-dimensional map has the advantage that here also a height information is stored.

Mit dem erfindungsgemäßen Verfahren kann vorteilhafterweise eine Kollision des Fahrzeugs mit Objekten im Umfeld des Fahrzeugs vermieden werden.With the method according to the invention, advantageously a collision of the vehicle with objects in the environment of the vehicle can be avoided.

Zur Durchführung des erfindungsgemäßen Verfahrens wird die Kamera dabei insbesondere in Fahrtrichtung des Fahrzeugs ausgerichtet.To carry out the method according to the invention, the camera is thereby aligned, in particular in the direction of travel of the vehicle.

Indem die Kamera in der Fahrtrichtung des Fahrzeugs ausgerichtet ist, erfasst sie vorteilhafterweise genau den Bereich des Umfelds des Fahrzeugs, welchen das Fahrzeug demnächst durchfahren wird, welcher daher zur Kollisionsvermeidung am wichtigsten ist.By being oriented in the direction of travel of the vehicle, the camera advantageously detects precisely the area of the surroundings of the vehicle which the vehicle will soon pass through, which is therefore most important for collision avoidance.

Gemäß einer bevorzugten erfindungsgemäßen Ausführungsform wird das erfindungsgemäße Verfahren um eine Flächensegmentierung ergänzt. Dabei werden mit Hilfe von Bildverarbeitungsmittel Bildbereiche innerhalb der Bilder mit einer ähnlichen Farbe oder Struktur erfasst und somit das entsprechende Bild in Cluster oder Flächensegmente mit ähnlicher Farbe oder Struktur unterteilt oder segmentiert. Anschließend werden die freien Zellen (d. h. Zellen, bei welchen die Wahrscheinlichkeit für eine Belegung mit einem Objekt unterhalb eines vorbestimmten Schwellenwerts liegt) der Karte den jeweiligen Flächensegmenten zugewiesen. Flächensegmente, welche einen vorbestimmten Prozentsatz an freien Zellen umfassen, werden als freies Flächensegment betrachtet und demnach als eine zusammenhängende freie (d. h. von keinem Objekt belegte) Fläche zurück in die Belegungskarte eingetragen.According to a preferred embodiment of the invention, the method according to the invention is supplemented by a surface segmentation. In this case, image areas within the images with a similar color or structure are detected with the aid of image processing means and thus the corresponding image is subdivided or segmented into clusters or area segments with a similar color or structure. Subsequently, the free cells (ie, cells in which the probability of occupancy with an object is below a predetermined threshold) are assigned to the respective area segments of the map. Surfaces that include a predetermined percentage of free cells become a free area segment considered and thus entered as a contiguous free (ie occupied by any object) area back into the occupancy map.

Der Einsatz der Flächensegmentierung im Rahmen der vorlegenden Erfindung weist den Vorteil auf, dass einzelne falsche 3D-Messungen zuverlässig ausgefiltert werden.The use of area segmentation in the context of the present invention has the advantage that individual false 3D measurements are reliably filtered out.

Darüber hinaus hat es sich als vorteilhaft erwiesen, wenn aus den mehreren von der Kamera erfassten Bildern diejenigen Bilder ausgewählt werden, bei welchen sich die Kamera zwischen zwei aufeinanderfolgenden dieser ausgewählten Bilder bei der Aufnahme des entsprechenden Bildes um mehr als eine vorbestimmte Strecke bewegt hat. Mittels Triangulation wird dann für jedes dieser ausgewählten Bilder eine dreidimensionale Ortsbestimmung der Strukturen innerhalb des Umfelds durchgeführt.In addition, it has proved to be advantageous if, from the plurality of images captured by the camera, those images are selected in which the camera has moved by more than a predetermined distance between two successive of these selected images when the corresponding image was taken. Using triangulation, a three-dimensional localization of the structures within the environment is then carried out for each of these selected images.

Da sichergestellt ist, dass sich die Kamera zwischen derjenigen Stelle, an welcher die Kamera ein bestimmtes dieser ausgewählten oder auszuwertenden Bilder erfasst hat, und derjenigen Stelle, an welcher die Kamera das dem bestimmten Bild folgende auszuwertende Bild aufgenommen hat, zumindest um die vorbestimmte Strecke bewegt hat, ist der Abstand der Kamerapositionen bezüglich zwei zeitlich aufeinanderfolgenden auszuwertenden Bildern ausreichend groß, damit mittels der Triangulation entsprechend genaue Messergebnisse erzielt werden können.Since it is ensured that the camera moves between the point at which the camera has acquired a specific one of these selected or evaluated images, and the point at which the camera has taken the image to be evaluated following the specific image, at least by the predetermined distance has the distance of the camera positions with respect to two temporally successive images to be evaluated sufficiently large so that by means of triangulation correspondingly accurate measurement results can be achieved.

Insbesondere wird zur Verbesserung der Ergebnisse des erfindungsgemäßen Verfahrens eine Bewegung der Kamera möglichst genau erfasst. Dazu kann die Bewegung der Kamera zum einen anhand von Fahrzeugdaten, z. B. anhand von Daten eines Wegimpulsgebers, eines Gierratensensors oder Lenkradsensors des Fahrzeugs, erfasst werden. Zum anderen kann die Bewegung der Kamera anhand des optischen Flusses innerhalb der Bildsequenz unter Berücksichtigung entsprechender Einschränkungen, welche durch die epipolare Geometrie bezüglich der Bewegung der Strukturen innerhalb der Bildsequenz gegeben sind, rekonstruiert werden. Aus der derart ermittelten Bewegung der Kamera wird eine möglichst genaue jeweilige Position der Kamera für das jeweilige Bild bestimmt. Die Triangulation wird abhängig von den derart bestimmten Positionen der Kamera (genauer Position der Kamera relativ zur Position der Kamera bei dem vorherigen Bild) zur Ortsbestimmung der Strukturen innerhalb der Bilder durchgeführt.In particular, a movement of the camera is detected as accurately as possible in order to improve the results of the method according to the invention. For this purpose, the movement of the camera on the one hand based on vehicle data, eg. B. on the basis of data from a Wegimpulsgebers, a yaw rate sensor or steering wheel sensor of the vehicle detected. On the other hand, the movement of the camera can be reconstructed on the basis of the optical flow within the image sequence taking into account corresponding restrictions which are given by the epipolar geometry with regard to the movement of the structures within the image sequence. From the thus determined movement of the camera as accurate as possible respective position of the camera is determined for each image. The triangulation is performed depending on the thus determined positions of the camera (exact position of the camera relative to the position of the camera in the previous image) for locating the structures within the images.

Durch eine derartige Bestimmung der Bewegung der Kamera können auch entsprechende Nick- und Wankbewegungen des Fahrzeugs (und damit der Kamera) entsprechend berücksichtigt werden, so dass die Ergebnisse des erfindungsgemäßen Verfahrens durch diese Nick- und Wankbewegungen vorteilhafterweise nicht verfälscht werden.By such a determination of the movement of the camera, corresponding pitching and rolling movements of the vehicle (and thus of the camera) can be taken into account accordingly, so that the results of the method according to the invention are advantageously not distorted by these pitching and rolling movements.

Der optische Fluss wird dabei insbesondere über ein so genanntes dichtes Verfahren bestimmt, bei welchem für jedes Pixel eines bestimmten Bildes ein Geschwindigkeitsvektor bestimmt wird, welcher angibt, in welcher Richtung und mit welcher Geschwindigkeit sich das jeweilige Pixel von dem bestimmten Bild zu einem entsprechenden Pixel in einem zeitlich folgenden Bild bewegt. Anders ausgedrückt wird unter einem optischen Fluss in der Bildverarbeitung ein Vektorfeld verstanden, welches die Bewegungsrichtung und -Geschwindigkeit für jeden Bildpunkt (Pixel) einer Bildsequenz angibt. Der optische Fluss kann demnach als die auf die Bildebene projizierten Geschwindigkeitsvektoren von sichtbaren Objekten verstanden werden.The optical flow is determined in particular via a so-called dense process in which a velocity vector is determined for each pixel of a specific image, which indicates in which direction and at what speed the respective pixel from the particular image to a corresponding pixel in a temporally following picture moves. In other words, an optical flow in image processing is understood to mean a vector field which indicates the direction of movement and the speed for each pixel of an image sequence. The optical flow can therefore be understood as the velocity vectors of visible objects projected onto the image plane.

Der Einsatz eines dichten Verfahrens zur Bestimmung des optischen Flusses erhöht die Datendichte und damit die Robustheit des Verfahrens.The use of a dense method for determining the optical flow increases the data density and thus the robustness of the method.

Darüber hinaus ist es möglich, dass eine oder mehrere weitere Kameras zur Erfassung des Umfelds des Fahrzeugs eingesetzt werden. Diese eine oder diese mehreren Kameras werden vorteilhafterweise an einer anderen Stelle als die vorab erwähnte Kamera an dem Fahrzeug befestigt und erzeugen, in ähnlicher Weise wie die vorab erwähnte Kamera, mehrere Bilder des Umfelds. Mittels dieser Bilder kann zum Beispiel die Bewegung der vorab erwähnten Kamera abgeschätzt werden, so dass die Bestimmung der Bewegung der Kamera mittels der einen oder der mehreren weiteren Kameras weiter verbessert werden kann.In addition, it is possible that one or more additional cameras are used to detect the surroundings of the vehicle. These one or more cameras are advantageously attached to the vehicle at a location other than the aforementioned camera and, in a manner similar to the aforementioned camera, produce a plurality of images of the environment. By means of these images, for example, the movement of the aforementioned camera can be estimated, so that the determination of the movement of the camera by means of the one or more further cameras can be further improved.

Die vorliegende Erfindung kann auch eine so genannte Top-View-Kamera-Konfiguration einsetzen, bei welcher jeweils eine Kamera nach vorn, nach hinten, nach rechts und nach hinten (bezüglich des Fahrzeugs) gerichtet ist. Damit lässt sich das Umfeld rund um das Fahrzeug erfassen.The present invention may also employ a so-called top-view camera configuration in which one camera is directed forward, backward, rightward, and rearward (with respect to the vehicle). This allows the environment around the vehicle to be captured.

Durch die Nutzung einer solchen Mehr-Kamera-Konfiguration (d. h. einer Konfiguration, welche neben der vorab erwähnten Kamera noch eine oder mehrere weitere Kameras umfasst) lässt sich die Bewegung der vorab erwähnten Kamera robuster und genauer abschätzen, wodurch die Qualität der Erstellung des Umfeldmodels verbessert werden kann.By using such a multi-camera configuration (ie, a configuration that includes one or more additional cameras in addition to the aforementioned camera), the movement of the aforementioned camera can be estimated more robustly and accurately, thereby improving the quality of creating the surrounding model can be.

Eine weitere erfindungsgemäße Erweiterung besteht darin, mittels Ultraschallwellen-Sensoren Informationen über Objekte in dem Umfeld des Fahrzeugs zu erfassen und auf Grundlage dieser Informationen den Informationsgehalt der Belegungskarte zu verbessern.A further extension according to the invention is to detect information about objects in the surroundings of the vehicle by means of ultrasonic wave sensors and to improve the information content of the occupancy map on the basis of this information.

Durch diese Kopplung des erfindungsgemäßen Verfahrens mit von Ultraschall-Sensoren erfassten Informationen lässt sich vorteilhafterweise die Robustheit des erfindungsgemäßen Verfahrens erhöhen. By virtue of this coupling of the method according to the invention with information acquired by ultrasonic sensors, the robustness of the method according to the invention can advantageously be increased.

Das erfindungsgemäße Verfahren kann beispielsweise automatisiert in einem Kollisionsüberwachungssystem des Fahrzeugs durchgeführt werden. Dabei wird unter einem Kollisionsüberwachungssystem zum einen eine Einparkunterstützung (z. B. bei teil- oder vollautomatischen Einparkvorgängen z. B. in eine Garage) und zum anderen Erweiterungen eines Spurhalteassistenten (Heading Control, Lane-Assist) beispielsweise im Baustellenbereich durch Erfassen der Leitplanke verstanden. Darüber hinaus ist eine Ersetzung der PDC-Sensoren (Park Distance Control) durch Kameras mittels der vorliegenden Erfindung denkbar, wobei allerdings erfindungsgemäß mehrere Kameras eingesetzt werden sollten, um auch bei stillstehendem Fahrzeug eine möglichst genaue Erfassung des Umfelds zu gewährleisten.The method according to the invention can be carried out, for example, automatically in a collision monitoring system of the vehicle. In this context, a collision monitoring system is understood to mean on the one hand a parking assistance (eg in partially or fully automatic parking processes, eg in a garage) and on the other extensions of a lane assist (heading control, lane assist), for example in the construction site area, by detecting the guardrail , In addition, a replacement of the PDC sensors (Park Distance Control) by cameras by means of the present invention conceivable, although according to the invention, multiple cameras should be used to ensure the most accurate detection of the environment even when the vehicle is stationary.

Im Rahmen der vorliegenden Erfindung wird auch ein System zur Erstellung eines Modells eines Umfelds eines Fahrzeugs bereitgestellt. Dabei umfasst das System eine Kamera zur Erfassung des Umfelds des Fahrzeugs in Fahrtrichtung und eine Steuerung. Die Steuerung steuert die Kamera derart an, dass die Kamera mehrere Bilder des Umfelds des Fahrzeugs erzeugt. Die Steuerung ist derart ausgestaltet, dass die Steuerung ausgehend von diesen Bildern dreidimensionale Strukturen und deren Position in dem Umfeld erfasst, indem die Steuerung eine Bewegung dieser Strukturen innerhalb einer aus den mehreren Bildern bestehenden Bildsequenz verfolgt. Die Steuerung überträgt Informationen über die Strukturen in eine zweidimensionale zellenbasierte Karte des Umfelds, wobei die Steuerung jeder Zelle der Karte die Information zuweist, ob diese Zelle mit einem durch die Strukturen repräsentierten Objekt belegt ist oder nicht.In the context of the present invention, a system is also provided for creating a model of an environment of a vehicle. The system includes a camera for detecting the environment of the vehicle in the direction of travel and a controller. The controller controls the camera in such a way that the camera generates several images of the surroundings of the vehicle. The controller is designed in such a way that the controller, on the basis of these images, detects three-dimensional structures and their position in the environment by the controller tracking a movement of these structures within an image sequence consisting of the multiple images. The controller transfers information about the structures into a two-dimensional cell-based map of the environment, the controller assigning information to each cell of the map as to whether that cell is occupied by an object represented by the structures or not.

Die Vorteile des erfindungsgemäßen Systems entsprechen im Wesentlichen den Vorteilen des erfindungsgemäßen Verfahrens, welche vorab im Detail ausgeführt worden sind, so dass hier auf eine Wiederholung verzichtet wird.The advantages of the system according to the invention essentially correspond to the advantages of the method according to the invention, which have been carried out in detail in advance, so that a repetition is dispensed with here.

Schließlich wird im Rahmen der vorliegenden Erfindung ein Fahrzeug mit einem erfindungsgemäßen System bereitgestellt.Finally, in the context of the present invention, a vehicle is provided with a system according to the invention.

Die vorliegende Erfindung ist insbesondere für eine Kollisionsvermeidung für ein Fahrzeug geeignet. Selbstverständlich ist die vorliegende Erfindung nicht auf diesen bevorzugten Anwendungsbereich eingeschränkt, da die vorliegende Erfindung auch bei Schiffen, Flugzeugen oder gleisgebundenen Fahrzeugen eingesetzt werden könnte.The present invention is particularly suitable for collision avoidance for a vehicle. Of course, the present invention is not limited to this preferred application, since the present invention could be applied to ships, airplanes, or track-bound vehicles.

Im Folgenden wird die vorliegende Erfindung anhand von erfindungsgemäßen Ausführungsformen im Detail mit Bezug zu den Figuren erläutert.In the following, the present invention will be explained in detail by means of embodiments according to the invention with reference to the figures.

Mit 1 wird dargestellt, wie das Verfahren ”Structure from Motion” arbeitet.With 1 it shows how the method "Structure from Motion" works.

In 2 ist ein Beispiel für eine mittels des optischen Flusses erfassten Bewegung dargestellt.In 2 an example of a movement detected by the optical flow is shown.

Mit 3 ist dargestellt, welche Bilder einer Sequenz für eine dreidimensionale Rekonstruktion ausgewählt werden.With 3 It shows which images of a sequence are selected for a three-dimensional reconstruction.

In 4 ist ein Beispiel einer Belegungskarte im Vergleich zur realen Umgebung dargestellt.In 4 an example of an occupancy map compared to the real environment is shown.

In 5 ist das erfindungsgemäße Verfahren schematisch dargestellt.In 5 the method according to the invention is shown schematically.

6 stellt schematisch ein erfindungsgemäßes Fahrzeug mit einem erfindungsgemäßen System dar. 6 schematically represents a vehicle according to the invention with a system according to the invention.

Wie in 1 dargestellt ist, treffen sich Sichtstrahlen, welche von zwei verschiedenen Kamerapositionen aus bzw. von zwei verschiedenen Positionen eines Fahrzeugs 10 denselben Bildpunkt eines Objektes 1 anpeilen, unter einem bestimmten Winkel. Mit Kenntnis der genauen Kameraposition bei beiden Aufnahmen lässt sich die dreidimensionale Position des angepeilten Bildpunkts und damit des Objektes 1 berechnen, was auch als Triangulation bezeichnet wird.As in 1 is shown, visual rays, which come from two different camera positions or from two different positions of a vehicle meet 10 the same pixel of an object 1 aim, at a certain angle. With knowledge of the exact camera position in both shots, the three-dimensional position of the targeted pixel and thus of the object can be determined 1 calculate what is also called triangulation.

Im Folgenden wird eine bevorzugte Ausführungsform des erfindungsgemäßen Verfahrens Schritt für Schritt beschrieben. Dabei ist die angegebene Reihenfolge des Verfahrens nicht als chronologische Reihenfolge zu verstehen.

  • 1. Während einer Fahrt des Fahrzeugs 10 werden aufeinanderfolgende Bilder 5 mit einer in Fahrtrichtung des Fahrzeugs 10 ausgerichteten Monokamera (Frontkamera) 4 aufgenommen.
  • 2. Mit Bildverarbeitungsalgorithmen wird eine Bewegung von einzelnen Pixeln oder Bildbereichen innerhalb einer aus diesen Bildern 5 bestehenden Bildsequenz verfolgt. Diese Verfolgung der Bewegung wird über den optischen Fluss realisiert (siehe 2, in welcher der optische Fluss für bestimmte Bildpunkte dargestellt ist). Dabei werden so genannte Tracks (Trajektorien auf der Bildebene) von den einzelnen Pixeln (auch als Feature benannt) gebildet.
  • 3. Die Bewegung des Fahrzeugs 10 wird mit Hilfe von üblicherweise im Fahrzeug 10 vorhandenen Sensoren (z. B. Wegimpulsgeber, Gierratensensor, Lenkradsensor) erfasst, um daraus die Bewegung der Kamera 4 und schließlich die Position der Kamera 4 bei der Aufnahme eines bestimmten Bildes zu erfassen.
  • 4. Für jedes Bild A werden bestimmte Bildpunktpaare aus den Feature-Tracks extrahiert, wobei der eine Bildpunkt dem Feature in dem Bild A und der andere Bildpunkt des Bildpunktpaars dem entsprechenden Bildpunkt des Features in dem Bild B, welches vor dem Bild A aufgenommen worden ist, entspricht. Dabei werden die Bilder A und B derart aus den mit der Kamera 4 erfassten Bildern ausgewählt, dass die Fahrzeugbewegung und damit die Kamerabewegung zwischen den Bildern A und B signifikant (z. B. > 10 cm) ist. In 3 sind die von der Monokamera 4 über der Zeit aufgenommenen Bilder 5 dargestellt. Der optische Fluss (OF) wird jeweils zwischen zwei zeitlich benachbarten Bildern 5 berechnet und in Tracks verkettet. Für die dreidimensionale Rekonstruktion (”Structure from Motion” (SfM)) werden zwei zeitlich aufeinanderfolgende Bilder derart ausgewählt, dass die entsprechende Bewegung der Kamera 4 zwischen diesen beiden Bildern signifikant (z. B. > 10 cm) ist.
  • 5. Die im Schritt 3 bestimmte Bewegung des Fahrzeugs 10 bzw. der Kamera 4 zwischen den Bildern A und B wird mit Hilfe von Kalibrierdaten (Einbauort der Kamera und Orientierung der Kamera) in die Bewegung der Kamera 4 umgerechnet, um so die Position der Kamera 4 bei der Aufnahme des entsprechenden Bildes 5 zu bestimmen.
  • 6. Die Rekonstruktion der Kamerabewegung kann durch die Schätzung der so genannten epipolaren Geometrie (relative Lage der Kamera zum Zeitpunkt der Aufnahme bestimmter Bilder) unter Berücksichtigung des optischen Flusses verbessert werden. Dadurch kann auch eine Nick- und Wankbewegung des Fahrzeugs 10 und damit der Kamera 4 besser berücksichtigt werden.
  • 7. Die möglichst genaue Position der Kamera bei der Aufnahme des Bildes A relativ zu der möglichst genauen Position der Kamera bei der Aufnahme des Bildes B wird genutzt, um für jedes Bildpunktpaar A-B den Schnittpunkt der Strahlen aus Bild A und aus Bild B zu ermitteln. Dieses Verfahren wird in der Bildverarbeitung Triangulation genannt, wobei der Schnittpunkt der Strahlen die Position des jeweiligen Bildpunkts in dem dreidimensionalen Raum bestimmt.
  • 8. Strukturen bzw. Objekte, welche durch die derart erfassten Bildpunkte genau im dreidimensionalen Raum lokalisiert werden können, werden in eine zellenbasierte Belegungskarte 2 oder Umfeldkarte eingetragen, so dass diese Belegungskarte 2 eine zweidimensionale Diskretisierung des Fahrzeugumfelds darstellt. Dabei wird jeder Zelle dieser Belegungskarte 2 ein Wert zugewiesen, welcher die Wahrscheinlichkeit einer Belegung der entsprechenden Zelle mit einem Objekt beschreibt. Mit anderen Worten besitzt jede Zelle einen Wahrscheinlichkeitswert, welcher der Wahrscheinlichkeit entspricht, dass die entsprechende Zelle mit einem Kollisionsobjekt belegt ist. Aus dieser Wahrscheinlichkeit lassen sich die Zellen der Belegungskarte 2 in freie (von keinem Objekt belegte) und belegte Zellen unterteilen.
  • 9. Die Wahrscheinlichkeitswerte der Zellen werden ständig aktualisiert, wodurch eine Filterung der Daten oder Wahrscheinlichkeitswerte über der Zeit möglich ist.
  • 10. Auf der Grundlage der Informationen aus der Belegungskarte 2 kann der Freiraum 3 vor und um das Fahrzeug 10 herum bestimmt werden. In 4b ist ein Bild der Kamera 4 dargestellt. Die 4a stellt die zu diesem Bild zugehörige Belegungskarte des Fahrzeugumfelds dar, wobei freie Bereiche 3 und Hindernisse 7 aus der Belegungskarte 2 ersichtlich sind.
In the following, a preferred embodiment of the method according to the invention will be described step by step. The specified sequence of the method is not to be understood as a chronological order.
  • 1. During a drive of the vehicle 10 become successive pictures 5 with one in the direction of travel of the vehicle 10 aligned mono camera (front camera) 4 added.
  • 2. With image processing algorithms, a movement of individual pixels or image areas within one of these images 5 tracked existing image sequence. This tracking of the movement is realized via the optical flow (see 2 in which the optical flux for certain pixels is shown). In the process, so-called tracks (trajectories on the image plane) are formed by the individual pixels (also named as feature).
  • 3. The movement of the vehicle 10 is done with the help of usually in the vehicle 10 existing sensors (eg Wegimpulsgeber, yaw rate sensor, steering wheel sensor) is detected in order to determine the movement of the camera 4 and finally the position the camera 4 when capturing a particular image.
  • 4. For each image A, certain pixel pairs are extracted from the feature tracks, with one pixel being the feature in the image A and the other pixel of the pixel pair being the corresponding pixel of the feature in the image B taken before the image A. , corresponds. The images A and B are so out of the camera 4 Captured images selected that the vehicle movement and thus the camera movement between the images A and B is significant (eg> 10 cm). In 3 are those of the mono camera 4 pictures taken over time 5 shown. The optical flow (OF) is in each case between two temporally adjacent images 5 calculated and chained in tracks. For three-dimensional reconstruction ("Structure from Motion" (SfM)) two temporally successive images are selected such that the corresponding movement of the camera 4 between these two images is significant (eg> 10 cm).
  • 5. The in step 3 certain movement of the vehicle 10 or the camera 4 between the images A and B is in the movement of the camera with the help of calibration data (location of the camera and orientation of the camera) 4 Converted to the position of the camera 4 when taking the corresponding picture 5 to determine.
  • 6. Reconstruction of the camera movement can be improved by estimating the so-called epipolar geometry (relative position of the camera at the time of taking certain pictures) taking into account the optical flow. This can also be a pitching and rolling motion of the vehicle 10 and with it the camera 4 better taken into account.
  • 7. The exact position of the camera when taking the image A relative to the position of the camera as accurate as possible when taking the image B is used to determine the intersection of the rays from image A and image B for each pixel pair AB. This method is called triangulation in image processing, where the intersection of the rays determines the position of the respective pixel in the three-dimensional space.
  • 8. Structures or objects which can be localized precisely in three-dimensional space by the pixels thus detected, are transformed into a cell-based occupancy map 2 or environment map entered, so this occupancy card 2 represents a two-dimensional discretization of the vehicle environment. Each cell of this occupancy card becomes 2 assigned a value which describes the probability of occupying the corresponding cell with an object. In other words, each cell has a probability value corresponding to the probability that the corresponding cell is occupied by a collision object. From this probability, the cells of the occupancy map can be 2 subdivide into free (occupied by no object) and occupied cells.
  • 9. The probability values of the cells are constantly updated, allowing filtering of the data or probability values over time.
  • 10. Based on the information from the occupancy card 2 can the free space 3 in front of and around the vehicle 10 be determined around. In 4b is a picture of the camera 4 shown. The 4a represents the occupancy map of the vehicle environment associated with this image, with blank areas 3 and obstacles 7 from the occupancy card 2 can be seen.

In 5 ist das erfindungsgemäße Verfahren schematisch dargestellt. Eingangsdaten des Verfahrens sind von der Kamera 4 aufgenommene Bilder 5 und durch die Fahrzeugodometrie (Positionsbestimmung des Fahrzeugs 10 anhand der Daten seines Vortriebsystems, z. B. Zählen der Radumdrehungen) ermittelte Daten. Über den optischen Fluss, einer Bestimmung der Bewegung der Kamera (Ego-Bewegungsschätzung) und durch die Triangulation werden Kollisionsobjekte im Umfeld des Fahrzeugs 10 bestimmt und entsprechend in die Belegungskarte 2 eingetragen.In 5 the method according to the invention is shown schematically. Input data of the method are from the camera 4 taken pictures 5 and by vehicle odometry (position determination of the vehicle 10 based on the data of his propulsion system, z. B. counting the Radumdrehungen) determined data. About the optical flow, a determination of the movement of the camera (ego motion estimation) and through the triangulation are collision objects in the environment of the vehicle 10 determined and corresponding to the occupancy card 2 entered.

In 6 ist schematisch ein erfindungsgemäßes Fahrzeug 10 mit einem erfindungsgemäßen System 20 zur Erstellung eines Modells eines Umfelds des Fahrzeugs 10 dargestellt. Das System 20 umfasst neben einer Steuerung 6 zwei Kameras 4 und 8, mit welchen Bilder 5 des Umfelds des Fahrzeugs 10 aufgenommen werden.In 6 schematically is a vehicle according to the invention 10 with a system according to the invention 20 for creating a model of an environment of the vehicle 10 shown. The system 20 includes besides a controller 6 two cameras 4 and 8th , with which pictures 5 the environment of the vehicle 10 be recorded.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102007021576 A1 [0002] DE 102007021576 A1 [0002]
  • EP 2048618 A1 [0002] EP 2048618 A1 [0002]
  • DE 102006039104 A1 [0002] DE 102006039104 A1 [0002]
  • DE 102006055908 A1 [0002] DE 102006055908 A1 [0002]

Claims (13)

Verfahren zur Erstellung eines Modells eines Umfelds eines Fahrzeugs (10), wobei mit Hilfe einer Kamera (4) das Umfeld in Fahrtrichtung des Fahrzeugs (10) erfasst wird und mehrere Bilder (5) des Umfelds erzeugt werden, wobei mittels dieser Bilder dreidimensionale Strukturen und deren Position in dem Umfeld erfasst werden, indem eine Bewegung dieser Strukturen innerhalb einer aus den mehreren Bildern (5) bestehenden Bildsequenz verfolgt wird, und wobei Informationen über die Strukturen in eine zweidimensionale zellenbasierte Karte (2) des Umfelds übertragen werden, wobei jeder Zelle der Karte (2) eine Information zugewiesen wird, ob diese Zelle mit einem durch die Strukturen repräsentierten Objekt (1) belegt ist.Method for creating a model of an environment of a vehicle ( 10 ), using a camera ( 4 ) the environment in the direction of travel of the vehicle ( 10 ) and several images ( 5 ) of the environment, whereby by means of these images three-dimensional structures and their position in the environment are detected by moving these structures within one of the several images ( 5 ) and wherein information about the structures in a two-dimensional cell-based map ( 2 ) of the environment, each cell of the card ( 2 ) is assigned an information as to whether this cell has an object represented by the structures ( 1 ) is occupied. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Kamera eine Monokamera (4) ist.Method according to claim 1, characterized in that the camera is a monocamera ( 4 ). Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Kamera (4) in Fahrtrichtung des Fahrzeugs (10) ausgerichtet wird.Method according to claim 1 or 2, characterized in that the camera ( 4 ) in the direction of travel of the vehicle ( 10 ) is aligned. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für bestimmte der mehreren Bilder (5) eine Flächensegmentierung, bei welcher das jeweilige Bild in Flächensegmente mit ähnlicher Farbe oder Struktur unterteilt wird, durchgeführt wird, und dass Flächensegmente, welche eine vorbestimmte Menge von freien Zellen, deren Wahrscheinlichkeit für eine Belegung mit einem Objekt (1) unterhalb eines vorbestimmten Wertes liegen, umfassen, als von Objekten freie Flächensegmente (3) bestimmt werden.Method according to one of the preceding claims, characterized in that for certain of the several images ( 5 ) a surface segmentation, in which the respective image is subdivided into surface segments of similar color or structure, and that surface segments which contain a predetermined amount of free cells, their probability of occupancy with an object ( 1 ) are below a predetermined value include, as object-free area segments ( 3 ). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass aus den mehreren Bildern (5) bestimmte Bilder ausgewählt werden, bei welchen sich die Kamera (4) zwischen zwei aufeinanderfolgenden dieser bestimmten Bilder um mehr als eine vorbestimmte Strecke bewegt, und dass mittels Triangulation für jedes der bestimmten Bilder eine Ortsbestimmung der Strukturen innerhalb des Umfelds bestimmt wird.Method according to one of the preceding claims, characterized in that from the plurality of images ( 5 ) certain images are selected in which the camera ( 4 ) is moved by more than a predetermined distance between two successive of these particular images, and that by means of triangulation for each of the specific images a localization of the structures within the environment is determined. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass eine Bewegung der Kamera (4) mittels der durch die epipolare Geometrie gesetzten Einschränkungen bezüglich der Bewegung der Strukturen in der Bildsequenz und durch eine Erfassung eines optischen Flusses (OF) innerhalb der Bildsequenz bestimmt wird, und dass aus der Bewegung der Kamera (4) eine jeweilige Position der Kamera (4) für jedes der bestimmten Bilder bestimmt wird, und dass die Triangulation abhängig von der Position der Kamera (4) zu der Ortsbestimmung der Strukturen durchgeführt wird.Method according to claim 5, characterized in that a movement of the camera ( 4 ) is determined by means of the restrictions imposed by the epipolar geometry on the movement of the structures in the image sequence and by detecting an optical flow (OF) within the image sequence, and that the movement of the camera ( 4 ) a respective position of the camera ( 4 ) is determined for each of the particular images, and that the triangulation depends on the position of the camera ( 4 ) is performed on the location of the structures. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass der optische Fluss (OF) über ein Verfahren bestimmt wird, mit welchem für jeden Bildpunkt eines bestimmten Bildes (5) abhängig von benachbarten Bildern (5) des bestimmten Bildes (5) ein Geschwindigkeitsvektor berechnet wird.A method according to claim 6, characterized in that the optical flow (OF) is determined by a method with which for each pixel of a given image (OF) 5 ) depending on neighboring images ( 5 ) of the particular image ( 5 ) a velocity vector is calculated. Verfahren nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass mindestens eine weitere Kamera (8) zur Erfassung des Umfelds des Fahrzeugs (10) eingesetzt wird, welche an einer anderen Stelle als die Kamera (4) an dem Fahrzeug (10) befestigt ist und mit welcher mehrere Bilder (5) des Umfelds erzeugt werden, dass mittels der Bilder (5) der mindestens einen weiteren Kamera (8) die Bewegung der Kamera (4) abgeschätzt wird, und dass die Bestimmung der Bewegung der Kamera (4) auf Grundlage der abgeschätzten Bewegung der Kamera (4) erfolgt.Method according to claim 6 or 7, characterized in that at least one further camera ( 8th ) for detecting the environment of the vehicle ( 10 ), which is at a location other than the camera ( 4 ) on the vehicle ( 10 ) and with which several images ( 5 ) of the environment that by means of the images ( 5 ) of the at least one further camera ( 8th ) the movement of the camera ( 4 ) and that the determination of the movement of the camera ( 4 ) based on the estimated motion of the camera ( 4 ) he follows. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mittels Ultraschallwellen Informationen über die Objekte (1) in dem Umfeld erfasst werden, und dass auf Grundlage dieser Informationen die zellenbasierte Karte (2) des Umfelds erzeugt wird.Method according to one of the preceding claims, characterized in that by means of ultrasonic waves information about the objects ( 1 ) are detected in the environment and that, based on this information, the cell-based map ( 2 ) of the environment is generated. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Verfahren automatisiert in einem Kollisionsüberwachungssystem des Fahrzeugs (10) durchgeführt wird.Method according to one of the preceding claims, characterized in that the method is automated in a collision monitoring system of the vehicle ( 10 ) is carried out. System zur Erstellung eines Modells eines Umfelds eines Fahrzeugs (10), wobei das System (20) eine Kamera (4), welche das Umfeld in Fahrtrichtung des Fahrzeugs (10) erfasst, und eine Steuerung (6) umfasst, wobei die Steuerung (6) zur Ansteuerung der Kamera (4) ausgestaltet ist, um mehrere Bilder (5) des Umfelds des Fahrzeugs (10) zu erzeugen, wobei die Steuerung (6) derart ausgestaltet ist, dass die Steuerung (6) mittels dieser Bilder (5) dreidimensionale Strukturen und deren Position in dem Umfeld erfasst, indem die Steuerung (6) eine Bewegung dieser Strukturen innerhalb einer aus den mehreren Bildern (5) bestehenden Bildsequenz verfolgt, und dass die Steuerung (6) Informationen über die Strukturen in eine zweidimensionale zellenbasierte Karte (2) des Umfelds überträgt, wobei die Steuerung (6) jeder Zelle der Karte (2) eine Information zuweist, ob diese Zelle mit einem durch die Strukturen repräsentierten Objekt (1) belegt ist.System for creating a model of an environment of a vehicle ( 10 ), whereby the system ( 20 ) a camera ( 4 ), which the environment in the direction of travel of the vehicle ( 10 ), and a controller ( 6 ), wherein the controller ( 6 ) for controlling the camera ( 4 ) is designed to take multiple pictures ( 5 ) of the environment of the vehicle ( 10 ), whereby the controller ( 6 ) is configured such that the controller ( 6 ) by means of these images ( 5 ) three-dimensional structures and their position in the environment detected by the controller ( 6 ) a movement of these structures within one of the multiple images ( 5 ), and that the controller ( 6 ) Information about the structures in a two-dimensional cell-based map ( 2 ) of the environment, whereby the controller ( 6 ) each cell of the card ( 2 ) assigns an information as to whether this cell has an object represented by the structures ( 1 ) is occupied. System nach Anspruch 11, dadurch gekennzeichnet, dass das System (20) zur Durchführung des Verfahrens-nach einem der Ansprüche 1–10 ausgestaltet ist. System according to claim 11, characterized in that the system ( 20 ) is configured for carrying out the method according to one of claims 1-10. Fahrzeug mit einem System (20) nach Anspruch 11 oder 12.Vehicle with a system ( 20 ) according to claim 11 or 12.
DE102010013093A 2010-03-29 2010-03-29 Method for creating model of surrounding area of motor vehicle i.e. car, involves determining whether card cells are loaded with object represented by three- dimensional structures Pending DE102010013093A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102010013093A DE102010013093A1 (en) 2010-03-29 2010-03-29 Method for creating model of surrounding area of motor vehicle i.e. car, involves determining whether card cells are loaded with object represented by three- dimensional structures

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102010013093A DE102010013093A1 (en) 2010-03-29 2010-03-29 Method for creating model of surrounding area of motor vehicle i.e. car, involves determining whether card cells are loaded with object represented by three- dimensional structures

Publications (1)

Publication Number Publication Date
DE102010013093A1 true DE102010013093A1 (en) 2011-09-29

Family

ID=44586065

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010013093A Pending DE102010013093A1 (en) 2010-03-29 2010-03-29 Method for creating model of surrounding area of motor vehicle i.e. car, involves determining whether card cells are loaded with object represented by three- dimensional structures

Country Status (1)

Country Link
DE (1) DE102010013093A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012214307A1 (en) 2012-08-10 2014-02-13 Robert Bosch Gmbh Method and device for modeling an environment
WO2014202496A1 (en) 2013-06-18 2014-12-24 Volkswagen Aktiengesellschaft Method for displaying environment information in a vehicle
DE102015206453A1 (en) * 2015-04-10 2016-10-13 Conti Temic Microelectronic Gmbh MONITORING DEVICE AND METHOD FOR MONITORING A AREA BEFORE A VEHICLE DOOR
DE102016111079A1 (en) * 2016-06-17 2017-12-21 Valeo Schalter Und Sensoren Gmbh Method for object height detection of an object in the environment of a motor vehicle and driver assistance system
CN115280235A (en) * 2020-03-09 2022-11-01 采埃孚商用车系统全球有限公司 Method, control unit and vehicle for detecting object information relating to an object in the surroundings of the vehicle
DE102022204547A1 (en) 2022-05-10 2023-11-16 Robert Bosch Gesellschaft mit beschränkter Haftung Method for detecting an environment of a camera system and associated device

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5793934A (en) * 1994-06-22 1998-08-11 Siemens Aktiengesellschaft Method for the orientation, route planning and control of an autonomous mobile unit
EP1030188A1 (en) * 1999-02-16 2000-08-23 Mitsubishi Denki Kabushiki Kaisha Situation awareness system
EP1580687A1 (en) * 2003-10-17 2005-09-28 Matsushita Electric Industrial Co., Ltd. Method and apparatus for calculating motion of mobile body, and navigation system
DE102006027123A1 (en) * 2006-06-12 2007-12-13 Robert Bosch Gmbh Procedure for recording a traffic area
US20070285217A1 (en) * 2006-04-27 2007-12-13 Denso Corporation Field recognition apparatus, method for field recognition and program for the same
DE102006039104A1 (en) 2006-07-31 2008-01-17 Daimler Ag Method for ranging or detection of stationary objects in surroundings of road vehicle using graphic data, involves testing object hypothesis such as stationary object against object hypothesis such as flat road
DE102006055908A1 (en) 2006-11-27 2008-05-29 Adc Automotive Distance Control Systems Gmbh Method for automatic high beam control
DE102007021576A1 (en) 2007-05-08 2008-11-13 Hella Kgaa Hueck & Co. Method and device for determining the position of a traffic sign
EP2048618A1 (en) 2007-10-08 2009-04-15 Delphi Technologies, Inc. Method for detecting an object
DE102009016562A1 (en) * 2009-04-06 2009-11-19 Daimler Ag Method for identifying objects in periphery of vehicle, involves recording image of periphery of vehicle at vehicle position, and another image of periphery of vehicle at another vehicle position by camera arranged on vehicle

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5793934A (en) * 1994-06-22 1998-08-11 Siemens Aktiengesellschaft Method for the orientation, route planning and control of an autonomous mobile unit
EP1030188A1 (en) * 1999-02-16 2000-08-23 Mitsubishi Denki Kabushiki Kaisha Situation awareness system
EP1580687A1 (en) * 2003-10-17 2005-09-28 Matsushita Electric Industrial Co., Ltd. Method and apparatus for calculating motion of mobile body, and navigation system
US20070285217A1 (en) * 2006-04-27 2007-12-13 Denso Corporation Field recognition apparatus, method for field recognition and program for the same
DE102006027123A1 (en) * 2006-06-12 2007-12-13 Robert Bosch Gmbh Procedure for recording a traffic area
DE102006039104A1 (en) 2006-07-31 2008-01-17 Daimler Ag Method for ranging or detection of stationary objects in surroundings of road vehicle using graphic data, involves testing object hypothesis such as stationary object against object hypothesis such as flat road
DE102006055908A1 (en) 2006-11-27 2008-05-29 Adc Automotive Distance Control Systems Gmbh Method for automatic high beam control
DE102007021576A1 (en) 2007-05-08 2008-11-13 Hella Kgaa Hueck & Co. Method and device for determining the position of a traffic sign
EP2048618A1 (en) 2007-10-08 2009-04-15 Delphi Technologies, Inc. Method for detecting an object
DE102009016562A1 (en) * 2009-04-06 2009-11-19 Daimler Ag Method for identifying objects in periphery of vehicle, involves recording image of periphery of vehicle at vehicle position, and another image of periphery of vehicle at another vehicle position by camera arranged on vehicle

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012214307A1 (en) 2012-08-10 2014-02-13 Robert Bosch Gmbh Method and device for modeling an environment
WO2014202496A1 (en) 2013-06-18 2014-12-24 Volkswagen Aktiengesellschaft Method for displaying environment information in a vehicle
DE102015206453A1 (en) * 2015-04-10 2016-10-13 Conti Temic Microelectronic Gmbh MONITORING DEVICE AND METHOD FOR MONITORING A AREA BEFORE A VEHICLE DOOR
DE102016111079A1 (en) * 2016-06-17 2017-12-21 Valeo Schalter Und Sensoren Gmbh Method for object height detection of an object in the environment of a motor vehicle and driver assistance system
CN115280235A (en) * 2020-03-09 2022-11-01 采埃孚商用车系统全球有限公司 Method, control unit and vehicle for detecting object information relating to an object in the surroundings of the vehicle
DE102022204547A1 (en) 2022-05-10 2023-11-16 Robert Bosch Gesellschaft mit beschränkter Haftung Method for detecting an environment of a camera system and associated device

Similar Documents

Publication Publication Date Title
EP2766237B1 (en) Device for assisting a driver driving a vehicle or for independently driving a vehicle
DE102009006336B4 (en) Method for monitoring a parking process
DE19749086C1 (en) Device for determining data indicating the course of the lane
EP2888604B1 (en) Method for determining the course of a lane for a vehicle
DE102016107705A1 (en) Reactive path planning for autonomous driving
DE102014107917A1 (en) A method and apparatus for avoiding a collision of a vehicle comprising a motor vehicle and a trailer with an obstacle
EP2046619B1 (en) Driver assistance system
DE102009016562A1 (en) Method for identifying objects in periphery of vehicle, involves recording image of periphery of vehicle at vehicle position, and another image of periphery of vehicle at another vehicle position by camera arranged on vehicle
EP3356203B1 (en) Method for determining a parking surface for parking a motor vehicle, driver assistance system, and motor vehicle
EP2200881B1 (en) Method for estimating the relative movement of video objects and driver assistance system for motor vehicles
DE102015223176A1 (en) Method and device for determining occlusion areas in the vehicle environment of a vehicle
DE102015203016A1 (en) Method and device for optical self-localization of a motor vehicle in an environment
DE102017108254B4 (en) All-round camera system for object recognition and tracking and method for equipping a vehicle with a panoramic camera system
EP2033165B1 (en) Method for picking up a traffic space
DE102010013093A1 (en) Method for creating model of surrounding area of motor vehicle i.e. car, involves determining whether card cells are loaded with object represented by three- dimensional structures
DE102014111012A1 (en) A method for assisting a driver of a motor vehicle when parking out, driver assistance system and motor vehicle
DE102008025773A1 (en) Local and movement conditions estimating method for observed object i.e. vehicle, involves determining distance, detecting shifting of portion of object, and estimating parameter of local and movement condition
EP2579228A1 (en) Method and system for digital imaging of the vicinity of a vehicle
EP2801076B1 (en) Depth image calculation using a mono camera by way of a defined trajectory
DE102017219119A1 (en) Method for detecting the shape of an object in an exterior of a motor vehicle and motor vehicle
DE102012220191A1 (en) Method for supporting driver during transverse guide of vehicle, involves carrying out steering intervention during collision of vehicle with recognized objects, and determining vehicle data through forward facing camera
DE102013010233B4 (en) A method of displaying environmental information in a vehicle and a display system for a vehicle
EP2603403A1 (en) Method for displaying images on a display device in a motor vehicle, driver assistance system, and motor vehicle
EP3704631A2 (en) Method for determining a distance between a motor vehicle and an object
DE102019204196B4 (en) Method for detecting the surroundings of a means of locomotion

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication