DE102010013093A1 - Method for creating model of surrounding area of motor vehicle i.e. car, involves determining whether card cells are loaded with object represented by three- dimensional structures - Google Patents
Method for creating model of surrounding area of motor vehicle i.e. car, involves determining whether card cells are loaded with object represented by three- dimensional structures Download PDFInfo
- Publication number
- DE102010013093A1 DE102010013093A1 DE102010013093A DE102010013093A DE102010013093A1 DE 102010013093 A1 DE102010013093 A1 DE 102010013093A1 DE 102010013093 A DE102010013093 A DE 102010013093A DE 102010013093 A DE102010013093 A DE 102010013093A DE 102010013093 A1 DE102010013093 A1 DE 102010013093A1
- Authority
- DE
- Germany
- Prior art keywords
- camera
- environment
- vehicle
- images
- structures
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
- G01C11/12—Interpretation of pictures by comparison of two or more pictures of the same area the pictures being supported in the same relative position as when they were taken
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
Die vorlegende Erfindung betrifft ein Verfahren und ein System zur Fahrzeugumfeldrekonstruktion mittels einer Kamera sowie eine entsprechend ausgestaltetes Fahrzeug.The present invention relates to a method and a system for vehicle environment reconstruction by means of a camera as well as a correspondingly configured vehicle.
Nach dem Stand der Technik sind zum einen Verfahren bekannt, um mittels einer Kamera aus einem fahrenden Fahrzeug heraus Verkehrszeichen zu erfassen; siehe dazu
Die vorliegende Erfindung stellt sich die Aufgabe, ein Modell eines Umfelds eines Fahrzeugs zu erstellen, welches dieses Umfeld genauer beschreibt, als es nach dem Stand der Technik möglich ist.The object of the present invention is to create a model of an environment of a vehicle, which describes this environment in more detail than is possible according to the prior art.
Erfindungsgemäß wird diese Aufgabe durch ein Verfahren zur Erstellung eines Modells eines Umfelds eines Fahrzeugs nach Anspruch 1, durch ein System zur Erstellung eines Modells eines Umfelds eines Fahrzeugs nach Anspruch 11 und durch ein Fahrzeug nach Anspruch 13 gelöst. Die abhängigen Ansprüche definieren bevorzugte und vorteilhafte Ausführungsformen der vorliegenden Erfindung.According to the invention, this object is achieved by a method for creating a model of an environment of a vehicle according to
Im Rahmen der vorliegenden Erfindung wird ein Verfahren zur Erstellung eines Modells eines Umfelds eines Fahrzeugs bereitgestellt. Dabei wird mit Hilfe einer Kamera, insbesondere einer Monokamera, das Umfeld in Fahrtrichtung des Fahrzeugs erfasst und mehrere Bilder dieses Umfelds mittels der Kamera erzeugt. Über diese Bilder werden dreidimensionale Strukturen und deren Position innerhalb des Umfelds bestimmt, indem beispielsweise mit Bildverarbeitungsalgorithmen die Bewegung dieser Strukturen oder der diese Strukturen ausbildenden Pixel innerhalb einer Bildsequenz verfolgt wird, welche aus den mehreren Bildern besteht. Dabei werden Informationen über diese dreidimensionalen Strukturen oder der diese Strukturen beschreibenden 3D-Punkte in eine zweidimensionale in Zellen unterteilte Belegungskarte bzw. Umfeldkarte eingetragen, wobei diese Belegungskarte eine zweidimensionale Diskretisierung des Fahrzeugumfelds darstellt. Dabei wird jeder Zelle der Belegungskarte eine Information zugewiesen, ob die entsprechende Zelle mit einem durch die Strukturen repräsentierten Objekt belegt ist. Dies kann beispielweise über Wahrscheinlichkeitswerte erfolgen, welche diesen Zellen zugewiesen werden und welche einen Wert für eine Wahrscheinlichkeit angeben, mit welcher die entsprechende Zelle mit einem Objekt belegt ist.In the context of the present invention, a method for creating a model of an environment of a vehicle is provided. In this case, with the help of a camera, in particular a monocamera, the environment in the direction of travel of the vehicle is detected and several images of this environment generated by means of the camera. These images are used to determine three-dimensional structures and their position within the environment, for example by using image processing algorithms to track the movement of these structures or of the pixels forming these structures within an image sequence which consists of the multiple images. In this case, information about these three-dimensional structures or the 3D points describing these structures is entered in a two-dimensional occupancy map or environment map subdivided into cells, this occupancy map representing a two-dimensional discretization of the vehicle surroundings. In this case, each cell of the occupancy card is assigned an information as to whether the corresponding cell is occupied by an object represented by the structures. This can be done, for example, via probability values which are assigned to these cells and which indicate a value for a probability with which the corresponding cell is occupied by an object.
Mit anderen Worten werden in einem ersten Schritt des erfindungsgemäßen Verfahrens beispielsweise mittels eines Ansatzes wie ”Structure from Motion” bestimmte Strukturen und dadurch bestimmte Objekte samt ihrer Position in dem Umfeld des Fahrzeugs erfasst, während in einem zweiten Schritt Informationen über diese Strukturen oder Objekte in eine Karte übertragen werden, in welcher für die Ebene, auf welcher sich das Fahrzeug bewegt, freie und belegte Flächen vorhanden sind. Dabei wird unter einer belegten Fläche oder Zelle eine Fläche bzw. Zelle verstanden, welche von einem Objekt belegt ist, während eine freie Fläche oder Zelle von keinem Objekt belegt ist.In other words, in a first step of the method according to the invention, for example by means of an approach such as "structure from motion" certain structures and thereby determined objects including their position in the environment of the vehicle detected, while in a second step information about these structures or objects in one Map are transferred, in which for the plane on which the vehicle moves, free and occupied areas are available. In this case, an occupied surface or cell is understood to mean an area or cell occupied by an object, while a free area or cell is not occupied by any object.
Die beispielsweise mittels ”Structure from Motion” bestimmten Strukturen und Objekte können auch in einer dreidimensionalen Karte bzw. einem dreidimensionalen Datensatz gespeichert werden, aus welchem dann die entsprechenden Informationen extrahiert und in die zweidimensionale Karte übertragen werden. Die Speicherung in der dreidimensionalen Karte weist den Vorteil auf, dass hier auch eine Höheninformation hinterlegt ist.The structures and objects determined for example by means of "structure from motion" can also be stored in a three-dimensional map or a three-dimensional data record, from which the corresponding information is then extracted and transmitted to the two-dimensional map. The storage in the three-dimensional map has the advantage that here also a height information is stored.
Mit dem erfindungsgemäßen Verfahren kann vorteilhafterweise eine Kollision des Fahrzeugs mit Objekten im Umfeld des Fahrzeugs vermieden werden.With the method according to the invention, advantageously a collision of the vehicle with objects in the environment of the vehicle can be avoided.
Zur Durchführung des erfindungsgemäßen Verfahrens wird die Kamera dabei insbesondere in Fahrtrichtung des Fahrzeugs ausgerichtet.To carry out the method according to the invention, the camera is thereby aligned, in particular in the direction of travel of the vehicle.
Indem die Kamera in der Fahrtrichtung des Fahrzeugs ausgerichtet ist, erfasst sie vorteilhafterweise genau den Bereich des Umfelds des Fahrzeugs, welchen das Fahrzeug demnächst durchfahren wird, welcher daher zur Kollisionsvermeidung am wichtigsten ist.By being oriented in the direction of travel of the vehicle, the camera advantageously detects precisely the area of the surroundings of the vehicle which the vehicle will soon pass through, which is therefore most important for collision avoidance.
Gemäß einer bevorzugten erfindungsgemäßen Ausführungsform wird das erfindungsgemäße Verfahren um eine Flächensegmentierung ergänzt. Dabei werden mit Hilfe von Bildverarbeitungsmittel Bildbereiche innerhalb der Bilder mit einer ähnlichen Farbe oder Struktur erfasst und somit das entsprechende Bild in Cluster oder Flächensegmente mit ähnlicher Farbe oder Struktur unterteilt oder segmentiert. Anschließend werden die freien Zellen (d. h. Zellen, bei welchen die Wahrscheinlichkeit für eine Belegung mit einem Objekt unterhalb eines vorbestimmten Schwellenwerts liegt) der Karte den jeweiligen Flächensegmenten zugewiesen. Flächensegmente, welche einen vorbestimmten Prozentsatz an freien Zellen umfassen, werden als freies Flächensegment betrachtet und demnach als eine zusammenhängende freie (d. h. von keinem Objekt belegte) Fläche zurück in die Belegungskarte eingetragen.According to a preferred embodiment of the invention, the method according to the invention is supplemented by a surface segmentation. In this case, image areas within the images with a similar color or structure are detected with the aid of image processing means and thus the corresponding image is subdivided or segmented into clusters or area segments with a similar color or structure. Subsequently, the free cells (ie, cells in which the probability of occupancy with an object is below a predetermined threshold) are assigned to the respective area segments of the map. Surfaces that include a predetermined percentage of free cells become a free area segment considered and thus entered as a contiguous free (ie occupied by any object) area back into the occupancy map.
Der Einsatz der Flächensegmentierung im Rahmen der vorlegenden Erfindung weist den Vorteil auf, dass einzelne falsche 3D-Messungen zuverlässig ausgefiltert werden.The use of area segmentation in the context of the present invention has the advantage that individual false 3D measurements are reliably filtered out.
Darüber hinaus hat es sich als vorteilhaft erwiesen, wenn aus den mehreren von der Kamera erfassten Bildern diejenigen Bilder ausgewählt werden, bei welchen sich die Kamera zwischen zwei aufeinanderfolgenden dieser ausgewählten Bilder bei der Aufnahme des entsprechenden Bildes um mehr als eine vorbestimmte Strecke bewegt hat. Mittels Triangulation wird dann für jedes dieser ausgewählten Bilder eine dreidimensionale Ortsbestimmung der Strukturen innerhalb des Umfelds durchgeführt.In addition, it has proved to be advantageous if, from the plurality of images captured by the camera, those images are selected in which the camera has moved by more than a predetermined distance between two successive of these selected images when the corresponding image was taken. Using triangulation, a three-dimensional localization of the structures within the environment is then carried out for each of these selected images.
Da sichergestellt ist, dass sich die Kamera zwischen derjenigen Stelle, an welcher die Kamera ein bestimmtes dieser ausgewählten oder auszuwertenden Bilder erfasst hat, und derjenigen Stelle, an welcher die Kamera das dem bestimmten Bild folgende auszuwertende Bild aufgenommen hat, zumindest um die vorbestimmte Strecke bewegt hat, ist der Abstand der Kamerapositionen bezüglich zwei zeitlich aufeinanderfolgenden auszuwertenden Bildern ausreichend groß, damit mittels der Triangulation entsprechend genaue Messergebnisse erzielt werden können.Since it is ensured that the camera moves between the point at which the camera has acquired a specific one of these selected or evaluated images, and the point at which the camera has taken the image to be evaluated following the specific image, at least by the predetermined distance has the distance of the camera positions with respect to two temporally successive images to be evaluated sufficiently large so that by means of triangulation correspondingly accurate measurement results can be achieved.
Insbesondere wird zur Verbesserung der Ergebnisse des erfindungsgemäßen Verfahrens eine Bewegung der Kamera möglichst genau erfasst. Dazu kann die Bewegung der Kamera zum einen anhand von Fahrzeugdaten, z. B. anhand von Daten eines Wegimpulsgebers, eines Gierratensensors oder Lenkradsensors des Fahrzeugs, erfasst werden. Zum anderen kann die Bewegung der Kamera anhand des optischen Flusses innerhalb der Bildsequenz unter Berücksichtigung entsprechender Einschränkungen, welche durch die epipolare Geometrie bezüglich der Bewegung der Strukturen innerhalb der Bildsequenz gegeben sind, rekonstruiert werden. Aus der derart ermittelten Bewegung der Kamera wird eine möglichst genaue jeweilige Position der Kamera für das jeweilige Bild bestimmt. Die Triangulation wird abhängig von den derart bestimmten Positionen der Kamera (genauer Position der Kamera relativ zur Position der Kamera bei dem vorherigen Bild) zur Ortsbestimmung der Strukturen innerhalb der Bilder durchgeführt.In particular, a movement of the camera is detected as accurately as possible in order to improve the results of the method according to the invention. For this purpose, the movement of the camera on the one hand based on vehicle data, eg. B. on the basis of data from a Wegimpulsgebers, a yaw rate sensor or steering wheel sensor of the vehicle detected. On the other hand, the movement of the camera can be reconstructed on the basis of the optical flow within the image sequence taking into account corresponding restrictions which are given by the epipolar geometry with regard to the movement of the structures within the image sequence. From the thus determined movement of the camera as accurate as possible respective position of the camera is determined for each image. The triangulation is performed depending on the thus determined positions of the camera (exact position of the camera relative to the position of the camera in the previous image) for locating the structures within the images.
Durch eine derartige Bestimmung der Bewegung der Kamera können auch entsprechende Nick- und Wankbewegungen des Fahrzeugs (und damit der Kamera) entsprechend berücksichtigt werden, so dass die Ergebnisse des erfindungsgemäßen Verfahrens durch diese Nick- und Wankbewegungen vorteilhafterweise nicht verfälscht werden.By such a determination of the movement of the camera, corresponding pitching and rolling movements of the vehicle (and thus of the camera) can be taken into account accordingly, so that the results of the method according to the invention are advantageously not distorted by these pitching and rolling movements.
Der optische Fluss wird dabei insbesondere über ein so genanntes dichtes Verfahren bestimmt, bei welchem für jedes Pixel eines bestimmten Bildes ein Geschwindigkeitsvektor bestimmt wird, welcher angibt, in welcher Richtung und mit welcher Geschwindigkeit sich das jeweilige Pixel von dem bestimmten Bild zu einem entsprechenden Pixel in einem zeitlich folgenden Bild bewegt. Anders ausgedrückt wird unter einem optischen Fluss in der Bildverarbeitung ein Vektorfeld verstanden, welches die Bewegungsrichtung und -Geschwindigkeit für jeden Bildpunkt (Pixel) einer Bildsequenz angibt. Der optische Fluss kann demnach als die auf die Bildebene projizierten Geschwindigkeitsvektoren von sichtbaren Objekten verstanden werden.The optical flow is determined in particular via a so-called dense process in which a velocity vector is determined for each pixel of a specific image, which indicates in which direction and at what speed the respective pixel from the particular image to a corresponding pixel in a temporally following picture moves. In other words, an optical flow in image processing is understood to mean a vector field which indicates the direction of movement and the speed for each pixel of an image sequence. The optical flow can therefore be understood as the velocity vectors of visible objects projected onto the image plane.
Der Einsatz eines dichten Verfahrens zur Bestimmung des optischen Flusses erhöht die Datendichte und damit die Robustheit des Verfahrens.The use of a dense method for determining the optical flow increases the data density and thus the robustness of the method.
Darüber hinaus ist es möglich, dass eine oder mehrere weitere Kameras zur Erfassung des Umfelds des Fahrzeugs eingesetzt werden. Diese eine oder diese mehreren Kameras werden vorteilhafterweise an einer anderen Stelle als die vorab erwähnte Kamera an dem Fahrzeug befestigt und erzeugen, in ähnlicher Weise wie die vorab erwähnte Kamera, mehrere Bilder des Umfelds. Mittels dieser Bilder kann zum Beispiel die Bewegung der vorab erwähnten Kamera abgeschätzt werden, so dass die Bestimmung der Bewegung der Kamera mittels der einen oder der mehreren weiteren Kameras weiter verbessert werden kann.In addition, it is possible that one or more additional cameras are used to detect the surroundings of the vehicle. These one or more cameras are advantageously attached to the vehicle at a location other than the aforementioned camera and, in a manner similar to the aforementioned camera, produce a plurality of images of the environment. By means of these images, for example, the movement of the aforementioned camera can be estimated, so that the determination of the movement of the camera by means of the one or more further cameras can be further improved.
Die vorliegende Erfindung kann auch eine so genannte Top-View-Kamera-Konfiguration einsetzen, bei welcher jeweils eine Kamera nach vorn, nach hinten, nach rechts und nach hinten (bezüglich des Fahrzeugs) gerichtet ist. Damit lässt sich das Umfeld rund um das Fahrzeug erfassen.The present invention may also employ a so-called top-view camera configuration in which one camera is directed forward, backward, rightward, and rearward (with respect to the vehicle). This allows the environment around the vehicle to be captured.
Durch die Nutzung einer solchen Mehr-Kamera-Konfiguration (d. h. einer Konfiguration, welche neben der vorab erwähnten Kamera noch eine oder mehrere weitere Kameras umfasst) lässt sich die Bewegung der vorab erwähnten Kamera robuster und genauer abschätzen, wodurch die Qualität der Erstellung des Umfeldmodels verbessert werden kann.By using such a multi-camera configuration (ie, a configuration that includes one or more additional cameras in addition to the aforementioned camera), the movement of the aforementioned camera can be estimated more robustly and accurately, thereby improving the quality of creating the surrounding model can be.
Eine weitere erfindungsgemäße Erweiterung besteht darin, mittels Ultraschallwellen-Sensoren Informationen über Objekte in dem Umfeld des Fahrzeugs zu erfassen und auf Grundlage dieser Informationen den Informationsgehalt der Belegungskarte zu verbessern.A further extension according to the invention is to detect information about objects in the surroundings of the vehicle by means of ultrasonic wave sensors and to improve the information content of the occupancy map on the basis of this information.
Durch diese Kopplung des erfindungsgemäßen Verfahrens mit von Ultraschall-Sensoren erfassten Informationen lässt sich vorteilhafterweise die Robustheit des erfindungsgemäßen Verfahrens erhöhen. By virtue of this coupling of the method according to the invention with information acquired by ultrasonic sensors, the robustness of the method according to the invention can advantageously be increased.
Das erfindungsgemäße Verfahren kann beispielsweise automatisiert in einem Kollisionsüberwachungssystem des Fahrzeugs durchgeführt werden. Dabei wird unter einem Kollisionsüberwachungssystem zum einen eine Einparkunterstützung (z. B. bei teil- oder vollautomatischen Einparkvorgängen z. B. in eine Garage) und zum anderen Erweiterungen eines Spurhalteassistenten (Heading Control, Lane-Assist) beispielsweise im Baustellenbereich durch Erfassen der Leitplanke verstanden. Darüber hinaus ist eine Ersetzung der PDC-Sensoren (Park Distance Control) durch Kameras mittels der vorliegenden Erfindung denkbar, wobei allerdings erfindungsgemäß mehrere Kameras eingesetzt werden sollten, um auch bei stillstehendem Fahrzeug eine möglichst genaue Erfassung des Umfelds zu gewährleisten.The method according to the invention can be carried out, for example, automatically in a collision monitoring system of the vehicle. In this context, a collision monitoring system is understood to mean on the one hand a parking assistance (eg in partially or fully automatic parking processes, eg in a garage) and on the other extensions of a lane assist (heading control, lane assist), for example in the construction site area, by detecting the guardrail , In addition, a replacement of the PDC sensors (Park Distance Control) by cameras by means of the present invention conceivable, although according to the invention, multiple cameras should be used to ensure the most accurate detection of the environment even when the vehicle is stationary.
Im Rahmen der vorliegenden Erfindung wird auch ein System zur Erstellung eines Modells eines Umfelds eines Fahrzeugs bereitgestellt. Dabei umfasst das System eine Kamera zur Erfassung des Umfelds des Fahrzeugs in Fahrtrichtung und eine Steuerung. Die Steuerung steuert die Kamera derart an, dass die Kamera mehrere Bilder des Umfelds des Fahrzeugs erzeugt. Die Steuerung ist derart ausgestaltet, dass die Steuerung ausgehend von diesen Bildern dreidimensionale Strukturen und deren Position in dem Umfeld erfasst, indem die Steuerung eine Bewegung dieser Strukturen innerhalb einer aus den mehreren Bildern bestehenden Bildsequenz verfolgt. Die Steuerung überträgt Informationen über die Strukturen in eine zweidimensionale zellenbasierte Karte des Umfelds, wobei die Steuerung jeder Zelle der Karte die Information zuweist, ob diese Zelle mit einem durch die Strukturen repräsentierten Objekt belegt ist oder nicht.In the context of the present invention, a system is also provided for creating a model of an environment of a vehicle. The system includes a camera for detecting the environment of the vehicle in the direction of travel and a controller. The controller controls the camera in such a way that the camera generates several images of the surroundings of the vehicle. The controller is designed in such a way that the controller, on the basis of these images, detects three-dimensional structures and their position in the environment by the controller tracking a movement of these structures within an image sequence consisting of the multiple images. The controller transfers information about the structures into a two-dimensional cell-based map of the environment, the controller assigning information to each cell of the map as to whether that cell is occupied by an object represented by the structures or not.
Die Vorteile des erfindungsgemäßen Systems entsprechen im Wesentlichen den Vorteilen des erfindungsgemäßen Verfahrens, welche vorab im Detail ausgeführt worden sind, so dass hier auf eine Wiederholung verzichtet wird.The advantages of the system according to the invention essentially correspond to the advantages of the method according to the invention, which have been carried out in detail in advance, so that a repetition is dispensed with here.
Schließlich wird im Rahmen der vorliegenden Erfindung ein Fahrzeug mit einem erfindungsgemäßen System bereitgestellt.Finally, in the context of the present invention, a vehicle is provided with a system according to the invention.
Die vorliegende Erfindung ist insbesondere für eine Kollisionsvermeidung für ein Fahrzeug geeignet. Selbstverständlich ist die vorliegende Erfindung nicht auf diesen bevorzugten Anwendungsbereich eingeschränkt, da die vorliegende Erfindung auch bei Schiffen, Flugzeugen oder gleisgebundenen Fahrzeugen eingesetzt werden könnte.The present invention is particularly suitable for collision avoidance for a vehicle. Of course, the present invention is not limited to this preferred application, since the present invention could be applied to ships, airplanes, or track-bound vehicles.
Im Folgenden wird die vorliegende Erfindung anhand von erfindungsgemäßen Ausführungsformen im Detail mit Bezug zu den Figuren erläutert.In the following, the present invention will be explained in detail by means of embodiments according to the invention with reference to the figures.
Mit
In
Mit
In
In
Wie in
Im Folgenden wird eine bevorzugte Ausführungsform des erfindungsgemäßen Verfahrens Schritt für Schritt beschrieben. Dabei ist die angegebene Reihenfolge des Verfahrens nicht als chronologische Reihenfolge zu verstehen.
- 1. Während einer Fahrt des Fahrzeugs
10 werden aufeinanderfolgende Bilder 5 mit einer inFahrtrichtung des Fahrzeugs 10 ausgerichteten Monokamera (Frontkamera)4 aufgenommen. - 2. Mit Bildverarbeitungsalgorithmen wird eine Bewegung von einzelnen Pixeln oder Bildbereichen innerhalb einer aus diesen Bildern
5 bestehenden Bildsequenz verfolgt. Diese Verfolgung der Bewegung wird über den optischen Fluss realisiert (siehe 2 , in welcher der optische Fluss für bestimmte Bildpunkte dargestellt ist). Dabei werden so genannte Tracks (Trajektorien auf der Bildebene) von den einzelnen Pixeln (auch als Feature benannt) gebildet. - 3. Die Bewegung des Fahrzeugs
10 wird mit Hilfe von üblicherweiseim Fahrzeug 10 vorhandenen Sensoren (z. B. Wegimpulsgeber, Gierratensensor, Lenkradsensor) erfasst, um daraus dieBewegung der Kamera 4 und schließlich diePosition der Kamera 4 bei der Aufnahme eines bestimmten Bildes zu erfassen. - 4. Für jedes Bild A werden bestimmte Bildpunktpaare aus den Feature-Tracks extrahiert, wobei der eine Bildpunkt dem Feature in dem Bild A und der andere Bildpunkt des Bildpunktpaars dem entsprechenden Bildpunkt des Features in dem Bild B, welches vor dem Bild A aufgenommen worden ist, entspricht. Dabei werden die Bilder A und B derart aus den
mit der Kamera 4 erfassten Bildern ausgewählt, dass die Fahrzeugbewegung und damit die Kamerabewegung zwischen den Bildern A und B signifikant (z. B. > 10 cm) ist. In3 sind dievon der Monokamera 4 über der Zeit aufgenommenenBilder 5 dargestellt. Der optische Fluss (OF) wird jeweils zwischen zwei zeitlich benachbarten Bildern5 berechnet und in Tracks verkettet. Für die dreidimensionale Rekonstruktion (”Structure from Motion” (SfM)) werden zwei zeitlich aufeinanderfolgende Bilder derart ausgewählt, dass die entsprechende Bewegung der Kamera4 zwischen diesen beiden Bildern signifikant (z. B. > 10 cm) ist. - 5.
Die im Schritt 3 bestimmte Bewegung des Fahrzeugs10 bzw.der Kamera 4 zwischen den Bildern A und B wird mit Hilfe von Kalibrierdaten (Einbauort der Kamera und Orientierung der Kamera) in dieBewegung der Kamera 4 umgerechnet, um so diePosition der Kamera 4 bei der Aufnahme des entsprechenden Bildes5 zu bestimmen. - 6. Die Rekonstruktion der Kamerabewegung kann durch die Schätzung der so genannten epipolaren Geometrie (relative Lage der Kamera zum Zeitpunkt der Aufnahme bestimmter Bilder) unter Berücksichtigung des optischen Flusses verbessert werden. Dadurch kann auch eine Nick- und Wankbewegung des Fahrzeugs
10 und damit der Kamera4 besser berücksichtigt werden. - 7. Die möglichst genaue Position der Kamera bei der Aufnahme des Bildes A relativ zu der möglichst genauen Position der Kamera bei der Aufnahme des Bildes B wird genutzt, um für jedes Bildpunktpaar A-B den Schnittpunkt der Strahlen aus Bild A und aus Bild B zu ermitteln. Dieses Verfahren wird in der Bildverarbeitung Triangulation genannt, wobei der Schnittpunkt der Strahlen die Position des jeweiligen Bildpunkts in dem dreidimensionalen Raum bestimmt.
- 8. Strukturen bzw. Objekte, welche durch die derart erfassten Bildpunkte genau im dreidimensionalen Raum lokalisiert werden können, werden in eine zellenbasierte Belegungskarte
2 oder Umfeldkarte eingetragen, so dass diese Belegungskarte2 eine zweidimensionale Diskretisierung des Fahrzeugumfelds darstellt. Dabei wird jeder Zelle dieser Belegungskarte2 ein Wert zugewiesen, welcher die Wahrscheinlichkeit einer Belegung der entsprechenden Zelle mit einem Objekt beschreibt. Mit anderen Worten besitzt jede Zelle einen Wahrscheinlichkeitswert, welcher der Wahrscheinlichkeit entspricht, dass die entsprechende Zelle mit einem Kollisionsobjekt belegt ist. Aus dieser Wahrscheinlichkeit lassen sich dieZellen der Belegungskarte 2 in freie (von keinem Objekt belegte) und belegte Zellen unterteilen. - 9. Die Wahrscheinlichkeitswerte der Zellen werden ständig aktualisiert, wodurch eine Filterung der Daten oder Wahrscheinlichkeitswerte über der Zeit möglich ist.
- 10. Auf der Grundlage der Informationen aus der Belegungskarte
2 kann der Freiraum3 vor und umdas Fahrzeug 10 herum bestimmt werden. In4b ist ein Bild der Kamera4 dargestellt. Die4a stellt die zu diesem Bild zugehörige Belegungskarte des Fahrzeugumfelds dar, wobei freie Bereiche3 und Hindernisse7 aus der Belegungskarte2 ersichtlich sind.
- 1. During a drive of the
vehicle 10 becomesuccessive pictures 5 with one in the direction of travel of thevehicle 10 aligned mono camera (front camera)4 added. - 2. With image processing algorithms, a movement of individual pixels or image areas within one of these
images 5 tracked existing image sequence. This tracking of the movement is realized via the optical flow (see2 in which the optical flux for certain pixels is shown). In the process, so-called tracks (trajectories on the image plane) are formed by the individual pixels (also named as feature). - 3. The movement of the
vehicle 10 is done with the help of usually in thevehicle 10 existing sensors (eg Wegimpulsgeber, yaw rate sensor, steering wheel sensor) is detected in order to determine the movement of thecamera 4 and finally the position thecamera 4 when capturing a particular image. - 4. For each image A, certain pixel pairs are extracted from the feature tracks, with one pixel being the feature in the image A and the other pixel of the pixel pair being the corresponding pixel of the feature in the image B taken before the image A. , corresponds. The images A and B are so out of the
camera 4 Captured images selected that the vehicle movement and thus the camera movement between the images A and B is significant (eg> 10 cm). In3 are those of themono camera 4 pictures taken overtime 5 shown. The optical flow (OF) is in each case between two temporallyadjacent images 5 calculated and chained in tracks. For three-dimensional reconstruction ("Structure from Motion" (SfM)) two temporally successive images are selected such that the corresponding movement of thecamera 4 between these two images is significant (eg> 10 cm). - 5. The in
step 3 certain movement of thevehicle 10 or thecamera 4 between the images A and B is in the movement of the camera with the help of calibration data (location of the camera and orientation of the camera)4 Converted to the position of thecamera 4 when taking thecorresponding picture 5 to determine. - 6. Reconstruction of the camera movement can be improved by estimating the so-called epipolar geometry (relative position of the camera at the time of taking certain pictures) taking into account the optical flow. This can also be a pitching and rolling motion of the
vehicle 10 and with it thecamera 4 better taken into account. - 7. The exact position of the camera when taking the image A relative to the position of the camera as accurate as possible when taking the image B is used to determine the intersection of the rays from image A and image B for each pixel pair AB. This method is called triangulation in image processing, where the intersection of the rays determines the position of the respective pixel in the three-dimensional space.
- 8. Structures or objects which can be localized precisely in three-dimensional space by the pixels thus detected, are transformed into a cell-based
occupancy map 2 or environment map entered, so thisoccupancy card 2 represents a two-dimensional discretization of the vehicle environment. Each cell of this occupancy card becomes2 assigned a value which describes the probability of occupying the corresponding cell with an object. In other words, each cell has a probability value corresponding to the probability that the corresponding cell is occupied by a collision object. From this probability, the cells of the occupancy map can be2 subdivide into free (occupied by no object) and occupied cells. - 9. The probability values of the cells are constantly updated, allowing filtering of the data or probability values over time.
- 10. Based on the information from the
occupancy card 2 can thefree space 3 in front of and around thevehicle 10 be determined around. In4b is a picture of thecamera 4 shown. The4a represents the occupancy map of the vehicle environment associated with this image, withblank areas 3 andobstacles 7 from theoccupancy card 2 can be seen.
In
In
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- DE 102007021576 A1 [0002] DE 102007021576 A1 [0002]
- EP 2048618 A1 [0002] EP 2048618 A1 [0002]
- DE 102006039104 A1 [0002] DE 102006039104 A1 [0002]
- DE 102006055908 A1 [0002] DE 102006055908 A1 [0002]
Claims (13)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102010013093A DE102010013093A1 (en) | 2010-03-29 | 2010-03-29 | Method for creating model of surrounding area of motor vehicle i.e. car, involves determining whether card cells are loaded with object represented by three- dimensional structures |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102010013093A DE102010013093A1 (en) | 2010-03-29 | 2010-03-29 | Method for creating model of surrounding area of motor vehicle i.e. car, involves determining whether card cells are loaded with object represented by three- dimensional structures |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102010013093A1 true DE102010013093A1 (en) | 2011-09-29 |
Family
ID=44586065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102010013093A Pending DE102010013093A1 (en) | 2010-03-29 | 2010-03-29 | Method for creating model of surrounding area of motor vehicle i.e. car, involves determining whether card cells are loaded with object represented by three- dimensional structures |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102010013093A1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102012214307A1 (en) | 2012-08-10 | 2014-02-13 | Robert Bosch Gmbh | Method and device for modeling an environment |
WO2014202496A1 (en) | 2013-06-18 | 2014-12-24 | Volkswagen Aktiengesellschaft | Method for displaying environment information in a vehicle |
DE102015206453A1 (en) * | 2015-04-10 | 2016-10-13 | Conti Temic Microelectronic Gmbh | MONITORING DEVICE AND METHOD FOR MONITORING A AREA BEFORE A VEHICLE DOOR |
DE102016111079A1 (en) * | 2016-06-17 | 2017-12-21 | Valeo Schalter Und Sensoren Gmbh | Method for object height detection of an object in the environment of a motor vehicle and driver assistance system |
CN115280235A (en) * | 2020-03-09 | 2022-11-01 | 采埃孚商用车系统全球有限公司 | Method, control unit and vehicle for detecting object information relating to an object in the surroundings of the vehicle |
DE102022204547A1 (en) | 2022-05-10 | 2023-11-16 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method for detecting an environment of a camera system and associated device |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5793934A (en) * | 1994-06-22 | 1998-08-11 | Siemens Aktiengesellschaft | Method for the orientation, route planning and control of an autonomous mobile unit |
EP1030188A1 (en) * | 1999-02-16 | 2000-08-23 | Mitsubishi Denki Kabushiki Kaisha | Situation awareness system |
EP1580687A1 (en) * | 2003-10-17 | 2005-09-28 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for calculating motion of mobile body, and navigation system |
DE102006027123A1 (en) * | 2006-06-12 | 2007-12-13 | Robert Bosch Gmbh | Procedure for recording a traffic area |
US20070285217A1 (en) * | 2006-04-27 | 2007-12-13 | Denso Corporation | Field recognition apparatus, method for field recognition and program for the same |
DE102006039104A1 (en) | 2006-07-31 | 2008-01-17 | Daimler Ag | Method for ranging or detection of stationary objects in surroundings of road vehicle using graphic data, involves testing object hypothesis such as stationary object against object hypothesis such as flat road |
DE102006055908A1 (en) | 2006-11-27 | 2008-05-29 | Adc Automotive Distance Control Systems Gmbh | Method for automatic high beam control |
DE102007021576A1 (en) | 2007-05-08 | 2008-11-13 | Hella Kgaa Hueck & Co. | Method and device for determining the position of a traffic sign |
EP2048618A1 (en) | 2007-10-08 | 2009-04-15 | Delphi Technologies, Inc. | Method for detecting an object |
DE102009016562A1 (en) * | 2009-04-06 | 2009-11-19 | Daimler Ag | Method for identifying objects in periphery of vehicle, involves recording image of periphery of vehicle at vehicle position, and another image of periphery of vehicle at another vehicle position by camera arranged on vehicle |
-
2010
- 2010-03-29 DE DE102010013093A patent/DE102010013093A1/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5793934A (en) * | 1994-06-22 | 1998-08-11 | Siemens Aktiengesellschaft | Method for the orientation, route planning and control of an autonomous mobile unit |
EP1030188A1 (en) * | 1999-02-16 | 2000-08-23 | Mitsubishi Denki Kabushiki Kaisha | Situation awareness system |
EP1580687A1 (en) * | 2003-10-17 | 2005-09-28 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for calculating motion of mobile body, and navigation system |
US20070285217A1 (en) * | 2006-04-27 | 2007-12-13 | Denso Corporation | Field recognition apparatus, method for field recognition and program for the same |
DE102006027123A1 (en) * | 2006-06-12 | 2007-12-13 | Robert Bosch Gmbh | Procedure for recording a traffic area |
DE102006039104A1 (en) | 2006-07-31 | 2008-01-17 | Daimler Ag | Method for ranging or detection of stationary objects in surroundings of road vehicle using graphic data, involves testing object hypothesis such as stationary object against object hypothesis such as flat road |
DE102006055908A1 (en) | 2006-11-27 | 2008-05-29 | Adc Automotive Distance Control Systems Gmbh | Method for automatic high beam control |
DE102007021576A1 (en) | 2007-05-08 | 2008-11-13 | Hella Kgaa Hueck & Co. | Method and device for determining the position of a traffic sign |
EP2048618A1 (en) | 2007-10-08 | 2009-04-15 | Delphi Technologies, Inc. | Method for detecting an object |
DE102009016562A1 (en) * | 2009-04-06 | 2009-11-19 | Daimler Ag | Method for identifying objects in periphery of vehicle, involves recording image of periphery of vehicle at vehicle position, and another image of periphery of vehicle at another vehicle position by camera arranged on vehicle |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102012214307A1 (en) | 2012-08-10 | 2014-02-13 | Robert Bosch Gmbh | Method and device for modeling an environment |
WO2014202496A1 (en) | 2013-06-18 | 2014-12-24 | Volkswagen Aktiengesellschaft | Method for displaying environment information in a vehicle |
DE102015206453A1 (en) * | 2015-04-10 | 2016-10-13 | Conti Temic Microelectronic Gmbh | MONITORING DEVICE AND METHOD FOR MONITORING A AREA BEFORE A VEHICLE DOOR |
DE102016111079A1 (en) * | 2016-06-17 | 2017-12-21 | Valeo Schalter Und Sensoren Gmbh | Method for object height detection of an object in the environment of a motor vehicle and driver assistance system |
CN115280235A (en) * | 2020-03-09 | 2022-11-01 | 采埃孚商用车系统全球有限公司 | Method, control unit and vehicle for detecting object information relating to an object in the surroundings of the vehicle |
DE102022204547A1 (en) | 2022-05-10 | 2023-11-16 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method for detecting an environment of a camera system and associated device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2766237B1 (en) | Device for assisting a driver driving a vehicle or for independently driving a vehicle | |
DE102009006336B4 (en) | Method for monitoring a parking process | |
DE19749086C1 (en) | Device for determining data indicating the course of the lane | |
EP2888604B1 (en) | Method for determining the course of a lane for a vehicle | |
DE102016107705A1 (en) | Reactive path planning for autonomous driving | |
DE102014107917A1 (en) | A method and apparatus for avoiding a collision of a vehicle comprising a motor vehicle and a trailer with an obstacle | |
EP2046619B1 (en) | Driver assistance system | |
DE102009016562A1 (en) | Method for identifying objects in periphery of vehicle, involves recording image of periphery of vehicle at vehicle position, and another image of periphery of vehicle at another vehicle position by camera arranged on vehicle | |
EP3356203B1 (en) | Method for determining a parking surface for parking a motor vehicle, driver assistance system, and motor vehicle | |
EP2200881B1 (en) | Method for estimating the relative movement of video objects and driver assistance system for motor vehicles | |
DE102015223176A1 (en) | Method and device for determining occlusion areas in the vehicle environment of a vehicle | |
DE102015203016A1 (en) | Method and device for optical self-localization of a motor vehicle in an environment | |
DE102017108254B4 (en) | All-round camera system for object recognition and tracking and method for equipping a vehicle with a panoramic camera system | |
EP2033165B1 (en) | Method for picking up a traffic space | |
DE102010013093A1 (en) | Method for creating model of surrounding area of motor vehicle i.e. car, involves determining whether card cells are loaded with object represented by three- dimensional structures | |
DE102014111012A1 (en) | A method for assisting a driver of a motor vehicle when parking out, driver assistance system and motor vehicle | |
DE102008025773A1 (en) | Local and movement conditions estimating method for observed object i.e. vehicle, involves determining distance, detecting shifting of portion of object, and estimating parameter of local and movement condition | |
EP2579228A1 (en) | Method and system for digital imaging of the vicinity of a vehicle | |
EP2801076B1 (en) | Depth image calculation using a mono camera by way of a defined trajectory | |
DE102017219119A1 (en) | Method for detecting the shape of an object in an exterior of a motor vehicle and motor vehicle | |
DE102012220191A1 (en) | Method for supporting driver during transverse guide of vehicle, involves carrying out steering intervention during collision of vehicle with recognized objects, and determining vehicle data through forward facing camera | |
DE102013010233B4 (en) | A method of displaying environmental information in a vehicle and a display system for a vehicle | |
EP2603403A1 (en) | Method for displaying images on a display device in a motor vehicle, driver assistance system, and motor vehicle | |
EP3704631A2 (en) | Method for determining a distance between a motor vehicle and an object | |
DE102019204196B4 (en) | Method for detecting the surroundings of a means of locomotion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication |