DE102018202244A1 - Method for imaging the environment of a vehicle - Google Patents

Method for imaging the environment of a vehicle Download PDF

Info

Publication number
DE102018202244A1
DE102018202244A1 DE102018202244.5A DE102018202244A DE102018202244A1 DE 102018202244 A1 DE102018202244 A1 DE 102018202244A1 DE 102018202244 A DE102018202244 A DE 102018202244A DE 102018202244 A1 DE102018202244 A1 DE 102018202244A1
Authority
DE
Germany
Prior art keywords
column
segment
determining
image
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018202244.5A
Other languages
German (de)
Inventor
Fabian Brickwedde
Steffen Abraham
Rudolf Mester
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Johann-Wolfgang-Goethe-Universitaet Frankfurt De
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102018202244.5A priority Critical patent/DE102018202244A1/en
Priority to CN201980013487.8A priority patent/CN112106059A/en
Priority to PCT/EP2019/053225 priority patent/WO2019158450A1/en
Publication of DE102018202244A1 publication Critical patent/DE102018202244A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis

Abstract

Verfahren (300) zur Abbildung der Umgebung eines Fahrzeugs (100) aufweisend die Schritte: Erfassung (302) einer Bildsequenz mittels einer Monokamera; Aufteilung (303) wenigstens eines Bildes der Bildsequenz in Spalten; Bestimmung (304, 304-a bis 304-f) von Segment-Daten in wenigstens einer Spalte; Abbildung (305) der Umgebung basierend auf den Segment -Daten; und Ausgabe (306) wenigstens eines die abgebildete Umgebung repräsentierenden Signals. Der Kern der Erfindung liegt darin, dass der Schritt der Bestimmung (304) der Segment-Daten in wenigstens einer Spalte einen Teilschritt der Zuordnung (304-e) von Bildpunkten der wenigstens einen Spalte zu einem vorgegebenen Segment-Typ aufweist.

Figure DE102018202244A1_0000
A method (300) for imaging the environment of a vehicle (100) comprising the steps of: detecting (302) an image sequence by means of a monocamera; Splitting (303) at least one image of the image sequence into columns; Determining (304, 304-a to 304-f) segment data in at least one column; Mapping (305) the environment based on the segment data; and outputting (306) at least one signal representing the imaged environment. The gist of the invention is that the step of determining (304) the segment data in at least one column comprises a substep of the mapping (304-e) of pixels of the at least one column to a predetermined segment type.
Figure DE102018202244A1_0000

Description

Die vorliegende Erfindung betrifft ein Verfahren zur Abbildung der Umgebung eines Fahrzeugs, ein Computerprogramm zur Ausführung des Verfahrens und eine Vorrichtung zur Abbildung der Umgebung eines Fahrzeugs.The present invention relates to a method for imaging the surroundings of a vehicle, a computer program for carrying out the method and a device for imaging the surroundings of a vehicle.

Stand der TechnikState of the art

Die Abbildung der Umgebung eines Fahrzeugs mittels eines Kamerasystems wird bei Fahrerassistenzsystem eingesetzt, um zum Beispiel Parklücken zu identifizieren, Notbremsfunktion auszulösen oder um teilweise autonom fahrende oder autonom fahrende Fahrzeuge durch die Umgebung zu navigieren. Zur Abbildung der Umgebung kann wenigstens ein mittels des Kamerasystems erfasstes Bild spaltenweise in Segmente, sogenannte Stixel, segmentiert werden. Ein Segment beschreibt einen kleinen Bereich in der Umgebung.The imaging of the surroundings of a vehicle by means of a camera system is used in driver assistance system, for example, to identify parking spaces, trigger emergency braking function or to navigate partially autonomously driving or autonomously driving vehicles through the environment. To image the environment, at least one image captured by means of the camera system can be segmented into segments, so-called stixels, in columns. A segment describes a small area in the environment.

Aus der DE 10 2009 009 047 A1 , der DE 10 2011 111 440 A1 , der DE 10 2012 000 459 A1 und Schneider, L. et al., Semantic Stixels: Depth is not Enough. Intelligent Vehicles Symposium (IV), 2016 IEEE. IEEE, 2016, Seite 110-117 sind Verfahren bekannt, bei denen jeweils mittels einer Stereo-Kamera erfasste Bilder spaltenweise in Stixel segmentiert werden. Hierbei basiert die Bildung der Stixel auf einer Entfernungsschätzung für jeden Bildpunkt, welche jeweils aus den beiden Bildern der Stereo-Kamera berechnet wird.From the DE 10 2009 009 047 A1 , the DE 10 2011 111 440 A1 , the DE 10 2012 000 459 A1 and Schneider, L. et al., Semantic Stixels: Depth is not Enough. Intelligent Vehicles Symposium (IV), 2016 IEEE. IEEE, 2016, pages 110-117 Methods are known in which each captured by a stereo camera images are segmented column by column into stixels. Here, the formation of the stixels is based on a range estimate for each pixel, which is calculated from the two images of the stereo camera.

Die DE 10 2016 106 293 A1 offenbart ein Verfahren und System zum Detektieren eines Objektes umfassend die folgenden Schritte: Empfangen durch einen Prozessor von Bilddaten von einer einzigen Kamera, wobei die Bilddaten ein Bild einer Szene darstellen; Bestimmen durch den Prozessor von Stixel-Daten aus den Bilddaten; Detektieren durch den Prozessor eines Objekts basierend auf den Stixel-Daten; und selektives Generieren durch den Prozessor eines Warnsignals basierend auf dem detektierten Objekt. Die DE 10 2016 122 190 A1 offenbart ein ähnliches Verfahren, bei dem weiterhin Radardaten von einem Radarsystem empfangen werden und bei dem die Bilddaten und Radardaten durch den Prozessor unter Verwendung eines Verfahrens zum tiefgehenden Lernen verarbeitet werden. Mit beiden Verfahren ist es möglich, jeweils das erste Objekt in einer Spalte zu identifizieren.The DE 10 2016 106 293 A1 discloses a method and system for detecting an object, comprising the steps of: receiving, by a processor, image data from a single camera, the image data representing an image of a scene; Determining, by the processor, stixel data from the image data; Detecting by the processor of an object based on the stixel data; and selectively generating by the processor a warning signal based on the detected object. The DE 10 2016 122 190 A1 discloses a similar method in which radar data is further received by a radar system and wherein the image data and radar data are processed by the processor using a deep learning method. With both methods it is possible to identify the first object in each column.

Offenbarung der ErfindungDisclosure of the invention

Die vorliegende Erfindung geht aus von einem Verfahren zur Abbildung der Umgebung eines Fahrzeugs. Das Verfahren weist die Schritte der Erfassung einer Bildsequenz mittels einer Monokamera, der Aufteilung wenigstens eines Bildes der Bildsequenz in Spalten, der Bestimmung von Segment-Daten in wenigstens einer Spalte, der Abbildung der Umgebung basierend auf den Segment-Daten und der Ausgabe wenigstens eines die abgebildete Umgebung repräsentierenden Signals auf.The present invention is based on a method for imaging the surroundings of a vehicle. The method comprises the steps of capturing an image sequence using a monocamera, splitting at least one image of the image sequence into columns, determining segment data in at least one column, mapping the environment based on the segment data, and outputting at least one of the imaged environment representative signal.

Erfindungsgemäß weist der Schritt der Bestimmung der Segment-Daten in wenigstens einer Spalte einen Teilschritt der Zuordnung von Bildpunkten der wenigstens einen Spalte zu einem vorgegebenen Segment-Typ auf.According to the invention, the step of determining the segment data in at least one column has a partial step of assigning pixels of the at least one column to a predetermined segment type.

Der Vorteil der Erfindung besteht darin, dass Unterschiede der Bildpunkte innerhalb einer Spalte berücksichtigt werden können. Es können Unterschiede der Bildpunkte bezüglich ihrer Entfernung zur Bildebene, Bewegung oder semantischen Klasse innerhalb einer Spalte berücksichtigt werden. Diese Unterschiede können in der Zuordnung zu einem Segment berücksichtigt werden, wobei ein Segment einem vorgegebenen Segment-Typ zugeordnet ist. Hierdurch wird es möglich, mehrere Objekte in einer Spalte zu identifizieren. Die Umgebung des Fahrzeugs kann mit höherer Genauigkeit abgebildet werden. Hierbei ist es ausreichend, eine Bildsequenz mittels einer einzigen Kamera zu erfassen. Es ist insbesondere ausreichend eine Bildsequenz mittels einer Monokamera zu erfassen. Dies macht das Verfahren kostengünstiger als Verfahren, bei denen mehrere Kameras notwendig sind. Das hier offenbarte Verfahren ist kostengünstiger als ein Verfahren, bei dem eine Stereo-Kamera notwendig ist.The advantage of the invention is that differences in the pixels within a column can be taken into account. Differences of the pixels with regard to their distance to the image plane, movement or semantic class within a column can be taken into account. These differences can be considered in the assignment to a segment, whereby a segment is assigned to a given segment type. This makes it possible to identify multiple objects in a column. The environment of the vehicle can be imaged with higher accuracy. It is sufficient to capture an image sequence using a single camera. In particular, it is sufficient to capture an image sequence by means of a monocamera. This makes the process more cost effective than processes where multiple cameras are needed. The method disclosed here is less expensive than a method in which a stereo camera is necessary.

In einer vorteilhaften Ausgestaltung der Erfindung ist vorgesehen, dass ein vorgegebener Segment-Typ ein potentiell bewegliches Objekt ist. Ein potentiell bewegliches Objekt kann ein Objekt sein, welches bewegbar ist. Ein potentiell bewegliches Objekt kann ein Objekt sein, welches sich bewegen kann. Ein potentiell bewegliches Objekt kann sich während der Erfassung der Bildsequenz bewegen. Ein potentiell bewegliches Objekt kann während der Erfassung der Bildsequenz an einer Stelle in einem Bild oder in mehreren Bildern der Bildsequenz verweilen. Ein potentiell bewegliches Objekt kann während der Erfassung der Bildsequenz an einer Stelle in einem Bild oder in mehreren Bildern der Bildsequenz positioniert sein. Ein potentiell bewegliches Objekt kann ein Fahrzeug, wie beispielsweise ein Auto, ein Lkw, ein Motorrad, ein Fahrrad oder ein Roller sein. Ein potentiell bewegliches Objekt kann beispielsweise auch ein Kinderwagen, ein Handkarren oder ähnliches sein. Ein potentiell bewegliches Objekt kann beispielsweise auch eine Person sein. Ein potentiell bewegliches Objekt kann beispielsweise auch ein Tier sein.In an advantageous embodiment of the invention, it is provided that a predetermined segment type is a potentially movable object. A potentially movable object may be an object that is movable. A potentially moving object can be an object that can move. A potentially moving object may move during the capture of the image sequence. A potentially mobile object may linger at one point in an image or in multiple images of the image sequence during the capture of the image sequence. A potentially moving object may be positioned at one location in an image or in multiple images of the image sequence during capture of the image sequence. A potentially movable object may be a vehicle such as a car, a truck, a motorcycle, a bicycle or a scooter. A potentially movable object may for example also be a stroller, a handcart or the like. For example, a potentially mobile object may also be a person. For example, a potentially mobile object may also be an animal.

Ein weiterer vorgegebener Segment-Typ kann ein statisches Objekt sein. Ein statisches Objekt kann ein Objekt sein, welches bei veränderten Bedingungen weitestgehend unverändert bleibt. Ein statisches Objekt kann während der Erfassung der Bildsequenz an einer Stelle in einem Bild oder in mehreren Bildern der Bildsequenz positioniert sein. Es können sich Teile eines statischen Objekts während der Erfassung der Bildsequenz bewegen, wobei das statische Objekt als Gesamtes während der Erfassung der Bildsequenz an einer Stelle in einem Bild oder in mehreren Bildern der Bildsequenz positioniert bleibt. Es können sich Teile eines statischen Objekts während der Erfassung der Bildsequenz bewegen, wobei wenigstens ein Fixpunkt des statischen Objekts während der Erfassung der Bildsequenz an einer Stelle in einem Bild oder in mehreren Bildern der Bildsequenz positioniert bleibt. Ein statisches Element kann beispielsweise ein Gebäude, ein Mast, ein Verkehrszeichen, eine Beleuchtungsanlage, ein Teil der Vegetation oder ähnliches sein.Another given segment type can be a static object. A static object can be an object that is modified Conditions remain largely unchanged. A static object may be positioned at a location in an image or in multiple images of the image sequence during capture of the image sequence. Parts of a static object may move during the capture of the image sequence, with the static object as a whole remaining positioned at one point in one image or in multiple images of the image sequence during acquisition of the image sequence. Parts of a static object may move during the acquisition of the image sequence, with at least one fixed point of the static object remaining positioned during the acquisition of the image sequence at a location in one or more images of the image sequence. A static element may be, for example, a building, a mast, a traffic sign, a lighting system, a part of the vegetation or the like.

Ein weiterer vorgegebener Segment-Typ kann Himmel sein. Ein weiterer vorgegebener Segment-Typ kann Boden sein. Ein Segment-Typ kann durch seine Geometrie definiert sein. Ein Segment-Typ kann durch seine Orientierung definiert sein. Für den Segment-Typ Himmel kann die Geometrie derart sein, dass ein Himmel-Segment unendlich weit entfernt ist. Für den Segment-Typ Boden kann die Geometrie derart sein, dass ein Boden-Segment als liegend angesehen wird. Für den Segment-Typ statisches Objekt kann die Geometrie derart sein, dass die Orientierung des Segmentes des statischen Objekts senkrecht zum Boden definiert ist. Für den Segment-Typ potentiell bewegliches Objekt kann die Geometrie derart sein, dass die Orientierung des Segmentes des potentiell beweglichen Objekts senkrecht zum Boden definiert ist.Another given segment type can be sky. Another given segment type may be ground. A segment type can be defined by its geometry. A segment type can be defined by its orientation. For the segment type sky, the geometry may be such that a sky segment is infinitely far away. For the segment type of floor, the geometry may be such that a floor segment is considered lying. For the segment type static object, the geometry may be such that the orientation of the segment of the static object is defined perpendicular to the ground. For the segment type potentially moving object, the geometry may be such that the orientation of the segment of the potentially mobile object is defined perpendicular to the ground.

Der Vorteil dieser Ausgestaltung besteht darin, dass die Genauigkeit der Abbildung der Umgebung des Fahrzeugs erhöht werden kann. Insbesondere können Objekte durch die Unterscheidung in statische und potentiell bewegliche Objekte deutlich besser voneinander unterschieden werden.The advantage of this embodiment is that the accuracy of imaging the environment of the vehicle can be increased. In particular, objects can be clearly distinguished from one another by the distinction between static and potentially movable objects.

In einer weiteren vorteilhaften Ausgestaltung der Erfindung ist vorgesehen, dass der Schritt der Bestimmung der Segment-Daten in wenigstens einer Spalte einen weiteren Teilschritt der Bildung wenigstens eines Segments in einer Spalte aufweist. Hierbei geschieht die Bildung eines Segmentes in Abhängigkeit der den jeweiligen Bildpunkten zugeordneten Segment-Typen und einer jeweiligen Entfernung der Bildpunkte zur Bildebene des einen Bildes und einer die jeweilige Bewegung eines Bildpunktes charakterisierenden Größe. Der Vorteil dieser Ausgestaltung besteht darin, dass die Umgebung des Fahrzeugs mit höherer Genauigkeit abgebildet werden kann. Es können mehrere Objekte in einer Spalte mit hoher Genauigkeit identifiziert werden. Durch die Abhängigkeit von einer jeweiligen Entfernung der Bildpunkte zur Bildebene kann eine Tiefenstruktur der Umgebung erkannt werden. So können beispielsweise in einer Spalte wenigstens zwei Segmente gebildet werden, wobei zum Beispiel ein Segment einem ersten potentiell dynamischen Objekt mit einer ersten Entfernung der Bildpunkte zur Bildebene zugeordnet ist und wobei ein wenigstens zweites Segment einem zweiten potentiell dynamischen Objekt mit einer zweiten Entfernung der Bildpunkte zur Bildebene zugeordnet ist. Die die jeweilige Bewegung eines Bildpunktes charakterisierende Größe kann ebenfalls die Abbildung der Umgebung erheblich verbessern. Hierbei können zum Beispiel zwei voneinander verschiedene Geschwindigkeiten zweier Fahrzeuge berücksichtigt werden.In a further advantageous embodiment of the invention, it is provided that the step of determining the segment data in at least one column has a further sub-step of forming at least one segment in a column. In this case, the formation of a segment takes place as a function of the segment types assigned to the respective pixels and a respective distance of the pixels to the image plane of the one image and to a variable characterizing the respective movement of a pixel. The advantage of this embodiment is that the environment of the vehicle can be imaged with greater accuracy. Multiple objects in one column can be identified with high accuracy. Due to the dependence on a respective distance of the pixels to the image plane, a deep structure of the environment can be detected. Thus, for example, at least two segments may be formed in a column, with, for example, a segment associated with a first potentially dynamic object having a first distance of the pixels to the image plane, and an at least second segment being associated with a second potentially dynamic object having a second distance of the pixels Image level is assigned. The size characterizing the particular motion of a pixel can also greatly enhance the imaging of the environment. In this case, for example, two different speeds of two vehicles can be taken into account.

In einer weiteren vorteilhaften Ausgestaltung der Erfindung ist vorgesehen, dass der Schritt der Bestimmung der Segment-Daten in wenigstens einer Spalte einen weiteren Teilschritt der Ermittlung eines erwarteten optischen Flusses wenigstens eines Bildpunktes der wenigstens einen Spalte mittels einer Homographie aufweist. Insbesondere weist der Schritt der Bestimmung der Segment-Daten in wenigstens einer Spalte einen weiteren Teilschritt der Ermittlung eines erwarteten optischen Flusses wenigstens eines Segmentes der wenigstens einen Spalte mittels einer Homographie auf. Als ein optischer Fluss kann eine Bewegung eines Bildpunktes zwischen zwei Bildern verstanden werden. Unter einer Homographie kann die Abbildung der Segment-Ebene zwischen zwei Bildern verstanden werden. Unter einer Homographie kann die Projektion der Segment-Ebene zwischen zwei Bildern verstanden werden. Alternativ zur expliziten Beschreibung mittels Homographie kann auch eine heuristische Ermittelung des erwarteten optischen Flusses erfolgen. Der Vorteil dieser Ausgestaltung besteht darin, dass es eine Unterscheidung von Segmenten anhand des erwarteten optischen Flusses ermöglicht wird. Die Zuordnung von Bildpunkten zu einem vorgegebenen Segment-Typ, wie beispielsweise Himmel, Boden, statisches Objekt oder potentiell bewegliches Objekt kann ermöglicht werden. Die Zuordnung von Bildpunkten zu Segmenten mit unterschiedlicher Entfernung zur Bildebene kann ermöglicht werden. Die Zuordnung von Bildpunkten zu Segmenten mit unterschiedlicher Bewegung kann ermöglicht werden.In a further advantageous embodiment of the invention, it is provided that the step of determining the segment data in at least one column comprises a further sub-step of determining an expected optical flow of at least one pixel of the at least one column by means of a homography. In particular, the step of determining the segment data in at least one column comprises a further sub-step of determining an expected optical flow of at least one segment of the at least one column by means of homography. As an optical flow, a movement of a pixel between two images can be understood. A homography can be understood as the image of the segment level between two images. Homography can be understood as the projection of the segmental plane between two images. Alternatively to the explicit description by means of homography, a heuristic determination of the expected optical flow can also be carried out. The advantage of this embodiment is that it allows a distinction of segments based on the expected optical flow. The assignment of pixels to a given segment type, such as sky, ground, static object or potentially movable object can be made possible. The assignment of pixels to segments with different distances to the image plane can be made possible. The assignment of pixels to segments with different movement can be made possible.

In einer weiteren vorteilhaften Ausgestaltung der Erfindung ist vorgesehen, dass der erwartete optische Fluss unter Berücksichtigung wenigstens einer vorgegebenen Annahme ermittelt wird. Eine vorgegebene Annahme kann die Geometrie des Segment-Typs sein. Eine vorgegeben Annahme kann die Bewegungsform des Segment-Typs sein. Eine vorgegebene Annahme kann die Entfernung des Segmentes zur Bildebene sein. Eine vorgegebene Annahme kann die Bewegung des Segmentes sein. Der Vorteil dieser Ausgestaltung besteht darin, dass die Anzahl der Parameter zur Ermittlung des erwarteten Flusses reduziert wird. Der Rechenaufwand des beschriebenen Verfahrens kann verringert werden. So kann zum Beispiel vermieden werden, unnötigerweise für ein statisches Objekt eine Bewegung zu bestimmen. Die Genauigkeit der Bestimmung der Segment-Daten kann erhöht werden.In a further advantageous embodiment of the invention it is provided that the expected optical flux is determined taking into account at least one predetermined assumption. A given assumption may be the geometry of the segment type. A given assumption may be the motion of the segment type. A given assumption may be the distance of the segment to the image plane. A given assumption may be the movement of the segment. The advantage of this embodiment is that the Number of parameters for determining the expected flow is reduced. The computational effort of the described method can be reduced. For example, it is possible to avoid unnecessarily determining movement for a static object. The accuracy of the determination of the segment data can be increased.

In einer weiteren vorteilhaften Ausgestaltung der Erfindung ist vorgesehen, dass die Ermittlung des erwarteten optischen Flusses unter Berücksichtigung wenigstens eines eine Bewegung der Kamera repräsentierenden Signals erfolgt. Der Vorteil dieser Ausgestaltung besteht darin, dass der erwartete optische Fluss mit höherer Genauigkeit ermittelt werden kann.In a further advantageous embodiment of the invention, it is provided that the determination of the expected optical flow takes place taking into account at least one signal representing a movement of the camera. The advantage of this embodiment is that the expected optical flux can be determined with higher accuracy.

In einer weiteren vorteilhaften Ausgestaltung der Erfindung ist vorgesehen, dass der Schritt der Bestimmung der Segment-Daten in wenigstens einer Spalte einen weiteren Teilschritt des Vergleichs des erwarteten optischen Flusses eines Bildpunktes mit einem anhand der erfassten Bildsequenzen ermittelten optischen Fluss desselben Bildpunkts aufweist. Der anhand der erfassten Bildsequenzen ermittelte optische Fluss eines Bildpunkts kann hierbei als eine die jeweilige Bewegung eines Bildpunktes charakterisierende Größe verstanden werden. Der Vorteil dieser Ausgestaltung besteht darin, dass die Zuordnung von Bildpunkten zu einem vorgegebenen Segment-Typ mit hoher Genauigkeit erfolgen kann. Die Zuordnung von Bildpunkten zu Segmenten mit unterschiedlicher Entfernung zur Bildebene kann mit hoher Genauigkeit erfolgen. Die Zuordnung von Bildpunkten zu Segmenten mit unterschiedlicher Bewegung kann mit hoher Genauigkeit erfolgen.In a further advantageous embodiment of the invention, it is provided that the step of determining the segment data in at least one column has a further sub-step of comparing the expected optical flow of a pixel with an optical flow of the same pixel determined on the basis of the acquired image sequences. The optical flux of a pixel determined on the basis of the acquired image sequences can here be understood as a variable characterizing the respective movement of a pixel. The advantage of this embodiment is that the assignment of pixels to a given segment type can be done with high accuracy. The assignment of pixels to segments with different distances to the image plane can be done with high accuracy. The assignment of pixels to segments with different motion can be done with high accuracy.

In einer weiteren vorteilhaften Ausgestaltung der Erfindung ist vorgesehen, dass die Zuordnung von Bildpunkten der wenigstens einen Spalte zu einem vorgegebenen Segment-Typ mittels einer Minimierung eines Energieterms geschieht. Die Minimierung des Energieterms kann über dynamische Programmierung erfolgen. Der Vorteil dieser Ausgestaltung besteht darin, dass der Rechenaufwand des beschriebenen Verfahrens verringert werden kann.In a further advantageous embodiment of the invention, it is provided that the assignment of pixels of the at least one column to a predetermined segment type by means of a minimization of an energy term happens. The minimization of the energy term can be done via dynamic programming. The advantage of this embodiment is that the computational effort of the described method can be reduced.

In einer weiteren vorteilhaften Ausgestaltung der Erfindung ist vorgesehen, dass die Zuordnung von Bildpunkten der wenigstens einen Spalte zum Segment-Typ eines potentiell beweglichen Objekts abhängig von einer Zuordnung jedes Bildpunktes der wenigstens einen Spalte zu einer vorgegebenen semantischen Klasse ist. Unter einer vorgegebenen semantischen Klasse kann zum Beispiel eine Klasse von Objekten ähnlicher Eigenschaften verstanden werden. Einer vorgegebenen semantische Klasse kann zum Beispiel Himmel zugeordnet werden. Zu einer weiteren vorgegebenen semantischen Klasse kann zum Beispiel Straße, Gehweg oder Gelände zugeordnet sein. Zu einer weiteren vorgegebenen semantischen Klasse können beispielsweise Fahrzeuge oder Personen zugeordnet sein. Zu einer weiteren vorgegebenen semantischen Klasse können zum Beispiel Gebäude, Maste, Schilder oder Vegetation zugeordnet sein. Der Vorteil dieser Ausgestaltung besteht insbesondere darin, dass die Unterscheidung zwischen statischen und potentiell beweglichen Objekten unterstützt werden kann. Die Abbildung der Umgebung kann mit höherer Genauigkeit erfolgen.In a further advantageous embodiment of the invention, it is provided that the assignment of pixels of the at least one column to the segment type of a potentially movable object is dependent on an assignment of each pixel of the at least one column to a predetermined semantic class. For example, a given semantic class can be understood as a class of objects of similar properties. For example, a given semantic class can be assigned a sky. For example, road, sidewalk or terrain may be assigned to another predetermined semantic class. For example, vehicles or persons can be assigned to another predetermined semantic class. For example, buildings, masts, signs or vegetation can be assigned to another predetermined semantic class. The advantage of this embodiment is in particular that the distinction between static and potentially movable objects can be supported. The mapping of the environment can be done with greater accuracy.

In einer weiteren vorteilhaften Ausgestaltung der Erfindung ist vorgesehen, dass der Schritt der Bestimmung der Segment-Daten in wenigstens einer Spalte einen weiteren Teilschritt der Ermittlung der Entfernung der Bildpunkte potentiell beweglicher Objekte zur Bildebene mittels eines Fahrzeugumfeldmodells aufweist. Unter einem Fahrzeugumfeldmodell kann das Wissen über typische Strukturen von Straßenszenen verstanden werden. Es wird zum Beispiel davon ausgegangen, dass potentiell bewegliche Objekte wie Fahrzeuge oder Fußgänger in Straßenszenen typischerweise auf dem Boden stehen. Der Vorteil dieser Ausgestaltung besteht darin, dass die Unterscheidung von Segmenten potentiell beweglicher Objekte mit unterschiedlichen Entfernungen zur Bildebene auch dann ermöglicht wird, wenn der erwartete optische Fluss dieser Segmente gleich ist.In a further advantageous embodiment of the invention, it is provided that the step of determining the segment data in at least one column has a further sub-step of determining the distance of the pixels of potentially movable objects to the image plane by means of a vehicle environment model. Under a vehicle environment model, the knowledge of typical structures of street scenes can be understood. For example, it is assumed that potentially moving objects such as vehicles or pedestrians in street scenes are typically on the ground. The advantage of this embodiment is that the distinction of segments of potentially moving objects with different distances to the image plane is made possible even if the expected optical flow of these segments is the same.

Die Erfindung geht weiterhin aus von einem Computerprogramm, welches dazu eingerichtet ist alle Schritte des beschriebenen Verfahrens auszuführen.The invention is further based on a computer program which is set up to carry out all steps of the described method.

Die Erfindung geht weiterhin aus von einem maschinenlesbaren Speichermedium, auf dem das Computerprogramm gespeichert ist.The invention is further based on a machine-readable storage medium on which the computer program is stored.

Die Erfindung geht weiterhin aus von einer Vorrichtung zur Abbildung der Umgebung eines Fahrzeugs. Die Vorrichtung weist wenigstens eine Monokamera zur Erfassung einer Bildsequenz, wenigstens ein Modul zur Aufteilung wenigstens eines Bildes der Bildsequenz in Spalten, wenigstens ein Modul zur Bestimmung von Segment-Daten in wenigstens einer Spalte, wenigstens ein Modul zur Abbildung der Umgebung basierend auf den Segment-Daten und wenigstens ein Modul zur Ausgabe wenigstens eines die abgebildete Umgebung repräsentierenden Signals auf. Das Modul zur Bestimmung von Segment-Daten in wenigstens einer Spalte ist dazu ausgebildet, Bildpunkte der wenigstens einen Spalte zu einem vorgegebenen Segment-Typ zuzuordnen.The invention is further based on a device for imaging the surroundings of a vehicle. The device has at least one monocamera for capturing an image sequence, at least one module for splitting at least one image of the image sequence into columns, at least one module for determining segment data in at least one column, at least one module for imaging the environment based on the segment data. Data and at least one module for outputting at least one signal representing the imaged environment. The module for determining segment data in at least one column is designed to assign pixels of the at least one column to a predetermined segment type.

In einer vorteilhaften Ausgestaltung der Erfindung ist das Modul zur Bestimmung von Segment-Daten in wenigstens einer Spalte weiterhin dazu ausgebildet, einen erwarteten optischen Fluss wenigstens eines Bildpunktes der wenigstens einen Spalte mittels einer Homographie zu ermitteln. Insbesondere ist das Modul zur Bestimmung der Segment-Daten in wenigstens einer Spalte dazu ausgebildet, einen erwarteten optischen Fluss wenigstens eines Segmentes der wenigstens einen Spalte mittels einer Homographie zu ermitteln.In an advantageous embodiment of the invention, the module for determining segment data in at least one column is further adapted to determine an expected optical flow of at least one pixel of the at least one column by means of a homography. In particular, the module for determining the segment Data in at least one column designed to determine an expected optical flow of at least one segment of the at least one column by means of a homography.

Figurenlistelist of figures

Nachfolgend werden Ausführungsbeispiele der vorliegenden Erfindung anhand der beiliegenden Zeichnungen näher erläutert. Gleiche Bezugszeichen in den Figuren bezeichnen gleiche oder gleichwirkende Elemente. Es zeigen:

  • 1 ein Fahrzeug mit einem Ausführungsbeispiel einer Vorrichtung zur Abbildung der Umgebung;
  • 2 ein Ausführungsbeispiel eines Steuergeräts auf der ein Verfahren zur Abbildung der Umgebung eines Fahrzeugs ablaufen kann;
  • 3 ein Ausführungsbeispiel eines Verfahrens zur Abbildung der Umgebung eines Fahrzeugs.
Hereinafter, embodiments of the present invention will be explained in more detail with reference to the accompanying drawings. Like reference numerals in the figures indicate the same or equivalent elements. Show it:
  • 1 a vehicle with an embodiment of a device for mapping the environment;
  • 2 an embodiment of a control device on which a process for mapping the environment of a vehicle can run;
  • 3 An embodiment of a method for imaging the environment of a vehicle.

1 zeigt beispielhaft ein Fahrzeug 100 mit einem Ausführungsbeispiel einer Vorrichtung 110 zur Abbildung der Umgebung des Fahrzeugs 100. Die Vorrichtung 110 weist die Monokamera 101 auf. Die Monokamera 101 kann eine Bildsequenz der Umgebung des Fahrzeugs 100 erfassen. Die Vorrichtung 110 weist weiterhin wenigstens ein Steuergerät 102 auf, auf dem das Verfahren zur Abbildung der Umgebung eines Fahrzeugs abläuft. Von der Monokamera 101 wird wenigstens ein die Bilddaten der Bildsequenz repräsentierendes Signal 105 zum Steuergerät 102 übermittelt. Das Steuergerät 102 kann dazu ausgebildet sein, wenigstens ein die Bilddaten der Bildsequenz repräsentierendes Signal 105 zu empfangen. Das Steuergerät 102 kann dazu ausgebildet sein, wenigstens ein Bild der Bildsequenz in Spalten aufzuteilen. Das Steuergerät 102 kann weiterhin dazu ausgebildet sein, Segment-Daten in wenigstens einer Spalte zu bestimmen. Das Steuergerät 102 kann weiterhin dazu ausgebildet sein, die Umgebung des Fahrzeugs 100 basierend auf den Segment-Daten abzubilden. Das Steuergerät 102 kann weiterhin dazu ausgebildet sein, wenigstens ein die abgebildete Umgebung repräsentierendes Signal 106, 107 auszugeben. Ein die abgebildete Umgebung repräsentierendes Signal kann beispielsweise in Form eines Warnsignals 106 an ein Warnmodul 104 des Fahrzeugs 100 ausgegeben werden. Ein Warnmodul 104 kann beispielsweise dazu ausgebildet sein, einen Insassen des Fahrzeugs 100 vor einem in der Umgebung des Fahrzeugs 100 erkannten Objekts zu warnen. Ein die abgebildete Umgebung repräsentierendes Signal kann beispielsweise in Form eines Steuersignals 107 an ein Steuermodul 103 des Fahrzeugs 100 ausgegeben werden. Ein Steuermodul 103 kann beispielsweise dazu ausgebildet sein, das Fahrzeug 100 anzusteuern. Weiterhin kann das Fahrzeug 100 wenigstens einen Sensor 108 zur Erfassung einer Bewegung der Monokamera 101 aufweisen. Vom Sensor 108 kann wenigstens ein die Bewegung der Monokamera repräsentierendes Signal 109 an das Steuergerät 102 übermittelt werden. Das Steuergerät 102 kann dazu ausgebildet sein, wenigstens ein die Bewegung der Monokamera repräsentierendes Signal 109 zu empfangen. 1 shows an example of a vehicle 100 with an embodiment of a device 110 for imaging the environment of the vehicle 100 , The device 110 assigns the mono camera 101 on. The mono camera 101 can be a picture sequence of the environment of the vehicle 100 to capture. The device 110 also has at least one control unit 102 on which the procedure for imaging the environment of a vehicle is running. From the mono camera 101 becomes at least one signal representing the image data of the image sequence 105 to the control unit 102 transmitted. The control unit 102 can be designed to at least one signal representing the image data of the image sequence 105 to recieve. The control unit 102 may be configured to split at least one image of the image sequence into columns. The control unit 102 may be further configured to determine segment data in at least one column. The control unit 102 may be further adapted to the environment of the vehicle 100 based on the segment data. The control unit 102 can also be designed to at least one signal representing the imaged environment 106 . 107 issue. A signal representing the imaged environment may be in the form of a warning signal, for example 106 to a warning module 104 of the vehicle 100 be issued. A warning module 104 For example, it may be configured to be an occupant of the vehicle 100 in front of one in the vicinity of the vehicle 100 to warn the detected object. A signal representing the imaged environment may be in the form of a control signal, for example 107 to a control module 103 of the vehicle 100 be issued. A control module 103 For example, it may be configured to the vehicle 100 driving. Furthermore, the vehicle 100 at least one sensor 108 for detecting a movement of the monocamera 101 respectively. From the sensor 108 can at least one signal representing the movement of the mono camera 109 to the control unit 102 be transmitted. The control unit 102 can be designed to at least one signal representing the movement of the monocamera 109 to recieve.

2 zeigt ein Ausführungsbeispiel eines Steuergeräts 102 auf der ein Verfahren zur Abbildung der Umgebung eines Fahrzeugs ablaufen kann. Wie eben beschrieben kann das Steuergerät 102 ein Teil der in 1 beschriebenen Vorrichtung 110 sein. Wie aus 2 ersichtlich wird, kann das Steuergerät 102 mehrere Module aufweisen. Darüber hinaus können im Steuergerät 102 vorgegebene Daten 207 hinterlegt sein. Zum Beispiel kann im Steuergerät 102 wenigstens ein vorgegebener Segment-Typ 207-1 hinterlegt sein. Es kann im Steuergerät 102 wenigstens eine vorgegebene Annahme 207-2 zur Ermittlung eines erwarteten optischen Flusses hinterlegt sein. Es kann im Steuergerät 102 wenigstens eine vorgegebene semantischen Klasse 207-3 hinterlegt sein. Es kann im Steuergerät 102 wenigstens ein Fahrzeugumfeldmodell 207-4 hinterlegt sein. 2 shows an embodiment of a control device 102 on which a process for mapping the environment of a vehicle can proceed. As just described, the controller 102 a part of in 1 described device 110 his. How out 2 it can be seen, the control unit 102 have several modules. In addition, in the control unit 102 given data 207 be deposited. For example, in the control unit 102 at least one predetermined segment type 207 - 1 be deposited. It can be in the control unit 102 at least one given assumption 207 - 2 be deposited to determine an expected optical flow. It can be in the control unit 102 at least one given semantic class 207 - 3 be deposited. It can be in the control unit 102 at least one vehicle environment model 207 - 4 be deposited.

Das Steuergerät 102 kann ein Modul 201 zur Aufteilung wenigstens eines Bildes der Bildsequenz in Spalten aufweisen. Das Modul 201 kann dazu ausgebildet sein, ein die Bilddaten der Bildsequenz repräsentierendes Signal 105 zu empfangen. Das Steuergerät 102 kann weiterhin ein Modul 202 zur Bestimmung von Segment-Daten in wenigstens einer Spalte aufweisen. Das Modul 201 kann dazu ausgebildet sein, ein Signal 209, welches ein in Spalten aufgeteiltes Bild repräsentiert, an das Modul 202 zu übermitteln. Das Modul 202 kann dazu ausgebildet sein, dass Signal 209 zu empfangen. Das Modul 201 und das Modul 202 können als eine gemeinsame Steuereinheit ausgebildet sein. Das Modul 201 und das Modul 202 können gemeinsam als das Modul 208 zur Bestimmung von Segment-Daten in wenigstens einem Bild einer Bildsequenz ausgebildet sein. Das Steuergerät 102 kann weiterhin ein Modul 205 zur Ermittlung eines optischen Flusses wenigstens eines Bildpunktes eines Bildes einer erfassten Bildsequenz aufweisen. Das Modul 205 kann dazu ausgebildet sein, ein die Bilddaten der Bildsequenz repräsentierendes Signal 105 zu empfangen. Das Modul 205 kann dazu ausgebildet sein, ein den ermittelten optischen Fluss wenigstens eines Bildpunktes eines Bildes repräsentierendes Signal 210 an das Modul 202 zu übermitteln. Das Modul 202 kann dazu ausgebildet sein, dass Signal 210 zu empfangen. Das Steuergerät 102 kann weiterhin ein Modul 206 zur Zuordnung wenigstens eines Bildpunktes wenigstens eines Bildes der Bildsequenz zu einer vorgegebenen semantischen Klasse aufweisen. Das Modul 202 kann beispielsweise dazu ausgebildet sein, ein wenigstens eine vorgegebene semantische Klasse 207-3 repräsentierendes Signal 212-3 zu empfangen. Das Modul 206 kann dazu ausgebildet sein, ein die Bilddaten der Bildsequenz repräsentierendes Signal 105 zu empfangen. Das Modul 206 kann dazu ausgebildet sein, ein die Zuordnung wenigstens eines Bildpunktes wenigstens eines Bildes der Bildsequenz zu einer vorgegebenen semantischen Klasse repräsentierendes Signal 211 an das Modul 202 zu übermitteln. Das Modul 202 kann dazu ausgebildet sein, dass Signal 211 zu empfangen. Das Modul 202 kann weiterhin dazu ausgebildet sein, vorgegebene Daten 207 zu empfangen. Das Modul 202 kann beispielsweise dazu ausgebildet sein, ein vorgegebene Daten repräsentierendes Signal 212 zu empfangen.The control unit 102 can be a module 201 for splitting at least one image of the image sequence into columns. The module 201 may be designed to be a signal representing the image data of the image sequence 105 to recieve. The control unit 102 can continue a module 202 for determining segment data in at least one column. The module 201 can be designed to be a signal 209 representing a columnized image to the module 202 to convey. The module 202 may be configured to signal 209 to recieve. The module 201 and the module 202 may be formed as a common control unit. The module 201 and the module 202 can work together as the module 208 be designed to determine segment data in at least one image of an image sequence. The control unit 102 can continue a module 205 for determining an optical flow of at least one pixel of an image of a captured image sequence. The module 205 may be designed to be a signal representing the image data of the image sequence 105 to recieve. The module 205 can be designed to be a signal representing the determined optical flow of at least one pixel of an image 210 to the module 202 to convey. The module 202 may be configured to signal 210 to recieve. The control unit 102 can continue a module 206 for assigning at least one pixel of at least one image of the image sequence to a predetermined semantic class. The module 202 For example, it may be designed to have at least one predetermined semantic class 207 - 3 representing signal 212 - 3 to recieve. The module 206 may be designed to be a signal representing the image data of the image sequence 105 to recieve. The module 206 For example, it can be designed to have a signal representing the assignment of at least one pixel of at least one image of the image sequence to a given semantic class 211 to the module 202 to convey. The module 202 may be configured to signal 211 to recieve. The module 202 may be further adapted to given data 207 to recieve. The module 202 For example, it may be configured to receive a signal representing a predetermined data 212 to recieve.

Das Modul 202 kann weiterhin dazu ausgebildet sein, ein die in wenigstens einer Spalte bestimmten Segment-Daten repräsentierendes Signal an ein Modul 203 zur Abbildung der Umgebung zu übermitteln. Das Modul 203 kann ebenfalls Teil des Steuergeräts 102 sein. Das Modul 203 kann beispielsweise die für mehrere Spalten bestimmten Segment-Daten zu einem Bild zusammenfügen. Ein derartiges Bild kann die Umgebung des Fahrzeugs abbilden. Das Modul 203 kann dazu ausgebildet sein, ein die abgebildete Umgebung repräsentierendes Signal an ein Modul 204 zur Ausgabe des wenigstens einen die abgebildete Umgebung repräsentierendes Signals 214 zu übermitteln. Das Modul 204 kann das die abgebildete Umgebung repräsentierende Signal 214 beispielsweise in Form eines Warnsignals 106 ausgeben. Das Modul 204 kann das die abgebildete Umgebung repräsentierendes Signal 214 beispielsweise in Form eines Steuersignals 107 ausgeben.The module 202 Furthermore, it can be designed to send a signal representing the segment data determined in at least one column to a module 203 to convey the picture of the environment. The module 203 can also be part of the controller 102 his. The module 203 For example, you can merge the multi-column segment data into one image. Such an image can map the surroundings of the vehicle. The module 203 may be adapted to a signal representing the imaged environment to a module 204 for outputting the at least one signal representing the imaged environment 214 to convey. The module 204 may be the signal representing the imaged environment 214 for example in the form of a warning signal 106 output. The module 204 may be the signal representing the imaged environment 214 for example in the form of a control signal 107 output.

3 zeigt ein Ausführungsbeispiel eines Verfahrens 300 zur Abbildung der Umgebung eines Fahrzeugs. Das Verfahren 300 kann beispielsweise auf einer Vorrichtung 110, wie sie in 1 gezeigt ist, ablaufen. Das Verfahren 300 startet im Schritt 301. Im Schritt 302 kommt es zur Erfassung einer Bildsequenz der Umgebung des Fahrzeugs. Im Schritt 303 kommt es zur Aufteilung wenigstens eines Bildes der Bildsequenz in Spalten. Die Spalten können eine feste Breite ws aufweisen. Die Breite ws kann für jede der Spalten gleich sein. Im Schritt 304 kommt es zur Bestimmung von Segment-Daten in wenigstens einer der Spalten. Die Bestimmung von Segment-Daten wird somit zu einem eindimensionalen Optimierungsproblem. Dieses Optimierungsproblem kann unabhängig voneinander für jede Spalte gelöst werden. Die Bestimmung von Segment-Daten kann folgendermaßen erfolgen: s = { s i | 1 i N h }

Figure DE102018202244A1_0001

mit s i = ( v i b ,   v i t ,   m i ,   p i ,   t i ,   c i )
Figure DE102018202244A1_0002
3 shows an embodiment of a method 300 for imaging the environment of a vehicle. The procedure 300 For example, on a device 110 as they are in 1 shown is expire. The procedure 300 starts in step 301 , In step 302 it comes to capturing an image sequence of the environment of the vehicle. In step 303 it comes to the division of at least one image of the image sequence in columns. The columns can be a fixed width w s respectively. The width w s can be the same for each of the columns. In step 304 it comes to the determination of segment data in at least one of the columns. The determination of segment data thus becomes a one-dimensional optimization problem. This optimization problem can be solved independently for each column. The determination of segment data can be done as follows: s = { s i | 1 i N H }
Figure DE102018202244A1_0001

With s i = ( v i b . v i t . m i . p i . t i . c i )
Figure DE102018202244A1_0002

Hierin bedeuten:

s
= Menge der Segmente in dieser Spalte
si
= Segment
i
= Index des Segments
N
= Anzahl der Segmente in dieser Spalte
h
= Anzahl der Bildpunkte entlang der Spalte
Figure DE102018202244A1_0003
= untere Bildkoordinate des Segments i
Figure DE102018202244A1_0004
= obere Bildkoordinate des Segments i
mi
= Segment-Typ des Segments i
pi
= inverse Entfernung des Segments i zur Bildebene
ti
= Bewegung des Segments i
ci
= semantische Klasse des Segments i.
Herein mean:
s
= Amount of segments in this column
s i
= Segment
i
= Index of the segment
N
= Number of segments in this column
H
= Number of pixels along the column
Figure DE102018202244A1_0003
= lower image coordinate of the segment i
Figure DE102018202244A1_0004
= upper image coordinate of the segment i
m i
= Segment type of the segment i
p i
= inverse distance of the segment i to the image plane
t i
= Movement of the segment i
c i
= semantic class of segment i.

Die Bestimmung von Segment-Daten in wenigstens einer der Spalten kann als Energieminimierungsproblem formuliert werden: s ^ = min s   E ( s , f , l ) = min s ( Ψ ( s ) + Φ ( s , f , l ) )

Figure DE102018202244A1_0005
The determination of segment data in at least one of the columns can be formulated as an energy minimization problem: s ^ = min s e ( s . f . l ) = min s ( Ψ ( s ) + Φ ( s . f . l ) )
Figure DE102018202244A1_0005

Hierin bedeuten:

E =
Energie
ŝ =
ermittelte Menge der Segmente in dieser Spalte
Ψ(s) =
Fahrzeugumfeldmodell
Φ(s,f, l) =
Datenwahrscheinlichkeit
f =
optischer Fluss
I =
Zuordnung eines Bildpunktes zu einer vorgegebenen semantischen Klasse.
Herein mean:
E =
energy
ŝ =
determined amount of segments in this column
Ψ (s) =
Vehicle environment model
Φ (s, f, l) =
data probability
f =
optical flow
I =
Assignment of a pixel to a given semantic class.

Das Fahrzeugumfeldmodell Ψ(s) beschreibt das Wissen über typische Strukturen von Straßenszenen. Der Term Ψ(s) führt zur bevorzugten Zuordnung eines Bildpunktes zu einem vorgegebenen Segment-Typ ausgehend von der Geometrie des Segment-Typs. Es wird beispielsweise eine Zuordnung ausgehend von der Geometrie bevorzugt, die am wahrscheinlichsten für eine typische Struktur einer Straßenszene ist. Ist zum Beispiel ein Segment in einer Spalte dem Segment-Typ Boden zugeordnet, so kann mit einer gewissen Wahrscheinlichkeit ein nächstes Segment dem Segment-Typ Objekt zugeordnet werden, entweder dem Segment-Typ statisches Objekt oder dem Segment-Typ potentiell bewegliches Objekt. Dies erfolgt aus dem Wissen über typische Strukturen von Straßenszenen, wonach Objekt meist auf dem Boden stehen. Das Fahrzeugumfeldmodell kann zum Beispiel auch in folgendem Fall zu genaueren Zuordnungen führen: Ist ein vorheriges Segment dem Segment-Typ statisches Objekt oder dem Segment-Typ potentiell bewegliches Objekt zugeordnet und kann das nächste Segment ebenfalls dem Segment-Typ statisches Objekt oder dem Segment-Typ potentiell bewegliches Objekt zugeordnet werden, so kann mit einer gewissen Wahrscheinlichkeit davon ausgegangen werden, dass die untere Bildkoordinate des nächsten Segments nicht den unteren Rand des nächsten Objekts repräsentiert. Es kann davon ausgegangen werden, dass in diesem Fall ein Objekt ein anderes überdeckt.The vehicle environment model Ψ (s) describes the knowledge of typical structures of street scenes. The term Ψ (s) leads to the preferred assignment of a pixel to a given segment type based on the geometry of the segment type. For example, an assignment based on the geometry that is most likely for a typical structure of a street scene is preferred. For example, if a segment in a column is assigned to the segment type ground, then with a certain probability, a next segment may be the segment type object either the segment type static object or the segment type potentially movable object. This is based on the knowledge of typical structures of street scenes, according to which objects usually stand on the ground. For example, the vehicle environment model may result in more accurate mappings in the following case: If a previous segment is associated with the segment type static object or the segment type potentially mobile object, and the next segment may also be the segment type static object or the segment type potentially moving object, it can be assumed with a certain probability that the lower image coordinate of the next segment does not represent the lower edge of the next object. It can be assumed that in this case one object covers another.

Das Fahrzeugumfeldmodell kann wie oben beschrieben in der Vorrichtung, in der das Verfahren ausgeführt wird, hinterlegt sein. Im Teilschritt 304-a des Schritts 304 kommt es zur Ermittlung einer jeweiligen Entfernung der Bildpunkte zur Bildebene mittels eines Fahrzeugumfeldmodells. Im Teilschritt 304-a kommt es insbesondere zur Ermittlung einer jeweiligen Entfernung der Bildpunkte für dynamische Objekte mittels eines Fahrzeugumfeldmodells. Hierdurch wird es möglich, eine Tiefenstruktur zu ermitteln.The vehicle environment model may be deposited as described above in the apparatus in which the method is carried out. In the partial step 304-a of the step 304 it comes to determining a respective distance of the pixels to the image plane by means of a vehicle environment model. In the partial step 304-a In particular, it is necessary to determine a respective distance of the pixels for dynamic objects by means of a vehicle environment model. This makes it possible to determine a deep structure.

In Teilschritt 304-b kommt es zur Ermittlung einer die jeweilige Bewegung eines Bildpunktes charakterisierenden Größe. Eine die jeweilige Bewegung eines Bildpunktes charakterisierende Größe kann ein anhand der erfassten Bildsequenz ermittelter optischer Fluss eines Bildpunktes sein. Die Ermittlung einer die jeweilige Bewegung eines Bildpunktes charakterisierenden Größe kann basierend auf der Bewegung der Monokamera geschehen.In partial step 304-b it comes to the determination of a variable characterizing the respective movement of a pixel. A variable characterizing the respective movement of a pixel can be an optical flow of a pixel determined on the basis of the acquired image sequence. The determination of a variable characterizing the respective movement of a pixel can be based on the movement of the monocamera.

In Teilschritt 304-c kommt es zur Ermittlung eines erwarteten optischen Flusses f̂v wenigstens eines Bildpunktes der wenigstens einen Spalte mittels einer Homographie. In Teilschritt 304-c kommt es insbesondere zur Ermittlung eines erwarteten optischen Flusses f̂v wenigstens eines Segments der wenigstens einen Spalte mittels einer Homographie. Da ein Segment als planarer Teil angesehen wird, kann der erwartete optische Fluss f̂v für eine Annahme bezüglich des optischen Flusses folgendermaßen beschrieben werden: f v ^ = H i x v x v

Figure DE102018202244A1_0006

mit H i = K ( R c a m p i   t c a m , i   n i T ) K 1
Figure DE102018202244A1_0007
In partial step 304-c it comes to the determination of an expected optical flow f v at least one pixel of the at least one column by means of a homography. In partial step 304-c In particular, it is possible to determine an expected optical flow f v of at least one segment of the at least one column by means of homography. Since a segment is considered a planar part, the expected optical flow f v for an assumption of optical flow can be described as follows: f v ^ = H i x v - x v
Figure DE102018202244A1_0006

With H i = K ( R c a m - p i t c a m . i n i T ) K - 1
Figure DE102018202244A1_0007

Hierin bedeuten:

Hi
= Homographie
xv
= Bildpunkt
K
= intrinsische Kameramatrix
Rcam
= Rotationsmatrix der Kamerabewegung
tcam,i
= Translationsvektor der Kamerabewegung
Figure DE102018202244A1_0008
= Normalenvektor.
Herein mean:
H i
= Homography
x v
= Pixel
K
= intrinsic camera matrix
R cam
= Rotation matrix of the camera movement
t cam, i
= Translation vector of the camera movement
Figure DE102018202244A1_0008
= Normal vector.

Der Normalenvektor n i T

Figure DE102018202244A1_0009
ist definiert durch die Geometrie eines Segment-Typs. Der Normalenvektor n i T
Figure DE102018202244A1_0010
kann liegend sein. Der Normalenvektor n i T
Figure DE102018202244A1_0011
kann stehend sein. Hierbei wird angenommen, dass ein Segment mittig der Monokamera zugewandt ist. Für den Segment-Typ statisches Objekt sind die Rotationsmatrix der Kamera Rcam und der Translationsvektor der Kamera tcam,i aufgrund der Kamerabewegung vorgegeben. Für den Segment-Typ Himmel ist die inverse Entfernung des Segments zur Bildebene pi = 0. Hierdurch vereinfacht sich für diesen Segment-Typ die Homographie zu Hi = K Rcam K-1. Im Gegensatz dazu muss für den Segment-Typ potentiell bewegliches Objekt auch eine Translationsbewegung ti des Segments selbst berücksichtigt werden. Der erwartete optische Fluss ist mittels einer Homographie beschreibbar. Der Translationsvektor der Kamera tcam,i
kann hierbei als relative Translation zwischen der Kamera und der Annahme bezüglich eines Segments si angesehen werden.The normal vector n i T
Figure DE102018202244A1_0009
is defined by the geometry of a segment type. The normal vector n i T
Figure DE102018202244A1_0010
can be lying down. The normal vector n i T
Figure DE102018202244A1_0011
can be upright Here it is assumed that a segment is centered facing the monocamera. For the segment type static object are the rotation matrix of the camera R cam and the translation vector of the camera t cam, i dictated by the camera movement. For the segment type sky, the inverse distance of the segment is to the image plane p i = 0. This simplifies the homography for this segment type H i = KR cam K -1 . In contrast, for the segment type potentially moving object also has a translational motion t i of the segment itself. The expected optical flux can be described by means of homography. The translation vector of the camera t cam, i
can here as relative translation between the camera and the assumption with respect to a segment s i be considered.

Weiterhin kann eine Übereinstimmung einer Annahme bezüglich des optischen Flusses beurteilt werden. Hierfür kommt es im Teilschritt 304-d des Schritts 304 zum Vergleich des erwarteten optischen Flusses des Segmentes si eines Bildpunktes mit einem anhand der erfassten Bildsequenz ermittelten optischen Fluss desselben Bildpunktes. Hierbei wird insbesondere die in Teilschritte 304-b ermittelte eines die Bewegung eines Bildpunktes charakterisierende Größe berücksichtigt. Für den Vergleich kann folgender Energieterm herangezogen werden: Φ F ( s i , f ν , ν ) = min ( α F ,  log ( det  C ν ) + r i , ν T   C ν 1 r i , ν 2 )

Figure DE102018202244A1_0012
Furthermore, a coincidence of an assumption regarding the optical flow can be judged. This is what happens in the partial step 304-d of the step 304 to compare the expected optical flux of the segment s i a pixel with an optical flow of the same pixel determined on the basis of the acquired image sequence. Here, in particular, the sub-steps 304-b determined a characterizing the movement of a pixel size. The following energy term can be used for the comparison: Φ F ( s i . f ν . ν ) = min ( α F . log ( det C ν ) + r i . ν T C ν - 1 r i . ν 2 )
Figure DE102018202244A1_0012

Hierin bedeuten:

ΦF(si, fv, v)
= Energie basierend auf dem ermittelten optischen Fluss fv bei vorgegebenem Segment si in der Reihe v der Spalte
αF
= Konstante zur Beschränkung der des Energieanteils
Cv
= Vertrauensbereich des ermittelten optischen Flusses
Figure DE102018202244A1_0013
= transponierter Vektor der komponentenweise Differenz zwischen erwartetem und ermittelten optischen Fluss
ri,v
= Vektor der komponentenweise Differenz zwischen erwartetem und ermittelten optischen Fluss.
Herein mean:
Φ F (s i , f v , v)
= Energy based on the detected optical flux f v at a given segment s i in line v the column
α F
= Constant for limiting the energy component
C v
= Confidence interval of the detected optical flux
Figure DE102018202244A1_0013
= transposed vector of the component-wise difference between expected and determined optical flux
r i, v
= Vector of the component-wise difference between expected and determined optical flux.

Die Bestimmung von Segment-Daten in wenigstens einer Spalte kann als Lösung des Energieminimierungsproblems in Formel (2) mittels dynamischer Programmierung erfolgen, beispielsweise mittels eines Viterbi-Algorithmus. Um den Rechenaufwand zu verringern kann derart vorgegangen werden, dass der Segment-Typ mi , die untere Bildkoordinate eines Segments v i b

Figure DE102018202244A1_0014
und die obere Bildkoordinate eines Segments v i t
Figure DE102018202244A1_0015
optimiert werden. Für die anderen Variablen werden vorgegebene Annahmen getroffen. Es können Annahmen bezüglich der inverse Entfernung des Segments zur Bildebene pi getroffen werden. Es können Annahmen bezüglich der Bewegung ti eines Segments getroffen werden. Es können Annahmen bezüglich der semantischen Klasse ci getroffen werden. Beispielsweise kann die wahrscheinlichste Entfernung des Segmentes basierend auf dem Fahrzeugumfeldmodell angenommen werden. Beispielsweise kann eine Entfernung und Bewegung angenommen werden, bei der mindestens für einen Bildpunkt der erwartete optische Fluss dem ermittelten optischen Fluss entspricht. Beispielsweise kann eine semantische Klasse angenommen werden, bei der mindestens ein Bildpunkt der im Modul 206 zugeordneten Klasse entspricht.The determination of segment data in at least one column can be done as a solution to the energy minimization problem in formula (2) by means of dynamic programming, for example by means of a Viterbi algorithm. In order to reduce the computational effort, it is possible to proceed in such a way that the segment type m i , the lower image coordinate of a segment v i b
Figure DE102018202244A1_0014
and the upper image coordinate of a segment v i t
Figure DE102018202244A1_0015
be optimized. For the other variables, given assumptions are made. There may be assumptions regarding the inverse distance of the segment to the image plane p i to be hit. There may be assumptions about the movement t i of a segment. There may be assumptions about the semantic class c i to be hit. For example, the most probable distance of the segment may be assumed based on the vehicle environment model. For example, a distance and movement can be assumed in which the expected optical flux corresponds to the determined optical flux for at least one pixel. For example, a semantic class can be assumed in which at least one pixel in the module 206 corresponding class.

Im auf den Teilschritt 304-d folgenden Teilschritt 304-e kommt es zur Zuordnung von Bildpunkten der wenigstens einen Spalte zu einem vorgegebenen Segment-Typ. Die Zuordnung von Bildpunkten der wenigstens einen Spalte zu einem vorgegebenen Segment-Typ kann mittels einer Minimierung des Energieterms aus Formel (4) geschehen. Insbesondere wird hierbei die in Teilschritt 304-a ermittelte jeweilige Entfernung der Bildpunkte zur Bildebene berücksichtigt.Im on the substep 304-d following sub-step 304-e it comes to the assignment of pixels of at least one column to a predetermined segment type. The assignment of pixels of the at least one column to a given segment type can be done by minimizing the energy term from formula (4). In particular, this is the sub-step 304-a taken into account respective distance of the pixels to the image plane.

Im Teilschritt 304-f kommt es zur Bildung wenigstens eines Segments. Hierbei können aneinandergrenzende Bildpunkte, die im Teilschritt 304-e demselben Segment-Typ zugeordnet wurden, zu einem Segment zusammengefasst werden. In the partial step 304-f it comes to the formation of at least one segment. In this case, adjoining pixels, in the sub-step 304-e have been assigned to the same segment type.

Im Schritt 305 kommt es zur Abbildung der Umgebung des Fahrzeugs basierend auf den Segment-Daten. Es können kann beispielsweise die für mehrere Spalten bestimmten Segment-Daten zu einem Bild zusammengefügt werden. Im Schritt 306 kommt es zur Ausgabe wenigstens eines die abgebildete Umgebung repräsentierenden Signals. Das Verfahren 300 endet im Schritt 307.In step 305 it comes to mapping the environment of the vehicle based on the segment data. For example, the multi-column segment data may be merged into one image. In step 306 it comes to the output of at least one signal representing the imaged environment. The procedure 300 ends in step 307 ,

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102009009047 A1 [0003]DE 102009009047 A1 [0003]
  • DE 102011111440 A1 [0003]DE 102011111440 A1 [0003]
  • DE 102012000459 A1 [0003]DE 102012000459 A1 [0003]
  • DE 102016106293 A1 [0004]DE 102016106293 A1 [0004]
  • DE 102016122190 A1 [0004]DE 102016122190 A1 [0004]

Zitierte Nicht-PatentliteraturCited non-patent literature

  • Schneider, L. et al., Semantic Stixels: Depth is not Enough. Intelligent Vehicles Symposium (IV), 2016 IEEE. IEEE, 2016, Seite 110-117 [0003]Schneider, L. et al., Semantic Stixels: Depth is not Enough. Intelligent Vehicles Symposium (IV), 2016 IEEE. IEEE, 2016, pages 110-117 [0003]

Claims (12)

Verfahren (300) zur Abbildung der Umgebung eines Fahrzeugs (100) aufweisend die Schritte: - Erfassung (302) einer Bildsequenz mittels einer Monokamera; - Aufteilung (303) wenigstens eines Bildes der Bildsequenz in Spalten; - Bestimmung (304, 304-a bis 304-f) von Segment-Daten in wenigstens einer Spalte; - Abbildung (305) der Umgebung basierend auf den Segment-Daten; - Ausgabe (306) wenigstens eines die abgebildete Umgebung repräsentierenden Signals; dadurch gekennzeichnet, dass - der Schritt der Bestimmung (304) der Segment-Daten in wenigstens einer Spalte einen Teilschritt der Zuordnung (304-e) von Bildpunkten der wenigstens einen Spalte zu einem vorgegebenen Segment-Typ aufweist.A method (300) for imaging the environment of a vehicle (100), comprising the steps of: - detecting (302) an image sequence by means of a monocamera; Splitting (303) at least one image of the image sequence into columns; - determining (304, 304-a to 304-f) segment data in at least one column; - mapping (305) the environment based on the segment data; - output (306) at least one signal representing the imaged environment; characterized in that - the step of determining (304) the segment data in at least one column comprises a substep of the mapping (304-e) of pixels of the at least one column to a predetermined segment type. Verfahren (300) nach Anspruch 1, dadurch gekennzeichnet, dass ein vorgegebener Segment-Typ ein potentiell bewegliches Objekt ist.Method (300) according to Claim 1 , characterized in that a predetermined segment type is a potentially movable object. Verfahren (300) nach Anspruch 1 oder 2, wobei der Schritt der Bestimmung (304) der Segment-Daten in wenigstens einer Spalte einen weiteren Teilschritt der Bildung (304-f) wenigstens eines Segments in einer Spalte aufweist, und wobei die Bildung (304-f) eines Segmentes in Abhängigkeit der den jeweiligen Bildpunkten zugeordneten Segment-Typen und einer jeweiligen Entfernung der Bildpunkte zur Bildebene des einen Bildes und einer die jeweilige Bewegung eines Bildpunktes charakterisierenden Größe geschieht.Method (300) according to Claim 1 or 2 wherein the step of determining (304) the segment data in at least one column comprises a further substep of forming (304-f) at least one segment in a column, and wherein the formation (304-f) of a segment depends on the assigned to respective pixels associated with segment types and a respective distance of the pixels to the image plane of the one image and a characterizing the respective movement of a pixel size. Verfahren (300) nach einem der Ansprüche 1 bis 3, wobei der Schritt der Bestimmung (304) der Segment-Daten in wenigstens einer Spalte einen weiteren Teilschritt der Ermittlung (304-c) eines erwarteten optischen Flusses wenigstens eines Bildpunktes der wenigstens einen Spalte mittels einer Homographie aufweist.Method (300) according to one of Claims 1 to 3 wherein the step of determining (304) the segment data in at least one column comprises a further substep of determining (304-c) an expected optical flow of at least one pixel of the at least one column by means of homography. Verfahren (300) nach Anspruch 4, wobei der erwartete optische Fluss unter Berücksichtigung wenigstens einer vorgegebenen Annahme ermittelt wird.Method (300) according to Claim 4 wherein the expected optical flux is determined taking into account at least one predetermined assumption. Verfahren (300) nach Anspruch 4 oder 5, wobei der Schritt der Bestimmung (304) der Segment-Daten in wenigstens einer Spalte einen weiteren Teilschritt des Vergleichs (304-d) des erwarteten optischen Flusses eines Bildpunktes mit einem anhand der erfassten Bildsequenz ermittelten optischen Fluss desselben Bildpunktes aufweist.Method (300) according to Claim 4 or 5 wherein the step of determining (304) the segment data in at least one column comprises a further substep of comparing (304-d) the expected optical flow of a pixel with an optical flux of the same pixel determined from the acquired image sequence. Verfahren (300) nach einem der Ansprüche 2 bis 6, wobei die Zuordnung (304-e) von Bildpunkten der wenigstens einen Spalte zu einem vorgegebenen Segment-Typ mittels einer Minimierung eines Energieterms geschieht.Method (300) according to one of Claims 2 to 6 wherein the mapping (304-e) of pixels of the at least one column to a given segment type is done by means of a minimization of an energy term. Verfahren (300) nach einem der Ansprüche 2 bis 7, dadurch gekennzeichnet, dass die Zuordnung (304-e) von Bildpunkten der wenigstens einen Spalte zum Segment-Typ eines potentiell beweglichen Objekts abhängig von einer Zuordnung jedes Bildpunktes der wenigstens einen Spalte zu einer vorgegebenen semantischen Klasse ist.Method (300) according to one of Claims 2 to 7 , characterized in that the mapping (304-e) of pixels of the at least one column to the segment type of a potentially mobile object is dependent on an association of each pixel of the at least one column with a predetermined semantic class. Verfahren (300) nach einem der Ansprüche 3 bis 8, wobei der Schritt der Bestimmung (304) der Segment-Daten in wenigstens einer Spalte einen weiteren Teilschritt der Ermittlung (304-a) der Entfernung der Bildpunkte potentiell beweglicher Objekte zur Bildebene mittels eines Fahrzeugumfeldmodells aufweist.Method (300) according to one of Claims 3 to 8th wherein the step of determining (304) the segment data in at least one column comprises a further substep of determining (304-a) the removal of the pixels of potentially moving objects to the image plane by means of a vehicle environment model. Computerprogramm, welches dazu eingerichtet ist, alle Schritte des Verfahrens (300) nach einem der Ansprüche 1 bis 9 auszuführen.Computer program adapted to perform all steps of the method (300) according to one of Claims 1 to 9 perform. Vorrichtung (110) zur Abbildung der Umgebung eines Fahrzeugs (100) wenigstens aufweisend: - eine Monokamera (101) zur Erfassung einer Bildsequenz; - wenigstens ein Modul (201) zur Aufteilung wenigstens eines Bildes der Bildsequenz in Spalten; - wenigstens ein Modul (202) zur Bestimmung von Segment-Daten in wenigstens einer Spalte; - wenigstens ein Modul (203) zur Abbildung der Umgebung basierend auf den Segment-Daten; - wenigstens ein Modul (204) zur Ausgabe wenigstens eines die abgebildete Umgebung repräsentierenden Signals dadurch gekennzeichnet, dass - das Modul (202) zur Bestimmung von Segment-Daten in wenigstens einer Spalte dazu ausgebildet ist, Bildpunkte der wenigstens einen Spalte zu einem vorgegebenen Segment-Typ zuzuordnen.Device (110) for imaging the surroundings of a vehicle (100), comprising at least: - a monocamera (101) for detecting an image sequence; - at least one module (201) for splitting at least one image of the image sequence into columns; - at least one module (202) for determining segment data in at least one column; - at least one module (203) for mapping the environment based on the segment data; at least one module (204) for outputting at least one signal representing the imaged environment, characterized in that - the module (202) for determining segment data in at least one column is designed to image pixels of the at least one column into a predetermined segment Assign type. Vorrichtung (110) nach Anspruch 11, wobei das Modul (202) zur Bestimmung von Segment-Daten in wenigstens einer Spalte weiterhin dazu ausgebildet ist, einen erwarteten optischen Fluss wenigstens eines Bildpunktes der wenigstens einen Spalte mittels einer Homographie zu ermitteln.Device (110) according to Claim 11 wherein the module (202) for determining segment data in at least one column is further adapted to determine an expected optical flow of at least one pixel of the at least one column by means of a homography.
DE102018202244.5A 2018-02-14 2018-02-14 Method for imaging the environment of a vehicle Pending DE102018202244A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102018202244.5A DE102018202244A1 (en) 2018-02-14 2018-02-14 Method for imaging the environment of a vehicle
CN201980013487.8A CN112106059A (en) 2018-02-14 2019-02-11 Method for imaging the environment of a vehicle
PCT/EP2019/053225 WO2019158450A1 (en) 2018-02-14 2019-02-11 Method for immaging the environment of a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018202244.5A DE102018202244A1 (en) 2018-02-14 2018-02-14 Method for imaging the environment of a vehicle

Publications (1)

Publication Number Publication Date
DE102018202244A1 true DE102018202244A1 (en) 2019-08-14

Family

ID=65365973

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018202244.5A Pending DE102018202244A1 (en) 2018-02-14 2018-02-14 Method for imaging the environment of a vehicle

Country Status (3)

Country Link
CN (1) CN112106059A (en)
DE (1) DE102018202244A1 (en)
WO (1) WO2019158450A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009009047A1 (en) 2009-02-16 2010-08-19 Daimler Ag Method for object detection
DE102011111440A1 (en) 2011-08-30 2012-06-28 Daimler Ag Method for representation of environment of vehicle, involves forming segments of same width from image points of equal distance in one of image planes, and modeling objects present outside free space in environment
DE102012000459A1 (en) 2012-01-13 2012-07-12 Daimler Ag Method for detecting object e.g. vehicle in surrounding area, involves transforming segments with classification surfaces into two-dimensional representation of environment, and searching and classifying segments in representation
DE102016106293A1 (en) 2015-04-10 2016-10-13 GM Global Technology Operations LLC Dynamic Stixel estimation using a single moving camera
DE102016122190A1 (en) 2015-11-20 2017-05-24 GM Global Technology Operations LLC Stixel estimation methods and systems

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9305219B2 (en) * 2014-01-23 2016-04-05 Mitsubishi Electric Research Laboratories, Inc. Method for estimating free space using a camera system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009009047A1 (en) 2009-02-16 2010-08-19 Daimler Ag Method for object detection
DE102011111440A1 (en) 2011-08-30 2012-06-28 Daimler Ag Method for representation of environment of vehicle, involves forming segments of same width from image points of equal distance in one of image planes, and modeling objects present outside free space in environment
DE102012000459A1 (en) 2012-01-13 2012-07-12 Daimler Ag Method for detecting object e.g. vehicle in surrounding area, involves transforming segments with classification surfaces into two-dimensional representation of environment, and searching and classifying segments in representation
DE102016106293A1 (en) 2015-04-10 2016-10-13 GM Global Technology Operations LLC Dynamic Stixel estimation using a single moving camera
DE102016122190A1 (en) 2015-11-20 2017-05-24 GM Global Technology Operations LLC Stixel estimation methods and systems

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Schneider, L. et al., Semantic Stixels: Depth is not Enough. Intelligent Vehicles Symposium (IV), 2016 IEEE. IEEE, 2016, Seite 110-117

Also Published As

Publication number Publication date
WO2019158450A1 (en) 2019-08-22
CN112106059A (en) 2020-12-18

Similar Documents

Publication Publication Date Title
DE102014116140B4 (en) Parking assist device and parking assistance method for a vehicle
DE10251880B4 (en) Image recognition device
DE102018116107A1 (en) CALIBRATION PROCEDURE FOR THE OPERATION OF AUTONOMOUS VEHICLES
DE102018116108A1 (en) CALIBRATION TEST PROCEDURE FOR THE OPERATION OF AUTONOMOUS VEHICLES
DE102017100259A1 (en) SYSTEM AND METHOD FOR REVERSE PARKING A VEHICLE VERTICALLY TO THE RAILWAY
DE102013205952B4 (en) Reconfigurable system and method for the detection of a free path
DE102017129075A1 (en) PARKING NAVIGATION SYSTEM AND METHOD
WO2013029722A2 (en) Method for representing surroundings
WO2010091818A2 (en) Method for detecting objects
DE102004018813A1 (en) Method for detecting and / or tracking objects
DE102017203276A1 (en) Method and device for determining a trajectory in off-road scenarios
DE102013207575A1 (en) OBJECT DETECTION DEVICE
DE102012000459A1 (en) Method for detecting object e.g. vehicle in surrounding area, involves transforming segments with classification surfaces into two-dimensional representation of environment, and searching and classifying segments in representation
DE112018007485T5 (en) Road surface detection device, image display device using a road surface detection device, obstacle detection device using a road surface detection device, road surface detection method, image display method using a road surface detection method, and obstacle detection method using a road surface detection method
DE102018100909A1 (en) Method of reconstructing images of a scene taken by a multifocal camera system
DE102013205854A1 (en) Temporary coherence on detection of a clear path
EP3655299B1 (en) Method and device for determining an optical flow on the basis of an image sequence captured by a camera of a vehicle
DE102020204840A1 (en) Processing of multi-channel image data from an image recording device by an image data processor
DE102018202244A1 (en) Method for imaging the environment of a vehicle
WO2016096446A1 (en) Foreground-background differentiation in a vehicle
DE102018121158A1 (en) Ground sensing point method and driver support system configured to perform such a method
EP2192550A1 (en) Method for determining the change in position of a camera system and device for recording and processing images
DE102018202753A1 (en) Method for determining a distance between a motor vehicle and an object
DE112020005938T5 (en) IMAGING DEVICE MANUFACTURING EQUIPMENT, METHOD OF MANUFACTURING AN IMAGING DEVICE AND IMAGING DEVICE
DE102016124123A1 (en) A method for generating a cluster of image areas for capturing a target object in an image, computer program product, camera system and motor vehicle

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: MAIWALD GMBH, DE

Representative=s name: MAIWALD PATENTANWALTS- UND RECHTSANWALTSGESELL, DE

R081 Change of applicant/patentee

Owner name: JOHANN-WOLFGANG-GOETHE-UNIVERSITAET FRANKFURT , DE

Free format text: FORMER OWNER: ROBERT BOSCH GMBH, 70469 STUTTGART, DE

Owner name: ROBERT BOSCH GMBH, DE

Free format text: FORMER OWNER: ROBERT BOSCH GMBH, 70469 STUTTGART, DE

R082 Change of representative

Representative=s name: MAIWALD PATENTANWALTS- UND RECHTSANWALTSGESELL, DE

R081 Change of applicant/patentee

Owner name: JOHANN-WOLFGANG-GOETHE-UNIVERSITAET FRANKFURT , DE

Free format text: FORMER OWNER: JOHANN-WOLFGANG-GOETHE-UNIVERSITAET FRANKFURT AM MAIN, 60323 FRANKFURT, DE

Owner name: ROBERT BOSCH GMBH, DE

Free format text: FORMER OWNER: JOHANN-WOLFGANG-GOETHE-UNIVERSITAET FRANKFURT AM MAIN, 60323 FRANKFURT, DE

R082 Change of representative

Representative=s name: MAIWALD PATENTANWALTS- UND RECHTSANWALTSGESELL, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000