DE102021202454A1 - Environment modeling based on camera data - Google Patents

Environment modeling based on camera data Download PDF

Info

Publication number
DE102021202454A1
DE102021202454A1 DE102021202454.8A DE102021202454A DE102021202454A1 DE 102021202454 A1 DE102021202454 A1 DE 102021202454A1 DE 102021202454 A DE102021202454 A DE 102021202454A DE 102021202454 A1 DE102021202454 A1 DE 102021202454A1
Authority
DE
Germany
Prior art keywords
image
images
environment
focused
depth information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102021202454.8A
Other languages
German (de)
Inventor
Philipp Schmidt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102021202454.8A priority Critical patent/DE102021202454A1/en
Publication of DE102021202454A1 publication Critical patent/DE102021202454A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/36Videogrammetry, i.e. electronic processing of video signals from a single source or from different sources to give parallax or range information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/02Stereoscopic photography by sequential recording
    • G03B35/06Stereoscopic photography by sequential recording with axial movement of lens or gate between exposures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die vorliegende Erfindung betrifft eine Vorrichtung (18) zum Erzeugen eines 3D-Modells einer Umgebung (12), mit: einer Eingangsschnittstelle (26) zum Empfangen von Bilddaten eines Bildsensors (16), wobei die Bilddaten eine Mehrzahl von Bildern desselben Bereichs der Umgebung mit unterschiedlicher Fokussierung umfassen; einer Auswerteeinheit (28) zum Detektieren eines fokussierten Bildbereichs in einem Bild (36) der Mehrzahl von Bildern; einer Abstandseinheit (30) zum Ermitteln einer Tiefeninformation für den fokussierten Bildbereich basierend auf einer vorbekannten Zuordnung von Abständen zu Fokussierungen; und einer Modellierungseinheit (32) zum Ermitteln von dreidimensionalen Positionsangaben zu Objekten (22) in der Umgebung basierend auf fokussierten Bildbereichen in den Bildern der Mehrzahl von Bildern und ermittelten Tiefeninformationen. Die vorliegende Erfindung betrifft weiterhin ein System (10) und ein Verfahren zum Erzeugen eines 3D-Modells einer Umgebung (12) sowie ein Fahrzeug und ein Computerprogrammprodukt mit Programmcode zum Durchführen der Schritte des Verfahrens.The present invention relates to a device (18) for generating a 3D model of an environment (12), having: an input interface (26) for receiving image data from an image sensor (16), the image data having a plurality of images of the same area of the environment different focus include; an evaluation unit (28) for detecting a focused image area in an image (36) of the plurality of images; a distance unit (30) for determining depth information for the focused image area based on a previously known assignment of distances to focussing; and a modeling unit (32) for determining three-dimensional position information on objects (22) in the environment based on focused image areas in the images of the plurality of images and determined depth information. The present invention further relates to a system (10) and a method for generating a 3D model of an environment (12), as well as a vehicle and a computer program product with program code for carrying out the steps of the method.

Description

Die vorliegende Erfindung betrifft eine Vorrichtung zum Erzeugen eines 3D-Modells einer Umgebung. Die vorliegende Erfindung betrifft weiterhin ein Verfahren sowie ein System zum Erzeugen eines 3D-Modells einer Umgebung. Zudem betrifft die Erfindung ein Fahrzeug und ein Computerprogrammprodukt.The present invention relates to a device for generating a 3D model of an environment. The present invention further relates to a method and a system for generating a 3D model of an environment. The invention also relates to a vehicle and a computer program product.

Moderne Fahrzeuge (Autos, Lastwagen, Motorräder etc.) verfügen über eine Vielzahl von Sensoren (Radar, Lidar, Kamera, Ultraschall etc.), die einem Fahrzeugführer oder einem Steuersystem des Fahrzeugs Informationen zur Verfügung stellen. Über derartige Umgebungssensoren werden die Umgebung des Fahrzeugs und Objekte in dieser Umgebung (andere Fahrzeuge, Infrastrukturobjekte, Personen, bewegliche Objekte etc.) erfasst. Basierend auf den erfassten Daten kann ein Modell der Fahrzeugumgebung erzeugt werden und auf Veränderungen in dieser Fahrzeugumgebung reagiert werden. Insbesondere kann eine Fahrfunktion des Fahrzeugs teil- oder vollautonom ausgeführt werden.Modern vehicles (cars, trucks, motorcycles, etc.) have a variety of sensors (radar, lidar, camera, ultrasound, etc.) that provide information to a vehicle operator or a vehicle's control system. The environment of the vehicle and objects in this environment (other vehicles, infrastructure objects, people, moving objects, etc.) are detected via such environment sensors. Based on the recorded data, a model of the vehicle environment can be generated and changes in this vehicle environment can be reacted to. In particular, a driving function of the vehicle can be carried out partially or fully autonomously.

Die Verwendung von Kameras zur Umfelderkennung wird dabei immer wichtiger. Aufgrund der technischen Weiterentwicklung können hochauflösende Kamerasysteme heute zu überschaubaren Kosten und in teil- oder vollautonomen Fahrzeugen verbaut werden. Durch fortschrittliche Bildverarbeitungs- und Auswertungsalgorithmen können Informationen über Objekte in der Umgebung des Fahrzeugs gewonnen werden.The use of cameras for environment recognition is becoming more and more important. Due to technical developments, high-resolution camera systems can now be installed at reasonable costs and in partially or fully autonomous vehicles. Advanced image processing and evaluation algorithms can be used to obtain information about objects in the vehicle's surroundings.

Ein Nachteil der Verwendung von Kameras liegt in der messprinzipbedingten mangelnden Verfügbarkeit von Tiefeninformationen. Um Abstände zu Objekten bestimmen zu können, kann auf Algorithmen der Bildauswertung und insbesondere auf Ansätze des maschinellen Lernens zurückgegriffen werden. Alternativ oder zusätzlich können sogenannte Stereokamerasysteme eingesetzt werden, bei denen zumindest zwei Bildsensoren, die voneinander räumlich getrennt angeordnet sind, Bilder aufnehmen und diese Bilder dann gemeinsam ausgewertet werden. Dies bedingt höhere Kosten aufgrund der Notwendigkeit des Verwendens zusätzlicher Hardware. Gerade wenn berücksichtigt wird, dass zumeist mehrere Bereiche im Umfeld eines Fahrzeugs sensorisch erfasst werden sollen, die in unterschiedliche Richtungen ausgerichtete Kameras erfordern, sind diese Zusatzkosten relevant.A disadvantage of using cameras is the lack of availability of depth information due to the measurement principle. In order to be able to determine distances to objects, image analysis algorithms and, in particular, machine learning approaches can be used. As an alternative or in addition, so-called stereo camera systems can be used, in which at least two image sensors, which are spatially separated from one another, record images and these images are then evaluated together. This entails higher costs due to the need to use additional hardware. These additional costs are particularly relevant when it is taken into account that in most cases several areas in the vicinity of a vehicle are to be detected by sensors, which require cameras aligned in different directions.

In diesem Zusammenhang wird in DE 10 2018 221 133 A1 eine Positions- und Bewegungserkennung mittels Autofokussystem offenbart. Insbesondere wird eine Vorrichtung offenbart, die dazu ausgelegt ist, mittels Autofokussierung von Bilddaten Positionsinformationen, Bewegungsinformationen und/oder Forminformationen bezüglich eines Objekts abzuschätzen. Es wird insbesondere vorgeschlagen, mittels Fokussierung eine Entfernungsmessung bezüglich eines Objekts durchzuführen, wobei eine Bildweite variiert wird, bis ein Maximum der Bildschärfe erreicht ist. Auf Grundlage dieser Bildweite wird dann eine Entfernung bezüglich eines Objekts ermittelt.In this context, in DE 10 2018 221 133 A1 disclosed a position and motion detection using an autofocus system. In particular, a device is disclosed which is designed to estimate position information, movement information and/or shape information relating to an object by means of autofocusing of image data. In particular, it is proposed to carry out a distance measurement with respect to an object by means of focusing, with an image distance being varied until a maximum of image sharpness is reached. A distance relative to an object is then determined on the basis of this image distance.

Nachteilig an bisherigen Ansätzen sind insbesondere die hohe Anforderung an die Rechenleistung sowie die hohe Berechnungsdauer. Gerade in Situationen, in denen nicht spezifisch ein bestimmtes Objekt betrachtet werden soll, sondern zunächst eine Erfassung verschiedener Objekte in einer Umgebung durchgeführt werden soll, sind derartige Ansätze teilweise nicht anwendbar.Disadvantages of previous approaches are, in particular, the high demand for computing power and the long calculation time. Especially in situations in which a specific object is not to be viewed specifically, but instead a detection of various objects in an environment is to be carried out first, such approaches cannot be used in some cases.

Ausgehend hiervon stellt sich der vorliegenden Erfindung die Aufgabe, einen Ansatz zum Erzeugen eines 3D-Modells einer Umgebung basierend auf Daten einer Kamera bereitzustellen. Insbesondere soll eine Erzeugung eines 3D-Modells basierend auf Bilddaten eines einzelnen Bildsensors ermöglicht werden. Das erzeugte 3D-Modell soll Informationen zu Positionen und Abständen von Objekten im Sichtfeld des Bildsensors beinhalten.Proceeding from this, the object of the present invention is to provide an approach for generating a 3D model of an environment based on data from a camera. In particular, it should be possible to generate a 3D model based on image data from a single image sensor. The 3D model generated should contain information on the positions and distances of objects in the field of view of the image sensor.

Zum Lösen dieser Aufgabe betrifft die vorliegende Erfindung in einem ersten Aspekt eine Vorrichtung zum Erzeugen eines 3D-Modells einer Umgebung, mit:

  • einer Eingangsschnittstelle zum Empfangen von Bilddaten eines Bildsensors, wobei die Bilddaten eine Mehrzahl von Bildern desselben Bereichs der Umgebung mit unterschiedlicher Fokussierung umfassen;
  • einer Auswerteeinheit zum Detektieren eines fokussierten Bildbereichs in einem Bild der Mehrzahl von Bildern;
  • einer Abstandseinheit zum Ermitteln einer Tiefeninformation für den fokussierten Bildbereich basierend auf einer vorbekannten Zuordnung von Abständen zu Fokussierungen; und
  • einer Modellierungseinheit zum Ermitteln von dreidimensionalen Positionsangaben zu Objekten in der Umgebung basierend auf fokussierten Bildbereichen in den Bildern der Mehrzahl von Bildern und ermittelten Tiefeninformationen.
To solve this problem, the present invention relates in a first aspect to a device for generating a 3D model of an environment, with:
  • an input interface for receiving image data from an image sensor, the image data comprising a plurality of images of the same area of the environment with different focus;
  • an evaluation unit for detecting a focused image area in an image of the plurality of images;
  • a distance unit for determining depth information for the focused image area based on a previously known assignment of distances to focal points; and
  • a modeling unit for determining three-dimensional position information on objects in the environment based on focused image areas in the images of the plurality of images and determined depth information.

In einem weiteren Aspekt betrifft die vorliegende Erfindung ein System zum Erzeugen eines 3D-Modells einer Umgebung, mit:

  • einer Kamera mit einem Bildsensor zum Erfassen der Umgebung, wobei die Kamera eine senkrecht zur Bildebene gegenüber dem Bildsensor bewegliche Linse zum Verändern einer Fokussierung umfasst und wobei der Bildsensor zum Aufnehmen einer Mehrzahl von Bildern an unterschiedlichen Positionen der Linse ausgebildet ist; und
  • einer Vorrichtung wie zuvor beschrieben.
In a further aspect, the present invention relates to a system for generating a 3D model of an environment, comprising:
  • a camera with an image sensor for capturing the environment, wherein the camera comprises a lens that can be moved perpendicularly to the image plane relative to the image sensor for changing a focus, and wherein the image sensor configured to capture a plurality of images at different positions of the lens; and
  • a device as previously described.

Weitere Aspekte der Erfindung betreffen ein Fahrzeug mit einem System wie zuvor beschrieben, ein der Vorrichtung entsprechend ausgebildetes Verfahren sowie ein Computerprogrammprodukt mit Programmcode zum Durchführen der Schritte des Verfahrens, wenn der Programmcode auf einem Computer ausgeführt wird. Zudem betrifft ein Aspekt der Erfindung ein Speichermedium, auf dem ein Computerprogramm gespeichert ist, das, wenn es auf einem Computer ausgeführt wird, eine Ausführung des hierin beschriebenen Verfahrens bewirkt.Further aspects of the invention relate to a vehicle with a system as described above, a method designed according to the device and a computer program product with program code for carrying out the steps of the method when the program code is executed on a computer. In addition, one aspect of the invention relates to a storage medium on which a computer program is stored which, when executed on a computer, causes the method described herein to be carried out.

Bevorzugte Ausgestaltungen der Erfindung werden in den abhängigen Ansprüchen beschrieben. Es versteht sich, dass die vorstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.Preferred developments of the invention are described in the dependent claims. It goes without saying that the features mentioned above and those still to be explained below can be used not only in the combination specified in each case, but also in other combinations or on their own, without departing from the scope of the present invention.

Insbesondere können die Vorrichtung, das System, das Fahrzeug, das Verfahren und das Computerprogrammprodukt entsprechend den für die Vorrichtung und das System in den abhängigen Ansprüchen definierten Ausgestaltungen ausgeführt sein. In particular, the device, the system, the vehicle, the method and the computer program product can be implemented in accordance with the configurations defined for the device and the system in the dependent claims.

Erfindungsgemäß ist es vorgesehen, dass Daten eines Bildsensors empfangen werden. Diese Bilddaten umfassen mehrere Bilder, die mit unterschiedlicher Fokussierung aufgenommen wurden. Beispielsweise ist es möglich, eine derartige Mehrzahl an Bildern durch eine Bewegung zwischen Linse und Bildsensor senkrecht zur Bildebene, also durch eine Veränderung einer Fokussierung, zu erzeugen. Die Änderung des Abstands erfolgt dabei vorzugsweise schnell, beispielsweise mittels einer oszillierenden Linse, um denselben Bildausschnitt mehrfach aufnehmen zu können. In jedem Bild der Mehrzahl von Bildern wird dann ein fokussierter Bildbereich, also ein scharf gestellter Bildbereich, ermittelt. Dieser fokussierte Bildbereich wird ausgewertet, um basierend auf einer vorbekannten Zuordnung von Abständen bzw. Tiefen zu Fokussierungen der Kamera eine Tiefeninformation zu ermitteln. Die vorbekannte Zuordnung entspricht dabei einer für eine Kamera bekannten Zuordnung zwischen einem Abstand zwischen Linse und Bildsensor und einer Distanz eines fokussierten bzw. scharf gestellten Bereichs von der Kamera für diesen Abstand. Die Zuordnung kann beispielsweise in einer Kalibrierung ermittelt werden oder auch theoretisch in einer entsprechenden Berechnung bestimmt werden. In einer Modellierungseinheit wird dann erfindungsgemäß ein 3D-Modell der Umgebung ermittelt. Das Modell umfasst eine Positionsangabe für ein Objekt, die eine zweidimensionale Angabe zu einer Position innerhalb des Bildes sowie eine Tiefeninformation, also eine Information zum Abstand vom Bildsensor, enthält. Insbesondere kann eine Punktewolke, also eine Angabe zu einer Position einer ganzen Reihe von Punkten in einem dreidimensionalen Bezugskoordinatensystem, bereitgestellt werden.According to the invention, it is provided that data from an image sensor is received. This image data includes several images that were recorded with different focuses. For example, it is possible to generate such a plurality of images by moving the lens and the image sensor perpendicularly to the image plane, ie by changing the focus. In this case, the distance is preferably changed quickly, for example by means of an oscillating lens, in order to be able to record the same image detail several times. In each image of the plurality of images, a focused image area, that is to say an image area that is in sharp focus, is then determined. This focused image area is evaluated in order to determine depth information based on a previously known assignment of distances or depths to focussing of the camera. The previously known association corresponds to an association, known for a camera, between a distance between the lens and the image sensor and a distance of a focused or in-focus area from the camera for this distance. The assignment can be determined, for example, in a calibration or can also be determined theoretically in a corresponding calculation. According to the invention, a 3D model of the environment is then determined in a modeling unit. The model includes position information for an object, which contains two-dimensional information about a position within the image and depth information, ie information about the distance from the image sensor. In particular, a cloud of points, ie information about a position of a whole series of points in a three-dimensional reference coordinate system, can be provided.

Im Vergleich zu bisherigen Ansätzen des kamerabasierten Erzeugens eines 3D-Modells wird erfindungsgemäß lediglich eine einzelne Kamera bzw. ein einzelner Bildsensor benötigt. Es ist nicht erforderlich, mehrere Bildsensoren im Sinne einer Stereokameraanordnung zu verwenden. Bauraum und Kosten können eingespart werden. Im Vergleich zu Ansätzen des Erzeugens eines 3D-Modells durch Bilderkennung und entsprechende algorithmische Auswertungsansätze kann eine Distanz zu Objekten, also eine Tiefe eines Punkts, mit höherer Zuverlässigkeit bestimmt werden. Im Vergleich zu einer Verwendung distanzbasierter Sensoren, wie beispielsweise Radar-, Lidar- oder Ultraschallsensoren, kann mittels eines rein kamerabasierten Systems ebenfalls eine Tiefeninformation erreicht werden. Kosten können eingespart werden.In comparison to previous approaches of camera-based generation of a 3D model, only a single camera or a single image sensor is required according to the invention. It is not necessary to use multiple image sensors in the sense of a stereo camera arrangement. Installation space and costs can be saved. In comparison to approaches of generating a 3D model through image recognition and corresponding algorithmic evaluation approaches, a distance to objects, ie a depth of a point, can be determined with greater reliability. In comparison to using distance-based sensors, such as radar, lidar or ultrasonic sensors, depth information can also be obtained using a purely camera-based system. Costs can be saved.

In einer bevorzugten Ausgestaltung ist die Eingangsschnittstelle zum Empfangen der Bilddaten von einer Kamera mit einer senkrecht zu einer Bildebene des Bildsensors gegenüber dem Bildsensor beweglichen Linse zum Verändern einer Fokussierung ausgebildet. Insbesondere ist es möglich, dass die Fokussierung der Kamera durch Verändern eines Abstands zwischen Bildsensor und Linse erreicht wird. Eine derartige Änderung des Abstands kann beispielsweise durch Modifikation eines herkömmlichen Autofokus-Systems erreicht werden.In a preferred embodiment, the input interface is designed to receive the image data from a camera with a lens that can be moved perpendicularly to an image plane of the image sensor relative to the image sensor in order to change a focus. In particular, it is possible for the camera to be focused by changing a distance between the image sensor and the lens. Such a change in distance can be achieved, for example, by modifying a conventional autofocus system.

In einer bevorzugten Ausgestaltung ist die Auswerteeinheit zum Detektieren des fokussierten Bildbereichs basierend auf einer Kontrastauswertung und/oder basierend auf einer Detektion einer Phase des Bildes ausgebildet. Insbesondere ist es möglich, dass durch eine Betrachtung eines Kontrastverlaufs innerhalb des Bildes festgestellt wird, welcher Bereich des Bildes scharfgestellt, also fokussiert, ist. Insbesondere können fokussierte Kanten oder ähnliche Merkmale erkannt werden. Ebenfalls kann eine Auswertung einer Phase erfolgen, um darauf basierend fokussierte Bildbereiche zu identifizieren. Durch die automatische Identifizierung fokussierter Bildbereiche kann eine effiziente Datenauswertung ermöglicht werden. Eine schnelle Verarbeitung wird erreicht.In a preferred embodiment, the evaluation unit is designed to detect the focused image area based on a contrast evaluation and/or based on a detection of a phase of the image. In particular, it is possible to determine which area of the image is sharp, ie in focus, by examining a contrast profile within the image. In particular, focused edges or similar features can be recognized. A phase can also be evaluated in order to identify focused image areas based on this. Efficient data evaluation can be enabled by the automatic identification of focused image areas. Fast processing is achieved.

In einer bevorzugten Ausgestaltung ist die Abstandseinheit zum Ermitteln der Tiefeninformation für den fokussierten Bildbereich basierend auf einem entsprechenden Bildbereich in einem anderen Bild der Mehrzahl von Bildern ausgebildet. Bei der Ermittlung der Tiefeninformation wird also zusätzlich zu dem aktuellen Bild auch ein anderes Bild der Mehrzahl von Bildern, also ein Bild mit anderer Fokussierung, berücksichtigt. Durch einen Vergleich zwischen zwei Bildern bzw. den fokussierten Bereichen beider Bilder, können Zusatzinformationen gewonnen werden. Hierdurch kann die Genauigkeit bei der Ermittlung der Tiefeninformation verbessert werden.In a preferred embodiment, the distance unit for determining the depth information for the focused image area is based on a corresponding image area is formed in another image of the plurality of images. When determining the depth information, another image from the plurality of images, ie an image with a different focus, is also taken into account in addition to the current image. Additional information can be obtained by comparing two images or the focused areas of both images. As a result, the accuracy when determining the depth information can be improved.

In einer bevorzugten Ausgestaltung ist die Abstandseinheit zum Ermitteln der Tiefeninformation basierend auf einer Kontraständerung des fokussierten Bildbereichs und einem entsprechenden Bildbereich in einem anderen Bild der Mehrzahl von Bildern ausgebildet. Insbesondere kann ein entsprechender Bildbereich, also derselbe Bildbereich wie der fokussierte Bildbereich in dem aktuell betrachteten Bild, in einem anderen Bild zusätzlich ausgewertet werden. Je nach Unterschied in Kontrastwerten beider Bildbereiche kann die Genauigkeit bei der Ermittlung der Tiefeninformation weiter verbessert werden. Eine hohe Genauigkeit und Zuverlässigkeit bei der Ermittlung der Tiefeninformation wird erreicht.In a preferred embodiment, the distance unit is designed to determine the depth information based on a change in contrast of the focused image area and a corresponding image area in another image of the plurality of images. In particular, a corresponding image area, ie the same image area as the focused image area in the currently viewed image, can also be evaluated in another image. Depending on the difference in the contrast values of both image areas, the accuracy when determining the depth information can be further improved. A high level of accuracy and reliability is achieved when determining the depth information.

In einer bevorzugten Ausgestaltung ist die Abstandseinheit zum Ermitteln der Tiefeninformation für den fokussierten Bildbereich basierend auf einem nicht fokussierten Bildbereich in demselben Bild der Mehrzahl von Bildern ausgebildet. Der nicht fokussierte Bildbereich grenzt vorzugsweise direkt an den fokussierten Bildbereich an. Zusätzlich oder alternativ kann eine weitere Verbesserung der Genauigkeit bei der Ermittlung der Tiefeninformation durch eine zusätzliche Betrachtung anderer Bereiche innerhalb des aktuell ausgewerteten Bildes der Mehrzahl von Bildern erreicht werden. Neben dem fokussierten Bereich wird also ein weiterer Bildbereich bei der Ermittlung der Tiefeninformation betrachtet. Je nach Art des Bildes und der aktuell ausgewerteten Objekte können beispielsweise verschwommene, also nicht fokussierte Objekte, die jedoch dennoch erkennbar sind, berücksichtigt werden. Die Genauigkeit bei der Ermittlung der Tiefeninformation wird weiter verbessert.In a preferred embodiment, the distance unit is designed to determine the depth information for the focused image area based on a non-focused image area in the same image of the plurality of images. The unfocused image area is preferably directly adjacent to the focused image area. Additionally or alternatively, a further improvement in the accuracy when determining the depth information can be achieved by additionally considering other areas within the currently evaluated image of the plurality of images. In addition to the focused area, a further image area is therefore considered when determining the depth information. Depending on the type of image and the currently evaluated objects, for example, blurred, i.e. not focused, objects that are nevertheless recognizable can be taken into account. The accuracy in determining the depth information is further improved.

In einer bevorzugten Ausgestaltung ist die Abstandseinheit zum Ermitteln der Tiefeninformation basierend auf einem vortrainierten künstlichen neuronalen Netzwerk ausgebildet. Zusätzlich zur Verwendung der vorbekannten Zuordnung kann eine weitere Verbesserung der Genauigkeit durch Anwendung eines vortrainierten künstlichen neuronalen Netzwerks erreicht werden. Entsprechende Trainingsdaten beinhalten dabei eine Zuordnung von Bildinformationen zu Tiefen bzw. Abständen. Derartige Trainingsdaten können beispielsweise durch manuelle Annotation, durch simulativ erzeugte Daten oder auch durch eine Kombination mit einem anderen Sensorsystem (beispielsweise Lidar- oder Radarsensoren) erzeugt werden. Durch die zusätzliche Anwendung eines vortrainierten künstlichen neuronalen Netzwerks kann die Genauigkeit bei der Ermittlung der Tiefeninformation weiter verbessert werden.In a preferred embodiment, the distance unit is designed to determine the depth information based on a pre-trained artificial neural network. In addition to using the previously known mapping, a further improvement in accuracy can be achieved by using a pre-trained artificial neural network. Corresponding training data contain an assignment of image information to depths or distances. Such training data can be generated, for example, by manual annotation, by simulatively generated data or by a combination with another sensor system (for example lidar or radar sensors). The accuracy in determining the depth information can be further improved by the additional use of a pre-trained artificial neural network.

In einer bevorzugten Ausgestaltung ist die Eingangsschnittstelle zum Empfangen von Bewegungsdaten mit Informationen zu einer Relativbewegung zwischen Umgebung und Bildsensor während des Aufnehmens der Mehrzahl von Bildern ausgebildet. Die Modellierungseinheit ist zum Kompensieren einer Bewegung des Bildsensors gegenüber der Umgebung basierend auf den Bewegungsdaten ausgebildet. Um eine mögliche schnelle Bewegung des Bildsensors gegenüber der Umgebung, beispielsweise wenn der Bildsensor an einem Fahrzeug befestigt ist, zu kompensieren, können zusätzlich Bewegungsdaten bei der Bildauswertung berücksichtigt werden. Bewegungsdaten können dabei beispielsweise Messdaten eines Inertialsensors sein. Ebenfalls ist es möglich, dass die Bewegung anhand der Bilder selbst oder basierend auf Sensordaten weiterer Sensoren (bspw. Radar oder Lidar) bestimmt wird. Durch die Bewegungsdaten kann eine Korrektur der Bewegung erfolgen. Insbesondere kann eine Rückrechnung der Bilddaten auf einen gemeinsamen Bezugspunkt ermöglicht werden. Durch die Kompensation der Bewegung kann die Ermittlung der dreidimensionalen Positionsangaben verbessert werden. Insbesondere kann die Genauigkeit gesteigert werden.In a preferred refinement, the input interface is designed to receive movement data with information on a relative movement between the environment and the image sensor during the recording of the plurality of images. The modeling unit is designed to compensate for a movement of the image sensor in relation to the environment based on the movement data. In order to compensate for a possible rapid movement of the image sensor in relation to the surroundings, for example when the image sensor is attached to a vehicle, movement data can also be taken into account in the image evaluation. Movement data can be measurement data from an inertial sensor, for example. It is also possible for the movement to be determined using the images themselves or based on sensor data from other sensors (e.g. radar or lidar). The movement data can be used to correct the movement. In particular, back calculation of the image data to a common reference point can be made possible. The determination of the three-dimensional position information can be improved by compensating for the movement. In particular, the accuracy can be increased.

In einer bevorzugten Ausgestaltung ist die Eingangsschnittstelle zum Empfangen der vorbekannten Zuordnung ausgebildet. Zusätzlich oder alternativ umfasst die vorbekannte Zuordnung eine Nachschlagetabelle, die vorzugsweise in einer Kalibrierung einer Kamera ermittelt wurde. Eine Nachschlagetabelle ordnet insbesondere Abstände zwischen Linse und Bildsensor zu Abständen zwischen Bildsensor und scharfgestellten Objekten zu. Es ist möglich, dass die vorbekannte Zuordnung über die Eingangsschnittstelle empfangen wird. Insoweit kann eine Aktualisierung der vorbekannten Zuordnung vorgenommen werden. Dabei kann insbesondere eine Kamerakalibrierung zum Erzeugen der vorbekannten Zuordnung verwendet werden.In a preferred embodiment, the input interface is designed to receive the previously known assignment. Additionally or alternatively, the previously known association includes a look-up table, which was preferably determined in a calibration of a camera. Specifically, a look-up table maps lens-to-imager distances to imager-to-in-focus object distances. It is possible that the previously known assignment is received via the input interface. In this respect, the previously known assignment can be updated. In this case, in particular, a camera calibration can be used to generate the previously known association.

In einer bevorzugten Ausgestaltung des Systems umfasst die Kamera einen mikroelektromechanischen Aktor zum Bewegen der Linse gegenüber dem Bildsensor. Durch die Verwendung eines MEMS-Aktors kann eine effiziente Herstellbarkeit erreicht werden und gleichzeitig eine präzise Bewegungssteuerung ermöglicht werden. In a preferred embodiment of the system, the camera includes a microelectromechanical actuator for moving the lens relative to the image sensor. Efficient manufacturability can be achieved by using a MEMS actuator while enabling precise motion control.

Ein Objekt in einer Umgebung eines Fahrzeugs kann insbesondere ein anderes Fahrzeug, ein Fahrradfahrer, ein Fußgänger, ein Tier oder ein statisches Objekt wie ein auf der Fahrbahn liegender Autoreifen etc. sein. Eine Umgebung kann insbesondere ein Umfeld eines Fahrzeugs bzw. ein von dem Fahrzeug aus einsehbarer Bereich sein. Bilddaten eines Bildsensors umfassen insbesondere Farbwerte von Pixeln. Eine Fokussierung bezeichnet eine Scharfstellung. Ein fokussierter Bereich ist ein Bildbereich, der scharf gestellt ist. Unter einer Tiefeninformation versteht sich eine Information zu einem Abstand eines Objekts innerhalb des Bildes von dem Bildsensor. Eine dreidimensionale Positionsangabe kann in unterschiedlichen Koordinatensystemen vorliegen. Insbesondere kann ein kamerafestes Koordinatensystem verwendet werden und eine Angabe zu einer Position des Pixels innerhalb des Bildes und einem Abstand des Pixels zum Bildsensor als dreidimensionale Positionsangabe verstanden werden. Eine Kamera bzw. ein Kamerasensor umfasst mindestens einen Bildsensor sowie eine Linse.An object in the surroundings of a vehicle can in particular be another vehicle, a cyclist, a pedestrian, an animal or a static object such as a car tire lying on the road, etc. An environment can in particular be an area surrounding a vehicle or an area that can be seen from the vehicle. Image data from an image sensor include, in particular, color values of pixels. Focusing means focusing. A focused area is an image area that is in focus. Depth information is information about a distance of an object within the image from the image sensor. A three-dimensional position statement can be in different coordinate systems. In particular, a camera-fixed coordinate system can be used and an indication of a position of the pixel within the image and a distance of the pixel from the image sensor can be understood as a three-dimensional position indication. A camera or camera sensor comprises at least one image sensor and one lens.

Die Erfindung wird nachfolgend anhand einiger ausgewählter Ausführungsbeispiele im Zusammenhang mit den beiliegenden Zeichnungen näher beschrieben und erläutert. Es zeigen:

  • 1 eine schematische Darstellung eines erfindungsgemäßen Systems zum Erzeugen eines 3D-Modells einer Umgebung;
  • 2 eine schematische Darstellung einer erfindungsgemäßen Vorrichtung zum Erzeugen eines 3D-Modells einer Umgebung;
  • 3 eine schematische Darstellung des Veränderns einer Fokussierung durch Ändern des Abstands zwischen Linse und Bildsensor;
  • 4 eine schematische Darstellung eines Ansatzes zum Detektieren eines fokussierten Bildbereichs;
  • 5 eine schematische Darstellung eines weiteren Ansatzes zum Detektieren eines fokussierten Bildbereichs; und
  • 6 eine schematische Darstellung eines erfindungsgemäßen Verfahrens.
The invention is described and explained in more detail below using a few selected exemplary embodiments in connection with the accompanying drawings. Show it:
  • 1 a schematic representation of an inventive system for generating a 3D model of an environment;
  • 2 a schematic representation of a device according to the invention for generating a 3D model of an environment;
  • 3 a schematic representation of changing a focus by changing the distance between the lens and the image sensor;
  • 4 a schematic representation of an approach for detecting a focused image area;
  • 5 a schematic representation of a further approach for detecting a focused image area; and
  • 6 a schematic representation of a method according to the invention.

In der 1 ist schematisch ein erfindungsgemäßes System 10 zum Erzeugen eines 3D-Modells einer Umgebung 12 dargestellt. Das System umfasst eine Kamera 14 mit einem Bildsensor 16 sowie eine Vorrichtung 18 zum Erzeugen eines 3D-Modells der Umgebung 12. Im dargestellten Ausführungsbeispiel ist das System 10 in ein Fahrzeug 20 integriert. Die Darstellung ist als seitliche Schnittansicht auf das Fahrzeug 20 auf einer Fahrbahn zu verstehen. Die Umgebung 12 umfasst im dargestellten Ausführungsbeispiel insbesondere einen Bereich vor dem Fahrzeug 20, in dem sich ein Objekt 22 befindet. Das Objekt 22 kann beispielsweise ein anderes Fahrzeug oder auch ein auf der Straße liegendes Fahrzeugteil sein. Die Vorrichtung 18 kann beispielsweise in ein Steuergerät bzw. in einen Zentralrechner des Fahrzeugs 20 oder auch in die Kamera 14 integriert sein. Die Kamera 14 kann insbesondere an dem Fahrzeug 20 montiert sein. In der Darstellung in der 1 ist das Sichtfeld 24 der Kamera beispielhaft gestrichelt angedeutet.In the 1 a system 10 according to the invention for generating a 3D model of an environment 12 is shown schematically. The system includes a camera 14 with an image sensor 16 and a device 18 for generating a 3D model of the environment 12. In the exemplary embodiment shown, the system 10 is integrated into a vehicle 20. The representation is to be understood as a lateral sectional view of the vehicle 20 on a roadway. In the illustrated exemplary embodiment, the environment 12 includes in particular an area in front of the vehicle 20 in which an object 22 is located. The object 22 can, for example, be another vehicle or also a vehicle part lying on the road. The device 18 can be integrated, for example, in a control unit or in a central computer of the vehicle 20 or also in the camera 14 . In particular, the camera 14 can be mounted on the vehicle 20 . In the representation in the 1 the field of view 24 of the camera is indicated by dashed lines as an example.

Erfindungsgemäß ist es vorgesehen, dass mittels der Vorrichtung 18 eine Auswertung von Bilddaten des Bildsensors 16 vorgenommen wird. Die Bilddaten umfassen dabei eine Mehrzahl von Bildern desselben Bereichs der Umgebung 12, die mit unterschiedlicher Fokussierung aufgenommen wurden. Diese unterschiedliche Fokussierung kann beispielsweise dadurch erreicht werden, dass ein Abstand zwischen dem Bildsensor 16 und einer Linse variiert wird. Ausgehend von unterschiedlichen scharf gestellt zu erkennenden fokussierten Bereichen in den Bildern der Mehrzahl von Bildern wird erfindungsgemäß auf Distanzen zu Objekten in der Umgebung geschlossen. Basierend hierauf wird ein 3D-Modell der Umgebung 12 erzeugt.According to the invention, it is provided that the device 18 is used to evaluate image data from the image sensor 16 . In this case, the image data comprise a plurality of images of the same area of the surroundings 12 which were recorded with different focusing. This different focusing can be achieved, for example, by varying a distance between the image sensor 16 and a lens. According to the invention, distances to objects in the environment are inferred based on different focused regions to be recognized in sharp focus in the images of the plurality of images. Based on this, a 3D model of the environment 12 is generated.

In der 2 ist schematisch eine erfindungsgemäße Vorrichtung 18 zum Erzeugen eines 3D-Modells einer Umgebung dargestellt. Die Vorrichtung 18 umfasst eine Eingangsschnittstelle 26, eine Auswerteeinheit 28, eine Abstandseinheit 30 sowie eine Modellierungseinheit 32. Die Einheiten und Schnittstellen können teilweise oder vollständig in Soft- und/oder in Hardware umgesetzt sein. Insbesondere können die Einheiten als Prozessor, Prozessormodule oder auch als Software für einen Prozessor ausgebildet sein. Die Vorrichtung 18 kann insbesondere in Form eines Steuergeräts eines autonomen oder teilautonomen Fahrzeugs bzw. als Software für ein Steuergerät eines autonomen oder teilautonomen Fahrzeugs ausgebildet sein.In the 2 a device 18 according to the invention for generating a 3D model of an environment is shown schematically. The device 18 includes an input interface 26, an evaluation unit 28, a distance unit 30 and a modeling unit 32. The units and interfaces can be partially or completely implemented in software and/or in hardware. In particular, the units can be designed as processors, processor modules or also as software for a processor. The device 18 can be designed in particular in the form of a control unit of an autonomous or semi-autonomous vehicle or as software for a control unit of an autonomous or semi-autonomous vehicle.

Über die Eingangsschnittstelle 26 werden Daten des Bildsensors empfangen. Der Bildsensor ist dabei insbesondere ein Bildsensor einer Kamera, die vorzugsweise an einem Fahrzeug angeordnet ist. Die Kamera nimmt Bilder eines Bereichs der Umgebung auf und überträgt diese an die Vorrichtung 18. Die Datenübertragung kann dabei beispielsweise über ein Fahrzeugbussystem erfolgen, an das die Eingangsschnittstelle 26 angebunden ist. Die Bilddaten umfassen eine Mehrzahl von Bildern. Diese verschiedenen Bilder zeigen jeweils denselben Bereich, sind aber mit unterschiedlicher Fokussierung aufgenommen. Insbesondere sind die Bilder bei unterschiedlichem Abstand zwischen Linse und Bildsensor aufgenommen.Data from the image sensor are received via the input interface 26 . In this case, the image sensor is in particular an image sensor of a camera which is preferably arranged on a vehicle. The camera takes pictures of an area of the environment and transmits them to the device 18. The data can be transmitted, for example, via a vehicle bus system to which the input interface 26 is connected. The image data includes a plurality of images. These different images each show the same area but are taken with different focus. In particular, the images are recorded at different distances between the lens and the image sensor.

In der Auswerteeinheit 28 wird in einem Bild der Mehrzahl von Bildern ein in diesem Bild fokussierter Bildbereich detektiert. Hierzu können unterschiedliche algorithmische Ansätze angewendet werden. Beispielsweise kann eine Auswertung von Konturen oder Kontrasten vorgenommen werden. Ebenfalls ist es möglich, eine Phase des Bildes zu analysieren (Phasenauswertung), um darauf basierend festzustellen, welche Bereiche des Bildes scharf gestellt, also fokussiert, sind. Insbesondere können Punkte als fokussierte Bildbereiche detektiert werden.In the evaluation unit 28, an image region that is focused in this image is detected in one image of the plurality of images. Different algorithmic approaches can be used for this will. For example, contours or contrasts can be evaluated. It is also possible to analyze a phase of the image (phase evaluation) in order to determine which areas of the image are sharp, i.e. focused. In particular, points can be detected as focused image areas.

In der Abstandseinheit 30 wird dann für diesen fokussierten Bildbereich eine Tiefeninformation ermittelt. Unter einer Tiefeninformation wird dabei ein Abstand des fokussierten Bildbereichs von dem Bildsensor bzw. von der Kamera verstanden. Für die Ermittlung dieser Tiefeninformation wird auf eine vorbekannte Zuordnung von Abständen zwischen Objekten bzw. scharf gestellten, fokussierten Bildbereichen und Fokussierungen der Kamera zurückgegriffen. Unter einer Fokussierung der Kamera wird dabei eine Einstellung des Kamerafokussystems verstanden. Insbesondere wird unter einer Fokussierung der Kamera ein Abstand zwischen Linse und Bildsensor verstanden. Es ist möglich, eine derartige vorbekannte Zuordnung in einer Kalibrierung einer Kamera zu ermitteln. Bei der Kalibrierung werden dabei Objekte in unterschiedlichen Abständen von dem Bildsensor angeordnet, dann können bei unterschiedlicher Fokussierung Bilder aufgenommen werden und detektiert werden, welche Fokussierung zu scharfen Objekten in welchen Distanzen führt. Beispielsweise kann die vorbekannte Zuordnung dabei in Form einer Nachschlagetabelle vorliegen.In the distance unit 30, depth information is then determined for this focused image area. In this context, depth information is understood to mean a distance of the focused image area from the image sensor or from the camera. A previously known assignment of distances between objects or sharply set, focused image areas and focusing of the camera is used to determine this depth information. A focusing of the camera is understood to mean a setting of the camera focus system. In particular, focusing of the camera is understood to mean a distance between the lens and the image sensor. It is possible to determine such a previously known assignment in a calibration of a camera. During the calibration, objects are arranged at different distances from the image sensor, then images can be recorded with different focusing and it can be detected which focusing leads to sharp objects at which distances. For example, the previously known assignment can be in the form of a look-up table.

Ebenfalls ist es möglich, dass in der Abstandseinheit 30 für die Ermittlung der Tiefeninformation auf andere Bilder der Mehrzahl von Bildern zugegriffen wird. Insbesondere kann die Tiefeninformation basierend auf einem entsprechenden Bildbereich in dem anderen Bild ermittelt werden. Ein entsprechender Bildbereich bezeichnet dabei einen entsprechenden Bildabschnitt, also einen entsprechenden Ausschnitt oder einen entsprechenden Punkt innerhalb der mehreren Bilder. Insbesondere kann für die ermittelte Tiefeninformation eine Kontraständerung zwischen dem fokussierten Bildbereich und dem entsprechenden Bildbereich in dem anderen Bild betrachtet und ausgewertet werden.It is also possible for other images of the plurality of images to be accessed in the distance unit 30 for determining the depth information. In particular, the depth information can be determined based on a corresponding image area in the other image. A corresponding image area designates a corresponding image section, that is to say a corresponding section or a corresponding point within the plurality of images. In particular, a change in contrast between the focused image area and the corresponding image area in the other image can be viewed and evaluated for the determined depth information.

Weiterhin ist es möglich, dass die Abstandseinheit 30 dazu ausgebildet ist, die Tiefeninformation basierend auf dem fokussierten Bereich und einer zusätzlichen Betrachtung eines nicht fokussierten anderen Bildbereichs in demselben Bild zu ermitteln. Beispielsweise können auch bei nicht fokussierten bzw. nicht scharf gestellten Objekten in einem Bild durch Algorithmen der Bildauswertung Informationen zu deren Abstand gewonnen werden. Diese Information kann dann als zusätzliche Information bei der Ermittlung der Tiefeninformation herangezogen werden.Furthermore, it is possible that the distance unit 30 is designed to determine the depth information based on the focused area and an additional consideration of a non-focused other image area in the same image. For example, information on the distance between objects in an image that are not in focus or not in focus can be obtained using image evaluation algorithms. This information can then be used as additional information when determining the depth information.

Zusätzlich oder alternativ kann die Abstandseinheit 30 auch dazu ausgebildet sein, ein vortrainiertes künstliches neuronales Netzwerk anzuwenden, um die Tiefeninformation zu ermitteln. Dieses vortrainierte künstliche neuronale Netzwerk kann ausgehend von bisherigen Erfahrungen, die in einer Trainingsphase berücksichtigt wurden, eine genauere Ermittlung der Tiefeninformation ermöglichen. Beispielsweise können hierzu Merkmale des fokussierten Bildbereichs oder auch Merkmale anderer Bilder oder Merkmale aus nicht fokussierten Bildbereichen verwendet werden.Additionally or alternatively, the distance unit 30 can also be designed to use a pre-trained artificial neural network in order to determine the depth information. Based on previous experiences that were taken into account in a training phase, this pre-trained artificial neural network can enable the depth information to be determined more precisely. For example, features of the focused image area or also features of other images or features from non-focused image areas can be used for this purpose.

In der Modellierungseinheit 32 wird ausgehend von den fokussierten Bildbereichen und den ermittelten Tiefeninformationen ein 3D-Modell der Umgebung erstellt. A 3D model of the environment is created in the modeling unit 32 on the basis of the focused image areas and the determined depth information.

Insbesondere werden hierzu dreidimensionale Positionsangaben zu Objekten in der Umgebung ermittelt. Diese Positionsangaben können beispielsweise in Form von einer zweidimensionalen Position innerhalb des Bildes in Kombination mit einer metrischen Abstandsinformation, die der Tiefeninformation entspricht, ausgegeben werden. Die von der Modellierungseinheit 32 bereitgestellten dreidimensionalen Positionsangaben können dann in Algorithmen zum Steuern eines autonomen Fahrzeugs oder auch in einem Fahrerassistenzsystem weiterverwendet werden.In particular, three-dimensional position information on objects in the area is determined for this purpose. This position information can be output, for example, in the form of a two-dimensional position within the image in combination with metric distance information that corresponds to the depth information. The three-dimensional position information provided by the modeling unit 32 can then be further used in algorithms for controlling an autonomous vehicle or also in a driver assistance system.

In der 3 ist schematisch das Konzept des Änderns der Fokussierung dargestellt. Eine Linse 34 wird in einer schnellen Bewegung (vorwärts und rückwärts gegenüber dem Bildsensor 16) hin- und herbewegt. Auf der linken Seite ist in der 3 dabei der Abstand zwischen Linse 34 und Bildsensor 16 größer als auf der rechten Seite. Dies bedingt, dass das Objekt 22 in dem Bild 36 auf der linken Seite nicht scharfgestellt, also nicht fokussiert ist, wohingegen auf der rechten Seite ein fokussiertes Objekt 22 innerhalb des Bildes 36 zu sehen ist. Durch eine Änderung des Abstands zwischen Linse 34 und Bildsensor 16 können mehrere Bilder eines Bereichs aufgenommen werden. Beispielsweise kann eine schnelle Bewegung der Linse 34 durch Verwendung eines Stepper-Motors, eines Piezo-Aktors oder auch eines mikroelektromechanischen Systems (MEMS) hergestellt werden.In the 3 Schematically illustrates the concept of changing the focus. A lens 34 is reciprocated in a rapid motion (back and forth relative to the image sensor 16). On the left is in the 3 while the distance between lens 34 and image sensor 16 greater than on the right side. This means that the object 22 in the image 36 on the left side is not in focus, ie it is not in focus, whereas a focused object 22 can be seen within the image 36 on the right side. By changing the distance between lens 34 and image sensor 16, multiple images of an area can be captured. For example, a fast movement of the lens 34 can be produced by using a stepper motor, a piezo actuator or a microelectromechanical system (MEMS).

Erfindungsgemäß wird ausgehend von der Schärfe in unterschiedlichen Punkten der der erzeugten Mehrzahl an Bildern eine Distanz zwischen dem Bildsensor und einem Punkt in dem Bild berechnet. Ein Bild der Mehrzahl von Bildern hat unterschiedliche fokussierte Bereiche, je nach der Position der Linse 34, an der das betreffende Bild aufgenommen wurde. Insoweit ermöglicht der Ansatz eine Art schichtweise Betrachtung der Umgebung. Ausgehend von diesen Schichten kann im einfachsten Fall in der Modellierungseinheit beispielsweise insoweit ein 3D-Modell der Umgebung konstruiert werden, als ausgehend von detektierten fokussierten Bereichen für jeden Bereich bzw. für jeden Punkt eine Distanzangabe hinzugefügt wird. Es wird insoweit eine Art Punktewolke generiert.According to the invention, a distance between the image sensor and a point in the image is calculated based on the sharpness in different points of the generated plurality of images. One of the plurality of images has different focused areas depending on the position of the lens 34 at which that image was taken. In this respect, the approach enables a kind of layered view of the environment. Starting from these layers, in a In the simplest case, a 3D model of the environment can be constructed in the modeling unit, for example, insofar as a distance specification is added for each area or for each point, starting from detected focused areas. A kind of point cloud is generated in this respect.

In der 4 ist schematisch ein Ansatz zum Detektieren fokussierter Bildbereiche bzw. fokussierter Punkte in einem Bild basierend auf einer Phasenauswertung dargestellt. Von links nach rechts in der 4 nimmt dabei der Abstand zwischen Linse 34 und Bildsensor 16 zu. Das dargestellte Bild 36 bzw. der Bildausschnitt oder Punkt an der Spitze des Gebäudes wird nur im zweiten Fall scharf dargestellt. Alle anderen Fälle führen, wie in der Szenenabbildung 38 auf dem Bildsensor dargestellt, zu unscharfen Bildern. Insoweit kann über eine Detektion einer Phase eine Aussage getroffen werden, ob der Bildbereich fokussiert ist. Die Bildschärfe lässt sich auch über ein sogenanntes PDAF-Verfahren (Phase Detection Auto Focus) ermitteln.In the 4 an approach for detecting focused image areas or focused points in an image based on a phase evaluation is shown schematically. From left to right in the 4 the distance between lens 34 and image sensor 16 increases. The displayed image 36 or the image section or point at the top of the building is only shown sharply in the second case. All other cases result in blurred images, as shown in the scene image 38 on the image sensor. In this respect, a statement can be made by detecting a phase as to whether the image area is in focus. The sharpness of the image can also be determined using a so-called PDAF method (Phase Detection Auto Focus).

In der 5 ist schematisch ein Ansatz zum Detektieren eines fokussierten Bildbereichs basierend auf einer Kontrastauswertung dargestellt. Der Abstand zwischen Linse 34 und Bildsensor 16 ist nur im oberen Fall im Fokus. Nur in diesem Fall wird in der auf der rechten Seite dargestellten Kontrastdarstellung 40 ein eindeutiger Peak erreicht. Die anderen Fälle führen zu weniger ausgeprägten Kontrasten. Hierdurch wird es ermöglicht, innerhalb von Bildern fokussierte Bildbereiche zu detektieren.In the 5 an approach for detecting a focused image area based on a contrast evaluation is shown schematically. The distance between lens 34 and image sensor 16 is in focus only in the upper case. Only in this case is a clear peak reached in the contrast representation 40 shown on the right-hand side. The other cases result in less pronounced contrasts. This makes it possible to detect focused image areas within images.

Zum Kompensieren einer Bewegung, die die Kamera während des kurzen Zeitraums des Generierens der verschiedenen Bilder der Mehrzahl von Bildern ausführt, können Bewegungsinformationen verwendet werden. Derartige Bewegungsinformationen können beispielsweise mittels eines Inertialsensors generiert werden. Ebenfalls ist es aber auch möglich, dass die Bewegung, also die Relativbewegung zwischen Bildsensor und Umgebung, durch eine Auswertung verschiedener Bilder ermittelt wird.Motion information may be used to compensate for motion performed by the camera during the short period of time of generating the different images of the plurality of images. Such movement information can be generated, for example, by means of an inertial sensor. However, it is also possible for the movement, ie the relative movement between the image sensor and the environment, to be determined by evaluating different images.

In der 6 ist schematisch ein erfindungsgemäßes Verfahren zum Erzeugen eines 3D-Modells einer Umgebung dargestellt. Das Verfahren umfasst Schritte des Empfangens S10 von Bilddaten, des Detektierens S12 eines fokussierten Bildbereichs, des Ermittelns S14 einer Tiefeninformation und des Ermittelns S16 von dreidimensionalen Positionsangaben. Das Verfahren kann insbesondere in Form einer Software implementiert sein, die auf einem Prozessor eines Fahrzeugs bzw. eines Fahrzeugsteuergeräts ausgeführt wird. Es versteht sich, dass das Verfahren auch als Smartphone-App oder als Steuersoftware einer Digitalkamera implementiert sein kann.In the 6 an inventive method for generating a 3D model of an environment is shown schematically. The method comprises the steps of receiving S10 image data, detecting S12 a focused image area, determining S14 depth information and determining S16 three-dimensional position information. The method can be implemented in particular in the form of software that runs on a processor of a vehicle or a vehicle control unit. It goes without saying that the method can also be implemented as a smartphone app or as control software for a digital camera.

Die Erfindung wurde anhand der Zeichnungen und der Beschreibung umfassend beschrieben und erklärt. Die Beschreibung und Erklärung sind als Beispiel und nicht einschränkend zu verstehen. Die Erfindung ist nicht auf die offenbarten Ausführungsformen beschränkt. Andere Ausführungsformen oder Variationen ergeben sich für den Fachmann bei der Verwendung der vorliegenden Erfindung sowie bei einer genauen Analyse der Zeichnungen, der Offenbarung und der nachfolgenden Patentansprüche.The invention has been comprehensively described and explained with reference to the drawings and the description. The description and explanation are intended to be exemplary and not limiting. The invention is not limited to the disclosed embodiments. Other embodiments or variations will become apparent to those skilled in the art upon use of the present invention upon a study of the drawings, the disclosure, and the claims that follow.

In den Patentansprüchen schließen die Wörter „umfassen“ und „mit“ nicht das Vorhandensein weiterer Elemente oder Schritte aus. Der undefinierte Artikel „ein“ oder „eine“ schließt nicht das Vorhandensein einer Mehrzahl aus. Ein einzelnes Element oder eine einzelne Einheit kann die Funktionen mehrerer der in den Patentansprüchen genannten Einheiten ausführen. Ein Element, eine Einheit, eine Schnittstelle, eine Vorrichtung und ein System können teilweise oder vollständig in Hard- und/oder in Software umgesetzt sein. Die bloße Nennung einiger Maßnahmen in mehreren verschiedenen abhängigen Patentansprüchen ist nicht dahingehend zu verstehen, dass eine Kombination dieser Maßnahmen nicht ebenfalls vorteilhaft verwendet werden kann. Ein Computerprogramm kann auf einem nichtflüchtigen Datenträger gespeichert/vertrieben werden, beispielsweise auf einem optischen Speicher oder auf einem Halbleiterlaufwerk (SSD). Ein Computerprogramm kann zusammen mit Hardware und/oder als Teil einer Hardware vertrieben werden, beispielsweise mittels des Internets oder mittels drahtgebundener oder drahtloser Kommunikationssysteme. Bezugszeichen in den Patentansprüchen sind nicht einschränkend zu verstehen.In the claims, the words "comprising" and "having" do not exclude the presence of other elements or steps. The undefined article "a" or "an" does not exclude the presence of a plural. A single element or unit can perform the functions of several of the units recited in the claims. An element, unit, interface, device, and system may be partially or fully implemented in hardware and/or software. The mere naming of some measures in several different dependent patent claims should not be understood to mean that a combination of these measures cannot also be used to advantage. A computer program may be stored/distributed on a non-volatile medium, such as an optical memory or a solid state drive (SSD). A computer program may be distributed with and/or as part of hardware, for example via the Internet or via wired or wireless communication systems. Reference signs in the claims are not to be understood as restrictive.

BezugszeichenlisteReference List

1010
Systemsystem
1212
Umgebungvicinity
1414
Kameracamera
1616
Bildsensorimage sensor
1818
Vorrichtungcontraption
2020
Fahrzeugvehicle
2222
Objektobject
2424
Sichtfeldfield of view
2626
Eingangsschnittstelleinput interface
2828
Auswerteeinheitevaluation unit
3030
Abstandseinheitdistance unit
3232
Modellierungseinheitmodeling unit
3434
Linselens
3636
Bildpicture
3838
Szenenabbildungscene illustration
4040
Kontrastdarstellungcontrast display

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent Literature Cited

  • DE 102018221133 A1 [0005]DE 102018221133 A1 [0005]

Claims (14)

Vorrichtung (18) zum Erzeugen eines 3D-Modells einer Umgebung (12), mit: einer Eingangsschnittstelle (26) zum Empfangen von Bilddaten eines Bildsensors (16), wobei die Bilddaten eine Mehrzahl von Bildern desselben Bereichs der Umgebung mit unterschiedlicher Fokussierung umfassen; einer Auswerteeinheit (28) zum Detektieren eines fokussierten Bildbereichs in einem Bild (36) der Mehrzahl von Bildern; einer Abstandseinheit (30) zum Ermitteln einer Tiefeninformation für den fokussierten Bildbereich basierend auf einer vorbekannten Zuordnung von Abständen zu Fokussierungen; und einer Modellierungseinheit (32) zum Ermitteln von dreidimensionalen Positionsangaben zu Objekten (22) in der Umgebung basierend auf fokussierten Bildbereichen in den Bildern der Mehrzahl von Bildern und ermittelten Tiefeninformationen.Apparatus (18) for creating a 3D model of an environment (12), comprising: an input interface (26) for receiving image data from an image sensor (16), the image data comprising a plurality of images of the same area of the environment with different focus; an evaluation unit (28) for detecting a focused image area in an image (36) of the plurality of images; a distance unit (30) for determining depth information for the focused image area based on a previously known assignment of distances to focussing; and a modeling unit (32) for determining three-dimensional position information on objects (22) in the area based on focused image areas in the images of the plurality of images and determined depth information. Vorrichtung (18) nach Anspruch 1, wobei die Eingangsschnittstelle (26) zum Empfangen der Bilddaten von einer Kamera (14) mit einer senkrecht zu einer Bildebene des Bildsensors (16) gegenüber dem Bildsensor beweglichen Linse (34) zum Verändern einer Fokussierung ausgebildet ist.Device (18) after claim 1 , wherein the input interface (26) is designed to receive the image data from a camera (14) with a lens (34) movable perpendicularly to an image plane of the image sensor (16) relative to the image sensor in order to change a focus. Vorrichtung (18) nach einem der vorstehenden Ansprüche, wobei die Auswerteeinheit (28) zum Detektieren des fokussierten Bildbereichs basierend auf einer Kontrastauswertung und/oder basierend auf einer Detektion einer Phase des Bildes (36) ausgebildet ist.Device (18) according to one of the preceding claims, wherein the evaluation unit (28) is designed to detect the focused image area based on a contrast evaluation and/or based on a detection of a phase of the image (36). Vorrichtung (18) nach einem der vorstehenden Ansprüche, wobei die Abstandseinheit (30) zum Ermitteln der Tiefeninformation für den fokussierten Bildbereich basierend auf einem entsprechenden Bildbereich in einem anderen Bild der Mehrzahl von Bildern ausgebildet ist.Device (18) according to one of the preceding claims, wherein the distance unit (30) is designed to determine the depth information for the focused image area based on a corresponding image area in another image of the plurality of images. Vorrichtung (18) nach Anspruch 4, wobei die Abstandseinheit (30) zum Ermitteln der Tiefeninformation basierend auf einer Kontraständerung des fokussierten Bildbereichs und einem entsprechenden Bildbereich in einem anderen Bild der Mehrzahl von Bildern ausgebildet ist.Device (18) after claim 4 , wherein the distance unit (30) is designed to determine the depth information based on a contrast change of the focused image area and a corresponding image area in another image of the plurality of images. Vorrichtung (18) nach einem der vorstehenden Ansprüche, wobei die Abstandseinheit (30) zum Ermitteln der Tiefeninformation für den fokussierten Bildbereich basierend auf einem nichtfokussierten Bildbereich in demselben Bild (36) der Mehrzahl von Bildern ausgebildet ist; und der nichtfokussierte Bildbereich vorzugsweise direkt an den fokussierten Bildbereich angrenzt.Device (18) according to any one of the preceding claims, wherein the distance unit (30) is designed to determine the depth information for the focused image area based on an unfocused image area in the same image (36) of the plurality of images; and the unfocused image area is preferably directly adjacent to the focused image area. Vorrichtung (18) nach einem der vorstehenden Ansprüche, wobei die Abstandseinheit (30) zum Ermitteln der Tiefeninformation basierend auf einem vortrainierten künstlichen neuronalen Netzwerk ausgebildet ist.Device (18) according to one of the preceding claims, wherein the distance unit (30) is designed to determine the depth information based on a pre-trained artificial neural network. Vorrichtung (18) nach einem der vorstehenden Ansprüche, wobei die Eingangsschnittstelle (26) zum Empfangen von Bewegungsdaten mit Informationen zu einer Relativbewegung zwischen Umgebung (12) und Bildsensor (16) während des Aufnehmens der Mehrzahl von Bildern ausgebildet ist; und die Modellierungseinheit (32) zum Kompensieren einer Bewegung des Bildsensors gegenüber der Umgebung basierend auf den Bewegungsdaten ausgebildet ist.Device (18) according to any one of the preceding claims, wherein the input interface (26) is designed to receive movement data with information on a relative movement between the environment (12) and the image sensor (16) during the recording of the plurality of images; and the modeling unit (32) is designed to compensate for a movement of the image sensor in relation to the environment based on the movement data. Vorrichtung (18) nach einem der vorstehenden Ansprüche, wobei die Eingangsschnittstelle (26) zum Empfangen der vorbekannten Zuordnung ausgebildet ist; und/oder die vorbekannte Zuordnung eine Nachschlagetabelle umfasst, die vorzugsweise in einer Kalibrierung einer Kamera ermittelt wurde.Device (18) according to any one of the preceding claims, wherein the input interface (26) is designed to receive the previously known association; and or the previously known association includes a look-up table, which was preferably determined in a calibration of a camera. System (10) zum Erzeugen eines 3D-Modells einer Umgebung (12), mit: einer Kamera (14) mit einem Bildsensor (16) zum Erfassen der Umgebung, wobei die Kamera eine senkrecht zur Bildebene gegenüber dem Bildsensor bewegliche Linse (34) zum Verändern einer Fokussierung umfasst und wobei der Bildsensor zum Aufnehmen einer Mehrzahl von Bildern an unterschiedlichen Positionen der Linse ausgebildet ist; und einer Vorrichtung (18) nach einem der vorstehenden Ansprüche.A system (10) for creating a 3D model of an environment (12), comprising: a camera (14) with an image sensor (16) for capturing the environment, wherein the camera comprises a lens (34) that can be moved perpendicularly to the image plane relative to the image sensor to change a focus and wherein the image sensor is used to record a plurality of images at different positions of the lens is formed; and a device (18) according to any one of the preceding claims. System (10) nach Anspruch 10, wobei die Kamera (14) einen mikroelektromechanischen Aktor zum Bewegen der Linse (34) gegenüber dem Bildsensor (16) umfasst.system (10) according to claim 10 , wherein the camera (14) comprises a microelectromechanical actuator for moving the lens (34) relative to the image sensor (16). Fahrzeug (20) mit einem System (10) nach einem der Ansprüche 10 und 11.Vehicle (20) with a system (10) according to one of Claims 10 and 11 . Verfahren zum Erzeugen eines 3D-Modells einer Umgebung, mit den Schritten: Empfangen (S10) von Bilddaten eines Bildsensors (16), wobei die Bilddaten eine Mehrzahl von Bildern desselben Bereichs der Umgebung mit unterschiedlicher Fokussierung umfassen; Detektieren (S12) eines fokussierten Bildbereichs in einem Bild (36) der Mehrzahl von Bildern; Ermitteln (S14) einer Tiefeninformation für den fokussierten Bildbereich basierend auf einer vorbekannten Zuordnung von Abständen zu Fokussierungen; und Ermitteln (S16) von dreidimensionalen Positionsangaben zu Objekten (22) in der Umgebung basierend auf fokussierten Bildbereichen in den Bildern der Mehrzahl von Bildern und ermittelten Tiefeninformationen.Method for generating a 3D model of an environment, comprising the steps of: receiving (S10) image data from an image sensor (16), the image data comprising a plurality of images of the same area of the environment with different focusing; detecting (S12) a focused image area in an image (36) of the plurality of images; determining (S14) depth information for the focused image area based on a previously known assignment of distances to focussing; and determining (S16) three-dimensional position information on objects (22) in the area on focused image areas in the images of the plurality of images and determined depth information. Computerprogrammprodukt mit Programmcode zum Durchführen der Schritte des Verfahrens nach Anspruch 13, wenn der Programmcode auf einem Computer ausgeführt wird.Computer program product with program code for performing the steps of the method Claim 13 , if the program code is run on a computer.
DE102021202454.8A 2021-03-15 2021-03-15 Environment modeling based on camera data Withdrawn DE102021202454A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021202454.8A DE102021202454A1 (en) 2021-03-15 2021-03-15 Environment modeling based on camera data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021202454.8A DE102021202454A1 (en) 2021-03-15 2021-03-15 Environment modeling based on camera data

Publications (1)

Publication Number Publication Date
DE102021202454A1 true DE102021202454A1 (en) 2022-09-15

Family

ID=83005334

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021202454.8A Withdrawn DE102021202454A1 (en) 2021-03-15 2021-03-15 Environment modeling based on camera data

Country Status (1)

Country Link
DE (1) DE102021202454A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117288168A (en) * 2023-11-24 2023-12-26 山东中宇航空科技发展有限公司 Unmanned aerial vehicle city building system of taking photo by plane of low-power consumption

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080189036A1 (en) 2007-02-06 2008-08-07 Honeywell International Inc. Method and system for three-dimensional obstacle mapping for navigation of autonomous vehicles
DE102013222304A1 (en) 2013-11-04 2015-05-07 Conti Temic Microelectronic Gmbh Method for determining object distances with a camera installed in a motor vehicle
WO2016075113A1 (en) 2014-11-10 2016-05-19 At & S Austria Technologie & Systemtechnik Aktiengesellschaft Microelectromechanical system (mems) package
DE102017221381A1 (en) 2017-11-29 2019-05-29 Robert Bosch Gmbh Method, apparatus and computer program for determining a distance to an object
DE102018221133A1 (en) 2018-12-06 2020-06-10 Zf Friedrichshafen Ag Position and motion detection using the auto focus system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080189036A1 (en) 2007-02-06 2008-08-07 Honeywell International Inc. Method and system for three-dimensional obstacle mapping for navigation of autonomous vehicles
DE102013222304A1 (en) 2013-11-04 2015-05-07 Conti Temic Microelectronic Gmbh Method for determining object distances with a camera installed in a motor vehicle
WO2016075113A1 (en) 2014-11-10 2016-05-19 At & S Austria Technologie & Systemtechnik Aktiengesellschaft Microelectromechanical system (mems) package
DE102017221381A1 (en) 2017-11-29 2019-05-29 Robert Bosch Gmbh Method, apparatus and computer program for determining a distance to an object
DE102018221133A1 (en) 2018-12-06 2020-06-10 Zf Friedrichshafen Ag Position and motion detection using the auto focus system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117288168A (en) * 2023-11-24 2023-12-26 山东中宇航空科技发展有限公司 Unmanned aerial vehicle city building system of taking photo by plane of low-power consumption
CN117288168B (en) * 2023-11-24 2024-01-30 山东中宇航空科技发展有限公司 Unmanned aerial vehicle city building system of taking photo by plane of low-power consumption

Similar Documents

Publication Publication Date Title
WO2018177484A1 (en) Method and system for predicting sensor signals from a vehicle
EP2150939B1 (en) Method and device for determining the position of a road sign
EP3552144A1 (en) Camera device and method for capturing a surrounding region of a vehicle in a situation-adapted manner
DE102016206493A1 (en) Method and camera system for determining the distance of objects to a vehicle
EP3044727B1 (en) Method and device for detecting objects from depth-resolved image data
DE102018212655A1 (en) Detection of the intention to move a pedestrian from camera images
DE102005034597A1 (en) Method and device for generating a depth map
DE102013224502A1 (en) Method for calibrating stereo camera of vehicle, involves finding calibration error for calibrating stereo camera, by comparing three-dimensional (3D) environment data of two cameras calculated at preset time periods
DE102017203276A1 (en) Method and device for determining a trajectory in off-road scenarios
DE102018100909A1 (en) Method of reconstructing images of a scene taken by a multifocal camera system
DE102018111935A1 (en) Image processing system, image processing method, information processing apparatus and recording medium
DE102018204451A1 (en) Method and device for auto-calibration of a vehicle camera system
DE102012023060A1 (en) Method for detecting moving object in surrounding region of motor vehicle e.g.passenger car, involves determining vector values within the respective interval values, such movable object is detected based on histogram
EP3655299B1 (en) Method and device for determining an optical flow on the basis of an image sequence captured by a camera of a vehicle
DE102021202454A1 (en) Environment modeling based on camera data
DE102011121473A1 (en) A method for displaying images on a display device of a motor vehicle, driver assistance device, motor vehicle and computer program
DE102011118171A1 (en) Method for continuous estimation of driving surface plane of motor vehicle, involves determining current three-dimensional points of surrounding of motor vehicle from current image of image sequence of image capture device
DE102014209863A1 (en) Method and device for operating a stereo camera for a vehicle and stereo camera for a vehicle
DE102014204360A1 (en) Method and device for estimating the distance of a moving vehicle from an object
DE102018202753A1 (en) Method for determining a distance between a motor vehicle and an object
DE102010042821B4 (en) Method and apparatus for determining a basic width of a stereo detection system
DE102020214622A1 (en) Evaluation of image data from a stereo camera for object evaluation
DE102016205471A1 (en) Stereo camera device and a method for operating the stereo camera device
DE102019129101A1 (en) A method and system for estimating a bounding box that includes a target vehicle
DE102015210870A1 (en) Apparatus and method for capturing an image of a vehicle environment

Legal Events

Date Code Title Description
R163 Identified publications notified
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee