DE102021202454A1 - Environment modeling based on camera data - Google Patents
Environment modeling based on camera data Download PDFInfo
- Publication number
- DE102021202454A1 DE102021202454A1 DE102021202454.8A DE102021202454A DE102021202454A1 DE 102021202454 A1 DE102021202454 A1 DE 102021202454A1 DE 102021202454 A DE102021202454 A DE 102021202454A DE 102021202454 A1 DE102021202454 A1 DE 102021202454A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- images
- environment
- focused
- depth information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000011156 evaluation Methods 0.000 claims abstract description 17
- 238000000034 method Methods 0.000 claims abstract description 15
- 238000004590 computer program Methods 0.000 claims abstract description 8
- 230000033001 locomotion Effects 0.000 claims description 25
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 5
- 241000219739 Lens Species 0.000 description 21
- 238000013459 approach Methods 0.000 description 13
- 240000004322 Lens culinaris Species 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011157 data evaluation Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/36—Videogrammetry, i.e. electronic processing of video signals from a single source or from different sources to give parallax or range information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/571—Depth or shape recovery from multiple images from focus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B35/00—Stereoscopic photography
- G03B35/02—Stereoscopic photography by sequential recording
- G03B35/06—Stereoscopic photography by sequential recording with axial movement of lens or gate between exposures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Die vorliegende Erfindung betrifft eine Vorrichtung (18) zum Erzeugen eines 3D-Modells einer Umgebung (12), mit: einer Eingangsschnittstelle (26) zum Empfangen von Bilddaten eines Bildsensors (16), wobei die Bilddaten eine Mehrzahl von Bildern desselben Bereichs der Umgebung mit unterschiedlicher Fokussierung umfassen; einer Auswerteeinheit (28) zum Detektieren eines fokussierten Bildbereichs in einem Bild (36) der Mehrzahl von Bildern; einer Abstandseinheit (30) zum Ermitteln einer Tiefeninformation für den fokussierten Bildbereich basierend auf einer vorbekannten Zuordnung von Abständen zu Fokussierungen; und einer Modellierungseinheit (32) zum Ermitteln von dreidimensionalen Positionsangaben zu Objekten (22) in der Umgebung basierend auf fokussierten Bildbereichen in den Bildern der Mehrzahl von Bildern und ermittelten Tiefeninformationen. Die vorliegende Erfindung betrifft weiterhin ein System (10) und ein Verfahren zum Erzeugen eines 3D-Modells einer Umgebung (12) sowie ein Fahrzeug und ein Computerprogrammprodukt mit Programmcode zum Durchführen der Schritte des Verfahrens.The present invention relates to a device (18) for generating a 3D model of an environment (12), having: an input interface (26) for receiving image data from an image sensor (16), the image data having a plurality of images of the same area of the environment different focus include; an evaluation unit (28) for detecting a focused image area in an image (36) of the plurality of images; a distance unit (30) for determining depth information for the focused image area based on a previously known assignment of distances to focussing; and a modeling unit (32) for determining three-dimensional position information on objects (22) in the environment based on focused image areas in the images of the plurality of images and determined depth information. The present invention further relates to a system (10) and a method for generating a 3D model of an environment (12), as well as a vehicle and a computer program product with program code for carrying out the steps of the method.
Description
Die vorliegende Erfindung betrifft eine Vorrichtung zum Erzeugen eines 3D-Modells einer Umgebung. Die vorliegende Erfindung betrifft weiterhin ein Verfahren sowie ein System zum Erzeugen eines 3D-Modells einer Umgebung. Zudem betrifft die Erfindung ein Fahrzeug und ein Computerprogrammprodukt.The present invention relates to a device for generating a 3D model of an environment. The present invention further relates to a method and a system for generating a 3D model of an environment. The invention also relates to a vehicle and a computer program product.
Moderne Fahrzeuge (Autos, Lastwagen, Motorräder etc.) verfügen über eine Vielzahl von Sensoren (Radar, Lidar, Kamera, Ultraschall etc.), die einem Fahrzeugführer oder einem Steuersystem des Fahrzeugs Informationen zur Verfügung stellen. Über derartige Umgebungssensoren werden die Umgebung des Fahrzeugs und Objekte in dieser Umgebung (andere Fahrzeuge, Infrastrukturobjekte, Personen, bewegliche Objekte etc.) erfasst. Basierend auf den erfassten Daten kann ein Modell der Fahrzeugumgebung erzeugt werden und auf Veränderungen in dieser Fahrzeugumgebung reagiert werden. Insbesondere kann eine Fahrfunktion des Fahrzeugs teil- oder vollautonom ausgeführt werden.Modern vehicles (cars, trucks, motorcycles, etc.) have a variety of sensors (radar, lidar, camera, ultrasound, etc.) that provide information to a vehicle operator or a vehicle's control system. The environment of the vehicle and objects in this environment (other vehicles, infrastructure objects, people, moving objects, etc.) are detected via such environment sensors. Based on the recorded data, a model of the vehicle environment can be generated and changes in this vehicle environment can be reacted to. In particular, a driving function of the vehicle can be carried out partially or fully autonomously.
Die Verwendung von Kameras zur Umfelderkennung wird dabei immer wichtiger. Aufgrund der technischen Weiterentwicklung können hochauflösende Kamerasysteme heute zu überschaubaren Kosten und in teil- oder vollautonomen Fahrzeugen verbaut werden. Durch fortschrittliche Bildverarbeitungs- und Auswertungsalgorithmen können Informationen über Objekte in der Umgebung des Fahrzeugs gewonnen werden.The use of cameras for environment recognition is becoming more and more important. Due to technical developments, high-resolution camera systems can now be installed at reasonable costs and in partially or fully autonomous vehicles. Advanced image processing and evaluation algorithms can be used to obtain information about objects in the vehicle's surroundings.
Ein Nachteil der Verwendung von Kameras liegt in der messprinzipbedingten mangelnden Verfügbarkeit von Tiefeninformationen. Um Abstände zu Objekten bestimmen zu können, kann auf Algorithmen der Bildauswertung und insbesondere auf Ansätze des maschinellen Lernens zurückgegriffen werden. Alternativ oder zusätzlich können sogenannte Stereokamerasysteme eingesetzt werden, bei denen zumindest zwei Bildsensoren, die voneinander räumlich getrennt angeordnet sind, Bilder aufnehmen und diese Bilder dann gemeinsam ausgewertet werden. Dies bedingt höhere Kosten aufgrund der Notwendigkeit des Verwendens zusätzlicher Hardware. Gerade wenn berücksichtigt wird, dass zumeist mehrere Bereiche im Umfeld eines Fahrzeugs sensorisch erfasst werden sollen, die in unterschiedliche Richtungen ausgerichtete Kameras erfordern, sind diese Zusatzkosten relevant.A disadvantage of using cameras is the lack of availability of depth information due to the measurement principle. In order to be able to determine distances to objects, image analysis algorithms and, in particular, machine learning approaches can be used. As an alternative or in addition, so-called stereo camera systems can be used, in which at least two image sensors, which are spatially separated from one another, record images and these images are then evaluated together. This entails higher costs due to the need to use additional hardware. These additional costs are particularly relevant when it is taken into account that in most cases several areas in the vicinity of a vehicle are to be detected by sensors, which require cameras aligned in different directions.
In diesem Zusammenhang wird in
Nachteilig an bisherigen Ansätzen sind insbesondere die hohe Anforderung an die Rechenleistung sowie die hohe Berechnungsdauer. Gerade in Situationen, in denen nicht spezifisch ein bestimmtes Objekt betrachtet werden soll, sondern zunächst eine Erfassung verschiedener Objekte in einer Umgebung durchgeführt werden soll, sind derartige Ansätze teilweise nicht anwendbar.Disadvantages of previous approaches are, in particular, the high demand for computing power and the long calculation time. Especially in situations in which a specific object is not to be viewed specifically, but instead a detection of various objects in an environment is to be carried out first, such approaches cannot be used in some cases.
Ausgehend hiervon stellt sich der vorliegenden Erfindung die Aufgabe, einen Ansatz zum Erzeugen eines 3D-Modells einer Umgebung basierend auf Daten einer Kamera bereitzustellen. Insbesondere soll eine Erzeugung eines 3D-Modells basierend auf Bilddaten eines einzelnen Bildsensors ermöglicht werden. Das erzeugte 3D-Modell soll Informationen zu Positionen und Abständen von Objekten im Sichtfeld des Bildsensors beinhalten.Proceeding from this, the object of the present invention is to provide an approach for generating a 3D model of an environment based on data from a camera. In particular, it should be possible to generate a 3D model based on image data from a single image sensor. The 3D model generated should contain information on the positions and distances of objects in the field of view of the image sensor.
Zum Lösen dieser Aufgabe betrifft die vorliegende Erfindung in einem ersten Aspekt eine Vorrichtung zum Erzeugen eines 3D-Modells einer Umgebung, mit:
- einer Eingangsschnittstelle zum Empfangen von Bilddaten eines Bildsensors, wobei die Bilddaten eine Mehrzahl von Bildern desselben Bereichs der Umgebung mit unterschiedlicher Fokussierung umfassen;
- einer Auswerteeinheit zum Detektieren eines fokussierten Bildbereichs in einem Bild der Mehrzahl von Bildern;
- einer Abstandseinheit zum Ermitteln einer Tiefeninformation für den fokussierten Bildbereich basierend auf einer vorbekannten Zuordnung von Abständen zu Fokussierungen; und
- einer Modellierungseinheit zum Ermitteln von dreidimensionalen Positionsangaben zu Objekten in der Umgebung basierend auf fokussierten Bildbereichen in den Bildern der Mehrzahl von Bildern und ermittelten Tiefeninformationen.
- an input interface for receiving image data from an image sensor, the image data comprising a plurality of images of the same area of the environment with different focus;
- an evaluation unit for detecting a focused image area in an image of the plurality of images;
- a distance unit for determining depth information for the focused image area based on a previously known assignment of distances to focal points; and
- a modeling unit for determining three-dimensional position information on objects in the environment based on focused image areas in the images of the plurality of images and determined depth information.
In einem weiteren Aspekt betrifft die vorliegende Erfindung ein System zum Erzeugen eines 3D-Modells einer Umgebung, mit:
- einer Kamera mit einem Bildsensor zum Erfassen der Umgebung, wobei die Kamera eine senkrecht zur Bildebene gegenüber dem Bildsensor bewegliche Linse zum Verändern einer Fokussierung umfasst und wobei der Bildsensor zum Aufnehmen einer Mehrzahl von Bildern an unterschiedlichen Positionen der Linse ausgebildet ist; und
- einer Vorrichtung wie zuvor beschrieben.
- a camera with an image sensor for capturing the environment, wherein the camera comprises a lens that can be moved perpendicularly to the image plane relative to the image sensor for changing a focus, and wherein the image sensor configured to capture a plurality of images at different positions of the lens; and
- a device as previously described.
Weitere Aspekte der Erfindung betreffen ein Fahrzeug mit einem System wie zuvor beschrieben, ein der Vorrichtung entsprechend ausgebildetes Verfahren sowie ein Computerprogrammprodukt mit Programmcode zum Durchführen der Schritte des Verfahrens, wenn der Programmcode auf einem Computer ausgeführt wird. Zudem betrifft ein Aspekt der Erfindung ein Speichermedium, auf dem ein Computerprogramm gespeichert ist, das, wenn es auf einem Computer ausgeführt wird, eine Ausführung des hierin beschriebenen Verfahrens bewirkt.Further aspects of the invention relate to a vehicle with a system as described above, a method designed according to the device and a computer program product with program code for carrying out the steps of the method when the program code is executed on a computer. In addition, one aspect of the invention relates to a storage medium on which a computer program is stored which, when executed on a computer, causes the method described herein to be carried out.
Bevorzugte Ausgestaltungen der Erfindung werden in den abhängigen Ansprüchen beschrieben. Es versteht sich, dass die vorstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.Preferred developments of the invention are described in the dependent claims. It goes without saying that the features mentioned above and those still to be explained below can be used not only in the combination specified in each case, but also in other combinations or on their own, without departing from the scope of the present invention.
Insbesondere können die Vorrichtung, das System, das Fahrzeug, das Verfahren und das Computerprogrammprodukt entsprechend den für die Vorrichtung und das System in den abhängigen Ansprüchen definierten Ausgestaltungen ausgeführt sein. In particular, the device, the system, the vehicle, the method and the computer program product can be implemented in accordance with the configurations defined for the device and the system in the dependent claims.
Erfindungsgemäß ist es vorgesehen, dass Daten eines Bildsensors empfangen werden. Diese Bilddaten umfassen mehrere Bilder, die mit unterschiedlicher Fokussierung aufgenommen wurden. Beispielsweise ist es möglich, eine derartige Mehrzahl an Bildern durch eine Bewegung zwischen Linse und Bildsensor senkrecht zur Bildebene, also durch eine Veränderung einer Fokussierung, zu erzeugen. Die Änderung des Abstands erfolgt dabei vorzugsweise schnell, beispielsweise mittels einer oszillierenden Linse, um denselben Bildausschnitt mehrfach aufnehmen zu können. In jedem Bild der Mehrzahl von Bildern wird dann ein fokussierter Bildbereich, also ein scharf gestellter Bildbereich, ermittelt. Dieser fokussierte Bildbereich wird ausgewertet, um basierend auf einer vorbekannten Zuordnung von Abständen bzw. Tiefen zu Fokussierungen der Kamera eine Tiefeninformation zu ermitteln. Die vorbekannte Zuordnung entspricht dabei einer für eine Kamera bekannten Zuordnung zwischen einem Abstand zwischen Linse und Bildsensor und einer Distanz eines fokussierten bzw. scharf gestellten Bereichs von der Kamera für diesen Abstand. Die Zuordnung kann beispielsweise in einer Kalibrierung ermittelt werden oder auch theoretisch in einer entsprechenden Berechnung bestimmt werden. In einer Modellierungseinheit wird dann erfindungsgemäß ein 3D-Modell der Umgebung ermittelt. Das Modell umfasst eine Positionsangabe für ein Objekt, die eine zweidimensionale Angabe zu einer Position innerhalb des Bildes sowie eine Tiefeninformation, also eine Information zum Abstand vom Bildsensor, enthält. Insbesondere kann eine Punktewolke, also eine Angabe zu einer Position einer ganzen Reihe von Punkten in einem dreidimensionalen Bezugskoordinatensystem, bereitgestellt werden.According to the invention, it is provided that data from an image sensor is received. This image data includes several images that were recorded with different focuses. For example, it is possible to generate such a plurality of images by moving the lens and the image sensor perpendicularly to the image plane, ie by changing the focus. In this case, the distance is preferably changed quickly, for example by means of an oscillating lens, in order to be able to record the same image detail several times. In each image of the plurality of images, a focused image area, that is to say an image area that is in sharp focus, is then determined. This focused image area is evaluated in order to determine depth information based on a previously known assignment of distances or depths to focussing of the camera. The previously known association corresponds to an association, known for a camera, between a distance between the lens and the image sensor and a distance of a focused or in-focus area from the camera for this distance. The assignment can be determined, for example, in a calibration or can also be determined theoretically in a corresponding calculation. According to the invention, a 3D model of the environment is then determined in a modeling unit. The model includes position information for an object, which contains two-dimensional information about a position within the image and depth information, ie information about the distance from the image sensor. In particular, a cloud of points, ie information about a position of a whole series of points in a three-dimensional reference coordinate system, can be provided.
Im Vergleich zu bisherigen Ansätzen des kamerabasierten Erzeugens eines 3D-Modells wird erfindungsgemäß lediglich eine einzelne Kamera bzw. ein einzelner Bildsensor benötigt. Es ist nicht erforderlich, mehrere Bildsensoren im Sinne einer Stereokameraanordnung zu verwenden. Bauraum und Kosten können eingespart werden. Im Vergleich zu Ansätzen des Erzeugens eines 3D-Modells durch Bilderkennung und entsprechende algorithmische Auswertungsansätze kann eine Distanz zu Objekten, also eine Tiefe eines Punkts, mit höherer Zuverlässigkeit bestimmt werden. Im Vergleich zu einer Verwendung distanzbasierter Sensoren, wie beispielsweise Radar-, Lidar- oder Ultraschallsensoren, kann mittels eines rein kamerabasierten Systems ebenfalls eine Tiefeninformation erreicht werden. Kosten können eingespart werden.In comparison to previous approaches of camera-based generation of a 3D model, only a single camera or a single image sensor is required according to the invention. It is not necessary to use multiple image sensors in the sense of a stereo camera arrangement. Installation space and costs can be saved. In comparison to approaches of generating a 3D model through image recognition and corresponding algorithmic evaluation approaches, a distance to objects, ie a depth of a point, can be determined with greater reliability. In comparison to using distance-based sensors, such as radar, lidar or ultrasonic sensors, depth information can also be obtained using a purely camera-based system. Costs can be saved.
In einer bevorzugten Ausgestaltung ist die Eingangsschnittstelle zum Empfangen der Bilddaten von einer Kamera mit einer senkrecht zu einer Bildebene des Bildsensors gegenüber dem Bildsensor beweglichen Linse zum Verändern einer Fokussierung ausgebildet. Insbesondere ist es möglich, dass die Fokussierung der Kamera durch Verändern eines Abstands zwischen Bildsensor und Linse erreicht wird. Eine derartige Änderung des Abstands kann beispielsweise durch Modifikation eines herkömmlichen Autofokus-Systems erreicht werden.In a preferred embodiment, the input interface is designed to receive the image data from a camera with a lens that can be moved perpendicularly to an image plane of the image sensor relative to the image sensor in order to change a focus. In particular, it is possible for the camera to be focused by changing a distance between the image sensor and the lens. Such a change in distance can be achieved, for example, by modifying a conventional autofocus system.
In einer bevorzugten Ausgestaltung ist die Auswerteeinheit zum Detektieren des fokussierten Bildbereichs basierend auf einer Kontrastauswertung und/oder basierend auf einer Detektion einer Phase des Bildes ausgebildet. Insbesondere ist es möglich, dass durch eine Betrachtung eines Kontrastverlaufs innerhalb des Bildes festgestellt wird, welcher Bereich des Bildes scharfgestellt, also fokussiert, ist. Insbesondere können fokussierte Kanten oder ähnliche Merkmale erkannt werden. Ebenfalls kann eine Auswertung einer Phase erfolgen, um darauf basierend fokussierte Bildbereiche zu identifizieren. Durch die automatische Identifizierung fokussierter Bildbereiche kann eine effiziente Datenauswertung ermöglicht werden. Eine schnelle Verarbeitung wird erreicht.In a preferred embodiment, the evaluation unit is designed to detect the focused image area based on a contrast evaluation and/or based on a detection of a phase of the image. In particular, it is possible to determine which area of the image is sharp, ie in focus, by examining a contrast profile within the image. In particular, focused edges or similar features can be recognized. A phase can also be evaluated in order to identify focused image areas based on this. Efficient data evaluation can be enabled by the automatic identification of focused image areas. Fast processing is achieved.
In einer bevorzugten Ausgestaltung ist die Abstandseinheit zum Ermitteln der Tiefeninformation für den fokussierten Bildbereich basierend auf einem entsprechenden Bildbereich in einem anderen Bild der Mehrzahl von Bildern ausgebildet. Bei der Ermittlung der Tiefeninformation wird also zusätzlich zu dem aktuellen Bild auch ein anderes Bild der Mehrzahl von Bildern, also ein Bild mit anderer Fokussierung, berücksichtigt. Durch einen Vergleich zwischen zwei Bildern bzw. den fokussierten Bereichen beider Bilder, können Zusatzinformationen gewonnen werden. Hierdurch kann die Genauigkeit bei der Ermittlung der Tiefeninformation verbessert werden.In a preferred embodiment, the distance unit for determining the depth information for the focused image area is based on a corresponding image area is formed in another image of the plurality of images. When determining the depth information, another image from the plurality of images, ie an image with a different focus, is also taken into account in addition to the current image. Additional information can be obtained by comparing two images or the focused areas of both images. As a result, the accuracy when determining the depth information can be improved.
In einer bevorzugten Ausgestaltung ist die Abstandseinheit zum Ermitteln der Tiefeninformation basierend auf einer Kontraständerung des fokussierten Bildbereichs und einem entsprechenden Bildbereich in einem anderen Bild der Mehrzahl von Bildern ausgebildet. Insbesondere kann ein entsprechender Bildbereich, also derselbe Bildbereich wie der fokussierte Bildbereich in dem aktuell betrachteten Bild, in einem anderen Bild zusätzlich ausgewertet werden. Je nach Unterschied in Kontrastwerten beider Bildbereiche kann die Genauigkeit bei der Ermittlung der Tiefeninformation weiter verbessert werden. Eine hohe Genauigkeit und Zuverlässigkeit bei der Ermittlung der Tiefeninformation wird erreicht.In a preferred embodiment, the distance unit is designed to determine the depth information based on a change in contrast of the focused image area and a corresponding image area in another image of the plurality of images. In particular, a corresponding image area, ie the same image area as the focused image area in the currently viewed image, can also be evaluated in another image. Depending on the difference in the contrast values of both image areas, the accuracy when determining the depth information can be further improved. A high level of accuracy and reliability is achieved when determining the depth information.
In einer bevorzugten Ausgestaltung ist die Abstandseinheit zum Ermitteln der Tiefeninformation für den fokussierten Bildbereich basierend auf einem nicht fokussierten Bildbereich in demselben Bild der Mehrzahl von Bildern ausgebildet. Der nicht fokussierte Bildbereich grenzt vorzugsweise direkt an den fokussierten Bildbereich an. Zusätzlich oder alternativ kann eine weitere Verbesserung der Genauigkeit bei der Ermittlung der Tiefeninformation durch eine zusätzliche Betrachtung anderer Bereiche innerhalb des aktuell ausgewerteten Bildes der Mehrzahl von Bildern erreicht werden. Neben dem fokussierten Bereich wird also ein weiterer Bildbereich bei der Ermittlung der Tiefeninformation betrachtet. Je nach Art des Bildes und der aktuell ausgewerteten Objekte können beispielsweise verschwommene, also nicht fokussierte Objekte, die jedoch dennoch erkennbar sind, berücksichtigt werden. Die Genauigkeit bei der Ermittlung der Tiefeninformation wird weiter verbessert.In a preferred embodiment, the distance unit is designed to determine the depth information for the focused image area based on a non-focused image area in the same image of the plurality of images. The unfocused image area is preferably directly adjacent to the focused image area. Additionally or alternatively, a further improvement in the accuracy when determining the depth information can be achieved by additionally considering other areas within the currently evaluated image of the plurality of images. In addition to the focused area, a further image area is therefore considered when determining the depth information. Depending on the type of image and the currently evaluated objects, for example, blurred, i.e. not focused, objects that are nevertheless recognizable can be taken into account. The accuracy in determining the depth information is further improved.
In einer bevorzugten Ausgestaltung ist die Abstandseinheit zum Ermitteln der Tiefeninformation basierend auf einem vortrainierten künstlichen neuronalen Netzwerk ausgebildet. Zusätzlich zur Verwendung der vorbekannten Zuordnung kann eine weitere Verbesserung der Genauigkeit durch Anwendung eines vortrainierten künstlichen neuronalen Netzwerks erreicht werden. Entsprechende Trainingsdaten beinhalten dabei eine Zuordnung von Bildinformationen zu Tiefen bzw. Abständen. Derartige Trainingsdaten können beispielsweise durch manuelle Annotation, durch simulativ erzeugte Daten oder auch durch eine Kombination mit einem anderen Sensorsystem (beispielsweise Lidar- oder Radarsensoren) erzeugt werden. Durch die zusätzliche Anwendung eines vortrainierten künstlichen neuronalen Netzwerks kann die Genauigkeit bei der Ermittlung der Tiefeninformation weiter verbessert werden.In a preferred embodiment, the distance unit is designed to determine the depth information based on a pre-trained artificial neural network. In addition to using the previously known mapping, a further improvement in accuracy can be achieved by using a pre-trained artificial neural network. Corresponding training data contain an assignment of image information to depths or distances. Such training data can be generated, for example, by manual annotation, by simulatively generated data or by a combination with another sensor system (for example lidar or radar sensors). The accuracy in determining the depth information can be further improved by the additional use of a pre-trained artificial neural network.
In einer bevorzugten Ausgestaltung ist die Eingangsschnittstelle zum Empfangen von Bewegungsdaten mit Informationen zu einer Relativbewegung zwischen Umgebung und Bildsensor während des Aufnehmens der Mehrzahl von Bildern ausgebildet. Die Modellierungseinheit ist zum Kompensieren einer Bewegung des Bildsensors gegenüber der Umgebung basierend auf den Bewegungsdaten ausgebildet. Um eine mögliche schnelle Bewegung des Bildsensors gegenüber der Umgebung, beispielsweise wenn der Bildsensor an einem Fahrzeug befestigt ist, zu kompensieren, können zusätzlich Bewegungsdaten bei der Bildauswertung berücksichtigt werden. Bewegungsdaten können dabei beispielsweise Messdaten eines Inertialsensors sein. Ebenfalls ist es möglich, dass die Bewegung anhand der Bilder selbst oder basierend auf Sensordaten weiterer Sensoren (bspw. Radar oder Lidar) bestimmt wird. Durch die Bewegungsdaten kann eine Korrektur der Bewegung erfolgen. Insbesondere kann eine Rückrechnung der Bilddaten auf einen gemeinsamen Bezugspunkt ermöglicht werden. Durch die Kompensation der Bewegung kann die Ermittlung der dreidimensionalen Positionsangaben verbessert werden. Insbesondere kann die Genauigkeit gesteigert werden.In a preferred refinement, the input interface is designed to receive movement data with information on a relative movement between the environment and the image sensor during the recording of the plurality of images. The modeling unit is designed to compensate for a movement of the image sensor in relation to the environment based on the movement data. In order to compensate for a possible rapid movement of the image sensor in relation to the surroundings, for example when the image sensor is attached to a vehicle, movement data can also be taken into account in the image evaluation. Movement data can be measurement data from an inertial sensor, for example. It is also possible for the movement to be determined using the images themselves or based on sensor data from other sensors (e.g. radar or lidar). The movement data can be used to correct the movement. In particular, back calculation of the image data to a common reference point can be made possible. The determination of the three-dimensional position information can be improved by compensating for the movement. In particular, the accuracy can be increased.
In einer bevorzugten Ausgestaltung ist die Eingangsschnittstelle zum Empfangen der vorbekannten Zuordnung ausgebildet. Zusätzlich oder alternativ umfasst die vorbekannte Zuordnung eine Nachschlagetabelle, die vorzugsweise in einer Kalibrierung einer Kamera ermittelt wurde. Eine Nachschlagetabelle ordnet insbesondere Abstände zwischen Linse und Bildsensor zu Abständen zwischen Bildsensor und scharfgestellten Objekten zu. Es ist möglich, dass die vorbekannte Zuordnung über die Eingangsschnittstelle empfangen wird. Insoweit kann eine Aktualisierung der vorbekannten Zuordnung vorgenommen werden. Dabei kann insbesondere eine Kamerakalibrierung zum Erzeugen der vorbekannten Zuordnung verwendet werden.In a preferred embodiment, the input interface is designed to receive the previously known assignment. Additionally or alternatively, the previously known association includes a look-up table, which was preferably determined in a calibration of a camera. Specifically, a look-up table maps lens-to-imager distances to imager-to-in-focus object distances. It is possible that the previously known assignment is received via the input interface. In this respect, the previously known assignment can be updated. In this case, in particular, a camera calibration can be used to generate the previously known association.
In einer bevorzugten Ausgestaltung des Systems umfasst die Kamera einen mikroelektromechanischen Aktor zum Bewegen der Linse gegenüber dem Bildsensor. Durch die Verwendung eines MEMS-Aktors kann eine effiziente Herstellbarkeit erreicht werden und gleichzeitig eine präzise Bewegungssteuerung ermöglicht werden. In a preferred embodiment of the system, the camera includes a microelectromechanical actuator for moving the lens relative to the image sensor. Efficient manufacturability can be achieved by using a MEMS actuator while enabling precise motion control.
Ein Objekt in einer Umgebung eines Fahrzeugs kann insbesondere ein anderes Fahrzeug, ein Fahrradfahrer, ein Fußgänger, ein Tier oder ein statisches Objekt wie ein auf der Fahrbahn liegender Autoreifen etc. sein. Eine Umgebung kann insbesondere ein Umfeld eines Fahrzeugs bzw. ein von dem Fahrzeug aus einsehbarer Bereich sein. Bilddaten eines Bildsensors umfassen insbesondere Farbwerte von Pixeln. Eine Fokussierung bezeichnet eine Scharfstellung. Ein fokussierter Bereich ist ein Bildbereich, der scharf gestellt ist. Unter einer Tiefeninformation versteht sich eine Information zu einem Abstand eines Objekts innerhalb des Bildes von dem Bildsensor. Eine dreidimensionale Positionsangabe kann in unterschiedlichen Koordinatensystemen vorliegen. Insbesondere kann ein kamerafestes Koordinatensystem verwendet werden und eine Angabe zu einer Position des Pixels innerhalb des Bildes und einem Abstand des Pixels zum Bildsensor als dreidimensionale Positionsangabe verstanden werden. Eine Kamera bzw. ein Kamerasensor umfasst mindestens einen Bildsensor sowie eine Linse.An object in the surroundings of a vehicle can in particular be another vehicle, a cyclist, a pedestrian, an animal or a static object such as a car tire lying on the road, etc. An environment can in particular be an area surrounding a vehicle or an area that can be seen from the vehicle. Image data from an image sensor include, in particular, color values of pixels. Focusing means focusing. A focused area is an image area that is in focus. Depth information is information about a distance of an object within the image from the image sensor. A three-dimensional position statement can be in different coordinate systems. In particular, a camera-fixed coordinate system can be used and an indication of a position of the pixel within the image and a distance of the pixel from the image sensor can be understood as a three-dimensional position indication. A camera or camera sensor comprises at least one image sensor and one lens.
Die Erfindung wird nachfolgend anhand einiger ausgewählter Ausführungsbeispiele im Zusammenhang mit den beiliegenden Zeichnungen näher beschrieben und erläutert. Es zeigen:
-
1 eine schematische Darstellung eines erfindungsgemäßen Systems zum Erzeugen eines 3D-Modells einer Umgebung; -
2 eine schematische Darstellung einer erfindungsgemäßen Vorrichtung zum Erzeugen eines 3D-Modells einer Umgebung; -
3 eine schematische Darstellung des Veränderns einer Fokussierung durch Ändern des Abstands zwischen Linse und Bildsensor; -
4 eine schematische Darstellung eines Ansatzes zum Detektieren eines fokussierten Bildbereichs; -
5 eine schematische Darstellung eines weiteren Ansatzes zum Detektieren eines fokussierten Bildbereichs; und -
6 eine schematische Darstellung eines erfindungsgemäßen Verfahrens.
-
1 a schematic representation of an inventive system for generating a 3D model of an environment; -
2 a schematic representation of a device according to the invention for generating a 3D model of an environment; -
3 a schematic representation of changing a focus by changing the distance between the lens and the image sensor; -
4 a schematic representation of an approach for detecting a focused image area; -
5 a schematic representation of a further approach for detecting a focused image area; and -
6 a schematic representation of a method according to the invention.
In der
Erfindungsgemäß ist es vorgesehen, dass mittels der Vorrichtung 18 eine Auswertung von Bilddaten des Bildsensors 16 vorgenommen wird. Die Bilddaten umfassen dabei eine Mehrzahl von Bildern desselben Bereichs der Umgebung 12, die mit unterschiedlicher Fokussierung aufgenommen wurden. Diese unterschiedliche Fokussierung kann beispielsweise dadurch erreicht werden, dass ein Abstand zwischen dem Bildsensor 16 und einer Linse variiert wird. Ausgehend von unterschiedlichen scharf gestellt zu erkennenden fokussierten Bereichen in den Bildern der Mehrzahl von Bildern wird erfindungsgemäß auf Distanzen zu Objekten in der Umgebung geschlossen. Basierend hierauf wird ein 3D-Modell der Umgebung 12 erzeugt.According to the invention, it is provided that the
In der
Über die Eingangsschnittstelle 26 werden Daten des Bildsensors empfangen. Der Bildsensor ist dabei insbesondere ein Bildsensor einer Kamera, die vorzugsweise an einem Fahrzeug angeordnet ist. Die Kamera nimmt Bilder eines Bereichs der Umgebung auf und überträgt diese an die Vorrichtung 18. Die Datenübertragung kann dabei beispielsweise über ein Fahrzeugbussystem erfolgen, an das die Eingangsschnittstelle 26 angebunden ist. Die Bilddaten umfassen eine Mehrzahl von Bildern. Diese verschiedenen Bilder zeigen jeweils denselben Bereich, sind aber mit unterschiedlicher Fokussierung aufgenommen. Insbesondere sind die Bilder bei unterschiedlichem Abstand zwischen Linse und Bildsensor aufgenommen.Data from the image sensor are received via the
In der Auswerteeinheit 28 wird in einem Bild der Mehrzahl von Bildern ein in diesem Bild fokussierter Bildbereich detektiert. Hierzu können unterschiedliche algorithmische Ansätze angewendet werden. Beispielsweise kann eine Auswertung von Konturen oder Kontrasten vorgenommen werden. Ebenfalls ist es möglich, eine Phase des Bildes zu analysieren (Phasenauswertung), um darauf basierend festzustellen, welche Bereiche des Bildes scharf gestellt, also fokussiert, sind. Insbesondere können Punkte als fokussierte Bildbereiche detektiert werden.In the
In der Abstandseinheit 30 wird dann für diesen fokussierten Bildbereich eine Tiefeninformation ermittelt. Unter einer Tiefeninformation wird dabei ein Abstand des fokussierten Bildbereichs von dem Bildsensor bzw. von der Kamera verstanden. Für die Ermittlung dieser Tiefeninformation wird auf eine vorbekannte Zuordnung von Abständen zwischen Objekten bzw. scharf gestellten, fokussierten Bildbereichen und Fokussierungen der Kamera zurückgegriffen. Unter einer Fokussierung der Kamera wird dabei eine Einstellung des Kamerafokussystems verstanden. Insbesondere wird unter einer Fokussierung der Kamera ein Abstand zwischen Linse und Bildsensor verstanden. Es ist möglich, eine derartige vorbekannte Zuordnung in einer Kalibrierung einer Kamera zu ermitteln. Bei der Kalibrierung werden dabei Objekte in unterschiedlichen Abständen von dem Bildsensor angeordnet, dann können bei unterschiedlicher Fokussierung Bilder aufgenommen werden und detektiert werden, welche Fokussierung zu scharfen Objekten in welchen Distanzen führt. Beispielsweise kann die vorbekannte Zuordnung dabei in Form einer Nachschlagetabelle vorliegen.In the
Ebenfalls ist es möglich, dass in der Abstandseinheit 30 für die Ermittlung der Tiefeninformation auf andere Bilder der Mehrzahl von Bildern zugegriffen wird. Insbesondere kann die Tiefeninformation basierend auf einem entsprechenden Bildbereich in dem anderen Bild ermittelt werden. Ein entsprechender Bildbereich bezeichnet dabei einen entsprechenden Bildabschnitt, also einen entsprechenden Ausschnitt oder einen entsprechenden Punkt innerhalb der mehreren Bilder. Insbesondere kann für die ermittelte Tiefeninformation eine Kontraständerung zwischen dem fokussierten Bildbereich und dem entsprechenden Bildbereich in dem anderen Bild betrachtet und ausgewertet werden.It is also possible for other images of the plurality of images to be accessed in the
Weiterhin ist es möglich, dass die Abstandseinheit 30 dazu ausgebildet ist, die Tiefeninformation basierend auf dem fokussierten Bereich und einer zusätzlichen Betrachtung eines nicht fokussierten anderen Bildbereichs in demselben Bild zu ermitteln. Beispielsweise können auch bei nicht fokussierten bzw. nicht scharf gestellten Objekten in einem Bild durch Algorithmen der Bildauswertung Informationen zu deren Abstand gewonnen werden. Diese Information kann dann als zusätzliche Information bei der Ermittlung der Tiefeninformation herangezogen werden.Furthermore, it is possible that the
Zusätzlich oder alternativ kann die Abstandseinheit 30 auch dazu ausgebildet sein, ein vortrainiertes künstliches neuronales Netzwerk anzuwenden, um die Tiefeninformation zu ermitteln. Dieses vortrainierte künstliche neuronale Netzwerk kann ausgehend von bisherigen Erfahrungen, die in einer Trainingsphase berücksichtigt wurden, eine genauere Ermittlung der Tiefeninformation ermöglichen. Beispielsweise können hierzu Merkmale des fokussierten Bildbereichs oder auch Merkmale anderer Bilder oder Merkmale aus nicht fokussierten Bildbereichen verwendet werden.Additionally or alternatively, the
In der Modellierungseinheit 32 wird ausgehend von den fokussierten Bildbereichen und den ermittelten Tiefeninformationen ein 3D-Modell der Umgebung erstellt. A 3D model of the environment is created in the
Insbesondere werden hierzu dreidimensionale Positionsangaben zu Objekten in der Umgebung ermittelt. Diese Positionsangaben können beispielsweise in Form von einer zweidimensionalen Position innerhalb des Bildes in Kombination mit einer metrischen Abstandsinformation, die der Tiefeninformation entspricht, ausgegeben werden. Die von der Modellierungseinheit 32 bereitgestellten dreidimensionalen Positionsangaben können dann in Algorithmen zum Steuern eines autonomen Fahrzeugs oder auch in einem Fahrerassistenzsystem weiterverwendet werden.In particular, three-dimensional position information on objects in the area is determined for this purpose. This position information can be output, for example, in the form of a two-dimensional position within the image in combination with metric distance information that corresponds to the depth information. The three-dimensional position information provided by the
In der
Erfindungsgemäß wird ausgehend von der Schärfe in unterschiedlichen Punkten der der erzeugten Mehrzahl an Bildern eine Distanz zwischen dem Bildsensor und einem Punkt in dem Bild berechnet. Ein Bild der Mehrzahl von Bildern hat unterschiedliche fokussierte Bereiche, je nach der Position der Linse 34, an der das betreffende Bild aufgenommen wurde. Insoweit ermöglicht der Ansatz eine Art schichtweise Betrachtung der Umgebung. Ausgehend von diesen Schichten kann im einfachsten Fall in der Modellierungseinheit beispielsweise insoweit ein 3D-Modell der Umgebung konstruiert werden, als ausgehend von detektierten fokussierten Bereichen für jeden Bereich bzw. für jeden Punkt eine Distanzangabe hinzugefügt wird. Es wird insoweit eine Art Punktewolke generiert.According to the invention, a distance between the image sensor and a point in the image is calculated based on the sharpness in different points of the generated plurality of images. One of the plurality of images has different focused areas depending on the position of the
In der
In der
Zum Kompensieren einer Bewegung, die die Kamera während des kurzen Zeitraums des Generierens der verschiedenen Bilder der Mehrzahl von Bildern ausführt, können Bewegungsinformationen verwendet werden. Derartige Bewegungsinformationen können beispielsweise mittels eines Inertialsensors generiert werden. Ebenfalls ist es aber auch möglich, dass die Bewegung, also die Relativbewegung zwischen Bildsensor und Umgebung, durch eine Auswertung verschiedener Bilder ermittelt wird.Motion information may be used to compensate for motion performed by the camera during the short period of time of generating the different images of the plurality of images. Such movement information can be generated, for example, by means of an inertial sensor. However, it is also possible for the movement, ie the relative movement between the image sensor and the environment, to be determined by evaluating different images.
In der
Die Erfindung wurde anhand der Zeichnungen und der Beschreibung umfassend beschrieben und erklärt. Die Beschreibung und Erklärung sind als Beispiel und nicht einschränkend zu verstehen. Die Erfindung ist nicht auf die offenbarten Ausführungsformen beschränkt. Andere Ausführungsformen oder Variationen ergeben sich für den Fachmann bei der Verwendung der vorliegenden Erfindung sowie bei einer genauen Analyse der Zeichnungen, der Offenbarung und der nachfolgenden Patentansprüche.The invention has been comprehensively described and explained with reference to the drawings and the description. The description and explanation are intended to be exemplary and not limiting. The invention is not limited to the disclosed embodiments. Other embodiments or variations will become apparent to those skilled in the art upon use of the present invention upon a study of the drawings, the disclosure, and the claims that follow.
In den Patentansprüchen schließen die Wörter „umfassen“ und „mit“ nicht das Vorhandensein weiterer Elemente oder Schritte aus. Der undefinierte Artikel „ein“ oder „eine“ schließt nicht das Vorhandensein einer Mehrzahl aus. Ein einzelnes Element oder eine einzelne Einheit kann die Funktionen mehrerer der in den Patentansprüchen genannten Einheiten ausführen. Ein Element, eine Einheit, eine Schnittstelle, eine Vorrichtung und ein System können teilweise oder vollständig in Hard- und/oder in Software umgesetzt sein. Die bloße Nennung einiger Maßnahmen in mehreren verschiedenen abhängigen Patentansprüchen ist nicht dahingehend zu verstehen, dass eine Kombination dieser Maßnahmen nicht ebenfalls vorteilhaft verwendet werden kann. Ein Computerprogramm kann auf einem nichtflüchtigen Datenträger gespeichert/vertrieben werden, beispielsweise auf einem optischen Speicher oder auf einem Halbleiterlaufwerk (SSD). Ein Computerprogramm kann zusammen mit Hardware und/oder als Teil einer Hardware vertrieben werden, beispielsweise mittels des Internets oder mittels drahtgebundener oder drahtloser Kommunikationssysteme. Bezugszeichen in den Patentansprüchen sind nicht einschränkend zu verstehen.In the claims, the words "comprising" and "having" do not exclude the presence of other elements or steps. The undefined article "a" or "an" does not exclude the presence of a plural. A single element or unit can perform the functions of several of the units recited in the claims. An element, unit, interface, device, and system may be partially or fully implemented in hardware and/or software. The mere naming of some measures in several different dependent patent claims should not be understood to mean that a combination of these measures cannot also be used to advantage. A computer program may be stored/distributed on a non-volatile medium, such as an optical memory or a solid state drive (SSD). A computer program may be distributed with and/or as part of hardware, for example via the Internet or via wired or wireless communication systems. Reference signs in the claims are not to be understood as restrictive.
BezugszeichenlisteReference List
- 1010
- Systemsystem
- 1212
- Umgebungvicinity
- 1414
- Kameracamera
- 1616
- Bildsensorimage sensor
- 1818
- Vorrichtungcontraption
- 2020
- Fahrzeugvehicle
- 2222
- Objektobject
- 2424
- Sichtfeldfield of view
- 2626
- Eingangsschnittstelleinput interface
- 2828
- Auswerteeinheitevaluation unit
- 3030
- Abstandseinheitdistance unit
- 3232
- Modellierungseinheitmodeling unit
- 3434
- Linselens
- 3636
- Bildpicture
- 3838
- Szenenabbildungscene illustration
- 4040
- Kontrastdarstellungcontrast display
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
- DE 102018221133 A1 [0005]DE 102018221133 A1 [0005]
Claims (14)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021202454.8A DE102021202454A1 (en) | 2021-03-15 | 2021-03-15 | Environment modeling based on camera data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021202454.8A DE102021202454A1 (en) | 2021-03-15 | 2021-03-15 | Environment modeling based on camera data |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102021202454A1 true DE102021202454A1 (en) | 2022-09-15 |
Family
ID=83005334
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102021202454.8A Withdrawn DE102021202454A1 (en) | 2021-03-15 | 2021-03-15 | Environment modeling based on camera data |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102021202454A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117288168A (en) * | 2023-11-24 | 2023-12-26 | 山东中宇航空科技发展有限公司 | Unmanned aerial vehicle city building system of taking photo by plane of low-power consumption |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080189036A1 (en) | 2007-02-06 | 2008-08-07 | Honeywell International Inc. | Method and system for three-dimensional obstacle mapping for navigation of autonomous vehicles |
DE102013222304A1 (en) | 2013-11-04 | 2015-05-07 | Conti Temic Microelectronic Gmbh | Method for determining object distances with a camera installed in a motor vehicle |
WO2016075113A1 (en) | 2014-11-10 | 2016-05-19 | At & S Austria Technologie & Systemtechnik Aktiengesellschaft | Microelectromechanical system (mems) package |
DE102017221381A1 (en) | 2017-11-29 | 2019-05-29 | Robert Bosch Gmbh | Method, apparatus and computer program for determining a distance to an object |
DE102018221133A1 (en) | 2018-12-06 | 2020-06-10 | Zf Friedrichshafen Ag | Position and motion detection using the auto focus system |
-
2021
- 2021-03-15 DE DE102021202454.8A patent/DE102021202454A1/en not_active Withdrawn
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080189036A1 (en) | 2007-02-06 | 2008-08-07 | Honeywell International Inc. | Method and system for three-dimensional obstacle mapping for navigation of autonomous vehicles |
DE102013222304A1 (en) | 2013-11-04 | 2015-05-07 | Conti Temic Microelectronic Gmbh | Method for determining object distances with a camera installed in a motor vehicle |
WO2016075113A1 (en) | 2014-11-10 | 2016-05-19 | At & S Austria Technologie & Systemtechnik Aktiengesellschaft | Microelectromechanical system (mems) package |
DE102017221381A1 (en) | 2017-11-29 | 2019-05-29 | Robert Bosch Gmbh | Method, apparatus and computer program for determining a distance to an object |
DE102018221133A1 (en) | 2018-12-06 | 2020-06-10 | Zf Friedrichshafen Ag | Position and motion detection using the auto focus system |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117288168A (en) * | 2023-11-24 | 2023-12-26 | 山东中宇航空科技发展有限公司 | Unmanned aerial vehicle city building system of taking photo by plane of low-power consumption |
CN117288168B (en) * | 2023-11-24 | 2024-01-30 | 山东中宇航空科技发展有限公司 | Unmanned aerial vehicle city building system of taking photo by plane of low-power consumption |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018177484A1 (en) | Method and system for predicting sensor signals from a vehicle | |
EP2150939B1 (en) | Method and device for determining the position of a road sign | |
EP3552144A1 (en) | Camera device and method for capturing a surrounding region of a vehicle in a situation-adapted manner | |
DE102016206493A1 (en) | Method and camera system for determining the distance of objects to a vehicle | |
EP3044727B1 (en) | Method and device for detecting objects from depth-resolved image data | |
DE102018212655A1 (en) | Detection of the intention to move a pedestrian from camera images | |
DE102005034597A1 (en) | Method and device for generating a depth map | |
DE102013224502A1 (en) | Method for calibrating stereo camera of vehicle, involves finding calibration error for calibrating stereo camera, by comparing three-dimensional (3D) environment data of two cameras calculated at preset time periods | |
DE102017203276A1 (en) | Method and device for determining a trajectory in off-road scenarios | |
DE102018100909A1 (en) | Method of reconstructing images of a scene taken by a multifocal camera system | |
DE102018111935A1 (en) | Image processing system, image processing method, information processing apparatus and recording medium | |
DE102018204451A1 (en) | Method and device for auto-calibration of a vehicle camera system | |
DE102012023060A1 (en) | Method for detecting moving object in surrounding region of motor vehicle e.g.passenger car, involves determining vector values within the respective interval values, such movable object is detected based on histogram | |
EP3655299B1 (en) | Method and device for determining an optical flow on the basis of an image sequence captured by a camera of a vehicle | |
DE102021202454A1 (en) | Environment modeling based on camera data | |
DE102011121473A1 (en) | A method for displaying images on a display device of a motor vehicle, driver assistance device, motor vehicle and computer program | |
DE102011118171A1 (en) | Method for continuous estimation of driving surface plane of motor vehicle, involves determining current three-dimensional points of surrounding of motor vehicle from current image of image sequence of image capture device | |
DE102014209863A1 (en) | Method and device for operating a stereo camera for a vehicle and stereo camera for a vehicle | |
DE102014204360A1 (en) | Method and device for estimating the distance of a moving vehicle from an object | |
DE102018202753A1 (en) | Method for determining a distance between a motor vehicle and an object | |
DE102010042821B4 (en) | Method and apparatus for determining a basic width of a stereo detection system | |
DE102020214622A1 (en) | Evaluation of image data from a stereo camera for object evaluation | |
DE102016205471A1 (en) | Stereo camera device and a method for operating the stereo camera device | |
DE102019129101A1 (en) | A method and system for estimating a bounding box that includes a target vehicle | |
DE102015210870A1 (en) | Apparatus and method for capturing an image of a vehicle environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |