DE102022211182A1 - Method and device for determining a lighting parameter - Google Patents
Method and device for determining a lighting parameter Download PDFInfo
- Publication number
- DE102022211182A1 DE102022211182A1 DE102022211182.6A DE102022211182A DE102022211182A1 DE 102022211182 A1 DE102022211182 A1 DE 102022211182A1 DE 102022211182 A DE102022211182 A DE 102022211182A DE 102022211182 A1 DE102022211182 A1 DE 102022211182A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- parameter
- illumination
- camera
- regions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000005286 illumination Methods 0.000 claims abstract description 50
- 230000001419 dependent effect Effects 0.000 claims description 21
- 230000033001 locomotion Effects 0.000 claims description 14
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 5
- 230000002776 aggregation Effects 0.000 description 5
- 238000004220 aggregation Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000036962 time dependent Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000009901 attention process Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
Die vorliegende Erfindung beschreibt ein Verfahren (100) zum Ermitteln eines Beleuchtungsparameters, umfassend das Auswählen (101) mehrerer Bildbereiche, wobei die Bildbereiche einzelne Bereiche eines Einzelbildes einer Kamera (2) und/oder einzelne Bereiche unterschiedlicher Bilder einer Bildsequenz einer Kamera (2) umfassen, das Ermitteln (102) eines Bildmerkmals aus jedem der Bildbereiche, das Ermitteln (104) zumindest eines Beleuchtungsparameters für jedes der Bildmerkmale, wobei der Beleuchtungsparameter eine Charakteristik einer in dem jeweiligen Bildbereich für das Bildmerkmal vorliegenden Beleuchtung beschreibt, sowie das Berechnen (106) eines resultierenden Beleuchtungsparameters basierend auf einer Kombination der ermittelten Beleuchtungsparameter. The present invention describes a method (100) for determining an illumination parameter, comprising selecting (101) a plurality of image regions, wherein the image regions comprise individual regions of a single image of a camera (2) and/or individual regions of different images of an image sequence of a camera (2), determining (102) an image feature from each of the image regions, determining (104) at least one illumination parameter for each of the image features, wherein the illumination parameter describes a characteristic of an illumination present in the respective image region for the image feature, and calculating (106) a resulting illumination parameter based on a combination of the determined illumination parameters.
Description
Stand der TechnikState of the art
Die vorliegende Erfindung betrifft ein Verfahren zum Ermitteln eines Beleuchtungsparameters.The present invention relates to a method for determining an illumination parameter.
Durch ein korrektes Abschätzen von Beleuchtungsbedingungen können eine Vielzahl von Anwendungen unterstützt werden. So ist es beispielsweise für ein AR-System (Augmented Reality System) essentiell, dass eine vorliegende Beleuchtung korrekt abgeschätzt wird. Damit Objekte fotorealistisch in die Umgebung eingebettet werden können ist nicht nur Kenntnis über eine 3D-Geometrie und eine Kamerakalibrierung notwendig, sondern auch ein Wissen über vorliegende Beleuchtungsbedingungen. Beleuchtungsbedingungen werden gerade in Außenbereichen dabei zumeist basierend auf einem einzelnen Bild abgeschätzt. Auch ist ein entsprechendes Abschätzen von Beleuchtungsbedingungen im Innenbereich bekannt.A wide range of applications can be supported by correctly estimating lighting conditions. For example, it is essential for an AR system (augmented reality system) that the existing lighting is correctly estimated. In order for objects to be embedded in the environment in a photorealistic way, not only knowledge of 3D geometry and camera calibration is necessary, but also knowledge of the existing lighting conditions. Lighting conditions, especially in outdoor areas, are usually estimated based on a single image. A corresponding estimation of lighting conditions indoors is also known.
So existieren bereits unterschiedliche Verfahren zum Ermitteln von Beleuchtungsparametern, bei denen Beleuchtungsbedingungen basierend auf einem einzelnen Bild und der darin vorliegenden Dynamik ermittelt werden. Dabei werden auch neuronale Netzwerke eingesetzt, wobei die Abschätzung von Beleuchtungsbedingungen, beispielsweise einer vorliegenden Lage der Sonne, entweder als ein Klassifizierungsproblem oder ein Regressionsproblem behandelt wird.There are already different methods for determining lighting parameters, in which lighting conditions are determined based on a single image and the dynamics present in it. Neural networks are also used here, whereby the estimation of lighting conditions, for example the current position of the sun, is treated either as a classification problem or a regression problem.
Die Abschätzung von Beleuchtungsbedingungen bzw. zugehörigen Beleuchtungsparametern basierend auf Einzelbildern führt jedoch dazu, dass diese nicht direkt in Zusammenhang mit AR Anwendungen verwendet werden können, da sie oftmals starke Fluktuationen der Beleuchtungsparameter mit sich bringen. Diese Fluktuationen kommen daher, dass nicht alle Bilder die gleiche Qualität hinsichtlich der Abbildung von Beleuchtungsparametern aufweisen. So könnte beispielsweise ein Einzelbild vollkommen im Schatten liegen, wodurch für dieses Einzelbild keine korrekte Ermittlung der Beleuchtungsparameter möglich wäre, da die Lage der Sonne nicht abgeschätzt werden kann. Es wird daher nach einem robusteren Verfahren zum Ermitteln von Beleuchtungsparametern gesucht.However, the estimation of lighting conditions or associated lighting parameters based on individual images means that these cannot be used directly in connection with AR applications, as they often involve strong fluctuations in the lighting parameters. These fluctuations arise because not all images have the same quality in terms of the representation of lighting parameters. For example, an individual image could be completely in the shadow, which would mean that the lighting parameters cannot be correctly determined for this individual image, as the position of the sun cannot be estimated. A more robust method for determining lighting parameters is therefore being sought.
Offenbarung der ErfindungDisclosure of the invention
Das erfindungsgemäße Verfahren zum Ermitteln eines Beleuchtungsparameters umfasst ein Auswählen mehrerer Bildbereiche, wobei die Bildbereiche einzelne Bereiche eines Einzelbildes einer Kamera und/oder einzelne Bereiche unterschiedlicher Bereiche einer Bildsequenz einer Kamera umfassen, ein Ermitteln eines Bildmerkmals aus jedem der Bildbereiche, ein Ermitteln zumindest eines Beleuchtungsparameters für jedes der Bildmerkmale, wobei der Beleuchtungsparameter eine Charakteristik einer in dem jeweiligen Bildbereich für das Bildmerkmal vorliegenden Beleuchtung beschreibt, und ein Berechnen eines resultierenden Beleuchtungsparameters basierend auf einer Kombination der ermittelten Beleuchtungsparameter.The method according to the invention for determining an illumination parameter comprises selecting a plurality of image regions, wherein the image regions comprise individual regions of a single image of a camera and/or individual regions of different regions of an image sequence of a camera, determining an image feature from each of the image regions, determining at least one illumination parameter for each of the image features, wherein the illumination parameter describes a characteristic of an illumination present in the respective image region for the image feature, and calculating a resulting illumination parameter based on a combination of the determined illumination parameters.
Die erfindungsgemäße Vorrichtung ist dazu eingerichtet das erfindungsgemäße Verfahren auszuführen. Dazu umfasst die Vorrichtung insbesondere eine Recheneinheit, welcher das Einzelbild oder die Bilder der Bildsequenz bereitgestellt werden. Die Vorrichtung kann bspw. als Recheneinheit und/oder Steuereinheit ausgebildet sein.The device according to the invention is designed to carry out the method according to the invention. For this purpose, the device comprises in particular a computing unit to which the individual image or the images of the image sequence are provided. The device can be designed, for example, as a computing unit and/or control unit.
Gegenstand der vorliegenden Anmeldung sind auch ein System mit zumindest einer Kamera und der Vorrichtung, sowie ein entsprechendes Computerprogramm und ein maschinenlesbares Speichermedium.The present application also relates to a system with at least one camera and the device, as well as a corresponding computer program and a machine-readable storage medium.
Es erfolgt ein Auswählen mehrerer Bildbereiche. Die Bildbereiche können entweder zusammen in einem Einzelbild angeordnet sein oder können einzelne Bildbereiche mehrerer aufeinander folgender Bilder einer Bildsequenz umfassen. Auch kann bei dem Auswählen mehrerer Bildbereiche ein Auswählen mehrerer Bildbereiche aus einem Einzelbild und zugleich ein Auswählen einzelner Bildbereiche aus unterschiedlichen Bildern der Bildsequenz erfolgen. Es wird somit nicht nur ein einziges Bild als Ganzes betrachtet, sondern es werden mehrere Bildbereiche für das Ermitteln des Beleuchtungsparameters betrachtet, welche entweder aus einem Einzelbild, unterschiedlichen Bildern einer Bildsequenz oder beiden stammen. Das Betrachten einzelner Bereiche eines Einzelbildes wird dabei auch als ortsabhängiges Betrachten in einem Einzelbild bezeichnet. Das Betrachten einzelner Bereiche unterschiedlicher Bilder einer Bildsequenz wird auch als zeitabhängiges Betrachten von Bildbereichen bezeichnet. Es erfolgt bevorzugt ein ortsabhängiges und/oder zeitabhängiges Betrachten von Bildmerkmalen zum Ermitteln des Beleuchtungsparameters.Several image areas are selected. The image areas can either be arranged together in a single image or can comprise individual image areas of several consecutive images in an image sequence. When selecting several image areas, several image areas can also be selected from a single image and, at the same time, individual image areas can be selected from different images in the image sequence. Thus, not only is a single image viewed as a whole, but several image areas are viewed to determine the lighting parameter, which come either from a single image, different images in an image sequence, or both. Viewing individual areas of a single image is also referred to as location-dependent viewing in a single image. Viewing individual areas of different images in an image sequence is also referred to as time-dependent viewing of image areas. Image features are preferably viewed in a location-dependent and/or time-dependent manner to determine the lighting parameter.
Es erfolgt das Ermitteln zumindest eines Beleuchtungsparameters für jedes der Bildmerkmale. Der Beleuchtungsparameter beschreibt eine Charakteristik einer in dem jeweiligen Bildbereich für das Bildmerkmal vorliegenden Beleuchtung. Es erfolgt somit eine Analyse der Bildmerkmale, um einen oder mehrere dem jeweiligen Bildmerkmal zugehörigen Beleuchtungsparameter zu ermitteln. Bevorzugt werden dabei für alle Bildmerkmale gleichartige Beleuchtungsparameter ermittelt. Es werden also Beleuchtungsparameter ermittelt, welche dieselbe Charakteristik der vorliegenden Beleuchtung beschreiben. Beispielhafte Beleuchtungsparameter sind beispielsweise eine Einfallrichtung des Lichts, eine Intensität des Lichts, eine Färbung des Lichts oder ähnliches.At least one lighting parameter is determined for each of the image features. The lighting parameter describes a characteristic of the lighting present in the respective image area for the image feature. The image features are thus analyzed in order to determine one or more lighting parameters associated with the respective image feature. Preferably, similar lighting parameters are determined for all image features. Lighting parameters are therefore determined which describe the same characteristic of the existing lighting. Example lighting Examples of parameters are the direction of incidence of light, the intensity of light, the color of light, or similar.
Nicht für jedes der Bildmerkmale liegt eine gleiche Beleuchtung vor, da diese aus den Bildbereichen ermittelt wurde, welche an unterschiedlichen Orten in einem einzelnen Bild liegen oder zu unterschiedlichen Zeiten in mehreren Bildern erfasst wurden. Sollte somit zufällig ein Bildbereich bzw. Bildmerkmal betrachtet werden, das keinen deutlichen Rückschluss auf eine tatsächlich vorliegende Beleuchtung bzw. deren Charakteristik zulässt, so kann dennoch eine hinreichende Aussage über die tatsächlich vorliegende Beleuchtung getroffen werden. Dies erfolgt durch das Berechnen eines resultierenden Beleuchtungsparameters basierend auf einer Kombination der ermittelten Beleuchtungsparameter. Es werden somit alle der betrachteten Bildbereiche hinsichtlich eines vorliegenden Beleuchtungsparameters analysiert und aus der Zusammenschau der einzelnen Beleuchtungsparameter wird der resultierende Beleuchtungsparameter ermittelt.Not every image feature has the same lighting, as this was determined from image areas that are located at different locations in a single image or were captured at different times in multiple images. If an image area or image feature is viewed by chance that does not allow any clear conclusions to be drawn about the actual lighting or its characteristics, a sufficient statement can still be made about the actual lighting. This is done by calculating a resulting lighting parameter based on a combination of the lighting parameters determined. All of the image areas viewed are thus analyzed with regard to a given lighting parameter, and the resulting lighting parameter is determined from the synopsis of the individual lighting parameters.
Es wird ferner darauf hingewiesen, dass auch mehrere Bildmerkmale aus einem oder mehreren der ausgewählten Bildbereiche ermittelt werden können und für diese zugehörige Beleuchtungsparameter ermittelt werden, basierend auf denen der resultierende Beleuchtungsparameter berechnet wird.It is further pointed out that several image features can also be determined from one or more of the selected image areas and associated lighting parameters can be determined for these, based on which the resulting lighting parameter is calculated.
Das Auswählen der mehreren Bildbereiche kann in unterschiedlicher Weise erfolgen, so kann beispielsweise eine zufällige Auswahl erfolgen oder es kann basierend auf bestimmten Bildeigenschaften, beispielsweise eine Dynamik des Bildes, eine Auswahl der Bildbereiche erfolgen.The selection of the multiple image areas can be done in different ways, for example a random selection can be made or the image areas can be selected based on certain image properties, for example a dynamics of the image.
Das Verfahren kann einen Schritt des Ausgebens eines Signals in Abhängigkeit des ermittelten resultierenden Beleuchtungsparameter umfassen. Das ausgegebene Signal kann als Informationssignal, welches bevorzugt den resultierenden Beleuchtungsparameter umfasst oder repräsentiert, und/oder als Steuersignal ausgebildet sein. Ansprechend auf das ausgegebene Signal kann eine Information bezüglich des resultierenden Beleuchtungsparameters ausgegeben, insbesondere angezeigt werden und/oder eine Einheit, bspw. eines AR Systems, eines Fahrzeugs etc. gesteuert werden.The method can include a step of outputting a signal depending on the determined resulting lighting parameter. The output signal can be designed as an information signal, which preferably includes or represents the resulting lighting parameter, and/or as a control signal. In response to the output signal, information relating to the resulting lighting parameter can be output, in particular displayed, and/or a unit, e.g. an AR system, a vehicle, etc. can be controlled.
Bevorzugt wird der berechnete resultierende Beleuchtungsparameter für eine Nutzung durch ein Videosystem bereitgestellt, durch welches ein virtuelles Objekt in die erfasste Bildsequenz eingefügt wird, und weiter bevorzugt auch durch dieses genutzt. Insbesondere wird der berechnete resultierende Beleuchtungsparameter für eine Nutzung durch AR-System bereitgestellt. Das Verfahren wird dazu bevorzugt durch das AR System ausgeführt.Preferably, the calculated resulting lighting parameter is provided for use by a video system by which a virtual object is inserted into the captured image sequence, and more preferably also used by this. In particular, the calculated resulting lighting parameter is provided for use by an AR system. The method is preferably carried out by the AR system.
Es werden somit bevorzugt mehrere Bildbereiche einer Bildsequenz zusammen betrachtet, um die Lichtverhältnisse der Bildsequenz abzuschätzen. Die Bildbereiche können Unterbilder aus demselben Bild (räumliche Aggregation), aus Bildern mit unterschiedlichen Zeitstempeln (zeitliche Aggregation) oder aus beidem (räumlich-zeitliche Aggregation sein. Auf diese Weise können Beobachtungen über die gleichen Lichtverhältnisse in verschiedenen Blickwinkeln assoziiert werden. Darüber hinaus ist die vorgeschlagene Aggregationsmethode unter Verwendung eines Transformatornetzwerks vorteilhafter als bisherige Aggregationstechniken, die eine manuelle Hyperparameterabstimmung erfordert.Thus, several image regions of an image sequence are preferably considered together to estimate the lighting conditions of the image sequence. The image regions can be subimages from the same image (spatial aggregation), from images with different timestamps (temporal aggregation) or from both (spatiotemporal aggregation). In this way, observations about the same lighting conditions at different viewing angles can be associated. In addition, the proposed aggregation method using a transformer network is more advantageous than previous aggregation techniques, which require manual hyperparameter tuning.
Die Unteransprüche zeigen bevorzugte Weiterbildungen der Erfindung.The subclaims show preferred developments of the invention.
Bevorzugt werden bei dem Ermitteln des Bildmerkmals die ausgewählten Bildbereiche einer Merkmalsanalyse unterzogen, um die Bildmerkmale in den Bildbereichen zu ermitteln. Dabei können insbesondere bereits bekannte oder andersweitig vordefinierte Merkmale in den Bildbereichen identifiziert werden, wodurch eine besonders kontinuierliche Berechnung des Beleuchtungsparameters über einen zeitlichen Verlauf hin erfolgt.When determining the image feature, the selected image areas are preferably subjected to a feature analysis in order to determine the image features in the image areas. In particular, already known or otherwise predefined features can be identified in the image areas, whereby a particularly continuous calculation of the lighting parameter takes place over a temporal course.
Bevorzugt wird das Bildmerkmal mittels eines neuronalen Netzwerkes ermittelt, wobei das Bildmerkmal insbesondere ein eingebettetes Merkmal ist. Ein eingebettetes Merkmal wird in der Fachsprache auch als „embedded feature“ bezeichnet. So arbeiten neuronale Netzwerke besonders effizient, wenn diese eingebettete Merkmale definieren oder erkennen sollen.Preferably, the image feature is determined using a neural network, whereby the image feature is in particular an embedded feature. An embedded feature is also referred to in technical terms as an "embedded feature". Neural networks work particularly efficiently when they are supposed to define or recognize embedded features.
Das Ermitteln des zumindest einen Beleuchtungsparameters für jedes der Bildmerkmale erfolgt mittels eines Transformers. Ein Transformer ist dabei ein auf maschinellem Lernen basierendes System. Durch einen Transformer wird grundsätzlich einer bestimmten Datenabfolge eine weitere Datenabfolge zugeordnet, was basierend auf einer durch maschinenlernen trainierten Systematik erfolgt. In den hier beschriebenen Verfahren wird bevorzugt einem Bildmerkmal, welches durch unterschiedliche Farb-, Helligkeits-, Kontrast- und ähnliche Parameter beschrieben ist, ein zugehöriger Beleuchtungsparameter zugeordnet. Um eine korrekte Zuordnung zu ermöglichen ist der Transformer bevorzugt ein maschinell lernendes System, welches basierend auf unterschiedlichen beispielhaften Bildmerkmalen mit zugehörigen bekannten Beleuchtungsparametern trainiert wurde.The at least one lighting parameter for each of the image features is determined using a transformer. A transformer is a system based on machine learning. A transformer basically assigns a further data sequence to a specific data sequence, which is done based on a system trained by machine learning. In the methods described here, an associated lighting parameter is preferably assigned to an image feature that is described by different color, brightness, contrast and similar parameters. In order to enable correct assignment, the transformer is preferably a machine learning system that has been trained based on different example image features with associated known lighting parameters.
Bevorzugt weist der zumindest eine Beleuchtungsparameter eine richtungsabhängige Komponente auf, welche von einer Lage der die Beleuchtung verursachenden Lichtquelle abhängig ist. Das Verfahren umfasst dabei bevorzugt ein Zuordnen eines Ausrichtungsparameter für jedes der Bildmerkmale, wobei der Ausrichtungsparameter eine Ausrichtung einer Kamera gegenüber ihrer Umgebung bei dem Erfassen des jeweiligen Bildbereichs und/oder eine Position des Bildmerkmals in dem zugehörigen Einzelbild beschreibt, und ein Anpassen der Beleuchtungsparameter basierend auf dem Ausrichtungsparameter, wobei die angepassten Beleuchtungsparameter derart angepasst sind, dass diese die Charakteristik der Beleuchtung in einem gemeinsamen Bezugssystem beschreiben, wobei das gemeinsame Bezugssystem für alle Beleuchtungsparameter aller Bildmerkmale gleich ist. Eine richtungsabhängige Komponente eines Beleuchtungsparameters beschreibt beispielsweise die Richtung, aus der ein Licht auf das jeweils betrachtete Bildmerkmal des jeweiligen Bildbereiches fällt. Diese ist Richtungsabhängig, da diese sich mit der Lage der Lichtquelle ändert. Die richtungsabhängige Komponente wird bevorzugt in ein gemeinsames Bezugssystem überführt, da solche richtungsabhängigen Komponenten auch abhängig von der Ausrichtung der Kamera sind. So kann beispielsweise ein Licht, welches aus Sicht der Kamera von links auf einen Gegenstand fällt, bei einer entsprechenden neuen Anordnung der Kamera plötzlich von rechts auf dasselbe Objekt fallen, obwohl die Beleuchtung nicht verändert wurde. Die Änderung ergibt sich dabei aus der Ausrichtung der Kamera gegenüber ihrer Umgebung. Auch kann eine Position eines betrachteten Bildmerkmals in dem zugehörigen Einzelbild einen Einfluss auf die richtungsabhängige Komponente haben. Daher ist es vorteilhaft, wenn die Ausrichtung der Kamera gegenüber ihrer Umgebung und/oder die Position eines betrachteten Bildmerkmals in dem zugehörigen Einzelbild als Ausrichtungsparameter jedem der Bildmerkmale zugeordnet wird. Damit wird es ermöglicht, dass im Folgenden die Beleuchtungsparameter für ein gewünschtes Bezugssystem angepasst werden können. Dies erfolgt durch das Anpassen des Beleuchtungsparameters basierend auf dem Ausrichtungsparameter. Mit dem Anpassen der Beleuchtungsparameter basierend auf dem Ausrichtungsparameter wird die richtungsabhängige Komponente der Beleuchtungsparameter unterschiedlicher Bildmerkmale in ein gemeinsames Bezugssystem transformiert. Es wird somit erreicht, dass auch bei einer Neuausrichtung der Kamera gegenüber ihrer Umgebung die Beleuchtungsparameter aus aufeinander folgenden Bildern der Bildsequenz gemeinsam betrachtet, verglichen und/oder kombiniert werden können.Preferably, the at least one illumination parameter has a direction-dependent component which is dependent on a position of the light source causing the illumination. The method preferably comprises assigning an alignment parameter for each of the image features, wherein the alignment parameter describes an alignment of a camera relative to its surroundings when capturing the respective image area and/or a position of the image feature in the associated individual image, and adjusting the illumination parameters based on the alignment parameter, wherein the adjusted illumination parameters are adjusted in such a way that they describe the characteristics of the illumination in a common reference system, wherein the common reference system is the same for all illumination parameters of all image features. A direction-dependent component of an illumination parameter describes, for example, the direction from which light falls on the image feature of the respective image area being considered. This is direction-dependent because it changes with the position of the light source. The direction-dependent component is preferably transferred to a common reference system because such direction-dependent components are also dependent on the orientation of the camera. For example, light that falls on an object from the left from the perspective of the camera can suddenly fall on the same object from the right when the camera is repositioned accordingly, even though the lighting has not changed. The change results from the orientation of the camera relative to its surroundings. The position of an image feature being viewed in the associated individual image can also have an influence on the direction-dependent component. It is therefore advantageous if the orientation of the camera relative to its surroundings and/or the position of an image feature being viewed in the associated individual image is assigned to each of the image features as an orientation parameter. This makes it possible to subsequently adjust the lighting parameters for a desired reference system. This is done by adjusting the lighting parameter based on the orientation parameter. By adjusting the lighting parameters based on the orientation parameter, the direction-dependent component of the lighting parameters of different image features is transformed into a common reference system. This means that even if the camera is reoriented relative to its surroundings, the lighting parameters from successive images of the image sequence can be viewed together, compared and/or combined.
Bevorzugt ist die Kamera eine Kamera eines Fahrzeuges und der Ausrichtungsparameter wird basierend auf einer Bewegung des Fahrzeuges ermittelt. So sind Kameras an Fahrzeugen zumeist mit einer fixen Ausrichtung installiert und somit kann auf die Ausrichtung der Kamera gegenüber ihrer Umgebung basierend auf der Bewegung des Fahrzeuges geschlossen werden. Preferably, the camera is a vehicle camera and the alignment parameter is determined based on the movement of the vehicle. Cameras on vehicles are usually installed with a fixed alignment and thus the alignment of the camera relative to its surroundings can be determined based on the movement of the vehicle.
Weiter bevorzugt wird der Ausrichtungsparameter mittels eines Structure from Motion Verfahrens ermittelt. So kann die Kamera in beliebiger Art angeordnet sein, was ebenfalls manuell geführte Kameras umfasst, und es kann der notwendige Ausrichtungsparameter erfasst werden.The alignment parameter is further preferably determined using a structure from motion method. The camera can be arranged in any way, which also includes manually guided cameras, and the necessary alignment parameter can be recorded.
Bevorzugt ist der resultierende Beleuchtungsparameter ein Durchschnittswert der ermittelten Beleuchtungsparameter. Optional werden einzelne Beleuchtungsparameter verworfen, wenn diese ein vorgegebenes Kriterium nicht erfüllen.Preferably, the resulting lighting parameter is an average value of the determined lighting parameters. Optionally, individual lighting parameters are discarded if they do not meet a specified criterion.
Bevorzugt ist der zumindest eine Beleuchtungsparameter ein Parameter eines Sonnen-Himmel-Modells. Solche Sonnen-Himmel-Modelle werden in der Fachsprache auch „sun-sky models“ genannt. Durch diese werden u.a. die Lage der Sonne und Eigenschaften des einfallenden Sonnenlichts, welches beispielsweise von einem Zustand des Himmels abhängig sind, berücksichtigt.Preferably, the at least one lighting parameter is a parameter of a sun-sky model. Such sun-sky models are also called "sun-sky models" in technical terms. These take into account, among other things, the position of the sun and properties of the incident sunlight, which depend on the state of the sky, for example.
Bevorzugt wird bei dem Auswählen mehrerer Bildbereiche auch ein Bereich oder mehrere Bereiche eines Einzelbildes einer weiteren Kamera und/oder einzelne Bereiche unterschiedlicher Bilder einer Bildsequenz einer weiteren Kamera ausgewählt. Durch das Verfahren kann somit auch auf Bilder zweier Einzelkameras angewendet werden, wobei es vorteilhaft ist, wenn die beiden Kameras eine vorgegebene Ausrichtung zueinander aufweisen. Ist an dem Fahrzeug somit beispielsweise eine weitere Kamera angeordnet, so können auch die Bilder dieser weiteren Kamera für das Ermitteln des Beleuchtungsparameters herangezogen werden.Preferably, when selecting multiple image areas, one or more areas of an individual image from another camera and/or individual areas of different images of an image sequence from another camera are also selected. The method can therefore also be applied to images from two individual cameras, whereby it is advantageous if the two cameras have a predetermined alignment with one another. If, for example, another camera is arranged on the vehicle, the images from this other camera can also be used to determine the lighting parameter.
Kurze Beschreibung der ZeichnungenShort description of the drawings
Nachfolgend werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf die begleitende Zeichnung im Detail beschrieben. In der Zeichnung ist:
-
1 eine schematische Darstellung einer Datenverarbeitung im Rahmen des erfindungsgemäßen Verfahrens, und -
2 eine Darstellung einer beispielhaften Vorrichtung zum Ermitteln eines Beleuchtungsparameters.
-
1 a schematic representation of data processing within the framework of the method according to the invention, and -
2 a representation of an exemplary device for determining a lighting parameter.
Ausführungsformen der ErfindungEmbodiments of the invention
Durch das Verfahren 100 wird zumindest ein Beleuchtungsparameter ermittelt, welcher die Lichtverhältnisse in einem durch eine Kamera 2 erfassten Bereich beschreibt. In der hier beschriebenen Ausführungsform wird der Beleuchtungsparameter basierend auf einer Bildsequenz 10 ermittelt, welche durch eine Kamera 2 eines Fahrzeuges 17 erfasst wurde. Diese Bildsequenz 10 umfasst mehrere Einzelbilder, welche in zeitlicher Abfolge erfasst wurden. In der hier beschriebenen Ausführungsform wurden die Bilder von einer einzigen Kamera 2 erfasst, wobei das Fahrzeug 17 sich während dem Erfassen der Bilder in Bewegung befand. Durch die Einzelbilder der Bildsequenz 10 sind somit nicht immer der gleiche Ausschnitt der Umgebung der Kamera 2 abgebildet, da sich zum Einen der erfasste Raum durch die Bewegung der Kamera 2 verändert hat, als auch da sich Objekte innerhalb des erfassten Raumes durch eine Eigenbewegung verschieben können.The
Es erfolgt ein Auswählen 101 mehrerer Bildbereiche aus den Bildern der Bildsequenz 10. So ist in
Es erfolgt ein Ermitteln 102 eines Bildmerkmals aus jedem der Bildbereiche. Dies wird mittels einer Verarbeitung der einzelnen ausgewählten Bildbereiche mittels eines neuronalen Netzwerkes 12, hier einem sogenannten Convolutional Network, erreicht. Dabei werden die ausgewählten Bildbereiche einer Merkmalsanalyse unterzogen, um die Bildmerkmale in den Bildbereichen zu ermitteln. Im einfachsten Falle ist das Bildmerkmal ein vordefinierter Typ eines Objektes, welcher durch das neuronale Netzwerk 12 erkannt wird und im Folgenden hinsichtlich eines Beleuchtungsparameters analysiert wird. Bevorzugt ist das Bildmerkmal ein sogenanntes „eingebettetes Merkmal“, also ein Merkmal, welches durch einen Satz von Eigenschaften beschrieben wird, die dem neuronalen Netzwerk 12 bekannt sind. Die Verwendung von eingebetteten Merkmalen im Rahmen neuronaler Netzwerke 12 ist dabei auch als die Verwendung von sogenannten „embedded features“ bekannt. Es wird somit erreicht, dass einzelne Bildmerkmale aus den einzelnen Bildbereichen 11 für eine weitere Betrachtung extrahiert werden. Dabei können auch mehrere Bildmerkmale aus einem einzelnen Bildbereich extrahiert werden. Im Ergebnis wird von dem neuronalen Netzwerk 12 eine Vielzahl von Bildmerkmalen 13 bereitgestellt.An image feature is determined 102 from each of the image areas. This is achieved by processing the individual selected image areas using a
In der hier beschriebenen Ausführungsform wird für jedes Bildmerkmal ein zugehöriger Beleuchtungsparameter berechnet. Optional werden jedoch für jedes Bildmerkmal mehrere unterschiedliche Beleuchtungsparameter berechnet, wobei für die unterschiedlichen Bildmerkmale jedoch bevorzugt dieselben Typen von Beleuchtungsparametern berechnet werden. Beispielhaft sei der Beleuchtungsparameter eine Einfallrichtung einer Lichtquelle, welche beispielsweise gemäß einem Sonnen-Himmel-Modell definiert ist. Dieser Beleuchtungsparameter weist eine richtungsabhängige Komponente auf, welche abhängig von der Lage der Kamera 2 und dem Stand der Sonne ist. Der Beleuchtungsparameter ist somit von der Lage der die Beleuchtung verursachenden Lichtquelle abhängig.In the embodiment described here, an associated illumination parameter is calculated for each image feature. Optionally, however, several different illumination parameters are calculated for each image feature, although the same types of illumination parameters are preferably calculated for the different image features. For example, the illumination parameter is a direction of incidence of a light source, which is defined, for example, according to a sun-sky model. This illumination parameter has a direction-dependent component, which depends on the position of the
Die richtungsabhängige Komponente ist somit auch abhängig von der Ausrichtung der Kamera 2, was dazu führt, dass bei einer Betrachtung der Bildsequenz 10, bei der die Kamera 2 möglicherweise bewegt wird, eine Korrektur dieser richtungsabhängigen Komponente erfolgen muss, damit die Beleuchtungsparameter unterschiedlicher Bildbereiche vergleichbar sind bzw. kombiniert werden können. Es erfolgt daher ein Zuordnen 103 eines Ausrichtungsparameters zu jedem der Bildmerkmale, wobei der Ausrichtungsparameter eine Ausrichtung der Kamera 2 gegenüber ihrer Umgebung bei dem Erfassen des jeweiligen Bildbereichs und eine Position des jeweils betrachteten Bildmerkmals in dem zugehörigen Einzelbild beschreibt. Die Ausrichtung der Kamera 2 wird dabei bevorzugt in einem vordefinierten gemeinsamen Bezugssystem definiert. Jedem der Bildmerkmale wird einer oder mehrere Ausrichtungsparameter zugeordnet. Die Ausrichtung der Kamera 2 und somit der Ausrichtungsparameter wird basierend auf einer Bewegung des Fahrzeuges 17 ermittelt, an dem die Kamera 2 angeordnet ist. Das bedeutet, dass aus einer Bewegung des Fahrzeuges 17 auf eine Ausrichtung der Kamera 2 geschlossen wird. Es wird somit der Vielzahl von Bildmerkmalen 13 eine Vielzahl von Ausrichtungsparametern 14 zugeordnet. Alternativ dazu wird der Ausrichtungsparameter mittels eines Structure from Motion Verfahrens ermittelt, wodurch auf eine Sensorik für das Erfassen der Bewegung des Fahrzeuges 17 nicht zurückgegriffen werden muss.The direction-dependent component is therefore also dependent on the orientation of the
Es erfolgt ein Ermitteln 104 des Beleuchtungsparameters für jedes der Bildmerkmale. Dazu werden die Bildmerkmale einem Transformer 15 bereitgestellt, durch welchen der Beleuchtungsparameter ermittelt wird. Der Transformer ist ein System für maschinelles Lernen und wurde basierend auf unterschiedlichen Bildmerkmalen trainiert, für welche die Beleuchtungsparameter bekannt waren. Entsprechend wird durch das antrainierte System, also durch den Transformer 15, für jedes der Bildmerkmale aus der Vielzahl von Bildmerkmalen 13 ein möglichst präziser zugehöriger Wert für den Beleuchtungsparameter ermittelt.The lighting parameter is determined 104 for each of the image features. For this purpose, the image features are provided to a
Durch das Ermitteln der Beleuchtungsparameter wird für jedes der Bildmerkmale auch ein zugehöriger Beleuchtungsparameter ermittelt, wobei die daraus resultierende Vielzahl der Beleuchtungsparameter 16 in
Da die Bildsequenz 10 dieser Ausführungsform durch eine an einem Fahrzeug 17 angeordneten Kamera 2 erfasst wurde und somit in ihrer Ausrichtung veränderlich ist, erfolgt ein Anpassen 105 der Beleuchtungsparameter basierend auf dem Ausrichtungsparameter. Dabei werden die Beleuchtungsparameter derart angepasst, dass diese die Charakteristik der Beleuchtung, hier die richtungsabhängige Komponente, in einem gemeinsamen Bezugssystem beschreiben. Das gemeinsame Bezugssystem ist dabei für alle Beleuchtungsparameter aller Bildmerkmale gleich. Es wird somit eine Bewegung der Kamera 2, welche ebenfalls zu einer Veränderung der richtungsabhängigen Komponente des Beleuchtungsparameters führt, kompensiert. Aus dem Anpassen 105 der Beleuchtungsparameter ergeben sich angepasste Beleuchtungsparameter, hier eine Vielzahl angepasster Beleuchtungsparameter 18. Diese sind in
In einem letzten Schritt erfolgt ein Berechnen 106 eines resultierenden Beleuchtungsparameters basierend auf einer Kombination der ermittelten Beleuchtungsparameter, hier basierend auf den angepassten Beleuchtungsparametern. So wird in der hier beschriebenen Ausführungsform der resultierende Beleuchtungsparameter 107 als ein Durchschnittswert der ermittelten angepassten Beleuchtungsparameter ermittelt. Dieser resultierende Beleuchtungsparameter wird für eine weitere Verwendung in einem AR-System bereitgestellt.In a final step, a resulting lighting parameter is calculated 106 based on a combination of the determined lighting parameters, here based on the adjusted lighting parameters. In the embodiment described here, the resulting lighting parameter 107 is determined as an average value of the determined adjusted lighting parameters. This resulting lighting parameter is provided for further use in an AR system.
Es wird darauf hingewiesen, dass der Schritt des Anpassens der Beleuchtungsparameter optional ist, da dieser nicht zwingend notwendig ist, wenn die Kamera 2 in ihrer Position gegenüber dem Bezugssystem fixiert ist. It is noted that the step of adjusting the lighting parameters is optional since it is not mandatory when the
Das Verfahren nutzt bevorzugt eine Bildsequenz 10 von RGB-Bildern mit niedrigem Dynamikumfang und die entsprechenden Gierwinkel der Kamera 2 als Eingänge, welche als Ausrichtungsparameter genutzt werden können. Die Kamerawinkel können mit einer konventionellen Struktur aus Bewegungsverfahren abgeschätzt werden. Aus den Bildern werden kleine Ausschnitte erzeugt und an ein neuronales Faltungsnetzwerk geliefert. Das Convolutional Neural Network extrahiert Merkmale aus den zugeschnittenen Bildern, die mit den entsprechenden Positionskodierungen kombiniert werden, die unter Verwendung der Position jedes Zuschnitts im Bild und des Kamera-Gierwinkels jedes Frames generiert werden. Anhand dieser Daten durchläuft das Transformatorennetzwerk einen Aufmerksamkeitsprozess. Danach erfolgt ein Kalibrieren der Beleuchtungsschätzung mit den Gierwinkeln der Kamera 2 und ein Mitteln, um die Beleuchtungsschätzung für die gegebene Sequenz zu erhalten.The method preferably uses an
Gemäß der vorliegenden Ausführungsform umfasst die Vorrichtung 1 einen Prozessor, ein Speichermedium mit einem Computerprogramm, sowie mindestens eine Kommunikationsschnittstelle zum Einlesen der Bilder und/oder Ausgeben des resultierenden Beleuchtungsparameters. Das Computerprogramm umfasst Befehle, die bei der Ausführung durch den Prozessor bewirken, dass der Beleuchtungsparameter gemäß dem beschriebenen Verfahren ermittelt wird.According to the present embodiment, the device 1 comprises a processor, a storage medium with a computer program, and at least one communication interface for reading in the images and/or outputting the resulting lighting parameter. The computer program comprises instructions which, when executed by the processor, cause the lighting parameter to be determined according to the described method.
Neben der obigen schriftlichen Offenbarung wird explizit auf die Offenbarung der
Claims (13)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022211182.6A DE102022211182A1 (en) | 2022-10-21 | 2022-10-21 | Method and device for determining a lighting parameter |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022211182.6A DE102022211182A1 (en) | 2022-10-21 | 2022-10-21 | Method and device for determining a lighting parameter |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102022211182A1 true DE102022211182A1 (en) | 2024-05-02 |
Family
ID=90628599
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102022211182.6A Pending DE102022211182A1 (en) | 2022-10-21 | 2022-10-21 | Method and device for determining a lighting parameter |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102022211182A1 (en) |
-
2022
- 2022-10-21 DE DE102022211182.6A patent/DE102022211182A1/en active Pending
Non-Patent Citations (2)
Title |
---|
LEE, Haebom, et al. Spatiotemporal outdoor lighting aggregation on image sequences. In: DAGM German conference on pattern recognition. Cham: Springer International Publishing, 2021. S. 343-357. |
Transformer (machine learning model). In: Wikipedia, The free encyclopedia. Bearbeitungsstand: 01. October 2022, 22:27 UTC. URL: https://en.wikipedia.org/w/index.php?title=Transformer_(machine_learning_model)&oldid=1113522051 [abgerufen am 30.08.2023] |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3629241A1 (en) | Device and method for automatic image enhancement in vehicles | |
DE102008034979B4 (en) | Method and device for generating error-reduced high-resolution and contrast-enhanced images | |
DE112017007579T5 (en) | Process and system for automatic coloring of night vision images | |
DE112016001040T5 (en) | Method and system for real-time noise removal and image enhancement of high dynamic range images | |
DE102012006493A1 (en) | Camera implementation of selecting and stitching single frames for panorama shooting | |
DE102012201696A1 (en) | Image processing apparatus, associated control method, program and recording medium | |
DE10204500A1 (en) | Real-time detection and compensation method for lighting fluctuations in digital color image signals | |
DE102010062496A1 (en) | Method and device for processing image information of two sensors suitable for image acquisition of a stereo sensor system | |
EP3121637A1 (en) | Microscope and method for generating a combined image from a plurality of individual images of an object | |
DE102018214198A1 (en) | System for evaluating an image, operation assistance method and control unit for a working device and working device | |
DE102016121755A1 (en) | Method for determining a composite image of a surrounding area of a motor vehicle with adaptation of brightness and / or color, camera system and power vehicle | |
DE102013001644A1 (en) | Method for white balance of an image representation and camera system for a motor vehicle | |
DE102016006242A1 (en) | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSOR CONTROL PROCESS, PICTURE PROCESSING SYSTEM AND STORAGE MEDIUM | |
DE112017006779T5 (en) | CAMERA SYSTEM INCLUDING OBJECTIVE WITH MAGNIFICATION GRADIENT | |
DE102018118996B4 (en) | Method for determining a color correction value, image processing device, camera system and motor vehicle | |
DE102010014733B4 (en) | Chromakey method and chromakey device for taking and editing camera images | |
DE102022211182A1 (en) | Method and device for determining a lighting parameter | |
DE102015120967A1 (en) | Method and device for image correction | |
DE102011104198A1 (en) | Method for image-based automatic exposure correction | |
WO2004068850A1 (en) | Method for adjusting an image sensor | |
DE102016120845B4 (en) | Camera system and operating method for this | |
DE102009017135A1 (en) | Method for video data analysis of image sequence for controlling e.g. vehicles, involves detecting optical flow as assumed value-less flow vectors for image points that are not detected in background stabilized images | |
DE102018113281A1 (en) | Image harmonization method, computer program product, camera system and motor vehicle | |
DE102020207695A1 (en) | Depth estimation from mono camera images using artificial intelligence | |
DE102009009572B3 (en) | Method for entropy-based determination of object edge curves |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified |