WO2017027895A1 - Fotometrisches stereomatching - Google Patents
Fotometrisches stereomatching Download PDFInfo
- Publication number
- WO2017027895A1 WO2017027895A1 PCT/AT2016/060025 AT2016060025W WO2017027895A1 WO 2017027895 A1 WO2017027895 A1 WO 2017027895A1 AT 2016060025 W AT2016060025 W AT 2016060025W WO 2017027895 A1 WO2017027895 A1 WO 2017027895A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- feature
- intensity values
- images
- value
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/245—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/586—Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/024—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted
- H04N2201/02406—Arrangements for positioning elements within a head
- H04N2201/02427—Element positioned
- H04N2201/02435—Illuminating means
Definitions
- the invention relates to a method for recording a three-dimensional image of a scene according to claim 1.
- the object of the invention is therefore to provide a method in which the scene can be displayed in higher resolution.
- the invention solves this problem with the features of patent claim 1.
- the invention provides
- one, optionally multi-channel, feature image is created for each image acquisition unit by combining the images produced by this image acquisition unit according to a predetermined function
- the three-dimensional position of the imaged in the points of the point in space is determined.
- the feature images are created for each of the image acquisition units by generating a number of pixels of the individual images of the same image acquisition unit, in particular for all pixels.
- Intensity values of positionally corresponding pixels from all images of the respective image acquisition unit, possibly also the intensity values in the environment of the respective pixels, are used for the determination of the at least one feature value and this is assigned to the position corresponding point in the feature image, in particular
- each texture information and / or the direction of the surface normal is determined.
- a reliable estimate can be obtained by making one image for each light configuration and for each image acquisition unit.
- the surface normal in each point is determined on the basis of the relative position of the light incidence direction relative to the position and orientation of the camera, the surface normal being assigned as a feature value to the respective feature image and / or assigned to the respective spatial point after its determination.
- each pixelwise a feature value is determined, which results from the intensity values of the images in the position corresponding pixels, wherein the feature value is preferably determined as a weighted sum of the intensity values, in particular
- a filter is applied to the images prior to the creation of the feature image and that, in the creation of the feature image, instead of the recorded intensity values, those intensity values are used which result after application of the filter. This is particularly advantageously possible when using edge filters or similar filters.
- a feature value is determined pixel by pixel by
- a weighted sum of the intensity values of the position-corresponding pixels of the images is determined, each of the intensity values being weighted with a weight value corresponding to the contrast of the respective image within an environment around the pixel or a value derived therefrom,
- contrast value is determined in particular as
- FIG. 1 shows an arrangement for receiving a three-dimensional image of a, in particular static, scene.
- Fig. 2 shows the creation of the feature images from the individual images.
- Fig. 3 shows a concrete procedure for Creation of a feature vector for one pixel.
- Fig. 4 shows schematically the search of corresponding points in feature images.
- FIG. 1 an arrangement for receiving a three-dimensional image of a static scene 3 is shown.
- This arrangement represents a preferred embodiment of the invention and comprises two image recording units 21, 22 in the form of digital cameras. These image recording units 21, 22 each have a receiving area 210, 220, wherein these two receiving areas 210, 220 have a common overlapping area 200.
- the arrangement shown in Fig. 1 has a lighting arrangement with three light sources 1 1, 12, 13, which illuminate the scene 3 from different directions.
- these light sources 1 1, 12, 13 different light configurations can be created, in the present embodiment, three light configurations are present, in each case one of the light sources 1 1, 12, 13 is activated, while the other light sources 1 1, 12, 13 inactive are.
- each light configuration it is by no means necessary for each light configuration to be assigned in each case exactly one light source 1 1, 12, 13 or exactly a certain number of light sources 1 1, 12, 13, which are inactive in all other light configurations. Rather, it is sufficient that each light configuration differs from every other light configuration in that different light sources 1 1, 12, 13 are activated respectively.
- the light sources 1 1, 12, 13 are typically controlled by a control unit which activates the light sources 1 1, 12, 13 in such a way that a respective predetermined light configuration is created.
- the individual light sources 1 1, 12, 13 illuminate the scene 3 from different directions, since surface areas of the scene 3 typically appear differently structured from different illumination directions, so that any superficial structures on the surface of the scene Scene 3 appear in at least one light configuration.
- the image provided with the reference numeral 41 1 image is created by the first image pickup unit 21 when illuminated with the first light source 1 1.
- the image provided with the reference numeral 412 is created by the first image pickup unit 21 when illuminated with the second light source 12.
- the image provided with the reference numeral 413 is created by the first image pickup unit 21 when illuminated with the third light source 13.
- the image provided with the reference numeral 421 is created by the second image pickup unit 22 when illuminated with the first light source 1 1.
- the image provided with the reference numeral 422 is created by the second image pickup unit 22 when illuminated with the second light source 12.
- the image provided with the reference numeral 423 is created by the second image pickup unit 22 when illuminated with the third light source 13.
- any combination of a light configuration and an image pickup unit 21, 22 it is not necessary for any combination of a light configuration and an image pickup unit 21, 22 to each have a separate image 41 1, 412, 413; 421, 422, 423 to create. Rather, it may also be sufficient for 21 images to be created for a number of light combinations with the first image acquisition unit and images to be created for a not necessarily identical number and quantity of light configurations with the second image acquisition unit 22.
- the size of the individual images 41 1, 412, 413 created with the first image acquisition unit 21 is the same in each case, so that individual pixels in the individual images 41 1, 412, 413 can be assigned to one another according to location.
- the first and second image acquisition units 21, 22 can produce images of the same size.
- the pictures 41 1, 412, 413; 421, 422, 423, which were created by a respective image acquisition unit 21, 22, are each combined to form an image stack 410, 420.
- a first feature image 51 is created from the images 41 1, 412, 413 created by the first image acquisition unit 21.
- a second feature image 52 is created from the images 421, 422, 423 created by the second image recording unit 22.
- the pictures 41 1, 412, 413; 421, 422, 423 from an image stack 410, 420 can be overlaid in different ways during the creation of the respective feature image 51, 52 become.
- An advantageous procedure in this respect is shown in more detail in FIG.
- pixel-wise accumulated intensity values of the images 41 1, 412, 413 can be used.
- the presence of certain structures within an image 41 1, 412, 413; 421, 422, 423 are easily determined simply by the intensity values present in the respective environment of a pixel. For example, it is possible to determine texture information such as the presence or direction of edges within the particular environment. In addition, it is also possible to determine local gradients in order to determine the direction of a surface normal of the recorded part of the surface of the scene 3 in this way.
- the feature images 51, 52 of the respective image stack 410, 420 for the individual image acquisition units 21, 22 can be created by comparing a number of image pixels of the individual images 41 1, 412, 413; 421, 422, 423 from the image stack of this image pickup unit 21, 22 pixel-by-pixel characteristics are determined based on predetermined rules.
- Intensity values of positionally corresponding points from all images 41 1, 412, 413; 421, 422, 423 of the respective image stack 410, 420 and possibly also the intensity values from the environment of the respective pixels are used for the determination of the respective feature value and this feature value is assigned to the position corresponding point of the feature image 51, 52.
- a feature value is calculated in each of the individual position-corresponding points 41 1, 412, 413, in each case within the environment. This is then accumulated for the position corresponding points on the individual images 41 1, 412, 413 and stored in the respective feature image 51.
- the respective feature image 51 comprises two feature image channels 51 1, 512. In this way, two different features are determined in the present exemplary embodiment and these features are stored in the two different channels of the feature image 51.
- FIG. 4 shows individual points recorded on the surface of the scene in which superficial structures were detected in the feature images 51, 52.
- the points shown here are merely a selection of correlating pairs of points in the different feature images, which are selected for the simplified representation of the correspondence analysis. Basically, it is possible for all points of the overlapping recording area of the first Feature image each to determine a corresponding point in the second feature image.
- a corresponding point 621, 622, 623, 624 in the second feature image 52 is found for the thus-found reference points 61 1, 612, 613, 614 in the first feature image 51, pairs of points each comprising a reference point 61 1, 612, 613 , 614 and the point assigned to it.
- the surface normals can be determined at the respective point in which the feature value of the feature image corresponding to the surface normal is used.
- the surface normal is assigned to the respective feature image 51, 52 as a feature value.
- the feature values of the feature images can be determined pixel by pixel for each pixel, the intensity values from all available images 41 1, 412, 413, 421, 422, 423 are respectively used in the position corresponding pixel and according to a predetermined rule the respective feature value is determined from the intensity values.
- the feature value can be determined as a weighted average of the intensity values. The intensity values can be weighted more strongly the closer they are to the mean value of the intensity values.
- the median of the intensity values can also be used as the feature value.
- the feature value is determined from the value-wise average intensity values by averaging. So it is possible, for example, the n largest and the n smallest values from the amount of Remove intensity values and from the remaining intensity values to form the mean and use as a feature value.
- images of the same size derived from the recorded images with derived intensity values that have been created by applying a filter to the images originally taken.
- edge filters can be applied to the originally captured images to highlight structural features.
- the respective intensity value is weighted with a weight value which corresponds to the derived contrast or is derived therefrom.
- the calculation of the contrast intensity for an environment around a pixel can be calculated in different ways, whereby the size of the respective environment can also be determined in different ways. Possible methods for determining the contrast are:
Abstract
Die Erfindung betrifft ein Verfahren zur Aufnahme eines dreidimensionalen Abbilds einer, insbesondere statischen, Szene (3) mit - einer Vielzahl von Bildaufnahmeeinheiten (21, 22) mit gemeinsamem überlappendem Aufnahmebereich (200), sowie - einer Beleuchtungsanordnung, mit der eine Vielzahl von unterschiedlichen Lichtkonfigurationen zur Beleuchtung des gemeinsamen Aufnahmebereichs der Bildaufnahmeeinheiten (21, 22) erstellbar ist, - wobei mit jeder der Bildaufnahmeeinheiten (21, 22) jeweils zumindest ein Bild (411, 412, 413, 421, 422, 423) des gemeinsamen Aufnahmebereichs (200) für jeweils eine Anzahl der Lichtkonfigurationen erstellt wird, - wobei für jede Bildaufnahmeeinheit (21, 22) jeweils ein, gegebenenfalls mehrkanaliges, Merkmalsbild (51, 52) erstellt wird, indem die von dieser Bildaufnahmeeinheit (21, 22) erstellten Bilder (411, 412, 413; 421, 422, 423) nach einer vorgegebenen Funktion kombiniert werden, - wobei durch Korrespondenzanalyse für eine Anzahl von Referenzpunkten (611, 612, 613, 614), insbesondere für Punkte des überlappenden Aufnahmebereichs, in einem der Merkmalsbilder (51) jeweils der lageentsprechende Punkt (621, 622, 623, 624) in zumindest einem anderen Merkmalbild (52) ermittelt wird, und - wobei aufgrund der Disparität zwischen den miteinander korrespondierenden Punkte (611, 612, 613, 614; 621, 622, 623, 624) in den einzelnen Merkmalsbildern (51, 52) die dreidimensionale Lage des in den Punkten (611, 612, 613, 614; 621, 622, 623, 624) abgebildeten Raumpunkts ermittelt wird.
Description
Fotometrisches Stereomatching
Die Erfindung betrifft ein Verfahren zur Aufnahme eines dreidimensionalen Abbilds einer Szene gemäß dem Patentanspruch 1 .
Bei aus dem Stand der Technik bekannten Methoden besteht das Problem, dass in Bereichen der Szene, die im jeweils aufgenommenen Bild bei einer bestimmten Beleuchtung homogen erscheinen, ein Stereo-Matching nicht möglich ist. Dies führt dazu, dass in größeren Bereichen der Szene keine Zuordnung zwischen einzelnen Punkten möglich ist, was insgesamt die Genauigkeit des dreidimensionalen Abbilds verschlechtert. Aufgabe der Erfindung ist es daher, ein Verfahren bereitzustellen, bei dem die Szene in höherer Auflösung dargestellt werden kann.
Die Erfindung löst diese Aufgabe mit den Merkmalen des Patentanspruchs 1 . Die Erfindung sieht vor
- eine Vielzahl von Bildaufnahmeeinheiten mit gemeinsamem überlappendem Aufnahmebereich, sowie
- eine Beleuchtungsanordnung, mit der eine Vielzahl von unterschiedlichen Lichtkonfigurationen zur Beleuchtung des gemeinsamen Aufnahmebereichs der Bildaufnahmeeinheiten erstellbar ist,
- wobei mit jeder der Bildaufnahmeeinheiten jeweils zumindest ein Bild des gemeinsamen Aufnahmebereichs für jeweils eine Anzahl der Lichtkonfigurationen erstellt wird,
- wobei für jede Bildaufnahmeeinheit jeweils ein, gegebenenfalls mehrkanaliges, Merkmalsbild erstellt wird, indem die von dieser Bildaufnahmeeinheit erstellten Bilder nach einer vorgegebenen Funktion kombiniert werden,
- wobei durch Korrespondenzanalyse für eine Anzahl von Referenzpunkten, insbesondere für Punkte des überlappenden Aufnahmebereichs, in einem der Merkmalsbilder jeweils der lageentsprechende Punkt in zumindest einem anderen Merkmalbild ermittelt wird, und
- wobei aufgrund der Disparität zwischen den miteinander korrespondierenden Punkte in den einzelnen Merkmalsbildern die dreidimensionale Lage des in den Punkten abgebildeten Raumpunkts ermittelt wird.
Durch diese Maßnahmen können mehr signifikante Strukturen in größeren Bereichen der Szene ermittelt werden, sodass insgesamt mehr korrespondierende Punkte in den Bildern aufgefunden werden können. Dadurch können dreidimensionale Abbilder mit höherer Genauigkeit und Vollständigkeit erstellt werden.
Um signifikante Strukturen besser hervorheben zu können, kann vorgesehen sein, dass die Merkmalsbilder für jede der Bildaufnahmeeinheiten erstellt werden, indem für eine Anzahl von Bildpunkten der einzelnen Bilder jeweils derselben Bildaufnahmeeinheit, insbesondere für alle Bildpunkte,
- Intensitätswerte einander lageentsprechender Bildpunkte aus allen Bildern der jeweiligen Bildaufnahmeeinheit, gegebenenfalls auch die Intensitätswerte in der Umgebung der jeweiligen Bildpunkte, für die Bestimmung des zumindest einen Merkmalswertes herangezogen werden und dieser dem lageentsprechenden Punkt im Merkmalsbild zugeordnet wird, wobei insbesondere
- für jeden der Bildpunkte jeweils nach einer vorgegebenen Vorschrift aus den Intensitätswerten lageentsprechender Bildpunkte, gegebenenfalls aus deren jeweiligen Umgebungen, jeweils Texturinformation und/oder die Richtung der Flächennormale ermittelt wird.
Um die Erstellung unterschiedlicher Beleuchtungskonfigurationen bei gleichzeitig einfachem Aufbau zu ermöglichen, kann vorgesehen sein, dass für jede Lichtkonfiguration jeweils eine dieser Konfiguration zugeordnete Anzahl von Lichtquellen aktiviert wird, wobei für jede Lichtkonfiguration eine eigene Lichtquelle verwendet wird.
Eine zuverlässige Schätzung kann erzielt werden, indem für jede Lichtkonfiguration und für jede Bildaufnahmeeinheit jeweils ein Bild erstellt wird.
Eine vorteilhafte Heranziehung der Oberflächennormale zur Verbesserung des Stereo- Matchings sowie zur verbesserten Hervorhebung von signifikanten Strukturen kann so sehr effizient und exakt vorgenommen werden, indem für jede der Lichtkonfigurationen jeweils die Richtung, in der das Licht auf die Szene trifft bekannt ist, und dass für jede der Bildaufnahmeeinheiten jeweils die relative Lage und Ausrichtung zur Szene bekannt ist, und
dass aufgrund der relativen Lage der Lichteinfallrichtung zur Lage und Ausrichtung der Kamera die Oberflächennormalen in jedem Punkt ermittelt wird, wobei die Oberflächennormale als Merkmalswert dem jeweiligen Merkmalsbild zugeordnet wird und/oder dem jeweiligen Raumpunkt nach dessen Ermittlung zugeordnet wird.
Um vorteilhafte Merkmalsbilder zu erhalten, die gegenüber einzelnen Variationen, die durch unterschiedliche Beleuchtung verursacht wurden, stabil sind, kann vorgesehen
sein, dass zur Erstellung der Merkmalsbilder jeweils pixelweise ein Merkmalswert ermittelt wird, der sich aus den Intensitätswerten der Bilder im lageentsprechenden Pixel ergibt, wobei der Merkmalswert vorzugsweise als gewichtete Summe der Intensitätswerte ermittelt wird, insbesondere
a) wobei sich die Gewichte, mit denen die Intensitätswerte gewichtet werden, aus den einzelnen Intensitätswerten selbst ergeben, und/oder Intensitätswerte, die näher beim Mittelwert liegen stärker gewichtet werden, oder
b) wobei als Merkmalswert der Median herangezogen wird, oder ein Mittelwert aus einer Menge von Intensitätswerten herangezogen wird, bei der eine Anzahl der größten oder kleinsten Intensitätswerte ausgeschlossen wird.
Zur Erhöhung der Erkennungsgenauigkeit kann vorgesehen sein, dass auf die Bilder vor der Erstellung des Merkmalsbilds ein Filter angewendet wird und bei der Erstellung des Merkmalsbilds anstelle der aufgenommenen Intensitätswerte solche Intensitätswerte herangezogen werden, die sich nach Anwendung des Filters ergeben. Dies ist insbesondere bei der Verwendung von Kantenfiltern oder ähnlichen Filtern besonders vorteilhaft möglich.
Um vorteilhafte Merkmalsbilder mit hohem Kontrast zu erhalten, kann vorgesehen sein, dass bei der Erstellung eines Merkmalsbilds pixelweise ein Merkmalswert ermittelt wird, indem
eine gewichtete Summe der Intensitätswerte der lageentsprechenden Pixel der Bilder ermittelt wird, wobei jeder der Intensitätswerte mit einem Gewichtswert gewichtet wird, der dem Kontrast des jeweiligen Bilds innerhalb einer Umgebung um das Pixel oder einem davon abgeleiteten Wert entspricht,
wobei der Kontrastwert insbesondere ermittelt wird, als
a) Differenz zwischen maximalem und minimalem Intensitätswert innerhalb der Umgebung,
b) maximale Differenz zwischen dem Intensitätswert des Pixels und einem Pixel innerhalb seiner Umgebung,
c) Varianz der Intensitätswerte innerhalb der Umgebung.
Eine bevorzugte Ausführungsform der Erfindung ist in den folgenden Zeichnungsfiguren näher dargestellt. Fig. 1 zeigt eine Anordnung zur Aufnahme eines dreidimensionalen Abbilds einer, insbesondere statischen, Szene. Fig. 2 zeigt die Erstellung der Merkmalsbilder aus den einzelnen Bildern. Fig. 3 zeigt eine konkrete Vorgehensweise zur
Erstellung eines Merkmalsvektors aus für einen Bildpunkt. Fig. 4 zeigt schematisch die Suche korrespondierender Punkte in Merkmalsbildern.
In Fig. 1 ist eine Anordnung zur Aufnahme eines dreidimensionalen Abbilds einer statischen Szene 3 dargestellt. Diese Anordnung stellt eine bevorzugte Ausführungsform der Erfindung dar und umfasst zwei Bildaufnahmeeinheiten 21 , 22 in Form von Digitalkameras. Diese Bildaufnahmeeinheiten 21 , 22 weisen jeweils einen Aufnahmebereich 210, 220 auf, wobei diese beiden Aufnahmebereiche 210, 220 einen gemeinsamen Überlappungsbereich 200 aufweisen.
Darüber hinaus verfügt die in Fig. 1 dargestellte Anordnung über eine Beleuchtungsanordnung mit drei Lichtquellen 1 1 , 12, 13, die die Szene 3 aus unterschiedlichen Richtungen beleuchten. Mit diesen Lichtquellen 1 1 , 12, 13 können unterschiedliche Lichtkonfigurationen erstellt werden, wobei im vorliegenden Ausführungsbeispiel drei Lichtkonfigurationen vorhanden sind, bei der jeweils eine der Lichtquellen 1 1 , 12, 13 aktiviert ist, während die übrigen Lichtquellen 1 1 , 12, 13 inaktiv sind. Insgesamt ist es jedoch keineswegs erforderlich, dass jeder Lichtkonfiguration jeweils genau eine Lichtquelle 1 1 , 12, 13 oder genau eine bestimmte Anzahl von Lichtquellen 1 1 , 12, 13 zugeordnet ist, die bei allen übrigen Lichtkonfigurationen inaktiv geschaltet sind. Es ist vielmehr ausreichend, dass sich jede Lichtkonfiguration von jeder anderen Lichtkonfiguration dadurch unterscheidet, dass unterschiedliche Lichtquellen 1 1 , 12, 13 jeweils aktiviert werden. Die Lichtquellen 1 1 , 12, 13 werden typischerweise durch eine Steuereinheit angesteuert, die die Lichtquellen 1 1 , 12, 13 derart aktiviert, dass jeweils eine ihr vorgegebene Lichtkonfiguration erstellt wird.
Grundsätzlich ist es bei allen Ausführungsbeispielen der Erfindung vorteilhaft, wenn die einzelnen Lichtquellen 1 1 , 12, 13 die Szene 3 von unterschiedlichen Richtungen her beleuchten, da Oberflächenbereiche der Szene 3 typischerweise aus unterschiedlichen Beleuchtungsrichtungen unterschiedlich strukturiert erscheinen, sodass allfällige oberflächliche Strukturen auf der Oberfläche der Szene 3 bei zumindest einer Lichtkonfigurationen erscheinen.
In Fig. 2 werden die einzelnen von den Bildaufnahmeeinheiten 21 , 22 erstellten Bilder 41 1 , 412, 413; 421 , 422, 423 dargestellt. Das mit dem Bezugszeichen 41 1 versehene Bild wird von der ersten Bildaufnahmeeinheit 21 bei Beleuchtung mit der ersten Lichtquelle 1 1 erstellt. Das mit dem Bezugszeichen 412 versehene Bild wird von der ersten Bildaufnahmeeinheit 21 bei Beleuchtung mit der zweiten Lichtquelle 12 erstellt.
Das mit dem Bezugszeichen 413 versehene Bild wird von der ersten Bildaufnahmeeinheit 21 bei Beleuchtung mit der dritten Lichtquelle 13 erstellt. Das mit dem Bezugszeichen 421 versehene Bild wird von der zweiten Bildaufnahmeeinheit 22 bei Beleuchtung mit der ersten Lichtquelle 1 1 erstellt. Das mit dem Bezugszeichen 422 versehene Bild wird von der zweiten Bildaufnahmeeinheit 22 bei Beleuchtung mit der zweiten Lichtquelle 12 erstellt. Das mit dem Bezugszeichen 423 versehene Bild wird von der zweiten Bildaufnahmeeinheit 22 bei Beleuchtung mit der dritten Lichtquelle 13 erstellt.
Durch diese Maßnahme wird erreicht, dass für jede Lichtkonfiguration, im vorliegenden Fall bei Aktivierung jeder Lichtquelle, und für jede Bildaufnahmeeinheit 21 , 22 jeweils separat ein Bild 41 1 , 412, 413; 421 , 422, 423 vorliegt.
Im Allgemeinen ist es nicht erforderlich, für jede beliebige Kombination einer Lichtkonfiguration und einer Bildaufnahmeeinheit 21 , 22 jeweils ein separates Bild 41 1 , 412, 413; 421 , 422, 423 zu erstellen. Vielmehr kann es auch ausreichen, dass für eine Anzahl von Lichtkombinationen mit der ersten Bildaufnahmeeinheit 21 Bilder erstellt werden und für eine nicht notwendigerweise idente Anzahl und Menge von Lichtkonfigurationen mit der zweiten Bildaufnahmeeinheit 22 jeweils Bilder erstellt werden.
Aus den jeweils mit derselben Bildaufnahmeeinheit 21 , 22 erstellten Bildern 41 1 , 412, 413; 421 , 422, 423 werden Merkmalsbilder 51 , 52 erstellt. In dieser bevorzugten Ausführungsform der Erfindung ist die Größe der mit der ersten Bildaufnahmeeinheit 21 erstellten einzelnen Bilder 41 1 , 412, 413 jeweils gleich, sodass einzelne Pixel in den einzelnen Bildern 41 1 , 412, 413 einander lageentsprechend zugeordnet werden können. Dasselbe gilt auch für die von der zweiten Bildaufnahmeeinheit 22 erstellten Bilder 421 , 422, 423. Darüber hinaus ist es auch möglich, dass die erste und zweite Bildaufnahmeeinheit 21 , 22 Bilder von gleicher Größe erstellen.
Die Bilder 41 1 , 412, 413; 421 , 422, 423, die von jeweils einer Bildaufnahmeeinheit 21 , 22 erstellt wurden, werden jeweils zu einem Bildstapel 410, 420 zusammengefasst. Innerhalb des ersten Bildstapels 410 wird aus den von der ersten Bildaufnahmeeinheit 21 erstellten Bildern 41 1 , 412, 413 ein erstes Merkmalsbild 51 erstellt. Innerhalb des zweiten Bildstapels 420 wird aus den von der zweiten Bildaufnahmeeinheit 22 erstellten Bildern 421 , 422, 423 ein zweites Merkmalsbild 52 erstellt.
Die Bilder 41 1 , 412, 413; 421 , 422, 423 aus einem Bildstapel 410, 420 können bei der Erstellung des jeweiligen Merkmalsbilds 51 , 52 auf unterschiedliche Weise überlagert
werden. Ein diesbezüglich vorteilhaftes Vorgehen ist in Fig. 3 näher dargestellt. Für die Bildung der Intensitätswerte des Merkmalsbilds können pixelweise akkumulierte Intensitätswerte der Bilder 41 1 , 412, 413 herangezogen werden.
Typischerweise kann das Vorhandensein bestimmter Strukturen innerhalb eines Bildes 41 1 , 412, 413; 421 , 422, 423 einfach anhand der in der jeweiligen Umgebung eines Bildpunktes vorhandenen Intensitätswerte einfach festgestellt werden. So ist es beispielsweise möglich, innerhalb der jeweiligen Umgebung Texturinformationen wie beispielsweise das Vorhandensein oder die Richtung von Kanten festzustellen. Darüber hinaus ist es auch möglich, lokale Gradienten zu ermitteln, um auf diese Weise die Richtung einer Oberflächennormale des aufgenommenen Teils der Oberfläche der Szene 3 zu ermitteln. Die Merkmalsbilder 51 , 52 des jeweiligen Bildstapels 410, 420 für die einzelnen Bildaufnahmeeinheiten 21 , 22 können erstellt werden, indem für eine Anzahl von Bildpunkten der einzelnen Bilder 41 1 , 412, 413; 421 , 422, 423 aus dem Bildstapel dieser Bildaufnahmeeinheit 21 , 22 bildpunktweise Merkmale anhand vorgegebener Vorschriften ermittelt werden. Intensitätswerte einander lageentsprechender Punkte aus allen Bildern 41 1 , 412, 413; 421 , 422, 423 des jeweiligen Bildstapels 410, 420 sowie gegebenenfalls auch die Intensitätswerte aus der Umgebung der jeweiligen Bildpunkte werden für die Bestimmung des jeweiligen Merkmalswerts herangezogen und dieser Merkmalswert wird dem lageentsprechenden Punkt des Merkmalsbilds 51 , 52 zugeordnet.
Wie in Fig. 3 dargestellt, wird in den einzelnen zueinander lageentsprechenden Punkten 41 1 , 412, 413 jeweils innerhalb der Umgebung ein Merkmalswert errechnet. Dieser wird anschließend für die lageentsprechenden Punkte über die einzelnen Bilder 41 1 , 412, 413 akkumuliert und im jeweiligen Merkmalsbild 51 abgespeichert. Im vorliegenden Fall umfasst das jeweilige Merkmalsbild 51 zwei Merkmalsbildkanäle 51 1 , 512. Auf diese Weise werden im vorliegenden Ausführungsbeispiel zwei unterschiedliche Merkmale ermittelt und diese Merkmale werden in den beiden unterschiedlichen Kanälen des Merkmalsbilds 51 abgespeichert.
In Fig. 4 sind einzelne auf der Oberfläche der Szene aufgenommene Punkte dargestellt, in denen oberflächliche Strukturen in den Merkmalsbildern 51 , 52 detektiert wurden. Bei den hier dargestellten Punkten handelt es sich lediglich um eine Auswahl von miteinander korrelierenden Punktepaaren in den unterschiedlichen Merkmalsbildern, die zur vereinfachten Darstellung der Korrespondenzanalyse ausgewählt werden. Grundsätzlich ist es möglich, für alle Punkte des überlappenden Aufnahmebereichs des ersten
Merkmalsbilds jeweils einen korrespondierenden Punkt im zweiten Merkmalsbild zu ermitteln.
Durch Korrespondenzanalyse wird für die so aufgefundenen Referenzpunkte 61 1 , 612, 613, 614 im ersten Merkmalsbild 51 jeweils ein korrespondierender Punkt 621 , 622, 623, 624 im zweiten Merkmalsbild 52 aufgefunden, es werden Punktpaare umfassend je einen Referenzpunkt 61 1 , 612, 613, 614 sowie den ihm jeweils zugeordneten Punkt erstellt.
In einem abschließenden Schritt kann für jedes derart aufgefundene Punktepaar aufgrund der Disparität zwischen den beiden miteinander korrespondierenden Punkten 61 1 , 612, 613, 614; 621 , 622, 623, 624 in den einzelnen Merkmalsbildern 51 , 52 die dreidimensionale Lage der in den Punkten 61 1 , 612, 613, 614; 621 , 622, 623, 624 der Punktpaare abgebildeten Raumpunkte der Szene 3 ermittelt werden.
Ferner ist es auch möglich, dass für jede der Lichtkonfigurationen jeweils die Richtung, in der das Licht auf die Szene trifft, bekannt ist und dass auch für jede der Bildaufnahmeeinheiten 21 , 22 jeweils die relative Lage und Ausrichtung zu den Lichtkonfigurationen bzw Lichtquellen 1 1 , 12, 13 oder zur Szene 3 bekannt ist. Aufgrund dieser relativen Lage der Lichteinfallrichtung zur Lage und Ausrichtung der Bildaufnahmeeinheiten 21 , 22 können die Oberflächennormalen in dem jeweiligen Punkt ermittelt werden, in dem jeweils der der Flächennormale entsprechende Merkmalswert des Merkmalsbilds herangezogen wird. Die Oberflächennormale wird dem jeweiligen Merkmalsbild 51 , 52 als Merkmalswert zugeordnet.
In einer bevorzugten Ausführungsform der Erfindung können die Merkmalswerte der Merkmalsbilder pixelweise ermittelt werden, indem für jedes Pixel die Intensitätswerte aus allen zur Verfügung stehenden Bildern 41 1 , 412, 413, 421 , 422, 423 jeweils im lageentsprechenden Pixel herangezogen werden und nach einer vorgegebenen Vorschrift der jeweilige Merkmalswert aus den Intensitätswerten ermittelt wird. So lässt sich beispielsweise der Merkmalswert als gewichteter Mittelwert der Intensitätswerte ermitteln. Die Intensitätswerte können dabei umso stärker gewichtet werden, je näher sie sich beim Mittelwert der Intensitätswerte befinden.
Alternativ kann als Merkmalswert auch der Median der Intensitätswerte herangezogen werden. Alternativ besteht auch die Möglichkeit, dass der Merkmalswert aus den wertmäßig mittleren Intensitätswerten durch Mittelwertbildung ermittelt wird. So ist es beispielsweise möglich, die n größten und die n kleinsten Werte aus der Menge der
Intensitätswerte zu entfernen und aus den verbleibenden Intensitätswerten den Mittelwert zu bilden und als Merkmalswert heranzuziehen.
Hierbei besteht auch die Möglichkeit, anstelle der aufgenommenen Bilder abgeleitete Bilder gleicher Größe mit abgeleiteten Intensitätswerten zu verwenden, die durch Anwendung eines Filters auf die ursprünglich aufgenommenen Bilder erstellt wurden. So können beispielsweise Kantenfilter auf die ursprünglich aufgenommenen Bilder angewendet werden, um strukturelle Merkmale besonders gut hervorzuheben. Bei der Erstellung des Merkmalsbilds werden anstelle der ursprünglich aufgenommenen Bilder solche Bilder und deren Intensitätswerte herangezogen, die sich nach Anwendung des Filters ergeben.
Darüber hinaus besteht in einer alternativen Ausführungsform der Erfindung die Möglichkeit, nicht bloß den Intensitätswert des jeweiligen Pixels heranzuziehen, sondern die Pixel innerhalb einer vorgegebenen Umgebung zu betrachten und für die Umgebung des jeweiligen Pixels den Kontrast zu ermitteln. Unter allen lageentsprechenden Pixeln in den Bildern 41 1 , 412, 413, 421 , 422, 423 wird der jeweilige Intensitätswert mit einem Gewichtswert gewichtet, der dem ermittelten Kontrast entspricht oder von diesem abgeleitet ist.
Die Berechnung der Kontraststärke für eine Umgebung rund um ein Pixel kann auf unterschiedliche Weise berechnet werden, wobei auch die Größe der jeweiligen Umgebung auf unterschiedliche Weise festgelegt werden kann. Als mögliche Methoden zur Bestimmung des Kontrastes kommen in Frage:
a) die Differenz zwischen maximalem und minimalem Intensitätswert innerhalb der Umgebung,
b) die maximale Differenz zwischen dem Intensitätswert des Pixels und einem Pixel innerhalb seiner Umgebung,
c) die Varianz der Intensitätswerte innerhalb der Umgebung.
Selbstverständlich ist es im Rahmen der Erfindung auch möglich, eine Anzahl von Pixeln mit dem größten Kontrast zu verwenden und den Intensitätswerten dieser Pixel den Mittelwert zu bilden.
Claims
1 . Verfahren zur Aufnahme eines dreidimensionalen Abbilds einer, insbesondere statischen, Szene (3) mit
- einer Vielzahl von Bildaufnahmeeinheiten (21 , 22) mit gemeinsamem überlappendem Aufnahmebereich (200) , sowie
- einer Beleuchtungsanordnung, mit der eine Vielzahl von unterschiedlichen Lichtkonfigurationen zur Beleuchtung des gemeinsamen Aufnahmebereichs der Bildaufnahmeeinheiten (21 , 22) erstellbar ist,
- wobei mit jeder der Bildaufnahmeeinheiten (21 , 22) jeweils zumindest ein Bild (41 1 , 412, 413, 421 , 422, 423) des gemeinsamen Aufnahmebereichs (200) für jeweils eine Anzahl der Lichtkonfigurationen erstellt wird,
- wobei für jede Bildaufnahmeeinheit (21 , 22) jeweils ein, gegebenenfalls mehrkanaliges, Merkmalsbild (51 , 52) erstellt wird, indem die von dieser Bildaufnahmeeinheit (21 , 22) erstellten Bilder (41 1 , 412, 413; 421 , 422, 423) nach einer vorgegebenen Funktion kombiniert werden,
- wobei durch Korrespondenzanalyse für eine Anzahl von Referenzpunkten (61 1 , 612, 613, 614), insbesondere für Punkte des überlappenden Aufnahmebereichs, in einem der Merkmalsbilder (51 ) jeweils der lageentsprechende Punkt (621 , 622, 623, 624) in zumindest einem anderen Merkmalbild (52) ermittelt wird, und
- wobei aufgrund der Disparität zwischen den miteinander korrespondierenden Punkte (61 1 , 612, 613, 614; 621 , 622, 623, 624) in den einzelnen Merkmalsbildern (51 , 52) die dreidimensionale Lage des in den Punkten (61 1 , 612, 613, 614; 621 , 622, 623, 624) abgebildeten Raumpunkts ermittelt wird.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Merkmalsbilder (51 , 52) für jede der Bildaufnahmeeinheiten (21 , 22) erstellt werden, indem für eine Anzahl von Bildpunkten der einzelnen Bilder (41 1 , 412, 413; 421 , 422, 423) jeweils derselben Bildaufnahmeeinheit (21 ), insbesondere für alle Bildpunkte,
- Intensitätswerte einander lageentsprechender Bildpunkte aus allen Bildern (41 1 , 412, 413; 421 , 422, 423) der jeweiligen Bildaufnahmeeinheit (21 ), gegebenenfalls auch die Intensitätswerte in der Umgebung der jeweiligen Bildpunkte, für die Bestimmung des zumindest einen Merkmalswertes herangezogen werden und dieser dem lageentsprechenden Punkt im Merkmalsbild (51 , 52) zugeordnet wird, wobei insbesondere
- für jeden der Bildpunkte jeweils nach einer vorgegebenen Vorschrift aus den Intensitätswerten lageentsprechender Bildpunkte, gegebenenfalls aus deren jeweiligen
PCT/AT2016/060025
Umgebungen, jeweils Texturinformation und/oder die Richtung der Flächennormale ermittelt wird.
3. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass für jede Lichtkonfiguration jeweils eine dieser Konfiguration zugeordnete Anzahl von Lichtquellen (1 1 , 12, 13) aktiviert wird, wobei für jede Lichtkonfiguration eine eigene Lichtquelle (1 1 , 12, 13) verwendet wird.
4. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass für jede Lichtkonfiguration und für jede Bildaufnahmeeinheit (21 , 22) jeweils ein Bild (41 1 , 412, 413; 421 , 422, 423) erstellt wird.
5. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass für jede der Lichtkonfigurationen jeweils die Richtung, in der das Licht auf die Szene trifft bekannt ist, und dass für jede der Bildaufnahmeeinheiten (21 , 22) jeweils die relative Lage und Ausrichtung zur Szene bekannt ist, und
dass aufgrund der relativen Lage der Lichteinfallrichtung zur Lage und Ausrichtung der Kamera die Oberflächennormalen in jedem Punkt ermittelt wird, wobei die Oberflächennormale als Merkmalswert dem jeweiligen Merkmalsbild (51 , 52) zugeordnet wird und/oder dem jeweiligen Raumpunkt nach dessen Ermittlung zugeordnet wird.
6. Verfahren nach einem der Ansprüche 2 bis 5, dadurch gekennzeichnet, dass zur Erstellung der Merkmalsbilder (51 , 52) jeweils pixelweise ein Merkmalswert ermittelt wird, der sich aus den Intensitätswerten (41 1 , 412, 413, 421 , 422, 423) der Bilder im lageentsprechenden Pixel ergibt,
wobei der Merkmalswert vorzugsweise als gewichtete Summe der Intensitätswerte ermittelt wird, insbesondere
a) wobei sich die Gewichte, mit denen die Intensitätswerte gewichtet werden, aus den einzelnen Intensitätswerten selbst ergeben, und/oder Intensitätswerte, die näher beim Mittelwert liegen stärker gewichtet werden, oder
b) wobei als Merkmalswert der Median herangezogen wird, oder ein Mittelwert aus einer Menge von Intensitätswerten herangezogen wird, bei der eine Anzahl der größten oder kleinsten Intensitätswerte ausgeschlossen wird.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass auf die Bilder vor der Erstellung des Merkmalsbilds ein Filter angewendet wird und bei der Erstellung des
PCT/AT2016/060025
Merkmalsbilds anstelle der aufgenommenen Intensitätswerte solche Intensitätswerte herangezogen werden, die sich nach Anwendung des Filters ergeben.
8. Verfahren nach einem der Ansprüche 2 bis 6, dadurch gekennzeichnet, dass bei der Erstellung eines Merkmalsbilds (51 , 52) pixelweise ein Merkmalswert ermittelt wird, indem eine gewichtete Summe der Intensitätswerte der lageentsprechenden Pixel der Bilder (41 1 , 412, 413, 421 , 422, 423) ermittelt wird, wobei jeder der Intensitätswerte mit einem Gewichtswert gewichtet wird, der dem Kontrast des jeweiligen Bilds innerhalb einer Umgebung um das Pixel oder einem davon abgeleiteten Wert entspricht,
wobei der Kontrastwert insbesondere ermittelt wird, als
a) Differenz zwischen maximalem und minimalem Intensitätswert innerhalb der Umgebung,
b) maximale Differenz zwischen dem Intensitätswert des Pixels und einem Pixel innerhalb seiner Umgebung,
c) Varianz der Intensitätswerte innerhalb der Umgebung.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ATA554/2015 | 2015-08-20 | ||
ATA554/2015A AT517656A1 (de) | 2015-08-20 | 2015-08-20 | Fotometrisches Stereomatching |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2017027895A1 true WO2017027895A1 (de) | 2017-02-23 |
Family
ID=56852019
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/AT2016/060025 WO2017027895A1 (de) | 2015-08-20 | 2016-08-02 | Fotometrisches stereomatching |
Country Status (2)
Country | Link |
---|---|
AT (1) | AT517656A1 (de) |
WO (1) | WO2017027895A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3627097A4 (de) * | 2017-05-18 | 2021-01-06 | Shanghai Parasol Renewable Energy Co., Ltd | Mehransichtsbilderkennungsbasiertes heliostat-oberflächenformmesssystem und -verfahren |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021105795A1 (de) | 2021-03-10 | 2022-09-15 | Carl Zeiss Microscopy Gmbh | Verfahren und vorrichtung zur stereoskopie |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130287293A1 (en) * | 2010-09-16 | 2013-10-31 | Siemens Corporation | Active Lighting For Stereo Reconstruction Of Edges |
US20130329015A1 (en) * | 2012-06-07 | 2013-12-12 | Kari Pulli | Techniques for generating robust stereo images |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101259835B1 (ko) * | 2009-06-15 | 2013-05-02 | 한국전자통신연구원 | 깊이 정보를 생성하기 위한 장치 및 방법 |
US20110222757A1 (en) * | 2010-03-10 | 2011-09-15 | Gbo 3D Technology Pte. Ltd. | Systems and methods for 2D image and spatial data capture for 3D stereo imaging |
KR101792501B1 (ko) * | 2011-03-16 | 2017-11-21 | 한국전자통신연구원 | 특징기반의 스테레오 매칭 방법 및 장치 |
-
2015
- 2015-08-20 AT ATA554/2015A patent/AT517656A1/de not_active Application Discontinuation
-
2016
- 2016-08-02 WO PCT/AT2016/060025 patent/WO2017027895A1/de active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130287293A1 (en) * | 2010-09-16 | 2013-10-31 | Siemens Corporation | Active Lighting For Stereo Reconstruction Of Edges |
US20130329015A1 (en) * | 2012-06-07 | 2013-12-12 | Kari Pulli | Techniques for generating robust stereo images |
Non-Patent Citations (2)
Title |
---|
DAVIS J E ET AL: "BRDF Invariant Stereo Using Light Transport Constancy", COMPUTER VISION, 2005. ICCV 2005. TENTH IEEE INTERNATIONAL CONFERENCE ON BEIJING, CHINA 17-20 OCT. 2005, PISCATAWAY, NJ, USA,IEEE, LOS ALAMITOS, CA, USA, vol. 1, 17 October 2005 (2005-10-17), pages 436 - 443, XP010854820, ISBN: 978-0-7695-2334-7, DOI: 10.1109/ICCV.2005.51 * |
FERIS R ET AL: "Multiflash Stereopsis: Depth-Edge-Preserving Stereo with Small Baseline Illumination", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, IEEE COMPUTER SOCIETY, USA, vol. 30, no. 1, 1 January 2008 (2008-01-01), pages 147 - 159, XP011202082, ISSN: 0162-8828 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3627097A4 (de) * | 2017-05-18 | 2021-01-06 | Shanghai Parasol Renewable Energy Co., Ltd | Mehransichtsbilderkennungsbasiertes heliostat-oberflächenformmesssystem und -verfahren |
Also Published As
Publication number | Publication date |
---|---|
AT517656A1 (de) | 2017-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102012016160A1 (de) | Bilderfassung für eine spätere Nachfokussierung oder Fokusmanipulation | |
DE102011106052B4 (de) | Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild unter Verwendung eines nichtlinearen beleuchtungsinvarianten Kerns | |
DE102011080180A1 (de) | Verfahren zur Registrierung mehrerer dreidimensionaler Aufnahmen eines dentalen Objektes | |
DE112011103452T5 (de) | Verfahren zum Angleichen von Pixeln einer Entfernungsdarstellung | |
DE102011011930A1 (de) | Verfahren und System zur Bestimmung einer Anzahl von Übergangsobjekten | |
EP2275989A1 (de) | Stereoskopische 3D-Kamera | |
DE102012209316A1 (de) | Verfahren und Vorrichtung zum Verarbeiten von Sensordaten eines Stereosensorsystems | |
EP1485670A2 (de) | Verfahren und vorrichtung zur bestimmung der absolut-koordinaten eines objekts | |
DE102012023623A1 (de) | Verfahren zum Zusammensetzen von Teilaufnahmen einer Oberfläche eines Objektes zu einer Gesamtaufnahme des Objektes und System zum Erstellen einer Gesamtaufnahme eines Objektes | |
DE102018127754A1 (de) | Verfahren und Vorrichtung zum Inspizieren einer Objektoberfläche, insbesondere zum Inspizieren der Oberfläche eines Pulverbettes mit einer Vielzahl von Pulverpartikeln | |
WO2017027895A1 (de) | Fotometrisches stereomatching | |
DE102018101023B3 (de) | Verfahren zur Abstandsmessung mittels trajektoriebasierter Triangulation | |
EP3158285B1 (de) | Verfahren zur ermittlung eines räumlichen verschiebungsvektorfeldes | |
DE3905234C2 (de) | ||
DE102011082881A1 (de) | Darstellung der Umgebung eines Kraftfahrzeugs in einer bestimmten Ansicht unter Verwendung räumlicher Information | |
DE102019123458B4 (de) | Verfahren zur Vermessung eines dreidimensionalen Objekts, insbesondere eines Körperteils | |
DE102012222505A1 (de) | Verfahren zum Erfassen dreidimensionaler Daten eines zu vermessenden Objekts, Verwendung eines derartigen Verfahrens zur Gesichtserkennung und Vorrichtung zur Durchführung eines derartigen Verfahrens | |
DE102009024030B3 (de) | Verfahren zur optischen Ermittlung von geometrischen Oberflächenmerkmalen | |
DE102015112411A1 (de) | System zur stereoskopischen Darstellung von Aufnahmen eines Endoskops | |
DE102015011674A1 (de) | Verfahren zur Tiefenfilterung von Tiefenbildern | |
DE102012025463A1 (de) | Verfahren zum Bestimmen eines Bewegungsparameters eines Kraftfahrzeugs durch Auffinden von invarianten Bildregionen in Bildern einer Kamera des Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug | |
DE102015003537A1 (de) | Blockierungsdetektionsverfahren für eine kamera und eine elektronische vorrichtung mit kameras | |
EP3561772A1 (de) | Verfahren zur kalibrierung einer zeilenbildaufnahmeeinheit | |
WO2018211057A1 (de) | Marker basierter kamera-tracker | |
DE102012100848A1 (de) | System zur stereoskopischen Darstellung von Aufnahmen eines Endoskops |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16759668 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 16759668 Country of ref document: EP Kind code of ref document: A1 |