WO2017027895A1 - Fotometrisches stereomatching - Google Patents

Fotometrisches stereomatching Download PDF

Info

Publication number
WO2017027895A1
WO2017027895A1 PCT/AT2016/060025 AT2016060025W WO2017027895A1 WO 2017027895 A1 WO2017027895 A1 WO 2017027895A1 AT 2016060025 W AT2016060025 W AT 2016060025W WO 2017027895 A1 WO2017027895 A1 WO 2017027895A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
feature
intensity values
images
value
Prior art date
Application number
PCT/AT2016/060025
Other languages
English (en)
French (fr)
Inventor
Svorad Stolc
Daniel Soukup
Original Assignee
Ait Austrian Institute Of Technology Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ait Austrian Institute Of Technology Gmbh filed Critical Ait Austrian Institute Of Technology Gmbh
Publication of WO2017027895A1 publication Critical patent/WO2017027895A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/024Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted
    • H04N2201/02406Arrangements for positioning elements within a head
    • H04N2201/02427Element positioned
    • H04N2201/02435Illuminating means

Definitions

  • the invention relates to a method for recording a three-dimensional image of a scene according to claim 1.
  • the object of the invention is therefore to provide a method in which the scene can be displayed in higher resolution.
  • the invention solves this problem with the features of patent claim 1.
  • the invention provides
  • one, optionally multi-channel, feature image is created for each image acquisition unit by combining the images produced by this image acquisition unit according to a predetermined function
  • the three-dimensional position of the imaged in the points of the point in space is determined.
  • the feature images are created for each of the image acquisition units by generating a number of pixels of the individual images of the same image acquisition unit, in particular for all pixels.
  • Intensity values of positionally corresponding pixels from all images of the respective image acquisition unit, possibly also the intensity values in the environment of the respective pixels, are used for the determination of the at least one feature value and this is assigned to the position corresponding point in the feature image, in particular
  • each texture information and / or the direction of the surface normal is determined.
  • a reliable estimate can be obtained by making one image for each light configuration and for each image acquisition unit.
  • the surface normal in each point is determined on the basis of the relative position of the light incidence direction relative to the position and orientation of the camera, the surface normal being assigned as a feature value to the respective feature image and / or assigned to the respective spatial point after its determination.
  • each pixelwise a feature value is determined, which results from the intensity values of the images in the position corresponding pixels, wherein the feature value is preferably determined as a weighted sum of the intensity values, in particular
  • a filter is applied to the images prior to the creation of the feature image and that, in the creation of the feature image, instead of the recorded intensity values, those intensity values are used which result after application of the filter. This is particularly advantageously possible when using edge filters or similar filters.
  • a feature value is determined pixel by pixel by
  • a weighted sum of the intensity values of the position-corresponding pixels of the images is determined, each of the intensity values being weighted with a weight value corresponding to the contrast of the respective image within an environment around the pixel or a value derived therefrom,
  • contrast value is determined in particular as
  • FIG. 1 shows an arrangement for receiving a three-dimensional image of a, in particular static, scene.
  • Fig. 2 shows the creation of the feature images from the individual images.
  • Fig. 3 shows a concrete procedure for Creation of a feature vector for one pixel.
  • Fig. 4 shows schematically the search of corresponding points in feature images.
  • FIG. 1 an arrangement for receiving a three-dimensional image of a static scene 3 is shown.
  • This arrangement represents a preferred embodiment of the invention and comprises two image recording units 21, 22 in the form of digital cameras. These image recording units 21, 22 each have a receiving area 210, 220, wherein these two receiving areas 210, 220 have a common overlapping area 200.
  • the arrangement shown in Fig. 1 has a lighting arrangement with three light sources 1 1, 12, 13, which illuminate the scene 3 from different directions.
  • these light sources 1 1, 12, 13 different light configurations can be created, in the present embodiment, three light configurations are present, in each case one of the light sources 1 1, 12, 13 is activated, while the other light sources 1 1, 12, 13 inactive are.
  • each light configuration it is by no means necessary for each light configuration to be assigned in each case exactly one light source 1 1, 12, 13 or exactly a certain number of light sources 1 1, 12, 13, which are inactive in all other light configurations. Rather, it is sufficient that each light configuration differs from every other light configuration in that different light sources 1 1, 12, 13 are activated respectively.
  • the light sources 1 1, 12, 13 are typically controlled by a control unit which activates the light sources 1 1, 12, 13 in such a way that a respective predetermined light configuration is created.
  • the individual light sources 1 1, 12, 13 illuminate the scene 3 from different directions, since surface areas of the scene 3 typically appear differently structured from different illumination directions, so that any superficial structures on the surface of the scene Scene 3 appear in at least one light configuration.
  • the image provided with the reference numeral 41 1 image is created by the first image pickup unit 21 when illuminated with the first light source 1 1.
  • the image provided with the reference numeral 412 is created by the first image pickup unit 21 when illuminated with the second light source 12.
  • the image provided with the reference numeral 413 is created by the first image pickup unit 21 when illuminated with the third light source 13.
  • the image provided with the reference numeral 421 is created by the second image pickup unit 22 when illuminated with the first light source 1 1.
  • the image provided with the reference numeral 422 is created by the second image pickup unit 22 when illuminated with the second light source 12.
  • the image provided with the reference numeral 423 is created by the second image pickup unit 22 when illuminated with the third light source 13.
  • any combination of a light configuration and an image pickup unit 21, 22 it is not necessary for any combination of a light configuration and an image pickup unit 21, 22 to each have a separate image 41 1, 412, 413; 421, 422, 423 to create. Rather, it may also be sufficient for 21 images to be created for a number of light combinations with the first image acquisition unit and images to be created for a not necessarily identical number and quantity of light configurations with the second image acquisition unit 22.
  • the size of the individual images 41 1, 412, 413 created with the first image acquisition unit 21 is the same in each case, so that individual pixels in the individual images 41 1, 412, 413 can be assigned to one another according to location.
  • the first and second image acquisition units 21, 22 can produce images of the same size.
  • the pictures 41 1, 412, 413; 421, 422, 423, which were created by a respective image acquisition unit 21, 22, are each combined to form an image stack 410, 420.
  • a first feature image 51 is created from the images 41 1, 412, 413 created by the first image acquisition unit 21.
  • a second feature image 52 is created from the images 421, 422, 423 created by the second image recording unit 22.
  • the pictures 41 1, 412, 413; 421, 422, 423 from an image stack 410, 420 can be overlaid in different ways during the creation of the respective feature image 51, 52 become.
  • An advantageous procedure in this respect is shown in more detail in FIG.
  • pixel-wise accumulated intensity values of the images 41 1, 412, 413 can be used.
  • the presence of certain structures within an image 41 1, 412, 413; 421, 422, 423 are easily determined simply by the intensity values present in the respective environment of a pixel. For example, it is possible to determine texture information such as the presence or direction of edges within the particular environment. In addition, it is also possible to determine local gradients in order to determine the direction of a surface normal of the recorded part of the surface of the scene 3 in this way.
  • the feature images 51, 52 of the respective image stack 410, 420 for the individual image acquisition units 21, 22 can be created by comparing a number of image pixels of the individual images 41 1, 412, 413; 421, 422, 423 from the image stack of this image pickup unit 21, 22 pixel-by-pixel characteristics are determined based on predetermined rules.
  • Intensity values of positionally corresponding points from all images 41 1, 412, 413; 421, 422, 423 of the respective image stack 410, 420 and possibly also the intensity values from the environment of the respective pixels are used for the determination of the respective feature value and this feature value is assigned to the position corresponding point of the feature image 51, 52.
  • a feature value is calculated in each of the individual position-corresponding points 41 1, 412, 413, in each case within the environment. This is then accumulated for the position corresponding points on the individual images 41 1, 412, 413 and stored in the respective feature image 51.
  • the respective feature image 51 comprises two feature image channels 51 1, 512. In this way, two different features are determined in the present exemplary embodiment and these features are stored in the two different channels of the feature image 51.
  • FIG. 4 shows individual points recorded on the surface of the scene in which superficial structures were detected in the feature images 51, 52.
  • the points shown here are merely a selection of correlating pairs of points in the different feature images, which are selected for the simplified representation of the correspondence analysis. Basically, it is possible for all points of the overlapping recording area of the first Feature image each to determine a corresponding point in the second feature image.
  • a corresponding point 621, 622, 623, 624 in the second feature image 52 is found for the thus-found reference points 61 1, 612, 613, 614 in the first feature image 51, pairs of points each comprising a reference point 61 1, 612, 613 , 614 and the point assigned to it.
  • the surface normals can be determined at the respective point in which the feature value of the feature image corresponding to the surface normal is used.
  • the surface normal is assigned to the respective feature image 51, 52 as a feature value.
  • the feature values of the feature images can be determined pixel by pixel for each pixel, the intensity values from all available images 41 1, 412, 413, 421, 422, 423 are respectively used in the position corresponding pixel and according to a predetermined rule the respective feature value is determined from the intensity values.
  • the feature value can be determined as a weighted average of the intensity values. The intensity values can be weighted more strongly the closer they are to the mean value of the intensity values.
  • the median of the intensity values can also be used as the feature value.
  • the feature value is determined from the value-wise average intensity values by averaging. So it is possible, for example, the n largest and the n smallest values from the amount of Remove intensity values and from the remaining intensity values to form the mean and use as a feature value.
  • images of the same size derived from the recorded images with derived intensity values that have been created by applying a filter to the images originally taken.
  • edge filters can be applied to the originally captured images to highlight structural features.
  • the respective intensity value is weighted with a weight value which corresponds to the derived contrast or is derived therefrom.
  • the calculation of the contrast intensity for an environment around a pixel can be calculated in different ways, whereby the size of the respective environment can also be determined in different ways. Possible methods for determining the contrast are:

Abstract

Die Erfindung betrifft ein Verfahren zur Aufnahme eines dreidimensionalen Abbilds einer, insbesondere statischen, Szene (3) mit - einer Vielzahl von Bildaufnahmeeinheiten (21, 22) mit gemeinsamem überlappendem Aufnahmebereich (200), sowie - einer Beleuchtungsanordnung, mit der eine Vielzahl von unterschiedlichen Lichtkonfigurationen zur Beleuchtung des gemeinsamen Aufnahmebereichs der Bildaufnahmeeinheiten (21, 22) erstellbar ist, - wobei mit jeder der Bildaufnahmeeinheiten (21, 22) jeweils zumindest ein Bild (411, 412, 413, 421, 422, 423) des gemeinsamen Aufnahmebereichs (200) für jeweils eine Anzahl der Lichtkonfigurationen erstellt wird, - wobei für jede Bildaufnahmeeinheit (21, 22) jeweils ein, gegebenenfalls mehrkanaliges, Merkmalsbild (51, 52) erstellt wird, indem die von dieser Bildaufnahmeeinheit (21, 22) erstellten Bilder (411, 412, 413; 421, 422, 423) nach einer vorgegebenen Funktion kombiniert werden, - wobei durch Korrespondenzanalyse für eine Anzahl von Referenzpunkten (611, 612, 613, 614), insbesondere für Punkte des überlappenden Aufnahmebereichs, in einem der Merkmalsbilder (51) jeweils der lageentsprechende Punkt (621, 622, 623, 624) in zumindest einem anderen Merkmalbild (52) ermittelt wird, und - wobei aufgrund der Disparität zwischen den miteinander korrespondierenden Punkte (611, 612, 613, 614; 621, 622, 623, 624) in den einzelnen Merkmalsbildern (51, 52) die dreidimensionale Lage des in den Punkten (611, 612, 613, 614; 621, 622, 623, 624) abgebildeten Raumpunkts ermittelt wird.

Description

Fotometrisches Stereomatching
Die Erfindung betrifft ein Verfahren zur Aufnahme eines dreidimensionalen Abbilds einer Szene gemäß dem Patentanspruch 1 .
Bei aus dem Stand der Technik bekannten Methoden besteht das Problem, dass in Bereichen der Szene, die im jeweils aufgenommenen Bild bei einer bestimmten Beleuchtung homogen erscheinen, ein Stereo-Matching nicht möglich ist. Dies führt dazu, dass in größeren Bereichen der Szene keine Zuordnung zwischen einzelnen Punkten möglich ist, was insgesamt die Genauigkeit des dreidimensionalen Abbilds verschlechtert. Aufgabe der Erfindung ist es daher, ein Verfahren bereitzustellen, bei dem die Szene in höherer Auflösung dargestellt werden kann.
Die Erfindung löst diese Aufgabe mit den Merkmalen des Patentanspruchs 1 . Die Erfindung sieht vor
- eine Vielzahl von Bildaufnahmeeinheiten mit gemeinsamem überlappendem Aufnahmebereich, sowie
- eine Beleuchtungsanordnung, mit der eine Vielzahl von unterschiedlichen Lichtkonfigurationen zur Beleuchtung des gemeinsamen Aufnahmebereichs der Bildaufnahmeeinheiten erstellbar ist,
- wobei mit jeder der Bildaufnahmeeinheiten jeweils zumindest ein Bild des gemeinsamen Aufnahmebereichs für jeweils eine Anzahl der Lichtkonfigurationen erstellt wird,
- wobei für jede Bildaufnahmeeinheit jeweils ein, gegebenenfalls mehrkanaliges, Merkmalsbild erstellt wird, indem die von dieser Bildaufnahmeeinheit erstellten Bilder nach einer vorgegebenen Funktion kombiniert werden,
- wobei durch Korrespondenzanalyse für eine Anzahl von Referenzpunkten, insbesondere für Punkte des überlappenden Aufnahmebereichs, in einem der Merkmalsbilder jeweils der lageentsprechende Punkt in zumindest einem anderen Merkmalbild ermittelt wird, und
- wobei aufgrund der Disparität zwischen den miteinander korrespondierenden Punkte in den einzelnen Merkmalsbildern die dreidimensionale Lage des in den Punkten abgebildeten Raumpunkts ermittelt wird.
Durch diese Maßnahmen können mehr signifikante Strukturen in größeren Bereichen der Szene ermittelt werden, sodass insgesamt mehr korrespondierende Punkte in den Bildern aufgefunden werden können. Dadurch können dreidimensionale Abbilder mit höherer Genauigkeit und Vollständigkeit erstellt werden. Um signifikante Strukturen besser hervorheben zu können, kann vorgesehen sein, dass die Merkmalsbilder für jede der Bildaufnahmeeinheiten erstellt werden, indem für eine Anzahl von Bildpunkten der einzelnen Bilder jeweils derselben Bildaufnahmeeinheit, insbesondere für alle Bildpunkte,
- Intensitätswerte einander lageentsprechender Bildpunkte aus allen Bildern der jeweiligen Bildaufnahmeeinheit, gegebenenfalls auch die Intensitätswerte in der Umgebung der jeweiligen Bildpunkte, für die Bestimmung des zumindest einen Merkmalswertes herangezogen werden und dieser dem lageentsprechenden Punkt im Merkmalsbild zugeordnet wird, wobei insbesondere
- für jeden der Bildpunkte jeweils nach einer vorgegebenen Vorschrift aus den Intensitätswerten lageentsprechender Bildpunkte, gegebenenfalls aus deren jeweiligen Umgebungen, jeweils Texturinformation und/oder die Richtung der Flächennormale ermittelt wird.
Um die Erstellung unterschiedlicher Beleuchtungskonfigurationen bei gleichzeitig einfachem Aufbau zu ermöglichen, kann vorgesehen sein, dass für jede Lichtkonfiguration jeweils eine dieser Konfiguration zugeordnete Anzahl von Lichtquellen aktiviert wird, wobei für jede Lichtkonfiguration eine eigene Lichtquelle verwendet wird.
Eine zuverlässige Schätzung kann erzielt werden, indem für jede Lichtkonfiguration und für jede Bildaufnahmeeinheit jeweils ein Bild erstellt wird.
Eine vorteilhafte Heranziehung der Oberflächennormale zur Verbesserung des Stereo- Matchings sowie zur verbesserten Hervorhebung von signifikanten Strukturen kann so sehr effizient und exakt vorgenommen werden, indem für jede der Lichtkonfigurationen jeweils die Richtung, in der das Licht auf die Szene trifft bekannt ist, und dass für jede der Bildaufnahmeeinheiten jeweils die relative Lage und Ausrichtung zur Szene bekannt ist, und
dass aufgrund der relativen Lage der Lichteinfallrichtung zur Lage und Ausrichtung der Kamera die Oberflächennormalen in jedem Punkt ermittelt wird, wobei die Oberflächennormale als Merkmalswert dem jeweiligen Merkmalsbild zugeordnet wird und/oder dem jeweiligen Raumpunkt nach dessen Ermittlung zugeordnet wird.
Um vorteilhafte Merkmalsbilder zu erhalten, die gegenüber einzelnen Variationen, die durch unterschiedliche Beleuchtung verursacht wurden, stabil sind, kann vorgesehen sein, dass zur Erstellung der Merkmalsbilder jeweils pixelweise ein Merkmalswert ermittelt wird, der sich aus den Intensitätswerten der Bilder im lageentsprechenden Pixel ergibt, wobei der Merkmalswert vorzugsweise als gewichtete Summe der Intensitätswerte ermittelt wird, insbesondere
a) wobei sich die Gewichte, mit denen die Intensitätswerte gewichtet werden, aus den einzelnen Intensitätswerten selbst ergeben, und/oder Intensitätswerte, die näher beim Mittelwert liegen stärker gewichtet werden, oder
b) wobei als Merkmalswert der Median herangezogen wird, oder ein Mittelwert aus einer Menge von Intensitätswerten herangezogen wird, bei der eine Anzahl der größten oder kleinsten Intensitätswerte ausgeschlossen wird.
Zur Erhöhung der Erkennungsgenauigkeit kann vorgesehen sein, dass auf die Bilder vor der Erstellung des Merkmalsbilds ein Filter angewendet wird und bei der Erstellung des Merkmalsbilds anstelle der aufgenommenen Intensitätswerte solche Intensitätswerte herangezogen werden, die sich nach Anwendung des Filters ergeben. Dies ist insbesondere bei der Verwendung von Kantenfiltern oder ähnlichen Filtern besonders vorteilhaft möglich.
Um vorteilhafte Merkmalsbilder mit hohem Kontrast zu erhalten, kann vorgesehen sein, dass bei der Erstellung eines Merkmalsbilds pixelweise ein Merkmalswert ermittelt wird, indem
eine gewichtete Summe der Intensitätswerte der lageentsprechenden Pixel der Bilder ermittelt wird, wobei jeder der Intensitätswerte mit einem Gewichtswert gewichtet wird, der dem Kontrast des jeweiligen Bilds innerhalb einer Umgebung um das Pixel oder einem davon abgeleiteten Wert entspricht,
wobei der Kontrastwert insbesondere ermittelt wird, als
a) Differenz zwischen maximalem und minimalem Intensitätswert innerhalb der Umgebung,
b) maximale Differenz zwischen dem Intensitätswert des Pixels und einem Pixel innerhalb seiner Umgebung,
c) Varianz der Intensitätswerte innerhalb der Umgebung.
Eine bevorzugte Ausführungsform der Erfindung ist in den folgenden Zeichnungsfiguren näher dargestellt. Fig. 1 zeigt eine Anordnung zur Aufnahme eines dreidimensionalen Abbilds einer, insbesondere statischen, Szene. Fig. 2 zeigt die Erstellung der Merkmalsbilder aus den einzelnen Bildern. Fig. 3 zeigt eine konkrete Vorgehensweise zur Erstellung eines Merkmalsvektors aus für einen Bildpunkt. Fig. 4 zeigt schematisch die Suche korrespondierender Punkte in Merkmalsbildern.
In Fig. 1 ist eine Anordnung zur Aufnahme eines dreidimensionalen Abbilds einer statischen Szene 3 dargestellt. Diese Anordnung stellt eine bevorzugte Ausführungsform der Erfindung dar und umfasst zwei Bildaufnahmeeinheiten 21 , 22 in Form von Digitalkameras. Diese Bildaufnahmeeinheiten 21 , 22 weisen jeweils einen Aufnahmebereich 210, 220 auf, wobei diese beiden Aufnahmebereiche 210, 220 einen gemeinsamen Überlappungsbereich 200 aufweisen.
Darüber hinaus verfügt die in Fig. 1 dargestellte Anordnung über eine Beleuchtungsanordnung mit drei Lichtquellen 1 1 , 12, 13, die die Szene 3 aus unterschiedlichen Richtungen beleuchten. Mit diesen Lichtquellen 1 1 , 12, 13 können unterschiedliche Lichtkonfigurationen erstellt werden, wobei im vorliegenden Ausführungsbeispiel drei Lichtkonfigurationen vorhanden sind, bei der jeweils eine der Lichtquellen 1 1 , 12, 13 aktiviert ist, während die übrigen Lichtquellen 1 1 , 12, 13 inaktiv sind. Insgesamt ist es jedoch keineswegs erforderlich, dass jeder Lichtkonfiguration jeweils genau eine Lichtquelle 1 1 , 12, 13 oder genau eine bestimmte Anzahl von Lichtquellen 1 1 , 12, 13 zugeordnet ist, die bei allen übrigen Lichtkonfigurationen inaktiv geschaltet sind. Es ist vielmehr ausreichend, dass sich jede Lichtkonfiguration von jeder anderen Lichtkonfiguration dadurch unterscheidet, dass unterschiedliche Lichtquellen 1 1 , 12, 13 jeweils aktiviert werden. Die Lichtquellen 1 1 , 12, 13 werden typischerweise durch eine Steuereinheit angesteuert, die die Lichtquellen 1 1 , 12, 13 derart aktiviert, dass jeweils eine ihr vorgegebene Lichtkonfiguration erstellt wird.
Grundsätzlich ist es bei allen Ausführungsbeispielen der Erfindung vorteilhaft, wenn die einzelnen Lichtquellen 1 1 , 12, 13 die Szene 3 von unterschiedlichen Richtungen her beleuchten, da Oberflächenbereiche der Szene 3 typischerweise aus unterschiedlichen Beleuchtungsrichtungen unterschiedlich strukturiert erscheinen, sodass allfällige oberflächliche Strukturen auf der Oberfläche der Szene 3 bei zumindest einer Lichtkonfigurationen erscheinen.
In Fig. 2 werden die einzelnen von den Bildaufnahmeeinheiten 21 , 22 erstellten Bilder 41 1 , 412, 413; 421 , 422, 423 dargestellt. Das mit dem Bezugszeichen 41 1 versehene Bild wird von der ersten Bildaufnahmeeinheit 21 bei Beleuchtung mit der ersten Lichtquelle 1 1 erstellt. Das mit dem Bezugszeichen 412 versehene Bild wird von der ersten Bildaufnahmeeinheit 21 bei Beleuchtung mit der zweiten Lichtquelle 12 erstellt. Das mit dem Bezugszeichen 413 versehene Bild wird von der ersten Bildaufnahmeeinheit 21 bei Beleuchtung mit der dritten Lichtquelle 13 erstellt. Das mit dem Bezugszeichen 421 versehene Bild wird von der zweiten Bildaufnahmeeinheit 22 bei Beleuchtung mit der ersten Lichtquelle 1 1 erstellt. Das mit dem Bezugszeichen 422 versehene Bild wird von der zweiten Bildaufnahmeeinheit 22 bei Beleuchtung mit der zweiten Lichtquelle 12 erstellt. Das mit dem Bezugszeichen 423 versehene Bild wird von der zweiten Bildaufnahmeeinheit 22 bei Beleuchtung mit der dritten Lichtquelle 13 erstellt.
Durch diese Maßnahme wird erreicht, dass für jede Lichtkonfiguration, im vorliegenden Fall bei Aktivierung jeder Lichtquelle, und für jede Bildaufnahmeeinheit 21 , 22 jeweils separat ein Bild 41 1 , 412, 413; 421 , 422, 423 vorliegt.
Im Allgemeinen ist es nicht erforderlich, für jede beliebige Kombination einer Lichtkonfiguration und einer Bildaufnahmeeinheit 21 , 22 jeweils ein separates Bild 41 1 , 412, 413; 421 , 422, 423 zu erstellen. Vielmehr kann es auch ausreichen, dass für eine Anzahl von Lichtkombinationen mit der ersten Bildaufnahmeeinheit 21 Bilder erstellt werden und für eine nicht notwendigerweise idente Anzahl und Menge von Lichtkonfigurationen mit der zweiten Bildaufnahmeeinheit 22 jeweils Bilder erstellt werden.
Aus den jeweils mit derselben Bildaufnahmeeinheit 21 , 22 erstellten Bildern 41 1 , 412, 413; 421 , 422, 423 werden Merkmalsbilder 51 , 52 erstellt. In dieser bevorzugten Ausführungsform der Erfindung ist die Größe der mit der ersten Bildaufnahmeeinheit 21 erstellten einzelnen Bilder 41 1 , 412, 413 jeweils gleich, sodass einzelne Pixel in den einzelnen Bildern 41 1 , 412, 413 einander lageentsprechend zugeordnet werden können. Dasselbe gilt auch für die von der zweiten Bildaufnahmeeinheit 22 erstellten Bilder 421 , 422, 423. Darüber hinaus ist es auch möglich, dass die erste und zweite Bildaufnahmeeinheit 21 , 22 Bilder von gleicher Größe erstellen.
Die Bilder 41 1 , 412, 413; 421 , 422, 423, die von jeweils einer Bildaufnahmeeinheit 21 , 22 erstellt wurden, werden jeweils zu einem Bildstapel 410, 420 zusammengefasst. Innerhalb des ersten Bildstapels 410 wird aus den von der ersten Bildaufnahmeeinheit 21 erstellten Bildern 41 1 , 412, 413 ein erstes Merkmalsbild 51 erstellt. Innerhalb des zweiten Bildstapels 420 wird aus den von der zweiten Bildaufnahmeeinheit 22 erstellten Bildern 421 , 422, 423 ein zweites Merkmalsbild 52 erstellt.
Die Bilder 41 1 , 412, 413; 421 , 422, 423 aus einem Bildstapel 410, 420 können bei der Erstellung des jeweiligen Merkmalsbilds 51 , 52 auf unterschiedliche Weise überlagert werden. Ein diesbezüglich vorteilhaftes Vorgehen ist in Fig. 3 näher dargestellt. Für die Bildung der Intensitätswerte des Merkmalsbilds können pixelweise akkumulierte Intensitätswerte der Bilder 41 1 , 412, 413 herangezogen werden.
Typischerweise kann das Vorhandensein bestimmter Strukturen innerhalb eines Bildes 41 1 , 412, 413; 421 , 422, 423 einfach anhand der in der jeweiligen Umgebung eines Bildpunktes vorhandenen Intensitätswerte einfach festgestellt werden. So ist es beispielsweise möglich, innerhalb der jeweiligen Umgebung Texturinformationen wie beispielsweise das Vorhandensein oder die Richtung von Kanten festzustellen. Darüber hinaus ist es auch möglich, lokale Gradienten zu ermitteln, um auf diese Weise die Richtung einer Oberflächennormale des aufgenommenen Teils der Oberfläche der Szene 3 zu ermitteln. Die Merkmalsbilder 51 , 52 des jeweiligen Bildstapels 410, 420 für die einzelnen Bildaufnahmeeinheiten 21 , 22 können erstellt werden, indem für eine Anzahl von Bildpunkten der einzelnen Bilder 41 1 , 412, 413; 421 , 422, 423 aus dem Bildstapel dieser Bildaufnahmeeinheit 21 , 22 bildpunktweise Merkmale anhand vorgegebener Vorschriften ermittelt werden. Intensitätswerte einander lageentsprechender Punkte aus allen Bildern 41 1 , 412, 413; 421 , 422, 423 des jeweiligen Bildstapels 410, 420 sowie gegebenenfalls auch die Intensitätswerte aus der Umgebung der jeweiligen Bildpunkte werden für die Bestimmung des jeweiligen Merkmalswerts herangezogen und dieser Merkmalswert wird dem lageentsprechenden Punkt des Merkmalsbilds 51 , 52 zugeordnet.
Wie in Fig. 3 dargestellt, wird in den einzelnen zueinander lageentsprechenden Punkten 41 1 , 412, 413 jeweils innerhalb der Umgebung ein Merkmalswert errechnet. Dieser wird anschließend für die lageentsprechenden Punkte über die einzelnen Bilder 41 1 , 412, 413 akkumuliert und im jeweiligen Merkmalsbild 51 abgespeichert. Im vorliegenden Fall umfasst das jeweilige Merkmalsbild 51 zwei Merkmalsbildkanäle 51 1 , 512. Auf diese Weise werden im vorliegenden Ausführungsbeispiel zwei unterschiedliche Merkmale ermittelt und diese Merkmale werden in den beiden unterschiedlichen Kanälen des Merkmalsbilds 51 abgespeichert.
In Fig. 4 sind einzelne auf der Oberfläche der Szene aufgenommene Punkte dargestellt, in denen oberflächliche Strukturen in den Merkmalsbildern 51 , 52 detektiert wurden. Bei den hier dargestellten Punkten handelt es sich lediglich um eine Auswahl von miteinander korrelierenden Punktepaaren in den unterschiedlichen Merkmalsbildern, die zur vereinfachten Darstellung der Korrespondenzanalyse ausgewählt werden. Grundsätzlich ist es möglich, für alle Punkte des überlappenden Aufnahmebereichs des ersten Merkmalsbilds jeweils einen korrespondierenden Punkt im zweiten Merkmalsbild zu ermitteln.
Durch Korrespondenzanalyse wird für die so aufgefundenen Referenzpunkte 61 1 , 612, 613, 614 im ersten Merkmalsbild 51 jeweils ein korrespondierender Punkt 621 , 622, 623, 624 im zweiten Merkmalsbild 52 aufgefunden, es werden Punktpaare umfassend je einen Referenzpunkt 61 1 , 612, 613, 614 sowie den ihm jeweils zugeordneten Punkt erstellt.
In einem abschließenden Schritt kann für jedes derart aufgefundene Punktepaar aufgrund der Disparität zwischen den beiden miteinander korrespondierenden Punkten 61 1 , 612, 613, 614; 621 , 622, 623, 624 in den einzelnen Merkmalsbildern 51 , 52 die dreidimensionale Lage der in den Punkten 61 1 , 612, 613, 614; 621 , 622, 623, 624 der Punktpaare abgebildeten Raumpunkte der Szene 3 ermittelt werden.
Ferner ist es auch möglich, dass für jede der Lichtkonfigurationen jeweils die Richtung, in der das Licht auf die Szene trifft, bekannt ist und dass auch für jede der Bildaufnahmeeinheiten 21 , 22 jeweils die relative Lage und Ausrichtung zu den Lichtkonfigurationen bzw Lichtquellen 1 1 , 12, 13 oder zur Szene 3 bekannt ist. Aufgrund dieser relativen Lage der Lichteinfallrichtung zur Lage und Ausrichtung der Bildaufnahmeeinheiten 21 , 22 können die Oberflächennormalen in dem jeweiligen Punkt ermittelt werden, in dem jeweils der der Flächennormale entsprechende Merkmalswert des Merkmalsbilds herangezogen wird. Die Oberflächennormale wird dem jeweiligen Merkmalsbild 51 , 52 als Merkmalswert zugeordnet.
In einer bevorzugten Ausführungsform der Erfindung können die Merkmalswerte der Merkmalsbilder pixelweise ermittelt werden, indem für jedes Pixel die Intensitätswerte aus allen zur Verfügung stehenden Bildern 41 1 , 412, 413, 421 , 422, 423 jeweils im lageentsprechenden Pixel herangezogen werden und nach einer vorgegebenen Vorschrift der jeweilige Merkmalswert aus den Intensitätswerten ermittelt wird. So lässt sich beispielsweise der Merkmalswert als gewichteter Mittelwert der Intensitätswerte ermitteln. Die Intensitätswerte können dabei umso stärker gewichtet werden, je näher sie sich beim Mittelwert der Intensitätswerte befinden.
Alternativ kann als Merkmalswert auch der Median der Intensitätswerte herangezogen werden. Alternativ besteht auch die Möglichkeit, dass der Merkmalswert aus den wertmäßig mittleren Intensitätswerten durch Mittelwertbildung ermittelt wird. So ist es beispielsweise möglich, die n größten und die n kleinsten Werte aus der Menge der Intensitätswerte zu entfernen und aus den verbleibenden Intensitätswerten den Mittelwert zu bilden und als Merkmalswert heranzuziehen.
Hierbei besteht auch die Möglichkeit, anstelle der aufgenommenen Bilder abgeleitete Bilder gleicher Größe mit abgeleiteten Intensitätswerten zu verwenden, die durch Anwendung eines Filters auf die ursprünglich aufgenommenen Bilder erstellt wurden. So können beispielsweise Kantenfilter auf die ursprünglich aufgenommenen Bilder angewendet werden, um strukturelle Merkmale besonders gut hervorzuheben. Bei der Erstellung des Merkmalsbilds werden anstelle der ursprünglich aufgenommenen Bilder solche Bilder und deren Intensitätswerte herangezogen, die sich nach Anwendung des Filters ergeben.
Darüber hinaus besteht in einer alternativen Ausführungsform der Erfindung die Möglichkeit, nicht bloß den Intensitätswert des jeweiligen Pixels heranzuziehen, sondern die Pixel innerhalb einer vorgegebenen Umgebung zu betrachten und für die Umgebung des jeweiligen Pixels den Kontrast zu ermitteln. Unter allen lageentsprechenden Pixeln in den Bildern 41 1 , 412, 413, 421 , 422, 423 wird der jeweilige Intensitätswert mit einem Gewichtswert gewichtet, der dem ermittelten Kontrast entspricht oder von diesem abgeleitet ist.
Die Berechnung der Kontraststärke für eine Umgebung rund um ein Pixel kann auf unterschiedliche Weise berechnet werden, wobei auch die Größe der jeweiligen Umgebung auf unterschiedliche Weise festgelegt werden kann. Als mögliche Methoden zur Bestimmung des Kontrastes kommen in Frage:
a) die Differenz zwischen maximalem und minimalem Intensitätswert innerhalb der Umgebung,
b) die maximale Differenz zwischen dem Intensitätswert des Pixels und einem Pixel innerhalb seiner Umgebung,
c) die Varianz der Intensitätswerte innerhalb der Umgebung.
Selbstverständlich ist es im Rahmen der Erfindung auch möglich, eine Anzahl von Pixeln mit dem größten Kontrast zu verwenden und den Intensitätswerten dieser Pixel den Mittelwert zu bilden.

Claims

PCT/AT2016/060025 Patentansprüche:
1 . Verfahren zur Aufnahme eines dreidimensionalen Abbilds einer, insbesondere statischen, Szene (3) mit
- einer Vielzahl von Bildaufnahmeeinheiten (21 , 22) mit gemeinsamem überlappendem Aufnahmebereich (200) , sowie
- einer Beleuchtungsanordnung, mit der eine Vielzahl von unterschiedlichen Lichtkonfigurationen zur Beleuchtung des gemeinsamen Aufnahmebereichs der Bildaufnahmeeinheiten (21 , 22) erstellbar ist,
- wobei mit jeder der Bildaufnahmeeinheiten (21 , 22) jeweils zumindest ein Bild (41 1 , 412, 413, 421 , 422, 423) des gemeinsamen Aufnahmebereichs (200) für jeweils eine Anzahl der Lichtkonfigurationen erstellt wird,
- wobei für jede Bildaufnahmeeinheit (21 , 22) jeweils ein, gegebenenfalls mehrkanaliges, Merkmalsbild (51 , 52) erstellt wird, indem die von dieser Bildaufnahmeeinheit (21 , 22) erstellten Bilder (41 1 , 412, 413; 421 , 422, 423) nach einer vorgegebenen Funktion kombiniert werden,
- wobei durch Korrespondenzanalyse für eine Anzahl von Referenzpunkten (61 1 , 612, 613, 614), insbesondere für Punkte des überlappenden Aufnahmebereichs, in einem der Merkmalsbilder (51 ) jeweils der lageentsprechende Punkt (621 , 622, 623, 624) in zumindest einem anderen Merkmalbild (52) ermittelt wird, und
- wobei aufgrund der Disparität zwischen den miteinander korrespondierenden Punkte (61 1 , 612, 613, 614; 621 , 622, 623, 624) in den einzelnen Merkmalsbildern (51 , 52) die dreidimensionale Lage des in den Punkten (61 1 , 612, 613, 614; 621 , 622, 623, 624) abgebildeten Raumpunkts ermittelt wird.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Merkmalsbilder (51 , 52) für jede der Bildaufnahmeeinheiten (21 , 22) erstellt werden, indem für eine Anzahl von Bildpunkten der einzelnen Bilder (41 1 , 412, 413; 421 , 422, 423) jeweils derselben Bildaufnahmeeinheit (21 ), insbesondere für alle Bildpunkte,
- Intensitätswerte einander lageentsprechender Bildpunkte aus allen Bildern (41 1 , 412, 413; 421 , 422, 423) der jeweiligen Bildaufnahmeeinheit (21 ), gegebenenfalls auch die Intensitätswerte in der Umgebung der jeweiligen Bildpunkte, für die Bestimmung des zumindest einen Merkmalswertes herangezogen werden und dieser dem lageentsprechenden Punkt im Merkmalsbild (51 , 52) zugeordnet wird, wobei insbesondere
- für jeden der Bildpunkte jeweils nach einer vorgegebenen Vorschrift aus den Intensitätswerten lageentsprechender Bildpunkte, gegebenenfalls aus deren jeweiligen PCT/AT2016/060025
Umgebungen, jeweils Texturinformation und/oder die Richtung der Flächennormale ermittelt wird.
3. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass für jede Lichtkonfiguration jeweils eine dieser Konfiguration zugeordnete Anzahl von Lichtquellen (1 1 , 12, 13) aktiviert wird, wobei für jede Lichtkonfiguration eine eigene Lichtquelle (1 1 , 12, 13) verwendet wird.
4. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass für jede Lichtkonfiguration und für jede Bildaufnahmeeinheit (21 , 22) jeweils ein Bild (41 1 , 412, 413; 421 , 422, 423) erstellt wird.
5. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass für jede der Lichtkonfigurationen jeweils die Richtung, in der das Licht auf die Szene trifft bekannt ist, und dass für jede der Bildaufnahmeeinheiten (21 , 22) jeweils die relative Lage und Ausrichtung zur Szene bekannt ist, und
dass aufgrund der relativen Lage der Lichteinfallrichtung zur Lage und Ausrichtung der Kamera die Oberflächennormalen in jedem Punkt ermittelt wird, wobei die Oberflächennormale als Merkmalswert dem jeweiligen Merkmalsbild (51 , 52) zugeordnet wird und/oder dem jeweiligen Raumpunkt nach dessen Ermittlung zugeordnet wird.
6. Verfahren nach einem der Ansprüche 2 bis 5, dadurch gekennzeichnet, dass zur Erstellung der Merkmalsbilder (51 , 52) jeweils pixelweise ein Merkmalswert ermittelt wird, der sich aus den Intensitätswerten (41 1 , 412, 413, 421 , 422, 423) der Bilder im lageentsprechenden Pixel ergibt,
wobei der Merkmalswert vorzugsweise als gewichtete Summe der Intensitätswerte ermittelt wird, insbesondere
a) wobei sich die Gewichte, mit denen die Intensitätswerte gewichtet werden, aus den einzelnen Intensitätswerten selbst ergeben, und/oder Intensitätswerte, die näher beim Mittelwert liegen stärker gewichtet werden, oder
b) wobei als Merkmalswert der Median herangezogen wird, oder ein Mittelwert aus einer Menge von Intensitätswerten herangezogen wird, bei der eine Anzahl der größten oder kleinsten Intensitätswerte ausgeschlossen wird.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass auf die Bilder vor der Erstellung des Merkmalsbilds ein Filter angewendet wird und bei der Erstellung des PCT/AT2016/060025
Merkmalsbilds anstelle der aufgenommenen Intensitätswerte solche Intensitätswerte herangezogen werden, die sich nach Anwendung des Filters ergeben.
8. Verfahren nach einem der Ansprüche 2 bis 6, dadurch gekennzeichnet, dass bei der Erstellung eines Merkmalsbilds (51 , 52) pixelweise ein Merkmalswert ermittelt wird, indem eine gewichtete Summe der Intensitätswerte der lageentsprechenden Pixel der Bilder (41 1 , 412, 413, 421 , 422, 423) ermittelt wird, wobei jeder der Intensitätswerte mit einem Gewichtswert gewichtet wird, der dem Kontrast des jeweiligen Bilds innerhalb einer Umgebung um das Pixel oder einem davon abgeleiteten Wert entspricht,
wobei der Kontrastwert insbesondere ermittelt wird, als
a) Differenz zwischen maximalem und minimalem Intensitätswert innerhalb der Umgebung,
b) maximale Differenz zwischen dem Intensitätswert des Pixels und einem Pixel innerhalb seiner Umgebung,
c) Varianz der Intensitätswerte innerhalb der Umgebung.
PCT/AT2016/060025 2015-08-20 2016-08-02 Fotometrisches stereomatching WO2017027895A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
ATA554/2015 2015-08-20
ATA554/2015A AT517656A1 (de) 2015-08-20 2015-08-20 Fotometrisches Stereomatching

Publications (1)

Publication Number Publication Date
WO2017027895A1 true WO2017027895A1 (de) 2017-02-23

Family

ID=56852019

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/AT2016/060025 WO2017027895A1 (de) 2015-08-20 2016-08-02 Fotometrisches stereomatching

Country Status (2)

Country Link
AT (1) AT517656A1 (de)
WO (1) WO2017027895A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3627097A4 (de) * 2017-05-18 2021-01-06 Shanghai Parasol Renewable Energy Co., Ltd Mehransichtsbilderkennungsbasiertes heliostat-oberflächenformmesssystem und -verfahren

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021105795A1 (de) 2021-03-10 2022-09-15 Carl Zeiss Microscopy Gmbh Verfahren und vorrichtung zur stereoskopie

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130287293A1 (en) * 2010-09-16 2013-10-31 Siemens Corporation Active Lighting For Stereo Reconstruction Of Edges
US20130329015A1 (en) * 2012-06-07 2013-12-12 Kari Pulli Techniques for generating robust stereo images

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101259835B1 (ko) * 2009-06-15 2013-05-02 한국전자통신연구원 깊이 정보를 생성하기 위한 장치 및 방법
US20110222757A1 (en) * 2010-03-10 2011-09-15 Gbo 3D Technology Pte. Ltd. Systems and methods for 2D image and spatial data capture for 3D stereo imaging
KR101792501B1 (ko) * 2011-03-16 2017-11-21 한국전자통신연구원 특징기반의 스테레오 매칭 방법 및 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130287293A1 (en) * 2010-09-16 2013-10-31 Siemens Corporation Active Lighting For Stereo Reconstruction Of Edges
US20130329015A1 (en) * 2012-06-07 2013-12-12 Kari Pulli Techniques for generating robust stereo images

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DAVIS J E ET AL: "BRDF Invariant Stereo Using Light Transport Constancy", COMPUTER VISION, 2005. ICCV 2005. TENTH IEEE INTERNATIONAL CONFERENCE ON BEIJING, CHINA 17-20 OCT. 2005, PISCATAWAY, NJ, USA,IEEE, LOS ALAMITOS, CA, USA, vol. 1, 17 October 2005 (2005-10-17), pages 436 - 443, XP010854820, ISBN: 978-0-7695-2334-7, DOI: 10.1109/ICCV.2005.51 *
FERIS R ET AL: "Multiflash Stereopsis: Depth-Edge-Preserving Stereo with Small Baseline Illumination", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, IEEE COMPUTER SOCIETY, USA, vol. 30, no. 1, 1 January 2008 (2008-01-01), pages 147 - 159, XP011202082, ISSN: 0162-8828 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3627097A4 (de) * 2017-05-18 2021-01-06 Shanghai Parasol Renewable Energy Co., Ltd Mehransichtsbilderkennungsbasiertes heliostat-oberflächenformmesssystem und -verfahren

Also Published As

Publication number Publication date
AT517656A1 (de) 2017-03-15

Similar Documents

Publication Publication Date Title
DE102012016160A1 (de) Bilderfassung für eine spätere Nachfokussierung oder Fokusmanipulation
DE102011106052B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild unter Verwendung eines nichtlinearen beleuchtungsinvarianten Kerns
DE102011080180A1 (de) Verfahren zur Registrierung mehrerer dreidimensionaler Aufnahmen eines dentalen Objektes
DE112011103452T5 (de) Verfahren zum Angleichen von Pixeln einer Entfernungsdarstellung
DE102011011930A1 (de) Verfahren und System zur Bestimmung einer Anzahl von Übergangsobjekten
EP2275989A1 (de) Stereoskopische 3D-Kamera
DE102012209316A1 (de) Verfahren und Vorrichtung zum Verarbeiten von Sensordaten eines Stereosensorsystems
EP1485670A2 (de) Verfahren und vorrichtung zur bestimmung der absolut-koordinaten eines objekts
DE102012023623A1 (de) Verfahren zum Zusammensetzen von Teilaufnahmen einer Oberfläche eines Objektes zu einer Gesamtaufnahme des Objektes und System zum Erstellen einer Gesamtaufnahme eines Objektes
DE102018127754A1 (de) Verfahren und Vorrichtung zum Inspizieren einer Objektoberfläche, insbesondere zum Inspizieren der Oberfläche eines Pulverbettes mit einer Vielzahl von Pulverpartikeln
WO2017027895A1 (de) Fotometrisches stereomatching
DE102018101023B3 (de) Verfahren zur Abstandsmessung mittels trajektoriebasierter Triangulation
EP3158285B1 (de) Verfahren zur ermittlung eines räumlichen verschiebungsvektorfeldes
DE3905234C2 (de)
DE102011082881A1 (de) Darstellung der Umgebung eines Kraftfahrzeugs in einer bestimmten Ansicht unter Verwendung räumlicher Information
DE102019123458B4 (de) Verfahren zur Vermessung eines dreidimensionalen Objekts, insbesondere eines Körperteils
DE102012222505A1 (de) Verfahren zum Erfassen dreidimensionaler Daten eines zu vermessenden Objekts, Verwendung eines derartigen Verfahrens zur Gesichtserkennung und Vorrichtung zur Durchführung eines derartigen Verfahrens
DE102009024030B3 (de) Verfahren zur optischen Ermittlung von geometrischen Oberflächenmerkmalen
DE102015112411A1 (de) System zur stereoskopischen Darstellung von Aufnahmen eines Endoskops
DE102015011674A1 (de) Verfahren zur Tiefenfilterung von Tiefenbildern
DE102012025463A1 (de) Verfahren zum Bestimmen eines Bewegungsparameters eines Kraftfahrzeugs durch Auffinden von invarianten Bildregionen in Bildern einer Kamera des Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102015003537A1 (de) Blockierungsdetektionsverfahren für eine kamera und eine elektronische vorrichtung mit kameras
EP3561772A1 (de) Verfahren zur kalibrierung einer zeilenbildaufnahmeeinheit
WO2018211057A1 (de) Marker basierter kamera-tracker
DE102012100848A1 (de) System zur stereoskopischen Darstellung von Aufnahmen eines Endoskops

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16759668

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16759668

Country of ref document: EP

Kind code of ref document: A1