DE102015011427B4 - Image acquisition system and image evaluation system - Google Patents

Image acquisition system and image evaluation system Download PDF

Info

Publication number
DE102015011427B4
DE102015011427B4 DE102015011427.1A DE102015011427A DE102015011427B4 DE 102015011427 B4 DE102015011427 B4 DE 102015011427B4 DE 102015011427 A DE102015011427 A DE 102015011427A DE 102015011427 B4 DE102015011427 B4 DE 102015011427B4
Authority
DE
Germany
Prior art keywords
image
points
light field
evaluation system
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102015011427.1A
Other languages
German (de)
Other versions
DE102015011427A1 (en
Inventor
Patentinhaber gleich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE102015011427.1A priority Critical patent/DE102015011427B4/en
Publication of DE102015011427A1 publication Critical patent/DE102015011427A1/en
Application granted granted Critical
Publication of DE102015011427B4 publication Critical patent/DE102015011427B4/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)

Abstract

Bildaufnahmesystem und Bildauswertesystem (10) zur Bestimmung von geometrischen Raumpunkten und/oder Objektpunkten, mit einer Lichtfeldkamera (12) und mit einer Auswerteeinheit (20), die dazu ausgebildet ist, aus den Daten der Lichtfeldkamera 3D Koordinaten zu ausgewählten Objektpunkten und/oder Raumpunkten zu bestimmen, dadurch gekennzeichnet, dass in einer nachfolgenden Auswertung über eine Phasenrekonstruktion eine Wellenfront bestimmt wird und aus der Wellenfront für die ausgewählten Raumpunkte und/oder Objektpunkte neue 3D Koordinaten mit verbesserter Auflösung bestimmt werden.

Figure DE102015011427B4_0000
Image recording system and image evaluation system (10) for determining geometric points in space and / or object points, with a light field camera (12) and with an evaluation unit (20), which is adapted from the data of the light field camera 3D coordinates to selected object points and / or space points determine, characterized in that in a subsequent evaluation via a phase reconstruction, a wavefront is determined and from the wavefront for the selected space points and / or object points new 3D coordinates are determined with improved resolution.
Figure DE102015011427B4_0000

Description

HINTERGRUND DER ERFINDUNGBACKGROUND OF THE INVENTION

GEBIET DER ERFINDUNGFIELD OF THE INVENTION

Die vorliegende Erfindung betrifft ein Bildaufnahmesystem und Bildauswertesystem zur Bestimmung von geometrischen Raumpunkten und/oder Objektpunkten, mit einer Lichtfeldkamera und mit einer Auswerteeinheit, die dazu ausgebildet ist, aus den Daten der Lichtfeldkamera 3D Koordinaten zu ausgewählten Objektpunkten und/oder Raumpunkten zu bestimmenThe present invention relates to an image acquisition system and image evaluation system for determining geometric points in space and / or object points, with a light field camera and with an evaluation unit, which is adapted to determine from the data of the light field camera 3D coordinates to selected object points and / or space points

Die Erfindung betrifft ferner ein Verfahren zum Betrieb eines Bildaufnahmesystems und Bildauswertesystems zur Bestimmung von geometrischen Raumpunkten und/oder Objektpunkten, mit den Schritten: Ausrichten des Bildaufnahmesystems mit der Lichtfeldkamera auf den zu erfassenden Messbereich, Aufnehmen eines Bildes mit der Lichtfeldkamera, Bestimmen von 3D Koordinaten zu ausgewählten Raumpunkten und/oder Objektpunkten aus den Bilddaten der Lichtfeldkamera.The invention further relates to a method for operating an image acquisition system and image evaluation system for determining geometric spatial points and / or object points, comprising the steps of aligning the image acquisition system with the light field camera to the measurement area to be acquired, taking an image with the light field camera, determining 3D coordinates selected spatial points and / or object points from the image data of the light field camera.

STAND DER TECHNIKSTATE OF THE ART

Im Stand der Technik sind unterschiedliche Bildaufnahmesysteme bekannt, die 3D Koordinaten für ausgewählte Raumpunkte und/oder Objektpunkte erfassen können.In the prior art, different image acquisition systems are known, which can capture 3D coordinates for selected spatial points and / or object points.

Die Aufnahme von Bildstapeln oder Schichtbildern, die jeweils mit unterschiedlichem Abstand vom Messobjekt aufgenommen werden, sind eine verbreitete Methode. Je nach gewünschter Tiefenauflösung wird der Abstand zwischen den einzelnen Bildern gewählt und typischerweise wird für den gesamten Bildstapel der gleiche Abstand verwendet.The recording of image stacks or layer images, which are each recorded at different distances from the measurement object, are a common method. Depending on the desired depth resolution, the distance between the individual images is selected and typically the same distance is used for the entire image stack.

Ferner kommen kamerabasierte stereoskopische Messverfahren zur Anwendung. Bei bekannter Anordnung der mindestens 2 Kameras zueinander werden in der nachgeordneten Bildauswertung über Triangulationsbeziehungen dann 3D Koordinaten zu ausgewählten Raumpunkten und/oder Objektpunkten bestimmt. Derartige Systeme werden beispielsweise zur Vermessung technischer Objekte in der industriellen Messtechnik oder in der Medizintechnik eingesetzt.Furthermore, camera-based stereoscopic measuring methods are used. In the case of a known arrangement of the at least two cameras relative to one another, 3D coordinates for selected spatial points and / or object points are then determined in the downstream image analysis via triangulation relationships. Such systems are used for example for the measurement of technical objects in industrial metrology or in medical technology.

Das Triangulationsprinzip wird auch bei plenoptischen Kameras angewendet. Die Begriffe plenoptische Kamera und Lichtfeldkamera werden zum Teil auch synonym verwendet. Eine plenoptische Kamera oder auch Lichtfeldkamera erfasst im Unterschied zu „normalen“ Kameras nicht nur die Lichtintensität des durch eine Optik auf die einzelnen Pixel eines Bildsensors auftreffenden Lichtfeldes in 2D, sondern zusätzlich auch die Richtung der Lichtstrahlen aus denen das erfasste Lichtfeld besteht. Folglich spricht man bei plenoptischen Kameras bzw. Lichtfeldkameras zum Teil von einer 4D-Erfassung des Lichtfeldes. Erreicht wird dies typischerweise dadurch, dass zwischen dem Objektiv und dem Bildaufnahmesensor zusätzlich ein Array von Mikrolinsen angeordnet ist. Jede Linse dieses Mikrolinsenarrays bildet das vom Objektiv erfasste Lichtfeld ausschnittsweise auf einen Teilbereich des Bildaufnahmesensors ab. Der plenoptische Sensor der plenoptischen Kamera, der aus Mikrolinsenarray und Bildaufnahmesensor besteht, wird über die Linsen des Mikrolinsenarrays faktisch in eine Vielzahl lateral benachbarter, getrennter Mikrokameras aufgeteilt. Die von benachbarten Mikrokameras aufgenommen Bilder überlappen dann zumindest teilweise. Die Bilder der benachbarten Mikrokameras sind abhängig von der Einfallsrichtung der Lichtstrahlen gegeneinander verschoben und können zudem verzerrt erscheinen. Daher ist es möglich, neben der 2D-Position von Raumpunkten und/oder Objektpunkten auch noch deren Entfernung von der plenoptischen Kamera zu bestimmen. Dazu werden bei der Auswertung Triangulationsalgorithmen eingesetzt, um den ursprünglichen Objektort aus den Bildern mindestens zweier getrennter Mikrokameras zu rekonstruieren. So können zu ausgewählten Raumpunkten und/oder Objektpunkten dann 3D Koordinaten angegeben werden. Plenoptische Kameras sind in den Patenten US 2015 / 0 138 402 A1 , WO 2015 / 100 105 A1 und EP 2 244 484 A1 beschrieben.The triangulation principle is also applied to plenoptic cameras. The terms plenoptic camera and light field camera are sometimes used interchangeably. In contrast to "normal" cameras, a plenoptic camera or even a light field camera not only records the light intensity of the light field in 2D incident on the individual pixels of an image sensor, but also the direction of the light rays from which the detected light field exists. Consequently, one speaks in plenoptic cameras or light field cameras partly from a 4D detection of the light field. This is typically achieved by additionally arranging an array of microlenses between the objective and the image acquisition sensor. Each lens of this microlens array images the light field detected by the lens in sections onto a partial region of the image sensor. The plenoptic sensor of the plenoptic camera, which consists of a microlens array and image acquisition sensor, is in fact divided into a plurality of laterally separated, separate microcameras via the lenses of the microlens array. The images taken by neighboring microcameras then at least partially overlap. The images of the neighboring microcameras are shifted depending on the direction of incidence of the light beams against each other and may also appear distorted. Therefore, it is possible to determine not only the 2D position of spatial points and / or object points but also their distance from the plenoptic camera. For this purpose, triangulation algorithms are used in the evaluation in order to reconstruct the original object location from the images of at least two separate microcameras. Thus, 3D coordinates can be specified for selected spatial points and / or object points. Plenoptic cameras are in the patents US 2015/0 138 402 A1 . WO 2015/100 105 A1 and EP 2 244 484 A1 described.

C. Perwaß et al., in „Single lens 3D-camera with extended depth-of-field“, Proc. SPIE 8291, Human Vision and Electronic Imaging XVII, 829108 (17 Februar 2012); doi: 10.1117/12.909882 beschreiben, dass durch das Platzieren eines Mikrolinsenarrays vor einem Bildsensor aus einer normalen Kamera eine 3D-Kamera mit einem Objektiv gebildet werden kann, bei Fokus und Blickwinkel bei einer Aufnahme eines Bildes im Nachhinein geändert werden können. Während das Konzept solcher plenoptischer Kameras seit 1908 bekannt ist, wurden die praktische Anwendung von plenoptischen Kameras erst aufgrund der heute zur Verfügung stehenden hohen Rechenleistungen und der kostengünstigen Hardware sowie die Fortschritte bei der Herstellung von Mikrolinsen-Arrays möglich. Die Autoren präsentiert eine detaillierte Analyse von plenoptischen Kameras sowie die Einführung einer neuen Art von plenoptischer Kamera mit einer erweiterten Tiefenschärfe und einer maximalen effektiven Auflösung von bis zu einem Viertel der Sensorauflösung.C. Perwaß et al., In "Single-lens 3D camera with extended depth-of-field", Proc. SPIE 8291, Human Vision and Electronic Imaging XVII, 829108 (17 February 2012); doi: 10.1117 / 12.909882 describe that by placing a microlens array in front of an image sensor from a normal camera, a 3D camera can be formed with a lens, can be changed in focus and angle when taking a picture in retrospect. While the concept of such plenoptic cameras has been known since 1908, the practical application of plenoptic cameras has become possible only because of the high computing power and cost-effective hardware available today, as well as the advances in the manufacture of microlens arrays. The authors present a detailed analysis of plenoptic cameras as well as the introduction of a new type of plenoptic camera with an extended depth of focus and a maximum effective resolution of up to a quarter of the sensor resolution.

Ein anderer Ansatz wird bei Triangulationssensoren verfolgt. Verbreitet sind Lasertriangulationssensoren und Sensoren mit Streifenprojektion. Bei Laserprojektionssensoren wird das Messobjekt mit einem in einer Ebene fächerförmig aufgeweiteten Laserstrahl beleuchtet. Das Bildaufnahmesystem mit der Kamera ist um den Triangulationswinkel gegenüber dem Fächer geneigt und symmetrisch zum Fächer angeordnet. Das optische System des Bildaufnahmesystems ist dabei als Scheimpflugsystem ausgeführt. Bei Sensoren zur Streifenprojekten wird ein Streifenmuster auf das Messobjekt projiziert und das auf der Objektoberfläche entstehende Muster mit mindestens einer Kamera aufgenommen. Typische Aufbauten solcher Sensoren und Anwendungen sind in den Schriften WO 2012 / 075 978 A1 , EP 2 282 164 A1 und DE 10 2013 011 848 A1 beschrieben.Another approach is used in triangulation sensors. Widely used are laser triangulation sensors and sensors with fringe projection. With laser projection sensors, the measurement object becomes fan-shaped with one in a plane illuminated expanded laser beam. The image recording system with the camera is inclined by the triangulation angle with respect to the fan and arranged symmetrically to the fan. The optical system of the image recording system is designed as Scheimpflugsystem. In the case of sensors for strip projects, a striped pattern is projected onto the measurement object and the pattern resulting on the object surface is recorded with at least one camera. Typical structures of such sensors and applications are in the scriptures WO 2012/075 978 A1 . EP 2 282 164 A1 and DE 10 2013 011 848 A1 described.

Ferner sind Fokusverfahren bekannt, bei denen ausgewählte Bereiche des Messvolumens in den Fokus der bildaufnehmenden Optik gebracht werden. Zur Erfassung größerer Messvolumen werden dann Bildstapel aus Bildern mit unterschiedlichen Fokuslagen aufgenommen.Furthermore, focus methods are known in which selected areas of the measuring volume are brought into the focus of the image-receiving optics. To capture larger measurement volumes then image stacks are taken from images with different focal positions.

Bei chromatischen Sensoren werden für unterschiedliche Farben des Lichts unterschiedliche Ebenen des Messvolumens scharf auf den Sensor abgebildet. Zur Trennung der Farbinformation wird meist eine konfokale Blende eingesetzt, von der aus das austretende Beleuchtungslicht mit einem optischen System, das einem bekannten Farbfehler in Richtung der optischen Achse aufweist, auf das Messobjekt abgebildet. Für die Wellenlänge, für die der Fokus der Beleuchtung auf der Objektoberfläche liegt, wird das Licht in den Beleuchtungsstrahlengang am effizientes zurück reflektiert und wieder auf die konfokale Blende abgebildet. So wird die Lichtfarbe für das an der Oberfläche reflektierte Licht mit den geringsten Verlusten wieder durch die Blende abgebildet. Hinter der konfokalen Blende wird das zurückkommende Licht spektral ausgewertet. Die Lichtwellenlänge mit der höchsten Intensität repräsentiert die Objektoberfläche. Die Tiefeninformation des Messobjekts erscheint entsprechend der Farbaufspaltung des Lichtes in der Optik in einer Farbcodierung im Bild. Gebräuchlich sind unterschiedliche Ausführungsformen chromatischer Sensoren mit punktförmig, linienförmig oder flächenhaft messenden Sensoren.With chromatic sensors, different levels of the measurement volume are sharply imaged onto the sensor for different colors of the light. For separation of the color information, a confocal diaphragm is usually used, from which the emerging illumination light is imaged onto the measurement object with an optical system which has a known chromatic aberration in the direction of the optical axis. For the wavelength at which the focus of the illumination lies on the object surface, the light is more efficiently reflected back into the illumination beam path and imaged back onto the confocal diaphragm. Thus, the light color for the light reflected at the surface with the least loss is imaged again through the aperture. Behind the confocal aperture, the returning light is spectrally evaluated. The light wavelength with the highest intensity represents the object surface. The depth information of the measurement object appears corresponding to the color splitting of the light in the optics in a color coding in the image. Commonly used are different embodiments of chromatic sensors with punctiform, linear or planar measuring sensors.

Der Aufbau der zuvor beschriebenen plenoptischen Kamera mit einem Mikrolinsenarray ähnelt dem Aufbau eines Hartmann-Shack-Wellenfrontsensors. Hartmann-Shack-Sensoren sind bekannt und werden zur Bestimmung der Wellenfront einer elektromagnetischen Welle eingesetzt. Die Wellenfront enthält die vollständige Information über das gemessene Lichtfeld, also die lateral aufgelöste Amplitudenverteilung und die zugehörige lateral aufgelöste Phasenverteilung an jedem Punkt der Wellenfront. Mit dem Hartmann-Shack-Wellenfrontsensor werden mehrere Bilder jeweils an axial unterschiedlichen Positionen in dem zu vermessenden Lichtfeld aus einzelnen und deutlich getrennten Leuchtpunkten in einem Bildstapel bzw. Schichtbild aufgenommen. Zur Rekonstruktion der Wellenfront aus diesen Schichtbildern bzw. Bildstapeln sind verschiedene Algorithmen zur Phasenrekonstruktion, auch phase retrieval genannt, bekannt. Einer wurde von R.G. Lane in dem Tagungsband der IEEE International Conference on Image Processing im Jahre 1997 in dem Beitrag unter dem Titel „Phase retrieval as a means of wavefront sensing“ veröffentlicht. Das Patent DE 103 27 019 A1 beschreibt die Anwendung der Phasenrekonstruktion für ausgedehnte Lichtverteilungen unbekannter Objekte. Für die rekonstruierte Wellenfront werden anschließend noch Kennzahlen für die Güte der verwendeten Abbildungsoptik bestimmt.The construction of the above-described plenoptic camera with a microlens array is similar to the construction of a Hartmann-Shack wavefront sensor. Hartmann-Shack sensors are known and used to determine the wavefront of an electromagnetic wave. The wavefront contains the complete information about the measured light field, ie the laterally resolved amplitude distribution and the associated laterally resolved phase distribution at each point of the wavefront. With the Hartmann-Shack wavefront sensor, a plurality of images are respectively recorded at axially different positions in the light field to be measured from individual and clearly separated luminous points in an image stack or slice image. To reconstruct the wavefront from these slice images or image stacks, various algorithms for phase reconstruction, also known as phase retrieval, are known. One was published by RG Lane in the conference proceedings of the IEEE International Conference on Image Processing in 1997 in the article entitled "Phase retrieval as a means of wavefront sensing". The patent DE 103 27 019 A1 describes the use of phase reconstruction for extended light distributions of unknown objects. For the reconstructed wavefront, key figures for the quality of the imaging optics used are subsequently determined.

OFFENBARUNG DER ERFINDUNGDISCLOSURE OF THE INVENTION

AUFGABE DER ERFINDUNGOBJECT OF THE INVENTION

Es ist deshalb Aufgabe der vorliegenden Erfindung, ein Bildaufnahmesystem und Bildauswertesystem und ein Verfahren der eingangs genannten Art anzugeben, die auf effiziente Weise eine höhere Messgenauigkeit ermöglichen.It is therefore an object of the present invention to provide an image acquisition system and image evaluation system and a method of the type mentioned, which allow efficient way to a higher measurement accuracy.

TECHNISCHE LÖSUNGTECHNICAL SOLUTION

Gemäß einem Aspekt der vorliegenden Erfindung wird diese Aufgabe durch ein Bildaufnahmesystem und Bildauswertesystem der eingangs genannten Art gelöst, indem in einer nachfolgenden Auswertung über eine Phasenrekonstruktion eine Wellenfront bestimmt wird und aus der Wellenfront für die ausgewählten Raumpunkte und/oder Objektpunkte neue 3D Koordinaten mit verbesserter Auflösung bestimmt werden.According to one aspect of the present invention, this object is achieved by an image acquisition system and image evaluation system of the type mentioned above by determining a wavefront in a subsequent evaluation via a phase reconstruction and new 3D coordinates with improved resolution from the wavefront for the selected spatial points and / or object points be determined.

Gemäß einem weiteren Aspekt der Erfindung wird diese Aufgabe durch ein Verfahren der eingangs genannten Art gelöst, mit den weiteren Schritten: Rekonstruktion der Phasenverteilung des mit der Lichtfeldkamera aufgenommenen Lichtfeldes, Auswerten des rekonstruierten optischen Lichtfeldes zur Bestimmung von 3D Koordinaten für die ausgewählten Raumpunkte und/oder Objektpunkte.According to a further aspect of the invention, this object is achieved by a method of the type mentioned above, with the further steps: reconstruction of the phase distribution of the light field recorded with the light field camera, evaluation of the reconstructed optical light field for determining 3D coordinates for the selected space points and / or object points.

Das neue Bildaufnahmesystem und Bildauswertesystem verwendet eine plenoptische Kamera zur Aufnahme der Messbilder. Die plenoptische Kamera bzw. Lichtfeldkamera besteht dabei aus einer Kombination von plenoptischer Sensoreinheit und einem Objektiv, das ggf. auch wechselbar ausgeführt sein kann.The new image acquisition system and image evaluation system uses a plenoptic camera to record the measurement images. The plenoptic camera or light field camera consists of a combination of plenoptic sensor unit and a lens, which may optionally be designed to be changeable.

Die mit Hilfe der Lichtfeldkamera bestimmten 3D Koordinaten für ausgewählte Raumpunkte und/oder Objektpunkte dienen hierbei als Startwerte für die Rekonstruktion der Phase des mit der Lichtfeldkamera aufgenommenen Lichtfeldes. Aus dem rekonstruierten Lichtfeld werden erneut 3D Koordinaten für die ausgewählten Raumpunkte und/oder Objektpunkte bestimmt und diese repräsentieren die geometrische Lage der ausgewählten Raumpunkte und/oder Messpunkte, die mit Hilfe des neuen Bildaufnahmesystems und Bildauswertesystems bestimmt werden.The 3D coordinates for selected spatial points and / or object points determined with the aid of the light field camera serve as starting values for the reconstruction of the phase of the light field recorded with the light field camera. From the reconstructed light field again 3D coordinates for the selected space points and / or object points are determined and these represent the geometric position of the selected space points and / or measurement points, which are determined using the new image recording system and image evaluation.

Die plenoptische Sensoreinheit besteht zumindest aus einem Bildaufnahmesensor und einem Mikrolinsenarray. Die Anordnung von Bildaufnahmesensor und Mikrolinsenarray zueinander ist bekannt und kann beispielsweise über eine Tragstruktur erfolgen, die auch zur Minimierung thermischer Effekte ausgebildet sein kann. Bevorzugt sind die Ebenen von Bildaufnahmesensor und Mikrolinsenarray zueinander parallel und in einem definierten optischen Abstand angeordnet. Dieser definierte Abstand kann ggf. variabel einstellbar ausführt sein kann, damit er zwischen aufeinanderfolgenden Bildaufnahmen veränderbar ist. Dazu kann beispielsweise die optische Weglänge zwischen Mikrolinsenarray und Bildaufnahmesensor über den Brechungsindex des Mediums in diesem Bereich und/oder eine Veränderung des mechanischen Abstandes von Mikrolinsenarray und Bildaufnahmesensor verändert werden. Alternativ bzw. ergänzend kann die Brechkraft der Linsen im Mikrolinsenarray veränderbar ausgeführt sein. Die laterale Ausdehnung einer Mikrolinse im Mikrolinsenarray kann günstiger weise als ganzzahliges Vielfaches der Kantenlänge eines Pixels des Bildaufnahmesensors gewählt werden. Besonders bevorzugt ist es, wenn die Ausdehnung einer Mikrolinse einem ungeradzahligen Vielfachen der Kantenlänge eines Pixels entspricht. Besonders vorteilhaft ist es, wenn das Array der Vielzahl von Mikrolinsen und das Pixelmuster des Bildaufnahmesensors so zueinander ausgerichtet werden, dass die Teilung zwischen benachbarten Mikrolinsen mit der Pixelteilung des Bildaufnahmesensors übereinstimmt. Dadurch werden benachbarte Teilbereiche des Bildaufnahmesensors, die das Bild von unterschiedlichen Mikrolinsen empfangen, bestmöglich voneinander getrennt und ein mögliches Übersprechend zwischen benachbarten unabhängigen Mikrokameras minimiert. Zudem wird so die Mitte jedes Teilbereichs des Bildaufnahmesensors auf die optische Achse der jeweiligen Mikrolinse zentriert. Bei ungerader Pixelzahl wird so jeweils das zentrale Pixel jedes Teilbereichs des Bildaufnahmesensors auf die optische Achse der zugehörigen Mikrolinse zentriert. Die Anordnung der Mikrolinsen im Mikrolinsenarray kann bevorzugt in rechteckiger, quadratischer oder hexagonaler Anordnung erfolgen, um einen möglichst hohen Füllfaktor der Linsenfläche an der Gesamtfläche des Mikrolinsenarrays zu erhalten.The plenoptic sensor unit consists of at least one image acquisition sensor and a microlens array. The arrangement of image acquisition sensor and microlens array to each other is known and can be done for example via a support structure, which can also be designed to minimize thermal effects. Preferably, the planes of the image sensor and the microlens array are arranged parallel to one another and at a defined optical distance. This defined distance can optionally be made variably adjustable so that it can be changed between successive image recordings. For this purpose, for example, the optical path length between the microlens array and the image acquisition sensor via the refractive index of the medium in this area and / or a change in the mechanical distance of the microlens array and the image acquisition sensor can be changed. Alternatively or additionally, the refractive power of the lenses in the microlens array can be made variable. The lateral extent of a microlens in the microlens array can be favorably chosen as an integer multiple of the edge length of a pixel of the image sensor. It is particularly preferred if the extent of a microlens corresponds to an odd-numbered multiple of the edge length of a pixel. It is particularly advantageous if the array of the plurality of microlenses and the pixel pattern of the image sensor are aligned with one another in such a way that the pitch between adjacent microlenses coincides with the pixel pitch of the image sensor. As a result, adjacent portions of the imaging sensor that receive the image from different microlenses are optimally separated from each other and minimizes possible interference between adjacent independent microcameras. In addition, the center of each subarea of the image sensor is thus centered on the optical axis of the respective microlens. With an odd number of pixels, the central pixel of each subarea of the image sensor is thus centered on the optical axis of the associated microlens. The arrangement of the microlenses in the microlens array can preferably take place in a rectangular, square or hexagonal arrangement in order to obtain the highest possible fill factor of the lens surface on the entire surface of the microlens array.

In einer weiteren Ausgestaltung ist das Bildaufnahmesystem und Bildauswertesystem dazu ausgebildet, bei der Auswertung die unterschiedlichen Abbildungseigenschaften der Mikrolinsen des Mikrolinsenarrays zu berücksichtigen.In a further refinement, the image acquisition system and the image evaluation system are designed to take into account the different imaging properties of the microlenses of the microlens array during the evaluation.

Diese Ausgestaltung kann der tatsächlichen Eigenschaft der Mikrolinsen im Mikrolinsenarray Rechnung tragen. Es können alle Mikrolinsen gleich ausgeführt sein oder die Anordnung der Mikrolinsen kann eine räumlich bekannte Verteilung mit Linsen unterschiedlicher Brechkraft aufweisen. Ferner können die Mikrolinsen unterschiedliche chromatische Abbildungsfehler aufweisen, die es bei der Auswertung zu berücksichtigen gilt. Ferner ist es möglich, dass die Brechkraft der Mikrolinsen für eine Aufnahme variabel eingestellt werden kann. In dem Bildaufnahmesystem und Bildauswertesystem kann die Information zur optischen Wirkung jeder einzelnen Linse des Mikrolinsenarrays hinterlegt sein.This embodiment can take into account the actual property of the microlenses in the microlens array. All microlenses can be the same or the arrangement of the microlenses can have a spatially known distribution with lenses of different refractive power. Furthermore, the microlenses may have different chromatic aberrations, which should be considered in the evaluation. Furthermore, it is possible that the refractive power of the microlenses for a recording can be variably adjusted. In the image acquisition system and image evaluation system, the information about the optical effect of each individual lens of the microlens array can be stored.

In einer weiteren Ausgestaltung besitzt das Bildaufnahmesystem und Bildauswertesystem ein Blendengitter, das mit Stegen oder einem Array aus Lochblenden ausgeführt ist, das die Übergänge von einer Mikrolinse zu den im Array benachbarten Mikrolinsen überdeckt.In a further embodiment, the image acquisition system and image evaluation system has a diaphragm grille which is embodied with webs or an array of pinhole diaphragms which covers the transitions from a microlens to the microlenses adjacent to the array.

Diese Ausgestaltung ermöglicht es in vorteilhafter Weise, Streulichteffekte bzw. das Übersprechen vom Bildbereich einer Mikrokamera zu einer Mikrolinse in einen benachbarten Bildbereich einer weiteren Mikrokamera mit einer weiteren Mikrolinse zu reduzieren. Dadurch trägt diese Ausgestaltung vorteilhaft dazu bei, das Signal-Rausch-Verhältnis bei der Abbildung zu verbessern und so die Messgenauigkeit beim Bestimmen der 3D Koordinaten mit der Lichtfeldkamera zu erhöhen.This refinement advantageously makes it possible to reduce stray light effects or the crosstalk from the image area of a microcamera to a microlens in an adjacent image area of another microcamera with a further microlens. As a result, this refinement advantageously contributes to improving the signal-to-noise ratio in the imaging and thus to increase the measurement accuracy when determining the 3D coordinates with the light field camera.

In einer weiteren Ausgestaltung weist die Lichtfeldkamera ein telezentrisches Objektiv auf.In a further embodiment, the light field camera has a telecentric lens.

Ein telezentrisches Objektiv weist die besondere Eigenschaft auf, dass die sogenannte Eintrittspupille und/oder die Austrittspupille im Unendlichen liegt. Liegen sowohl die Eintrittspupille als auch die Austrittspupille im Unendlichen, so liegt ein beidseitig telezentrisches Objektiv vor. Liegt nur die Eintrittspupille im Unendlichen, so ist das Objektiv objektseitig telezentrisch. Liegt nur die Austrittspupille im Unendlichen, so ist das Objektiv bildseitig telezentrisch. Bei der telezentrischen Abbildung liegen für jeden Objektpunkt und/oder Bildpunkt die Symmetrieachsen des bei der Abbildung genutzten Lichtkegels parallel zur optischen Achse der Optik. Dadurch wird der Abbildungsmaßstab der Abbildung innerhalb des telezentrischen Arbeitsbereichs der Optik weitgehend unabhängig vom Objektabstand und bleibt näherungsweise konstant. Diese Eigenschaft einer telezentrischen Optik lässt sich - entgegen bisheriger Erwartungen - auch in Kombination mit einer plenoptischen Kamera nutzen. Dies belegen die Ergebnisse von Untersuchungen des Anmelders, die sogar eine besondere Eignung telezentrischer Optik für messtechnische Aufgaben mit plenoptischen Kameras an unterschiedlichen Messobjekten und auch mit unterschiedlichen Wellenlängenbereichen der Messwellenlänge im sichtbaren und nahen Infrarotbereich aufzeigen. Besonders vorteilhaft ist es, wenn es für die plenoptische Kamera einen spezifischen Satz Kalibrierdaten gibt, den das Bildaufnahmesystem und Bildauswertesystem beinhaltet, der separat und unabhängig von den Kalibrierdaten des verwendeten Objektivs ist. Für die technische Anwendung ist es von besonderem Vorteil, wenn das Objektiv mit der plenoptischen Kamera stabil und mit bekannter relativer Anordnung gekoppelt werden kann, damit ein vollständiger Kalibrierdatensatz für das verwendete Abbildungssystem aus dem Kalibrierdatensatz für die plenoptische Sensoreinheit und dem Kalibrierdatensatz für das verwendete Objektiv in dem Bildaufnahmesystem und Bildauswertesystem bestimmt werden kann.A telecentric lens has the special property that the so-called entrance pupil and / or the exit pupil lies at infinity. If both the entrance pupil and the exit pupil lie at infinity, then there is a two-sided telecentric objective. If only the entrance pupil lies at infinity, the objective is telecentric on the object side. If only the exit pupil lies at infinity, then the objective is telecentric on the image side. In the case of the telecentric imaging, the symmetry axes of the light cone used in the imaging are parallel to the optical axis of the optics for each object point and / or pixel. As a result, the image scale of the image within the telecentric operating range of the optics is largely independent of the object distance and remains approximately constant. This property of a telecentric optics can - contrary to previous expectations - also be used in combination with a plenoptic camera. This is confirmed by the results of investigations by the applicant, the even demonstrate the particular suitability of telecentric optics for metrological tasks with plenoptic cameras on different measurement objects and also with different wavelength ranges of the measurement wavelength in the visible and near infrared range. It is particularly advantageous if there is a specific set of calibration data for the plenoptic camera which the image acquisition system and image evaluation system contain, which is separate and independent of the calibration data of the objective used. For technical application, it is particularly advantageous if the lens can be coupled with the plenoptic camera stable and with known relative arrangement, so that a complete calibration record for the imaging system used from the calibration data set for the plenoptic sensor unit and the calibration data set for the lens used in the image acquisition system and image evaluation can be determined.

Die Messung von Objektpunkten bezeichnet die Erfassung und Bestimmung von 3D Koordinaten von Punkten in einem für optische Messungen zugänglichen Bereich von Messobjekten. Die Objektpunkte und deren unmittelbare Umgebung sind dabei unmittelbar mit der plenoptischen Kamera erfassbar. Dazu muss der Objektpunkt und seine unmittelbare Umgebung hinreichend kooperativ für die optische Abbildung sein, damit genügend Messsignal beispielsweise von Strukturen, Farbwechseln und/oder Oberflächenstreuung des Messobjektes durch Rauheiten und/oder Texturen vorhanden ist, und mit der Kamera erfasst werden kann. Für die Abbildung von Objektpunkten ist eine homogene Beleuchtung des zu erfassenden Objektbereichs ausreichend. Es kann beispielsweise die natürliche Beleuchtung, das Umgebungslicht oder das Licht einer Beleuchtungseinheit verwendet werden, die beispielsweise von dem Bildaufnahmesystem und Bildauswertesystem in einer weiteren Ausführungsform ergänzend bereitgestellt wird. Ein kontrastreiches Bild des Messobjekts ist Grundlage für die sichere Funktion der Auswertealgorithmik für die plenotischen Bilder zur Ermittlung des ersten 3D Datensatzes und zur Berechnung eines Bildstapels. The measurement of object points refers to the detection and determination of 3D coordinates of points in a range of measurement objects accessible for optical measurements. The object points and their immediate surroundings are directly detectable with the plenoptic camera. For this purpose, the object point and its immediate surroundings must be sufficiently cooperative for the optical image, so that sufficient measurement signal, for example of structures, color changes and / or surface scattering of the measurement object due to roughness and / or textures, can be detected with the camera. For the imaging of object points, a homogeneous illumination of the object area to be detected is sufficient. For example, it is possible to use the natural illumination, the ambient light or the light of a lighting unit, which is additionally provided, for example, by the image recording system and image evaluation system in a further embodiment. A high-contrast image of the measurement object is the basis for the reliable function of the evaluation algorithm for the plenetic images for determining the first 3D data set and for calculating a picture stack.

Die Messung von Raumpunkten bezeichnet die Erfassung und Bestimmung von 3D Koordinaten von Punkten in einem für optische Messungen zugänglichen Bereich eines Messobjekts. Die Raumpunkte und deren unmittelbare Umgebung sind dabei nicht unmittelbar mit der plenoptischen Kamera mit einem für die nachfolgende Auswertung hinreichend kontrastreichen Bild erfassbar. Raumpunkte und deren unmittelbare Umgebung sind a priori nicht hinreichend kooperativ für die optische Abbildung. Das neue Bildaufnahmesystem und Bildauswertesystem weist alternativ und ergänzend eine Beleuchtungseinheit mit Musterprojektor auf, der dazu ausgebildet ist, ein definiertes Lichtmuster mit einer Vielzahl von voneinander beabstandeten Lichtfiguren in den Erfassungsbereich der Lichtfeldkamera zu projizieren. Die Lichtfiguren können dabei durch lokale Variation der Beleuchtungsstärke und/oder Beleuchtungswellenlänge erzeugt werden. Auf dem Messobjekt im Erfassungsbereich der Lichtfeldkamera entstehen so Lichtmuster aufgrund der Beleuchtung, die für die nachfolgende Auswertung verwendet werden können. Es ist auch möglich, Raumpunkte und Objektpunkte in einer Bildaufnahme mit der Beleuchtung mit Musterprojektor zu erfassen.The measurement of spatial points refers to the detection and determination of 3D coordinates of points in an area of a measurement object accessible for optical measurements. The spatial points and their immediate surroundings are not directly detectable with the plenoptic camera with an image sufficiently rich in contrast for the subsequent evaluation. Space points and their immediate surroundings are not a priori sufficiently cooperative for optical imaging. The new image acquisition system and image evaluation system alternatively and additionally has a lighting unit with a pattern projector, which is designed to project a defined light pattern with a multiplicity of spaced-apart light figures into the detection area of the light field camera. The light patterns can be generated by local variation of the illuminance and / or illumination wavelength. On the measurement object in the detection area of the light field camera, light patterns thus arise due to the illumination, which can be used for the subsequent evaluation. It is also possible to capture spatial points and object points in an image acquisition with the illumination with pattern projector.

In einer weiteren Ausgestaltung kann das Bildaufnahmesystem und Bildauswertesystem ferner dazu ausgebildet sein, eine Folge von Bildern mit der plenoptischen Kamera aufzunehmen, bei denen jeweils unterschiedliche Lichtfiguren in den Erfassungsbereich der plenoptischen Kamera projiziert werden. Das Bildaufnahmesystem und Bildauswertesystem kann ferner dazu ausgebildet sein, das projizierte Lichtmuster dem jeweiligen Messbild zuzuordnen.In a further refinement, the image acquisition system and image evaluation system can also be designed to record a sequence of images with the plenoptic camera, in which different light patterns are respectively projected into the detection range of the plenoptic camera. The image acquisition system and image evaluation system can also be designed to associate the projected light pattern with the respective measurement image.

In einer weiteren Ausgestaltung kann das Bildaufnahmesystem und Bildauswertesystem dazu ausgebildet sein, den Musterprojektor derart anzusteuern, dass die projizierten Lichtmuster mit den benachbarten Lichtfiguren so gewählt werden, dass das Messobjekt im Erfassungsbereich der plenoptischen Kamera mit einer vorgegebenen Anzahl von Raumpunkten erfasst wird. Besonders bevorzugt kann das Bildaufnahmesystem und Bildauswertesystem zur Bestimmung der Lichtmuster für die Ansteuerung des Musterprojektors Ergebnisse einer früheren Bildaufnahme und Bildauswertung eines Bildes der plenoptischen Kamera verwenden.In a further refinement, the image acquisition system and image evaluation system can be configured to control the pattern projector in such a way that the projected light patterns with the adjacent light figures are selected such that the measurement object is detected with a predetermined number of spatial points in the detection range of the plenoptic camera. Particularly preferably, the image acquisition system and image evaluation system for determining the light patterns for the control of the pattern projector can use the results of an earlier image acquisition and image evaluation of an image of the plenoptic camera.

In dieser Ausgestaltung ist die Ansteuerung mit angepassten Lichtmustern besonders vorteilhaft vor allem bei unbekannten Messobjekten oder bekannten Messobjekten in unbekannter Anordnung im Erfassungsbereich der plenoptischen Kamera. Zudem bietet eine Anpassung der Lichtmuster den Vorteil zur Minimierung der Anzahl benötigter Bildaufnahmen für eine bestimmte Messgenauigkeit. Dadurch kann die benötigte Messzeit für eine vollständige Messung minimiert und die Produktivität des Bildaufnahmesystems und Bildauswertesystems gesteigert werden.In this embodiment, the control with adapted light patterns is particularly advantageous, especially with unknown measurement objects or known measurement objects in an unknown arrangement in the detection range of the plenoptic camera. In addition, an adaptation of the light pattern offers the advantage of minimizing the number of images required for a specific measurement accuracy. This minimizes the required measurement time for a complete measurement and increases the productivity of the image acquisition system and image evaluation system.

Das gebräuchliche Verfahren bzw. Funktionsprinzip zur Auswertung der Bilder in der plenoptischen Kamera kann für einen groben Überblick wie folgt beschrieben werden: Jede Mikrolinse der plenoptischen Sensoreinheit bildet, wie bereits weiter vorne beschrieben, mit einem zugehörigen Ausschnitt des Bildaufnahmesensors eine Mikrokamera. Diese Mikrokamera bildet zumindest einen Ausschnitt des vom Objektiv erfassten Lichtfeldes auf einen Ausschnitt des Bildaufnahmesensors ab. Für jeden Bildpunkt kann dann über eine Rückprojektion vom Auftreffort des Lichts auf dem Bildaufnahmesensor durch die Mitte der benutzten zugehörigen Mikrolinse des Mikrolinsenarrays eine Richtung bestimmt werden, aus der der Lichtstrahl für diesen Bildpunkt gekommen ist.The conventional method or functional principle for evaluating the images in the plenoptic camera can be described as follows for a rough overview: As already described above, each microlens of the plenoptic sensor unit forms a microcamera with an associated section of the image acquisition sensor. This micro-camera forms at least a section of the light field detected by the lens a section of the image sensor from. For each pixel, a direction from which the light beam has come for this pixel can then be determined by means of a back projection from the point of incidence of the light on the image acquisition sensor through the center of the microlens array used microlens used.

Für benachbarte Mikrolinsen ist das Bild der jeweiligen Mikrokamera auf dem Bildaufnahmesensor gegenüber dem der zuerst betrachteten Kamera in der Lage und/oder Größe verschoben und möglicherweise verzerrt abgebildet. Folglich führt die Rückprojektion zu dem entsprechenden Bildpunkt für jede der benachbarten Mikrokameras zu einem andersartig geneigten Strahl. Alle rückprojizierten Strahlen zu Bildern von benachbarten Mikrokameras auf dem Bildaufnahmesensor, die den entsprechenden Bildpunkt enthalten, schneiden sich bei einem idealen optischen System ohne Abbildungsfehler in einem Schnittpunkt. Dieser Schnittpunkt bestimmt den Abstand zu einer Referenzebene des optischen Systems bzw. der Ebene des Bildaufnahmesensors und damit die dritte Koordinate des Bildpunktes. Die lateralen 2D Koordinaten dieses Bildpunktes ergeben sich aus dem Bild derjenigen Mikrokamera, wo der entsprechende Bildpunkt auf dem Bildaufnahmesensor auf der optischen Achse der zugehörigen Mikrolinse liegt. Ist diese Bedingung nicht exakt erfüllt, kann die Position aus den Bildern benachbarter Mikrokameras entsprechend interpoliert werden. Um die Orte entsprechender Bildpunkte in den benachbarten Mikrokamerabildern auf dem Bildaufnahmesensor zu bestimmen, werden typischerweise in der digitalen Bildverarbeitung bekannte Korrelationsmethoden und Korrelationsalgorithmen verwendet.For adjacent microlenses, the image of the respective microcamera on the imaging sensor is shifted in position and / or size relative to that of the first-viewed camera and possibly distorted. Consequently, the back projection to the corresponding pixel for each of the adjacent microcameras results in a different tilted beam. All backprojected beams to images from adjacent microcameras on the imaging sensor containing the corresponding pixel intersect at an intersection point in an ideal optical system with no aberrations. This intersection determines the distance to a reference plane of the optical system or the plane of the image sensor and thus the third coordinate of the pixel. The lateral 2D coordinates of this pixel result from the image of that microcamera, where the corresponding pixel on the image sensor is located on the optical axis of the associated microlens. If this condition is not met exactly, the position from the images of neighboring microcameras can be interpolated accordingly. In order to determine the locations of corresponding pixels in the adjacent micro-camera images on the imaging sensor, known correlation methods and correlation algorithms are typically used in digital image processing.

In einer weiteren Ausgestaltung kann das Bildaufnahmesystem und Bildauswertesystem dazu ausgebildet sein, eine Kennzahl für die Genauigkeit der ermittelten Tiefeninformation anzugeben.In a further refinement, the image acquisition system and image evaluation system can be designed to provide an index of the accuracy of the determined depth information.

In dieser Ausgestaltung wird das Bildaufnahmesystem und Bildauswertesystem zur Steigerung der Messgenauigkeit weiter entwickelt, die technischen Limitationen realer optischer Systeme zu berücksichtigen. Es kann vorkommen, dass sich die rückprojizierten Strahlen eines Bildpunktes nicht bzw. nicht alle in einem Punkt schneiden. Je zwei dieser rückprojizierten Strahlen schneiden sich entweder in einem Punkt oder sie liegen windschief zueinander. Für den Fall windschiefer Strahlen kann der Ort des geringsten Abstands als Ersatz für Schnittpunkt angenommen werden, in dem dazu beispielsweise der Mittelpunkt der kürzesten Verbindung zwischen den beiden windschiefen Strahlen bestimmt wird. Es bildet sich folglich ein Bereich aus, in dem die Schnittpunkte bzw. Ersatzpunkte für Schnittpunkte zu den rückprojizierten Strahlen liegen. Die Größe dieses Bereichs und insbesondere seine laterale wie longitudinale Ausdehnung können als Gütekriterium bzw. Kennzahl für die Genauigkeit für den ermittelten Abstand zur Referenzebene und damit für die Tiefeninformation dienen.In this embodiment, the image acquisition system and image evaluation system to increase the measurement accuracy is further developed to take into account the technical limitations of real optical systems. It may happen that the back-projected rays of a pixel do not intersect or not all in one point. Each of these two back-projected rays either intersect at one point or are skewed to each other. In the case of wind-shafts, the location of the shortest distance can be taken as a substitute for the intersection, for example by determining the center of the shortest connection between the two skewed beams. Consequently, an area is formed in which the intersections or substitute points for intersections lie with the backprojected beams. The size of this area and in particular its lateral and longitudinal extent can serve as a quality criterion or characteristic number for the accuracy for the determined distance to the reference plane and thus for the depth information.

In einer weiteren Ausgestaltung kann das Bildaufnahmesystem und Bildauswertesystem dazu ausgebildet sein, in den Bildern der Kameras auf dem Bildaufnahmesensor zur präziseren Bestimmung der 3D Bildpunkte auf dem Bildaufnahmesensor eine Kanten-, Formen-, Objekt- und/oder Strukturerkennung durchzuführen. Derartige Algorithmen sind in der industriellen Bildverarbeitung bekannt und detailliert beschrieben oder auch in open source Software wie OpenGL (www.opengl.org) als ausführbarer Computercode unmittelbar verfügbar. Dadurch können die einzelnen Bildpunkte ausgewählter Objektpunkte und/oder Raumpunkte präziser bestimmt werden. Typisch liegt der Genauigkeitsgewinn durch den Mittelungsprozess bei der Strukturbestimmung in einer Stufe bei einem Faktor im Bereich von 5 bis 20 und wird in der Literatur oft pauschal mit einem Faktor 10 angegeben. Werden komplexere Strukturen wie Kreise oder andere flächige Strukturen bestimmt, so kann der Genauigkeitsgewinn auch einen Faktor 100 und größer erreichen.In a further refinement, the image acquisition system and image evaluation system can be designed to perform edge, shape, object and / or structure recognition in the images of the cameras on the image acquisition sensor for more precise determination of the 3D pixels on the image acquisition sensor. Such algorithms are known and described in detail in industrial image processing or are readily available in open source software such as OpenGL (www.opengl.org) as executable computer code. As a result, the individual pixels of selected object points and / or spatial points can be determined more precisely. Typically, the gain in accuracy through the averaging process of one-step structure determination is in the range of 5 to 20 and is often reported as a factor of 10 in the literature. If more complex structures such as circles or other planar structures are determined, the accuracy gain can also reach a factor of 100 and greater.

Im Rahmen dieser Patentanmeldung ist von besonderer Bedeutung, daß die Genauigkeitssteigerung bei der Bestimmung von Objektpunkten und/oder Raumpunkten vor der Rückprojektion zur Bestimmung der 3D Koordinate die Genauigkeit der Bestimmung dieser 3D Koordinate um einen entsprechenden Faktor steigern kann.In the context of this patent application, it is of particular importance that the increase in accuracy in the determination of object points and / or spatial points before the backprojection for determining the 3D coordinate can increase the accuracy of the determination of this 3D coordinate by a corresponding factor.

In einer weiteren Ausgestaltung kann das Bildaufnahmesystem und Bildauswertesystem dazu ausgebildet sein, aus den Bildern der Mikrokameras auf dem Bildaufnahmesensor der plenoptischen Kamera über Kanten-, Formen- und/oder Strukturerkennung präziser bestimmte 3D Koordinaten der Bildpunkte zu ausgewählten Objektpunkten und/oder Raumpunkten zu bestimmen. In einer bevorzugten Variante der Ausgestaltung kann aus den Bilddaten der plenoptischen Kamera ein Bildstapel mit einer Vielzahl von Bildebenen entlang der optischen Achse der Abbildungsoptik der plenoptischen Kamera bestimmt werden.In a further refinement, the image acquisition system and image evaluation system can be designed to more precisely determine specific 3D coordinates of the pixels from selected image points and / or spatial points from the images of the microcameras on the image acquisition sensor of the plenoptic camera via edge, shape and / or texture recognition. In a preferred variant of the embodiment, an image stack having a multiplicity of image planes along the optical axis of the imaging optics of the plenoptic camera can be determined from the image data of the plenoptic camera.

In einer weiteren Ausgestaltung kann das Bildaufnahmesystem und Bildauswertesystem dazu ausgebildet sein, über eine Phasenrekonstruktion zu den 3D Daten der plenoptischen Kamera das zugehörige Lichtfeld zu berechnen. Besonders bevorzugt können bei der Phasenrekonstruktion die Kennzahlen für die Genauigkeit der ermittelten Tiefeninformation mit berücksichtigt werden.In a further embodiment, the image acquisition system and image evaluation system can be designed to calculate the associated light field via a phase reconstruction to the 3D data of the plenoptic camera. Particularly preferably, the characteristics for the accuracy of the determined depth information can be taken into account in the phase reconstruction.

Dazu verwendet das Bildaufnahmesystem und Bildauswertesystem in vorteilhafter Weise einen iterativen Algorithmus. Ein vorteilhaftes Verfahren für die Phasenrekonstruktion ist in DE10327019 und in der genannten Veröffentlichung von Lane/Irwan beschrieben, die beide hier durch Bezugnahme aufgenommen sind. Vorteilhaft dienen die Informationen aus der ersten Auswertung in Form von 3D Daten und/oder Bildstapel dazu, Startbedingungen zu definieren. Derartige Startwerte werden typischerweise für die Iterationsrechnung benötigt und auch im Ergebnis, wenn die errechnete Phasenfläche in einem sogenannten Phase-Unwrapping in eine zumeist stetige Phasenfläche ohne Phasensprünge von 2 Pi umgewandelt wird. Insgesamt kann durch die Startwerte die Konvergenz des iterativen Algorithmus verbessert werden und die Anzahl an Iterationsschritten vorteilhaft reduziert werden. Mit der Phasenrekonstruktion wird das Lichtfeld vollständig bestimmt, da damit sowohl die räumliche Information über die Lichtverteilung als auch die zeitliche Information zur Propagation des Lichtfeldes vorliegt. In diesem Sinne repräsentiert das Lichtfeld die optischen und/oder geometrischen Eigenschaften des Messobjekts. Für diese vollständige Beschreibung des Lichtfeldes wird auch der Begriff der Wellenfront verwendet.For this purpose, the image acquisition system and image evaluation system advantageously uses a iterative algorithm. An advantageous method for the phase reconstruction is in DE10327019 and in the cited Lane / Irwan publication, both of which are incorporated herein by reference. Advantageously, the information from the first evaluation in the form of 3D data and / or image stack serve to define starting conditions. Such starting values are typically required for the iteration calculation and also in the result when the calculated phase surface is converted in a so-called phase unwrapping into a mostly continuous phase surface without phase jumps of 2 pi. Overall, the starting values can be used to improve the convergence of the iterative algorithm and to advantageously reduce the number of iteration steps. With the phase reconstruction, the light field is completely determined, as it provides both the spatial information about the light distribution and the temporal information for the propagation of the light field. In this sense, the light field represents the optical and / or geometric properties of the measurement object. For this complete description of the light field, the term wavefront is also used.

In einer weiteren Ausgestaltung kann das Bildaufnahmesystem und Bildauswertesystem dazu ausgebildet sein, einen Kalibrierdatensatz zur Kompensation geometrischer Verzerrungen im rechnerisch bestimmten Lichtfeld vorzuhalten und eine Korrektur durchzuführen.In a further refinement, the image acquisition system and image evaluation system can be designed to provide a calibration data record for compensating geometrical distortions in the computationally determined light field and to carry out a correction.

Bei der Bestimmung des Lichtfeldes können systematische geometrische Verzeichnungen auftreten, die sich mit Messobjekten bekannter Geometrie und Anordnung bestimmen lassen und mit einem Korrekturdatensatz beschrieben werden können. Bei nachfolgenden Messungen können dann geometrische Verzeichnungen mit einer rechnerischen Korrektur korrigiert werden.When determining the light field, systematic geometric distortions can occur which can be determined with measurement objects of known geometry and arrangement and can be described using a correction data record. In subsequent measurements geometric distortions can then be corrected with a computational correction.

In einer weiteren Ausgestaltung kann das Bildaufnahmesystem und Bildauswertesystem dazu ausgebildet sein, das Lichtfeld in Bezug auf geometrische Eigenschaften von Objekten auszuwerten.In a further embodiment, the image acquisition system and image evaluation system can be designed to evaluate the light field with respect to geometric properties of objects.

Das Lichtfeld enthält die verfügbare Information, die zur Berechnung der Lichtpropagation notwendig ist. Somit kann das Lichtfeld für die ausgewählten Raumpunkte und/oder Objektpunkte ausgewertet werden und damit neue 3D Koordinaten der ausgewählten Raumpunkte und/oder Objektpunkte bestimmt werden, die im Vergleich zu den 3D Koordinaten aus der ersten Auswertung eine verbesserte Genauigkeit aufweisen. In dem berechneten Lichtfeld kann beispielsweise auch die Best-Fokus Fläche bestimmt werden, die der Oberfläche des Messobjekts entspricht. Ferner kann beispielsweise zu Bereichen der Oberfläche um die ausgewählten Objektpunkte und/oder Raumpunkte die Oberflächennormale bestimmt werden. So kann anstelle oder ergänzend zur Höheninformation aus der 3D Koordinate auch eine Richtungsinformation zur Richtung der Oberflächennormale bestimmt werden. Alternativ können aus dem Lichtfeld auch Bilder vom Messobjekt berechnet werden, die eine Kamera mit vorgegebener relativer Anordnung zum Messobjekt und vorgegebenen Abbildungsparametern erzeugt hätte. So können beispielsweise aus dem Lichtfeld neue Bildstapel mit vorgegebenen Abbildungsparametern und Abständen benachbarter Fokusebenen bestimmt werden. Die so gewonnen Bilder können mit den bekannten Methoden der Bildverarbeitung eingehend analysiert werden. Alternativ können die Ergebnisse zu den 3D Punkten als Punktewolken bereitgestellt werden.The light field contains the available information necessary to calculate the light propagation. Thus, the light field for the selected space points and / or object points can be evaluated and thus new 3D coordinates of the selected space points and / or object points can be determined, which have an improved accuracy compared to the 3D coordinates from the first evaluation. In the calculated light field, it is also possible, for example, to determine the best focus area that corresponds to the surface of the measurement object. Furthermore, for example, the surface normal to areas of the surface around the selected object points and / or spatial points can be determined. Thus, instead of or in addition to the height information from the 3D coordinate, direction information about the direction of the surface normal can also be determined. Alternatively, images from the measurement object can also be calculated from the light field, which would have produced a camera with a predetermined relative arrangement to the measurement object and given imaging parameters. For example, new image stacks with predetermined imaging parameters and distances of adjacent focal planes can be determined from the light field. The images thus obtained can be thoroughly analyzed using the known methods of image processing. Alternatively, the results for the 3D points may be provided as point clouds.

In einer weiteren Ausgestaltung kann das Bildaufnahmesystem und Bildauswertesystem dazu ausgebildet sein, die Auswertung von 3D Koordinaten für ausgewählte Objektpunkte und/oder Raumpunkte ausführen zu können, wenn das Messobjekt in einem Medium mit Brechungsindex n eingebettet ist.In a further embodiment, the image acquisition system and image evaluation system can be designed to be able to carry out the evaluation of 3D coordinates for selected object points and / or spatial points if the measurement object is embedded in a medium with refractive index n.

In dieser Ausgestaltung ist das Messobjekt in ein optisches Medium eingebettet, dessen Brechungsindex größer 1 und insbesondere größer 1,1 ist. In diesem Fall ist das Bildaufnahmesystem und Bildauswertesystem dazu ausgebildet, bei der Bildaufnahme und/oder Bildauswertung den Brechungsindex des Mediums zu berücksichtigen. Durch die angepasste Auswertung können präzise Messungen der 3D Koordinaten z.B. für ausgewählte Raumpunkte und/oder Objektpunkte ausgeführt werden, die in gasförmigen, flüssigen oder festen Medien eingebettet sind. Beispiele für solche Medien sind Wasser, Öle, Alkohole oder anderen Flüssigkeiten, Glas, Kristalle, Kunststoffe, Harze oder andere zumindest im Bereich der Messwellenlänge teilweise transparente Festköper. Die Lichtfeldkamera kann dazu beispielsweise durch ein Schutzgehäuse mit Sichtfenster für das Objektiv von dem Medium abgetrennt sein, in das das Messobjekt eingebettet ist. Alternativ kann die plenoptische Kamera von außen auf das Medium schauen und die Grenzfläche zwischen Luft und dem Medium bei der nachfolgenden Auswertung berücksichtigen. Dabei ist es möglich und vorteilhaft, wenn die plenoptische Kamera die Grenzfläche zwischen Luft und dem Medium über ausgewählte Raumpunkte auf der Oberfläche bestimmt und bei der Auswertung die so bestimmte Grenzfläche berücksichtigt. Der Brechungsindex des Medium kann vorher bekannt sein oder aus der Messung von sich entsprechenden Objektpunkten in den Bildern benachbarter Mikrokameras bestimmt werden.In this embodiment, the measurement object is embedded in an optical medium whose refractive index is greater than 1 and in particular greater than 1.1. In this case, the image acquisition system and image evaluation system is designed to take into account the refractive index of the medium during image acquisition and / or image evaluation. Due to the adapted evaluation, precise measurements of the 3D coordinates, e.g. for selected points in space and / or object points are embedded, which are embedded in gaseous, liquid or solid media. Examples of such media are water, oils, alcohols or other liquids, glass, crystals, plastics, resins or other solid particles which are at least partially transparent in the region of the measurement wavelength. The light field camera can be separated from the medium, for example, by a protective housing with viewing window for the lens, in which the measurement object is embedded. Alternatively, the plenoptic camera can look at the medium from the outside and take into account the interface between air and the medium in the subsequent evaluation. It is possible and advantageous if the plenoptic camera determines the interface between air and the medium via selected points in space on the surface and takes into account the so determined interface in the evaluation. The refractive index of the medium may be previously known or determined from the measurement of corresponding object points in the images of adjacent microcameras.

In einer weiteren Ausgestaltung kann das Bildaufnahmesystem und Bildauswertesystem dazu ausgebildet sein, mit einem Trägersystem verbunden zu werden, um Messungen an Messobjekten auszuführen.In a further embodiment, the image recording system and image evaluation system can be designed to be connected to a carrier system to take measurements on DUTs.

Bei dieser Ausgestaltung verfügt das Bildaufnahmesystem und Bildauswertesystem und insbesondere die Lichtfeldkamera oder das Schutzgehäuse über eine Schnittstelle zur Ankopplung an ein Trägersystem, das ein Stativ, ein Roboter oder allgemein eine Verschiebeeinheit sein kann, um die Lichtfeldkamera an Orten im Raum an einer vorbestimmten Position mit vorbestimmter Orientierung der optischen Achse der Lichtfeldkamera für eine Bildaufnahme zu positionieren.In this embodiment, the image acquisition system and image evaluation system and in particular the light field camera or the protective housing via an interface for coupling to a support system, which may be a tripod, a robot or generally a displacement unit to the light field camera at locations in space at a predetermined position with predetermined Orientation of the optical axis of the light field camera to position an image capture.

In einer weiteren Ausgestaltung kann das Bildaufnahmesystem und Bildauswertesystem dazu ausgebildet sein, die Ergebnisse der Auswertungen in einem Datensatz zu speichern und/oder an ein weiteres System zur Datenverarbeitung zu übertragen bzw. zu übergeben und/oder auf einem Ausgabegerät auszugeben und/oder auf einem Darstellungssystem darzustellen.In a further refinement, the image acquisition system and image evaluation system can be designed to store the results of the evaluations in a data record and / or to transmit or transfer them to another system for data processing and / or output to an output device and / or on a display system display.

Es versteht sich, dass die vorstehend genannten und nachstehend noch zu erläuternden Merkmale nicht nur in der jeweiligen angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.It is understood that the features mentioned above and those yet to be explained can be used not only in the respective specified combination but also in other combinations or alone, without departing from the scope of the present invention.

Figurenlistelist of figures

Die beigefügten Zeichnungen zeigen Ausführungsbeispiele der Erfindung. Sie werden in der nachfolgenden Beschreibung näher erläutert. Es zeigen:

  • 1 eine schematische Darstellung für ein Bildaufnahmesystem und Bildauswertesystem,
  • 2 eine weitere schematische Darstellung für ein Bildaufnahmesystem und Bildauswertesystem mit einer telezentrischen Optik,
  • 3 ein schematische Darstellung für Beispiele möglicher Anordnungen von Mikrolinsen im Mikrolinsenarray, (a) quadratisch, (b) hexagonal, (c) quadratisch mit 2 Linsentypen, (d) rechteckig mit unterschiedlich gekrümmten Linsenflächen in Richtung der horizontalen (1) und vertikalen (2) Achse in der Zeichenebene, (e) quadratisch mit einer veränderlichen Brechkraft, die beispielsweise über ein elektrisches Feld eingestellt werden kann, das über Elektroden angelegt wird,
  • 4 eine Prinzipdarstellung für einen Bildstapel,
  • 5 eine vereinfachte Darstellung für ein Bildauswertesystem für eine Auswertung (a) und für eine erweiterte Auswertung (b) des Bildes der plenoptischen Kamera,
  • 6 eine vereinfachte Darstellung für ein Bildauswertesystem für eine Auswertung (a) und für eine erweiterte Auswertung (b) zur Phasenrekonstruktion und Bestimmung von 3D Koordinaten
  • 7 eine schematische Darstellung für ein Bildaufnahmesystem und Bildauswertesystem mit einer telezentrischen Optik, mit einem Schutzgehäuse mit Sichtfenster um die plenoptische Kamera und in
  • 8 eine Prinzipdarstellung zum Ablauf des Verfahrens für ein Bildaufnahmesystem und Bildauswertesystem.
The accompanying drawings show embodiments of the invention. They will be explained in more detail in the following description. Show it:
  • 1 a schematic representation of an image recording system and image evaluation system,
  • 2 a further schematic representation of an image acquisition system and image evaluation system with a telecentric optics,
  • 3 a schematic representation of examples of possible arrangements of microlenses in the microlens array, (a) square, (b) hexagonal, (c) square with 2 lens types, (d) rectangular with differently curved lens surfaces in the direction of horizontal (1) and vertical (2) Axis in the plane of the drawing, (e) square with a variable refractive power, which can be adjusted, for example, by an electric field applied via electrodes,
  • 4 a schematic diagram for a picture stack,
  • 5 a simplified representation for an image evaluation system for an evaluation (a) and for an extended evaluation (b) of the image of the plenoptic camera,
  • 6 a simplified representation for an image evaluation system for an evaluation (a) and for an extended evaluation (b) for the phase reconstruction and determination of 3D coordinates
  • 7 a schematic representation of an image recording system and image evaluation system with a telecentric optics, with a protective housing with viewing window to the plenoptic camera and in
  • 8th a schematic diagram of the procedure for an image acquisition system and image evaluation system.

AUSFÜHRUNGSBEISPIELEEMBODIMENTS

Weitere Vorteile, Kennzeichen und Merkmale der folgenden Erfindung werden bei der nachfolgenden Beschreibung der Ausführungsbeispiele deutlich. Allerdings ist die Erfindung nicht auf diese Ausführungsbeispiele beschränkt.Further advantages, characteristics and features of the following invention will become apparent in the following description of the embodiments. However, the invention is not limited to these embodiments.

In 1 ist das neue Bildaufnahmesystem und Bildauswertesystem in seiner Gesamtheit mit der Bezugsziffer 10 bezeichnet. Das Bildaufnahmesystem und Bildauswertesystem 10 enthält eine plenoptische Kamera 12, eine Beleuchtungseinheit 14, einen Musterprojektor 16, eine Bildaufnahmesteuerung 18, eine Auswerteeinheit 20, die beispielsweise eine erste Auswerteeinheit 20a und eine zweite Auswerteeinheit 20b enthält, eine Datenausgabeschnittstelle 24, eine Kommunikationsschnittstelle 26 und eine Anzeigeeinheit 28. Die plenoptische Kamera 12 besteht aus einem plenoptischen Sensormodul 40, das aus dem Bildaufnahmesensor 42 mit einer Vielzahl von Pixeln 43, dem Mikrolinsenarray 44 mit einer Vielzahl von Mikrolinsen 45 und einem Tragkörper 48 (hier nicht dargestellt) besteht, und einem Objektiv 50. Eine Mikrolinse 45 bildet dabei zusammen mit einer Anzahl Pixeln 43 eines Ausschnitts des Bildaufnahmesensors 42 eine Mikrokamera 46. Die Beleuchtungseinheit 14 beleuchtet den Erfassungsbereich 30 der plenoptischen Kamera 12 mit dem Lichtkegel 32 zumindest teilweise. Der Musterprojektor 16 erzeugt eine Vielzahl von Lichtfiguren 34a, 34b, 34c, die in den Erfassungsbereich 30 der plenoptischen Kamera 12 projiziert werden. Die Pfeile in der Abbildung sollen beispielhaft mögliche Verbindungen zwischen den Systemkomponenten darstellen. Diese Verbindungen dienen beispielsweise der Energieversorgung, der Datenübertragung bzw. dem Datenaustausch, zur Übertragung von Steuersignalen wie Triggersignalen, Latchsignalen oder Zeitsignalen. Diese Verbindungen können beispielsweise drahtgebunden zur elektrischen und/oder optischen Verbindung oder auch drahtlos optisch oder elektromagnetisch per Funksignalen ausgeführt sein.In 1 is the new image acquisition system and image evaluation system in its entirety with the reference numeral 10 designated. The image acquisition system and image evaluation system 10 contains a plenoptic camera 12 , a lighting unit 14 , a sample projector 16 , an image capture control 18 , an evaluation unit 20 , for example, a first evaluation 20a and a second evaluation unit 20b contains a data output interface 24 , a communication interface 26 and a display unit 28 , The plenoptic camera 12 consists of a plenoptic sensor module 40 that from the image sensor 42 with a variety of pixels 43 , the microlens array 44 with a variety of microlenses 45 and a support body 48 (not shown here), and a lens 50 , A microlens 45 forms together with a number of pixels 43 a section of the image sensor 42 a micro camera 46 , The lighting unit 14 illuminates the coverage area 30 the plenoptic camera 12 with the light cone 32 at least partially. The pattern projector 16 creates a variety of light figures 34a . 34b . 34c in the coverage area 30 the plenoptic camera 12 be projected. The arrows in the illustration are examples of possible connections between the system components. These connections serve, for example, the power supply, the data transmission or the data exchange, for the transmission of control signals such as trigger signals, latch signals or time signals. These connections can be made, for example, by wire to the electrical and / or optical connection or wirelessly optically or electromagnetically by radio signals.

Die plenoptische Kamera 12 und der Musterprojektor 16 bilden in den bevorzugten Ausführungsbeispielen zusammen einen Triangulationssensor, mit dessen Hilfe 3D Raumkoordinaten von Raumpunkten und/oder Objektpunkten innerhalb des Erfassungsbereichs der Lichtfeldkamera mit sehr hoher Genauigkeit erfasst werden können. Dieser Triangulationssensor nutzt dabei die der plenoptischen Kamera innewohnende Eigenschaft vorteilhaft aus, 3D Koordinaten zu ausgewählten Raumpunkten und/oder Objektpunkten bestimmen zu können, um so auch die Lichtfiguren 34a, 34b, 34c anhand der zuvor bereits bestimmen 3D Koordinaten von ausgewählten Raumpunkten und/oder Objektpunkten eindeutig voneinander zu unterscheiden und identifizieren zu können. Über die Triangulation von Lichtfiguren 34 und dem bekannten Triangulationswinkel zwischen der plenoptischen Kamera 12 und dem Musterprojektor 16 können die 3D Koordinaten mit einer höheren Genauigkeit bestimmt werden als von der plenoptischen Kamera alleine. Eine weitere Steigerung bei der Bestimmung der 3D Koordinaten kann in der bevorzugten Ausführungsform erreicht werden, wenn in den Teilbildern der Mikrokameras auf dem Bildaufnahmesensor für ausgewählte Objektpunkte und/oder Raumpunkte zusammen mit den Lichtfiguren 34 des Musterprojektors 16 eine Geometrie-, Struktur- und/oder Objekterkennung durchgeführt wird. The plenoptic camera 12 and the pattern projector 16 together form a triangulation sensor in the preferred embodiments, with the aid of which 3D Spatial coordinates of spatial points and / or object points within the detection range of the light field camera can be detected with very high accuracy. In doing so, this triangulation sensor advantageously uses the property inherent in the plenoptic camera in order to be able to determine 3D coordinates to selected spatial points and / or object points, including the light figures 34a . 34b . 34c Based on the previously determined 3D coordinates of selected points in space and / or object points clearly distinguish and identify each other. About the triangulation of light figures 34 and the known triangulation angle between the plenoptic camera 12 and the pattern projector 16 For example, the 3D coordinates can be determined with a higher accuracy than the plenoptic camera alone. A further increase in the determination of the 3D coordinates can be achieved in the preferred embodiment, if in the sub-images of the micro-cameras on the image sensor for selected object points and / or space points together with the light figures 34 of the pattern projector 16 a geometry, structure and / or object recognition is performed.

2 zeigt das neue Bildaufnahmesystem und Bildauswertesystem in seiner Gesamtheit für den Fall, dass das Objektiv 50 der plenoptischen Kamera 12 als telezentrisches Objektiv ausgeführt ist. Gleiche Bezugszeichen kennzeichnen dabei - wie auch in den folgenden Figuren - die entsprechenden beschriebenen Systemkomponenten. In dem plenoptischen Sensormodul ist der Tragkörper 48 dargestellt, der den Bildaufnahmesensor 42, das Mikrolinsenarray 44 und ggf. auch das Objektiv 50 miteinander verbindet. 2 shows the new image acquisition system and image evaluation system in its entirety in the event that the lens 50 the plenoptic camera 12 designed as a telecentric lens. The same reference numerals indicate - as well as in the following figures - the corresponding system components described. In the plenoptic sensor module is the support body 48 shown, the image sensor 42 , the microlens array 44 and possibly also the lens 50 connects with each other.

In 3 sind mehrere Ausführungsformen für das Mikrolinsenarray 44 dargestellt. 3 (a) zeigt ein Mikrolinsenarray 44 mit einer quadratischen Anordnung der Mikrolinsen 45 in einer Zeilen- und Spaltenstruktur.
3 (b) zeigt ein Mikrolinsenarray bei dem die Mikrolinsen 45 mit kreisförmiger Querschnittsfläche in einer hexagonalen Struktur zur dichtesten räumlichen Anordnung in der Ebene des Mikrolinsenarrays 44 angeordnet sind.
3 (c) zeigt eine Erweiterung der 3 (a), wo in den Zwischenräumen zwischen den Linsen eine zweite Art von Mikrolinsen 52 angeordnet ist, die andere optische Abbildungseigenschaften aufweisen. 3 (d) zeigt eine Anordnung von Mikrolinsen mit elliptischem Querschnitt in einer rechteckförmigen Anordnung, bei denen die Linsenfläche in dem gezeigten Beispiel einen unterschiedlichen Krümmungsradius in der horizontalen 54 und der vertikalen Richtung 55 der Zeichenebene aufweisen. Die unterschiedlichen Krümmungsradien führen zu unterschiedlichen Brechkräften der Mikrolinsen in den beiden ausgezeichneten Richtungen.
In 3 are several embodiments for the microlens array 44 shown. 3 (a) shows a microlens array 44 with a square arrangement of the microlenses 45 in a row and column structure.
3 (b) shows a microlens array in which the microlenses 45 with a circular cross-sectional area in a hexagonal structure for the closest spatial arrangement in the plane of the microlens array 44 are arranged.
3 (c) shows an extension of the 3 (a) , where in the spaces between the lenses a second type of microlenses 52 is arranged, which have other optical imaging properties. 3 (d) shows an array of elliptical cross-section microlenses in a rectangular array in which the lens surface in the example shown has a different radius of curvature in the horizontal 54 and the vertical direction 55 have the drawing level. The different radii of curvature lead to different powers of the microlenses in the two excellent directions.

In 3 (e) sind zusätzlich exemplarisch Elektroden 56 und 57 dargestellt, die beispielsweise auf den gegenüberliegenden Flächen des Mikrolinsenarrays 44 als transparente Elektroden aufgebracht sind und bei einem elektrooptischen Linsenmaterial zu gezielten Veränderung der Brechkraft des Mikrolinsen über eine elektrische Ansteuerung 58 verwendet werden können. Die elektrische Ansteuerung 58 für das Mikrolinsenarray kann vorteilhaft mit der Bildaufnahmesteuerung 18 verbunden sein. Auch wenn in den Darstellungen der 3 ausschließlich refraktive Linsen dargestellt sind, können in entsprechender Weise auch Linsen mit diffraktiver Wirkung, holografische Linsen, graded index Linsen, sogenannte GRIN Linsen, oder auch ansteuerbare Linsen mit veränderlicher Brechkraft in dem Mikrolinsenarray verwendet werden. Es ist auch möglich, Kombinationen aus refraktiven, diffraktiven, holografischen, ansteuerbaren Linsen und GRIN Linsen aufzubauen, und diese Kombinationen als Linsenstrukturen in dem Mikrolinsenarray zu verwenden.In 3 (e) are additionally exemplary electrodes 56 and 57 shown, for example, on the opposite surfaces of the microlens array 44 are applied as transparent electrodes and, in the case of an electro-optical lens material, to a specific change in the refractive power of the microlenses via an electrical control 58 can be used. The electrical control 58 for the microlens array can be advantageous with the image pickup control 18 be connected. Even if in the representations of the 3 only refractive lenses are shown, lenses with diffractive effect, holographic lenses, graded index lenses, so-called GRIN lenses, or also controllable lenses with variable refractive power in the microlens array can be used in a corresponding manner. It is also possible to construct combinations of refractive, diffractive, holographic, controllable lenses and GRIN lenses, and to use these combinations as lens structures in the microlens array.

In 4 ist schematisch ein Bildstapel 60 dargestellt. Er weist eine Vielzahl N von zueinander parallelen Bildebenen 62 auf, die mit 62_1 bis 62_N gekennzeichnet sind. Die Vielzahl der Bildebenen 62 ist entlang einer zu den Bildebenen orthogonalen Achse verschoben, die parallel zur Ausbreitungsrichtung des Lichtfeldes bzw. der optischen Achse 64 des Kamerasystems liegt. Der Abstand Δ benachbarter Bildebenen ist mit Δi,i+1 gekennzeichnet, mit i = 1 bis i = N - 1. Prinzipiell können die Abstände benachbarter Ebenen unterschiedlich sein. Aus praktischen Gründen werden dennoch meist äquidistante Abstände gewählt.In 4 is schematically a picture stack 60 shown. It has a multiplicity N of mutually parallel image planes 62 on that with 62_1 to 62_N Marked are. The variety of image levels 62 is displaced along an axis orthogonal to the image planes, which is parallel to the propagation direction of the light field or the optical axis 64 of the camera system is located. The distance Δ of adjacent image planes is denoted by Δ i, i + 1 , where i = 1 to i = N-1. In principle, the distances between adjacent planes may be different. For practical reasons, however, usually equidistant distances are chosen.

Die 5 und 6 zeigen eine vereinfachte Darstellung für ein Bildauswertesystem (20) des neuartigen Bildaufnahmesystems und Bildauswertesystems (10). Da die Bildauswertung zur Bestimmung der 3D Koordinaten und die Rekonstruktion der Phase des Lichtfeldes bevorzugt iterativ erfolgt, sind in dem Bildauswertesystem in 1 zwei Teile dargestellt, die mit den Bezugszeichen 20a und 20b versehen sind. Es ist selbstverständlich auch möglich, die Auswertung des Bildes der plenoptischen Kamera in demselben Teil des Auswertesystems 20 auszuführen und die Auswertung auch in einem Schritt auszuführen. Die getrennte Darstellung mit den Auswertesystemen 20a und 20b ist zur Veranschaulichung gewählt und kann zudem der Tatsache Rechnung tragen, dass für die unterschiedlichen Auswertungen für 3D Koordinaten und zur Phasenrekonstruktion unterschiedliche Rechensysteme, die auch körperlich getrennt ausgeführt sein können, verwendet werden können. Zudem kann eine Aufteilung der Auswerteeinheit zu einer beschleunigten Bestimmung von präziseren 3D Koordinaten führen und so eine höhere Bildfolge in der Auswertung ermöglichen. The 5 and 6 show a simplified representation for an image evaluation system ( 20 ) of the novel image acquisition system and image evaluation system ( 10 ). Since the image evaluation for determining the 3D coordinates and the reconstruction of the phase of the light field is preferably iterative, in the image evaluation system in FIG 1 two parts shown by the reference numerals 20a and 20b are provided. It is of course also possible to evaluate the image of the plenoptic camera in the same part of the evaluation system 20 execute and evaluate in one step. The separate representation with the evaluation systems 20a and 20b is chosen for illustration purposes and can also take account of the fact that different computing systems that can also be physically separated are used for the different evaluations for 3D coordinates and phase reconstruction can. In addition, a division of the evaluation unit can lead to an accelerated determination of more precise 3D coordinates and thus enable a higher image sequence in the evaluation.

5 zeigt schematisch die Auswertung für das Bild der Lichtfeldkamera 12. 5a zeigt dabei, das aus dem Bild der Lichtfeldkamera für ausgewählte Objektpunkte und/oder Raumpunkte 3D Koordinaten bestimmt werden. Ferner kann optional aus dem Bild der Lichtfeldkamera auch ein Bildstapel 60 berechnet werden. 5b zeigt die vorgeschaltete Geometrieerkennung und/oder Mustererkennung und/oder Strukturerkennung, die in der 5b mit feature extraction bezeichnet ist. 5 schematically shows the evaluation for the image of the light field camera 12 , 5a shows that from the image of the light field camera for selected object points and / or space points 3D Coordinates are determined. Furthermore, optionally from the image of the light field camera also a picture stack 60 be calculated. 5b shows the upstream geometry detection and / or pattern recognition and / or structure recognition, which in the 5b denoted with feature extraction.

6 zeigt schematisch die Phasenrekonstruktion des Lichtfeldes und Bestimmung der 3D Koordinaten zu ausgewählten Objektpunkten und/oder Raumpunkten, wie in 6a dargestellt. Die in 5 bestimmten Ergebnisse für 3D Koordinaten oder einen Bildstapel dienen hierbei als Eingangsgröße bzw. Startwerte. 6b zeigt einen erweiterten Ablauf, wenn mehrere Sätze von Koordinatenwerten oder Bildstapein gemeinsam ausgewertet werden sollten. Die Darstellung ist schematisch für n Datensätze gewählt. 6 schematically shows the phase reconstruction of the light field and determining the 3D coordinates to selected object points and / or space points, as in 6a shown. In the 5 certain results for 3D coordinates or a picture stack serve as an input quantity or starting values. 6b shows an extended process when several sets of coordinate values or image stack should be evaluated together. The representation is chosen schematically for n data sets.

Bei dem Ausführungsbeispiel der 7 ist das neue Bildaufnahmesystem und Bildauswertesystem in seiner Gesamtheit für den Fall gezeigt, dass das Objektiv 50 der plenoptischen Kamera 12 als telezentrisches Objektiv ausgeführt ist und die plenoptische Kamera 42 mit einem Schutzgehäuse 70 umgeben ist, das ein Sichtfenster 72 für das Objektiv 50 und die Beleuchtungseinheit 14 und den Musterprojektor 16 aufweist. Zwischen der Einheit aus plenoptischer Kamera 12, Objektiv 50, Beleuchtungseinheit 14 und Musterprojektor 16 im Schutzgehäuse 70 und der Bildaufnahmesteuerung 18 ist über den Doppelpfeil 74 eine geschützte Verbindung schematisch dargestellt.In the embodiment of the 7 is the new imaging system and image evaluation system shown in its entirety in the event that the lens 50 the plenoptic camera 12 is designed as a telecentric lens and the plenoptic camera 42 with a protective housing 70 surrounded, which is a viewing window 72 for the lens 50 and the lighting unit 14 and the pattern projector 16 having. Between the unit of plenoptic camera 12 , Objective 50 , Lighting unit 14 and sample projector 16 in the protective housing 70 and the image pickup control 18 is over the double arrow 74 a protected connection shown schematically.

Der Bildaufnahmesensor 42 besitzt in einigen der Ausführungsbeispiele eine logarithmische Charakteristik. Dies bedeutet, dass die von den Pixeln 43 erzeugten Pixelwerte zumindest abschnittsweise in logarithmischer bzw. quasilogarithmischer Charakteristik von der Intensität des auftreffenden Lichts abhängen. Dabei kann eine quasilogarithmische Charakteristik beispielsweise durch mindestens zwei lineare Charakteristiken unterschiedlicher Empfindlichkeit angenähert werden, zwischen denen abhängig von der Intensität des auftreffenden Lichtes umgeschaltet wird.The image pickup sensor 42 has a logarithmic characteristic in some of the embodiments. This means that of the pixels 43 At least in sections, the pixel values generated depend on the intensity of the incident light in logarithmic or quasi-logarithmic characteristics. In this case, a quasi-logarithmic characteristic can be approximated, for example, by at least two linear characteristics of different sensitivity, between which switching takes place as a function of the intensity of the incident light.

8 zeigt schematisch ein Verfahren 80 zum Betrieb eines Bildaufnahmesystems und Bildauswertesystems zur Bestimmung von geometrischen Raumpunkten und/oder Objektpunkten. Bei dem Verfahren werden die folgenden Schritte durchlaufen: 82 Ausrichten des Bildaufnahmesystems mit der Lichtfeldkamera auf den zu erfassenden Messbereich, 84 Einstellen der Beleuchtung, 86 Aufnehmen eines Bildes mit der Lichtfeldkamera, 88 Bestimmen von 3D Koordinaten zu den ausgewählten Raumpunkten und/oder Objektpunkten aus den Bilddaten der Lichtfeldkamera, 90 Bestimmung eines Bildstapels aus dem Daten der Lichtfeldkamera, 92 Rekonstruktion der Phasenverteilung des mit der Lichtfeldkamera aufgenommenen Lichtfeldes und 94 Auswerten des rekonstruierten optischen Lichtfeldes zur Bestimmung von 3D Koordinaten für die ausgewählten Raumpunkte und/oder Objektpunkte. Der finale Schritt des Ablaufs zeigt die 96 Datenbereitstellung bzw. Datenausgabe für die 3D Koordinaten und/oder das Lichtfeld und/oder einen Bildstapel. 8th schematically shows a method 80 for operating an image acquisition system and image evaluation system for determining geometric points in space and / or object points. The process involves the following steps: 82 Aligning the image recording system with the light field camera on the measuring range to be detected, 84 Adjusting the lighting, 86 Taking a picture with the lightfield camera, 88 Determining 3D coordinates to the selected spatial points and / or object points from the image data of the light field camera, 90 Determination of a picture stack from the data of the light field camera, 92 Reconstruction of the phase distribution of the light field recorded with the light field camera and 94 Evaluation of the reconstructed optical light field for determining 3D coordinates for the selected spatial points and / or object points. The final step of the process shows the 96 Data provision or data output for the 3D coordinates and / or the light field and / or a picture stack.

Obwohl die vorliegende Erfindung anhand der Ausführungsbeispiele detailliert beschrieben worden ist, ist für den Fachmann selbstverständlich, dass die Erfindung nicht auf diese Ausführungsbeispiele beschränkt ist, sondern das vielmehr Abwandlungen in der Weise möglich sind, dass einzelne Merkmale weggelassen oder andersartige Kombinationen der Merkmale vorgenommen werden können, solange der Schutzbereich der beigefügten Ansprüche nicht verlassen wird. Die vorliegende Offenbarung schließt sämtliche Kombinationen der vorgestellten Einzelmerkmale mit ein.Although the present invention has been described in detail with reference to the embodiments, it will be understood by those skilled in the art that the invention is not limited to these embodiments, but rather modifications in the manner that individual features omitted or other combinations of features can be made as long as the scope of protection of the appended claims is not abandoned. The present disclosure includes all combinations of the features presented.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

1010
Bildaufnahmesystem und BildauswertesystemImage acquisition system and image evaluation system
1212
Plenoptische Kamera, LichtfeldkameraPlenoptic camera, light field camera
1414
Beleuchtungseinheitlighting unit
1616
Musterprojektorpattern projector
1818
BildaufnahmesteuerungImage capture control
2020
Auswerteeinheitevaluation
2424
DatenausgabeschnittstelleOutput data interface
2626
KommunikationsschnittstelleCommunication Interface
2828
Anzeigeeinheitdisplay unit
3030
Erfassungsbereich der plenoptischen KameraDetection range of the plenoptic camera
3232
Lichtkegel der Beleuchtungseinheit 14Light cone of the illumination unit 14
3434
Lichtfiguren des Musterprojektors 16Light figures of the pattern projector 16
4040
Plenoptisches SensormodulPlenoptic sensor module
4242
BildaufnahmesensorImage sensor
4343
Pixel im BildaufnahmesensorPixels in the image sensor
4444
MikrolinsenarrayMicrolens array
4545
Linse im MikrolinsenarrayLens in the microlens array
4646
Mikrokameramicro camera
4848
Tragkörpersupporting body
5050
Objektivlens
5252
Mikrolinsenmicrolenses
5454
Krümmungsradius der Mikrolinse 52 in horizontaler RichtungRadius of curvature of the microlens 52 in the horizontal direction
5555
Krümmungsradius der Mikrolinse 52 in vertikaler RichtungRadius of curvature of the microlens 52 in the vertical direction
5656
Elektrode 1Electrode 1
5757
Elektrode 2Electrode 2
5858
Ansteuerungcontrol
6060
Bildstapelstacks
6262
Bildebeneimage plane
6464
optische Achseoptical axis
7070
Schutzgehäusehousing
7272
Sichtfensterwindow
7474
geschützte Verbindungprotected connection
8080
Verfahren für Bildaufnahmesystem und BildauswertesystemMethod for image acquisition system and image evaluation system
8282
Ausrichten des BildaufnahmesystemsAlign the imaging system
8484
Einstellen der BeleuchtungAdjust the lighting
8686
Aufnehmen eines Bildes mit der LichtfeldkameraTake a picture with the light field camera
8888
Bestimmung erster Satz 3D Koordinaten aus Daten LichtfeldkameraDetermining first set of 3D coordinates from data light field camera
9090
Bestimmung Bildstapel aus Daten LichtfeldkameraDetermining image stacks from data light field camera
9292
Phasenrekonstruktion zu dem von Lichtfeldkamera aufgenommenen LichtfeldPhase reconstruction to the light field recorded by light field camera
9494
Auswertung Lichtfeld mit Phasenwerten zur Bestimmung 3D KoordinatenEvaluation light field with phase values for determining 3D coordinates
9696
Bereitstellen bzw. Ausgabe ErgebnisseDeploying or outputting results

Claims (19)

Bildaufnahmesystem und Bildauswertesystem (10) zur Bestimmung von geometrischen Raumpunkten und/oder Objektpunkten, mit einer Lichtfeldkamera (12) und mit einer Auswerteeinheit (20), die dazu ausgebildet ist, aus den Daten der Lichtfeldkamera 3D Koordinaten zu ausgewählten Objektpunkten und/oder Raumpunkten zu bestimmen, dadurch gekennzeichnet, dass in einer nachfolgenden Auswertung über eine Phasenrekonstruktion eine Wellenfront bestimmt wird und aus der Wellenfront für die ausgewählten Raumpunkte und/oder Objektpunkte neue 3D Koordinaten mit verbesserter Auflösung bestimmt werden.Image recording system and image evaluation system (10) for determining geometric points in space and / or object points, with a light field camera (12) and with an evaluation unit (20), which is adapted from the data of the light field camera 3D coordinates to selected object points and / or space points determine, characterized in that in a subsequent evaluation via a phase reconstruction, a wavefront is determined and from the wavefront for the selected space points and / or object points new 3D coordinates are determined with improved resolution. Bildaufnahmesystem und Bildauswertesystem nach Anspruch 1 dadurch gekennzeichnet, dass das Bildaufnahmesystem eine Beleuchtungseinheit (14) aufweist, die dazu ausgebildet ist, den Erfassungsbereich der Lichtfeldkamera zumindest ausschnittsweise auszuleuchten.Image acquisition system and image evaluation system according to Claim 1 characterized in that the image recording system has a lighting unit (14) which is designed to illuminate the detection area of the light field camera at least in sections. Bildaufnahmesystem und Bildauswertesystem nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das Bildaufnahmesystem einen Musterprojektor (16) aufweist, der dazu ausgebildet ist, ein definiertes Lichtmuster mit einer Vielzahl voneinander beabstandeter Lichtfiguren (34) im Erfassungsbereich der Lichtfeldkamera zu erzeugen.Image acquisition system and image evaluation system according to Claim 1 or 2 characterized in that the imaging system comprises a pattern projector (16) adapted to generate a defined light pattern having a plurality of spaced-apart light patterns (34) in the detection area of the light field camera. Bildaufnahmesystem und Bildauswertesystem nach einem der Ansprüche 1 oder 3, dadurch gekennzeichnet, dass das Bildauswertesystem (20) dazu ausgebildet ist, eine definierte Lichtfigur (34) aus einer Vielzahl von voneinander beabstandeten Lichtfiguren anhand der 3D Koordinaten zu identifizieren.Image recording system and image evaluation system according to one of Claims 1 or 3 , characterized in that the image evaluation system (20) is adapted to identify a defined light pattern (34) from a plurality of spaced-apart light figures based on the 3D coordinates. Bildaufnahmesystem und Bildauswertesystem nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Lichtfeldkamera (12) einen 2D-Bildsensor (42) mit einer Vielzahl von Pixeln (43) und ein objektseitig vor dem 2D-Bildsensor angeordneten Mikrolinsenarray (44) mit einer Vielzahl von Mikrolinsen (45) aufweist, welches die Vielzahl von Pixeln (43) in Pixelarrays untergliedert.Image recording system and image evaluation system according to one of Claims 1 to 4 , characterized in that the light field camera (12) comprises a 2D image sensor (42) having a plurality of pixels (43) and a microlens array (44) having a plurality of microlenses (45) disposed on the object side in front of the 2D image sensor and comprising the Multitude of pixels (43) subdivided into pixel arrays. Bildaufnahmesystem und Bildauswertesystem nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Lichtfeldkamera (12) eine telezentrische Optik (50) aufweist.Image recording system and image evaluation system according to one of Claims 1 to 5 , characterized in that the light field camera (12) has a telecentric optic (50). Bildaufnahmesystem und Bildauswertesystem nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass in den Pixelarrays Merkmale über eine Strukturerkennung und/oder Geometrieerkennung und/oder Kantendetektion bestimmt werden und anhand dieser Merkmale 3D Koordinaten zu ausgewählten Raumpunkten und/oder Objektpunkten bestimmt werden.Image recording system and image evaluation system according to one of Claims 1 to 6 , characterized in that in the pixel arrays features on a structure recognition and / or geometry detection and / or edge detection are determined and based on these features 3D coordinates to selected spatial points and / or object points are determined. Bildaufnahmesystem und Bildauswertesystem nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass aus dem Bild der Lichtfeldkamera ein Bildstapel mit einer Vielzahl von Bildebenen in unterschiedlichem Abstand zu einer Referenzebene bestimmt wird.Image recording system and image evaluation system according to one of Claims 1 to 7 , characterized in that from the image of the light field camera, an image stack with a plurality of image planes at different distances to a reference plane is determined. Bildaufnahmesystem und Bildauswertesystem nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass in den Pixelarrays eine Strukturerkennung und/oder Geometrieerkennung und/oder Kantendetektion zur Bestimmung von 3D Koordinaten für Objektpunkte und/oder Raumpunkte ausgeführt wird und anschließend ein Bildstapel (60) mit einer Vielzahl von Bildebenen (62) in unterschiedlichem Abstand zu einer Referenzebene bestimmt wird.Image recording system and image evaluation system according to one of Claims 1 to 8th , characterized in that in the pixel arrays a structure recognition and / or geometry recognition and / or edge detection for determining 3D coordinates for object points and / or space points is carried out, and then an image stack (60) with a Variety of image planes (62) is determined at different distances to a reference plane. Bildaufnahmesystem und Bildauswertesystem nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass der Abstand benachbarter Bildebenen im Bildstapel im Bereich des 0,3-fachen bis 1-fachen Wertes der Schärfentiefe der verwendeten Abbildungsoptik liegt.Image recording system and image evaluation system according to one of Claims 1 to 9 , characterized in that the distance of adjacent image planes in the image stack is in the range of 0.3 times to 1 times the value of the depth of field of the imaging optics used. Bildaufnahmesystem und Bildauswertesystem nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass zu den 3D Koordinaten für die ausgewählten Objektpunkte und/oder Raumpunkte eine Kennzahl für die Güte der Tiefeninformation bestimmt wird.Image recording system and image evaluation system according to one of Claims 1 to 10 , characterized in that to the 3D coordinates for the selected object points and / or space points, a ratio for the quality of the depth information is determined. Bildaufnahmesystem und Bildauswertesystem nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass es Schutzgehäuse (70) und ein Sichtfenster (72) für die Lichtfeldkamera (12) aufweist.Image recording system and image evaluation system according to one of Claims 1 to 11 , characterized in that it comprises protective housing (70) and a viewing window (72) for the light field camera (12). Bildaufnahmesystem und Bildauswertesystem nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, dass es bei der Bestimmung von 3D Koordinaten zu ausgewählten Objektpunkten und/oder Raumpunkten ein Medium mit einem Brechungsindex größer 1,1 berücksichtigen kann, in das das Messobjekt zumindest teilweise eingebettet ist.Image recording system and image evaluation system according to one of Claims 1 to 12 , characterized in that it can take into account in the determination of 3D coordinates to selected object points and / or spatial points a medium with a refractive index greater than 1.1, in which the measurement object is at least partially embedded. Bildaufnahmesystem und Bildauswertesystem nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, dass das Bildauswertesystem (20) dazu ausgebildet ist, mehrere Bildstapel (62) gemeinsam auszuwerten, die mit unterschiedlichen Lichtfiguren (34) und/oder unterschiedlichen Blickrichtungen der Lichtfeldkamera auf das Messobjekt aufgenommen wurden.Image recording system and image evaluation system according to one of Claims 1 to 13 , characterized in that the image evaluation system (20) is designed to jointly evaluate a plurality of image stacks (62) which have been recorded with different light figures (34) and / or different viewing directions of the light field camera on the measurement object. Bildaufnahmesystem und Bildauswertesystem nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, dass das Auswertesystem eine Korrektur geometrischer Verzeichnungen mit vorbestimmten Korrekturwerten vornehmen kann.Image recording system and image evaluation system according to one of Claims 1 to 14 , characterized in that the evaluation system can make a correction of geometric distortions with predetermined correction values. Bildaufnahmesystem und Bildauswertesystem nach einem der Ansprüche 1 bis 15, dadurch gekennzeichnet, dass das Auswertesystem eine Korrektur der optischen Eigenschaften der Mikrolinsen (45) des Mikrolinsenarrays (44) und/oder des Objektivs (50) bei der Auswertung vornehmen kann.Image recording system and image evaluation system according to one of Claims 1 to 15 , characterized in that the evaluation system can perform a correction of the optical properties of the microlenses (45) of the microlens array (44) and / or the objective (50) in the evaluation. Bildaufnahmesystem und Bildauswertesystem nach einem der Ansprüche 1 bis 16, dadurch gekennzeichnet, dass der Bildaufnahmesensor zur Klasse der High-Dynamik Range (HDR) Sensoren und/oder Sensoren mit linearer und logarithmischer (LinLog) Empfindlichkeitsverteilung gehört.Image recording system and image evaluation system according to one of Claims 1 to 16 , characterized in that the image sensing sensor belongs to the class of high dynamic range (HDR) sensors and / or sensors with linear and logarithmic (LinLog) sensitivity distribution. Verfahren zum Betrieb eines Bildaufnahmesystems und Bildauswertesystems zur Bestimmung von geometrischen Raumpunkten und/oder Objektpunkten, mit den Schritten Ausrichten des Bildaufnahmesystems mit der Lichtfeldkamera auf den zu erfassenden Messbereich Aufnehmen eines Bildes mit der Lichtfeldkamera Bestimmen von 3D Koordinaten zu den ausgewählten Raumpunkten und/oder Objektpunkten aus den Bilddaten der Lichtfeldkamera gekennzeichnet durch die weiteren Schritte: Rekonstruktion der Phasenverteilung des mit der Lichtfeldkamera aufgenommenen Lichtfeldes Auswerten des rekonstruierten optischen Lichtfeldes zur Bestimmung von 3D Koordinaten für die ausgewählten Raumpunkte und/oder Objektpunkte.Method for operating an image acquisition system and image evaluation system for determining geometric points in space and / or object points, comprising the steps of aligning the image acquisition system with the light field camera to the measurement area to be acquired recording an image with the light field camera determining 3D coordinates to the selected spatial points and / or object points The image data of the light field camera characterized by the further steps: Reconstruction of the phase distribution of the light field recorded with the light field camera Evaluating the reconstructed optical light field to determine 3D coordinates for the selected space points and / or object points. Verfahren zum Betrieb eines Bildaufnahmesystems und Bildauswertesystems nach Anspruch 18, gekennzeichnet durch die weiteren Schritte: Bestimmung eines Bildstapels zu den ausgewählten Objektpunkten und/oder Raumpunkten Rekonstruktion der Phasenverteilung des zu dem Bildstapel zugehörigen optischen Feldes.Method for operating an image acquisition system and image evaluation system according to Claim 18 characterized by the further steps of: determining an image stack to the selected object points and / or spatial points reconstruction of the phase distribution of the optical field associated with the image stack.
DE102015011427.1A 2015-09-01 2015-09-01 Image acquisition system and image evaluation system Expired - Fee Related DE102015011427B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102015011427.1A DE102015011427B4 (en) 2015-09-01 2015-09-01 Image acquisition system and image evaluation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015011427.1A DE102015011427B4 (en) 2015-09-01 2015-09-01 Image acquisition system and image evaluation system

Publications (2)

Publication Number Publication Date
DE102015011427A1 DE102015011427A1 (en) 2017-03-02
DE102015011427B4 true DE102015011427B4 (en) 2019-01-17

Family

ID=58010978

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015011427.1A Expired - Fee Related DE102015011427B4 (en) 2015-09-01 2015-09-01 Image acquisition system and image evaluation system

Country Status (1)

Country Link
DE (1) DE102015011427B4 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017113614B4 (en) * 2017-06-20 2021-04-29 Carl Zeiss Smt Gmbh Position sensor device for determining a position of a moving object
DE102018107363B4 (en) * 2018-03-28 2020-09-10 Sick Ag Method and sensor for generating 3D image data
DE102019103519B4 (en) * 2019-02-12 2021-09-16 Carl Zeiss Industrielle Messtechnik Gmbh Device for determining dimensional and / or geometric properties of a measurement object
DE102019214602B3 (en) * 2019-09-24 2021-03-25 Optocraft Gmbh Combination detector and method for the detection of visual and optical properties of an optic and associated test device for an optic

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10327019A1 (en) 2003-06-12 2004-12-30 Carl Zeiss Sms Gmbh Method for determining the imaging quality of an optical imaging system
EP2244484A1 (en) 2009-04-22 2010-10-27 Raytrix GmbH Digital imaging system for synthesizing an image using data recorded with a plenoptic camera
EP2282164A1 (en) 2006-10-11 2011-02-09 Steinbichler Optotechnik GmbH Method and device for determining the 3D coordinates of an object
WO2012075978A1 (en) 2010-09-13 2012-06-14 Micro-Epsilon Optronic Gmbh Optical measurement system for determining distances
DE102013009634A1 (en) * 2013-06-10 2014-12-11 Technische Universität Dortmund Plenoptic imaging procedure
DE102014108353A1 (en) * 2013-06-13 2014-12-18 Werth Messtechnik Gmbh Method and device for the determination of geometries on measured objects by means of a combined sensor system
DE102013011848A1 (en) 2013-07-16 2015-01-22 Steinbichler Optotechnik Gmbh Apparatus and method for determining the 3D coordinates of an object
US20150138402A1 (en) 2008-12-08 2015-05-21 Lytro, Inc. Light Field Data Acquisition
WO2015100105A1 (en) 2013-12-24 2015-07-02 Lytro, Inc. Improving plenoptic camera resolution
US20160065938A1 (en) * 2014-08-29 2016-03-03 Farnoud KAZEMZADEH Imaging system and method for concurrent multiview multispectral polarimetric light-field high dynamic range imaging

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10327019A1 (en) 2003-06-12 2004-12-30 Carl Zeiss Sms Gmbh Method for determining the imaging quality of an optical imaging system
EP2282164A1 (en) 2006-10-11 2011-02-09 Steinbichler Optotechnik GmbH Method and device for determining the 3D coordinates of an object
US20150138402A1 (en) 2008-12-08 2015-05-21 Lytro, Inc. Light Field Data Acquisition
EP2244484A1 (en) 2009-04-22 2010-10-27 Raytrix GmbH Digital imaging system for synthesizing an image using data recorded with a plenoptic camera
WO2012075978A1 (en) 2010-09-13 2012-06-14 Micro-Epsilon Optronic Gmbh Optical measurement system for determining distances
DE102013009634A1 (en) * 2013-06-10 2014-12-11 Technische Universität Dortmund Plenoptic imaging procedure
DE102014108353A1 (en) * 2013-06-13 2014-12-18 Werth Messtechnik Gmbh Method and device for the determination of geometries on measured objects by means of a combined sensor system
DE102013011848A1 (en) 2013-07-16 2015-01-22 Steinbichler Optotechnik Gmbh Apparatus and method for determining the 3D coordinates of an object
WO2015100105A1 (en) 2013-12-24 2015-07-02 Lytro, Inc. Improving plenoptic camera resolution
US20160065938A1 (en) * 2014-08-29 2016-03-03 Farnoud KAZEMZADEH Imaging system and method for concurrent multiview multispectral polarimetric light-field high dynamic range imaging

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
C. Perwaß, L. Wietzke: Single Lens 3D-Camera with Extended Depth-of-Field. In: Proc. of SPIE-IS&T Electronic Imaging, SPIE Vol. 8291, 2012, 829108-1 bis 829108-1 *
R.G. Lane, R. Irwan: Phase retrieval as a means of wavefront sensing. In: IEEE International Conference on Image Processing, Vol. 2, 242 bis 245, 1997 *
R.J. Marshall, C.J. Meah et al.: Improving depth estimation from a plenoptic camera by patterned illumination. In: Proc. of SPIE Vol. 9528, 2015, 952815-1 bis 952815-6 *

Also Published As

Publication number Publication date
DE102015011427A1 (en) 2017-03-02

Similar Documents

Publication Publication Date Title
DE69207176T2 (en) Optical sensor
DE102012108567B4 (en) Method of obtaining depth information using a light pattern
EP3557523B1 (en) Method for generating a correcting model of a camera for correcting an imaging error
DE102017101188B4 (en) Microscope and method of microscopy on a sample
EP3293558B1 (en) Device for recording a stereo image
DE102015011427B4 (en) Image acquisition system and image evaluation system
WO2007104542A1 (en) Method and device for creating a fibrescopic recording that is devoid of structures
EP3346230B1 (en) Device and method for measuring the curvature of a wire
EP3746740B1 (en) Method and device for measuring an optical lens for individual wear situations of a user
DE102015226154A1 (en) HOLE PICTURE SYSTEM
DE60132551T2 (en) METHOD AND APPARATUS FOR MEASURING THE GEOMETRIC STRUCTURE OF AN OPTICAL COMPONENT BY LIGHT TRANSMISSION
DE19919584A1 (en) 3D recording method and arrangement
WO2013143882A1 (en) Method for the scanning measurement of a dental object, and intraoral scanner
DE102009008747B4 (en) Optical imaging system
DE102013009634B4 (en) Plenoptic imaging procedure
DE102008031412A1 (en) Device i.e. line scanner, for monitoring measuring points on object surface to be measured, has focus plane displaceable parallel to object surface, where object surface is displaceable lateral to focus plane
DE102014222628A1 (en) Measuring the topography and / or the gradient and / or the curvature of a light-reflecting surface of a spectacle lens
DE102019133516B4 (en) Method and device for determining wavelength deviations from recordings of a multi-lens camera system
DE102017001524A1 (en) Arrangement for measuring at least partially reflective surfaces
DE102017220720B4 (en) Method and device for contactless measurement of three-dimensional surface contours
DE102020206768A1 (en) Image acquisition device and method for determining a plenoptic function
DE102009014216B4 (en) Apparatus and method for generating an optical image of a three-dimensional object and electronic image output device
DE102019132712A1 (en) System for measuring objects to be measured
DE102008046964A1 (en) Image recording unit i.e. thermographic camera, for consolidating thermographic images produced by image sensors, has signal processing unit converting signals from optical unit into signals of another optical unit using formula
DE102008046965A1 (en) Image recording unit for fusion of images producing different wavelength sensitivity with sensors, has switching unit provided for switching radiation coming on optical unit from image with wavelength

Legal Events

Date Code Title Description
R086 Non-binding declaration of licensing interest
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee