DE102015011427B4 - Image acquisition system and image evaluation system - Google Patents
Image acquisition system and image evaluation system Download PDFInfo
- Publication number
- DE102015011427B4 DE102015011427B4 DE102015011427.1A DE102015011427A DE102015011427B4 DE 102015011427 B4 DE102015011427 B4 DE 102015011427B4 DE 102015011427 A DE102015011427 A DE 102015011427A DE 102015011427 B4 DE102015011427 B4 DE 102015011427B4
- Authority
- DE
- Germany
- Prior art keywords
- image
- points
- light field
- evaluation system
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2513—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Studio Devices (AREA)
Abstract
Bildaufnahmesystem und Bildauswertesystem (10) zur Bestimmung von geometrischen Raumpunkten und/oder Objektpunkten, mit einer Lichtfeldkamera (12) und mit einer Auswerteeinheit (20), die dazu ausgebildet ist, aus den Daten der Lichtfeldkamera 3D Koordinaten zu ausgewählten Objektpunkten und/oder Raumpunkten zu bestimmen, dadurch gekennzeichnet, dass in einer nachfolgenden Auswertung über eine Phasenrekonstruktion eine Wellenfront bestimmt wird und aus der Wellenfront für die ausgewählten Raumpunkte und/oder Objektpunkte neue 3D Koordinaten mit verbesserter Auflösung bestimmt werden. Image recording system and image evaluation system (10) for determining geometric points in space and / or object points, with a light field camera (12) and with an evaluation unit (20), which is adapted from the data of the light field camera 3D coordinates to selected object points and / or space points determine, characterized in that in a subsequent evaluation via a phase reconstruction, a wavefront is determined and from the wavefront for the selected space points and / or object points new 3D coordinates are determined with improved resolution.
Description
HINTERGRUND DER ERFINDUNGBACKGROUND OF THE INVENTION
GEBIET DER ERFINDUNGFIELD OF THE INVENTION
Die vorliegende Erfindung betrifft ein Bildaufnahmesystem und Bildauswertesystem zur Bestimmung von geometrischen Raumpunkten und/oder Objektpunkten, mit einer Lichtfeldkamera und mit einer Auswerteeinheit, die dazu ausgebildet ist, aus den Daten der Lichtfeldkamera 3D Koordinaten zu ausgewählten Objektpunkten und/oder Raumpunkten zu bestimmenThe present invention relates to an image acquisition system and image evaluation system for determining geometric points in space and / or object points, with a light field camera and with an evaluation unit, which is adapted to determine from the data of the
Die Erfindung betrifft ferner ein Verfahren zum Betrieb eines Bildaufnahmesystems und Bildauswertesystems zur Bestimmung von geometrischen Raumpunkten und/oder Objektpunkten, mit den Schritten: Ausrichten des Bildaufnahmesystems mit der Lichtfeldkamera auf den zu erfassenden Messbereich, Aufnehmen eines Bildes mit der Lichtfeldkamera, Bestimmen von 3D Koordinaten zu ausgewählten Raumpunkten und/oder Objektpunkten aus den Bilddaten der Lichtfeldkamera.The invention further relates to a method for operating an image acquisition system and image evaluation system for determining geometric spatial points and / or object points, comprising the steps of aligning the image acquisition system with the light field camera to the measurement area to be acquired, taking an image with the light field camera, determining 3D coordinates selected spatial points and / or object points from the image data of the light field camera.
STAND DER TECHNIKSTATE OF THE ART
Im Stand der Technik sind unterschiedliche Bildaufnahmesysteme bekannt, die 3D Koordinaten für ausgewählte Raumpunkte und/oder Objektpunkte erfassen können.In the prior art, different image acquisition systems are known, which can capture 3D coordinates for selected spatial points and / or object points.
Die Aufnahme von Bildstapeln oder Schichtbildern, die jeweils mit unterschiedlichem Abstand vom Messobjekt aufgenommen werden, sind eine verbreitete Methode. Je nach gewünschter Tiefenauflösung wird der Abstand zwischen den einzelnen Bildern gewählt und typischerweise wird für den gesamten Bildstapel der gleiche Abstand verwendet.The recording of image stacks or layer images, which are each recorded at different distances from the measurement object, are a common method. Depending on the desired depth resolution, the distance between the individual images is selected and typically the same distance is used for the entire image stack.
Ferner kommen kamerabasierte stereoskopische Messverfahren zur Anwendung. Bei bekannter Anordnung der mindestens 2 Kameras zueinander werden in der nachgeordneten Bildauswertung über Triangulationsbeziehungen dann 3D Koordinaten zu ausgewählten Raumpunkten und/oder Objektpunkten bestimmt. Derartige Systeme werden beispielsweise zur Vermessung technischer Objekte in der industriellen Messtechnik oder in der Medizintechnik eingesetzt.Furthermore, camera-based stereoscopic measuring methods are used. In the case of a known arrangement of the at least two cameras relative to one another, 3D coordinates for selected spatial points and / or object points are then determined in the downstream image analysis via triangulation relationships. Such systems are used for example for the measurement of technical objects in industrial metrology or in medical technology.
Das Triangulationsprinzip wird auch bei plenoptischen Kameras angewendet. Die Begriffe plenoptische Kamera und Lichtfeldkamera werden zum Teil auch synonym verwendet. Eine plenoptische Kamera oder auch Lichtfeldkamera erfasst im Unterschied zu „normalen“ Kameras nicht nur die Lichtintensität des durch eine Optik auf die einzelnen Pixel eines Bildsensors auftreffenden Lichtfeldes in 2D, sondern zusätzlich auch die Richtung der Lichtstrahlen aus denen das erfasste Lichtfeld besteht. Folglich spricht man bei plenoptischen Kameras bzw. Lichtfeldkameras zum Teil von einer 4D-Erfassung des Lichtfeldes. Erreicht wird dies typischerweise dadurch, dass zwischen dem Objektiv und dem Bildaufnahmesensor zusätzlich ein Array von Mikrolinsen angeordnet ist. Jede Linse dieses Mikrolinsenarrays bildet das vom Objektiv erfasste Lichtfeld ausschnittsweise auf einen Teilbereich des Bildaufnahmesensors ab. Der plenoptische Sensor der plenoptischen Kamera, der aus Mikrolinsenarray und Bildaufnahmesensor besteht, wird über die Linsen des Mikrolinsenarrays faktisch in eine Vielzahl lateral benachbarter, getrennter Mikrokameras aufgeteilt. Die von benachbarten Mikrokameras aufgenommen Bilder überlappen dann zumindest teilweise. Die Bilder der benachbarten Mikrokameras sind abhängig von der Einfallsrichtung der Lichtstrahlen gegeneinander verschoben und können zudem verzerrt erscheinen. Daher ist es möglich, neben der 2D-Position von Raumpunkten und/oder Objektpunkten auch noch deren Entfernung von der plenoptischen Kamera zu bestimmen. Dazu werden bei der Auswertung Triangulationsalgorithmen eingesetzt, um den ursprünglichen Objektort aus den Bildern mindestens zweier getrennter Mikrokameras zu rekonstruieren. So können zu ausgewählten Raumpunkten und/oder Objektpunkten dann 3D Koordinaten angegeben werden. Plenoptische Kameras sind in den Patenten
C. Perwaß et al., in „Single lens 3D-camera with extended depth-of-field“, Proc. SPIE 8291, Human Vision and Electronic Imaging XVII, 829108 (17 Februar 2012); doi: 10.1117/12.909882 beschreiben, dass durch das Platzieren eines Mikrolinsenarrays vor einem Bildsensor aus einer normalen Kamera eine 3D-Kamera mit einem Objektiv gebildet werden kann, bei Fokus und Blickwinkel bei einer Aufnahme eines Bildes im Nachhinein geändert werden können. Während das Konzept solcher plenoptischer Kameras seit 1908 bekannt ist, wurden die praktische Anwendung von plenoptischen Kameras erst aufgrund der heute zur Verfügung stehenden hohen Rechenleistungen und der kostengünstigen Hardware sowie die Fortschritte bei der Herstellung von Mikrolinsen-Arrays möglich. Die Autoren präsentiert eine detaillierte Analyse von plenoptischen Kameras sowie die Einführung einer neuen Art von plenoptischer Kamera mit einer erweiterten Tiefenschärfe und einer maximalen effektiven Auflösung von bis zu einem Viertel der Sensorauflösung.C. Perwaß et al., In "Single-
Ein anderer Ansatz wird bei Triangulationssensoren verfolgt. Verbreitet sind Lasertriangulationssensoren und Sensoren mit Streifenprojektion. Bei Laserprojektionssensoren wird das Messobjekt mit einem in einer Ebene fächerförmig aufgeweiteten Laserstrahl beleuchtet. Das Bildaufnahmesystem mit der Kamera ist um den Triangulationswinkel gegenüber dem Fächer geneigt und symmetrisch zum Fächer angeordnet. Das optische System des Bildaufnahmesystems ist dabei als Scheimpflugsystem ausgeführt. Bei Sensoren zur Streifenprojekten wird ein Streifenmuster auf das Messobjekt projiziert und das auf der Objektoberfläche entstehende Muster mit mindestens einer Kamera aufgenommen. Typische Aufbauten solcher Sensoren und Anwendungen sind in den Schriften
Ferner sind Fokusverfahren bekannt, bei denen ausgewählte Bereiche des Messvolumens in den Fokus der bildaufnehmenden Optik gebracht werden. Zur Erfassung größerer Messvolumen werden dann Bildstapel aus Bildern mit unterschiedlichen Fokuslagen aufgenommen.Furthermore, focus methods are known in which selected areas of the measuring volume are brought into the focus of the image-receiving optics. To capture larger measurement volumes then image stacks are taken from images with different focal positions.
Bei chromatischen Sensoren werden für unterschiedliche Farben des Lichts unterschiedliche Ebenen des Messvolumens scharf auf den Sensor abgebildet. Zur Trennung der Farbinformation wird meist eine konfokale Blende eingesetzt, von der aus das austretende Beleuchtungslicht mit einem optischen System, das einem bekannten Farbfehler in Richtung der optischen Achse aufweist, auf das Messobjekt abgebildet. Für die Wellenlänge, für die der Fokus der Beleuchtung auf der Objektoberfläche liegt, wird das Licht in den Beleuchtungsstrahlengang am effizientes zurück reflektiert und wieder auf die konfokale Blende abgebildet. So wird die Lichtfarbe für das an der Oberfläche reflektierte Licht mit den geringsten Verlusten wieder durch die Blende abgebildet. Hinter der konfokalen Blende wird das zurückkommende Licht spektral ausgewertet. Die Lichtwellenlänge mit der höchsten Intensität repräsentiert die Objektoberfläche. Die Tiefeninformation des Messobjekts erscheint entsprechend der Farbaufspaltung des Lichtes in der Optik in einer Farbcodierung im Bild. Gebräuchlich sind unterschiedliche Ausführungsformen chromatischer Sensoren mit punktförmig, linienförmig oder flächenhaft messenden Sensoren.With chromatic sensors, different levels of the measurement volume are sharply imaged onto the sensor for different colors of the light. For separation of the color information, a confocal diaphragm is usually used, from which the emerging illumination light is imaged onto the measurement object with an optical system which has a known chromatic aberration in the direction of the optical axis. For the wavelength at which the focus of the illumination lies on the object surface, the light is more efficiently reflected back into the illumination beam path and imaged back onto the confocal diaphragm. Thus, the light color for the light reflected at the surface with the least loss is imaged again through the aperture. Behind the confocal aperture, the returning light is spectrally evaluated. The light wavelength with the highest intensity represents the object surface. The depth information of the measurement object appears corresponding to the color splitting of the light in the optics in a color coding in the image. Commonly used are different embodiments of chromatic sensors with punctiform, linear or planar measuring sensors.
Der Aufbau der zuvor beschriebenen plenoptischen Kamera mit einem Mikrolinsenarray ähnelt dem Aufbau eines Hartmann-Shack-Wellenfrontsensors. Hartmann-Shack-Sensoren sind bekannt und werden zur Bestimmung der Wellenfront einer elektromagnetischen Welle eingesetzt. Die Wellenfront enthält die vollständige Information über das gemessene Lichtfeld, also die lateral aufgelöste Amplitudenverteilung und die zugehörige lateral aufgelöste Phasenverteilung an jedem Punkt der Wellenfront. Mit dem Hartmann-Shack-Wellenfrontsensor werden mehrere Bilder jeweils an axial unterschiedlichen Positionen in dem zu vermessenden Lichtfeld aus einzelnen und deutlich getrennten Leuchtpunkten in einem Bildstapel bzw. Schichtbild aufgenommen. Zur Rekonstruktion der Wellenfront aus diesen Schichtbildern bzw. Bildstapeln sind verschiedene Algorithmen zur Phasenrekonstruktion, auch phase retrieval genannt, bekannt. Einer wurde von R.G. Lane in dem Tagungsband der IEEE International Conference on Image Processing im Jahre 1997 in dem Beitrag unter dem Titel „Phase retrieval as a means of wavefront sensing“ veröffentlicht. Das Patent
OFFENBARUNG DER ERFINDUNGDISCLOSURE OF THE INVENTION
AUFGABE DER ERFINDUNGOBJECT OF THE INVENTION
Es ist deshalb Aufgabe der vorliegenden Erfindung, ein Bildaufnahmesystem und Bildauswertesystem und ein Verfahren der eingangs genannten Art anzugeben, die auf effiziente Weise eine höhere Messgenauigkeit ermöglichen.It is therefore an object of the present invention to provide an image acquisition system and image evaluation system and a method of the type mentioned, which allow efficient way to a higher measurement accuracy.
TECHNISCHE LÖSUNGTECHNICAL SOLUTION
Gemäß einem Aspekt der vorliegenden Erfindung wird diese Aufgabe durch ein Bildaufnahmesystem und Bildauswertesystem der eingangs genannten Art gelöst, indem in einer nachfolgenden Auswertung über eine Phasenrekonstruktion eine Wellenfront bestimmt wird und aus der Wellenfront für die ausgewählten Raumpunkte und/oder Objektpunkte neue 3D Koordinaten mit verbesserter Auflösung bestimmt werden.According to one aspect of the present invention, this object is achieved by an image acquisition system and image evaluation system of the type mentioned above by determining a wavefront in a subsequent evaluation via a phase reconstruction and new 3D coordinates with improved resolution from the wavefront for the selected spatial points and / or object points be determined.
Gemäß einem weiteren Aspekt der Erfindung wird diese Aufgabe durch ein Verfahren der eingangs genannten Art gelöst, mit den weiteren Schritten: Rekonstruktion der Phasenverteilung des mit der Lichtfeldkamera aufgenommenen Lichtfeldes, Auswerten des rekonstruierten optischen Lichtfeldes zur Bestimmung von 3D Koordinaten für die ausgewählten Raumpunkte und/oder Objektpunkte.According to a further aspect of the invention, this object is achieved by a method of the type mentioned above, with the further steps: reconstruction of the phase distribution of the light field recorded with the light field camera, evaluation of the reconstructed optical light field for determining 3D coordinates for the selected space points and / or object points.
Das neue Bildaufnahmesystem und Bildauswertesystem verwendet eine plenoptische Kamera zur Aufnahme der Messbilder. Die plenoptische Kamera bzw. Lichtfeldkamera besteht dabei aus einer Kombination von plenoptischer Sensoreinheit und einem Objektiv, das ggf. auch wechselbar ausgeführt sein kann.The new image acquisition system and image evaluation system uses a plenoptic camera to record the measurement images. The plenoptic camera or light field camera consists of a combination of plenoptic sensor unit and a lens, which may optionally be designed to be changeable.
Die mit Hilfe der Lichtfeldkamera bestimmten 3D Koordinaten für ausgewählte Raumpunkte und/oder Objektpunkte dienen hierbei als Startwerte für die Rekonstruktion der Phase des mit der Lichtfeldkamera aufgenommenen Lichtfeldes. Aus dem rekonstruierten Lichtfeld werden erneut 3D Koordinaten für die ausgewählten Raumpunkte und/oder Objektpunkte bestimmt und diese repräsentieren die geometrische Lage der ausgewählten Raumpunkte und/oder Messpunkte, die mit Hilfe des neuen Bildaufnahmesystems und Bildauswertesystems bestimmt werden.The 3D coordinates for selected spatial points and / or object points determined with the aid of the light field camera serve as starting values for the reconstruction of the phase of the light field recorded with the light field camera. From the reconstructed light field again 3D coordinates for the selected space points and / or object points are determined and these represent the geometric position of the selected space points and / or measurement points, which are determined using the new image recording system and image evaluation.
Die plenoptische Sensoreinheit besteht zumindest aus einem Bildaufnahmesensor und einem Mikrolinsenarray. Die Anordnung von Bildaufnahmesensor und Mikrolinsenarray zueinander ist bekannt und kann beispielsweise über eine Tragstruktur erfolgen, die auch zur Minimierung thermischer Effekte ausgebildet sein kann. Bevorzugt sind die Ebenen von Bildaufnahmesensor und Mikrolinsenarray zueinander parallel und in einem definierten optischen Abstand angeordnet. Dieser definierte Abstand kann ggf. variabel einstellbar ausführt sein kann, damit er zwischen aufeinanderfolgenden Bildaufnahmen veränderbar ist. Dazu kann beispielsweise die optische Weglänge zwischen Mikrolinsenarray und Bildaufnahmesensor über den Brechungsindex des Mediums in diesem Bereich und/oder eine Veränderung des mechanischen Abstandes von Mikrolinsenarray und Bildaufnahmesensor verändert werden. Alternativ bzw. ergänzend kann die Brechkraft der Linsen im Mikrolinsenarray veränderbar ausgeführt sein. Die laterale Ausdehnung einer Mikrolinse im Mikrolinsenarray kann günstiger weise als ganzzahliges Vielfaches der Kantenlänge eines Pixels des Bildaufnahmesensors gewählt werden. Besonders bevorzugt ist es, wenn die Ausdehnung einer Mikrolinse einem ungeradzahligen Vielfachen der Kantenlänge eines Pixels entspricht. Besonders vorteilhaft ist es, wenn das Array der Vielzahl von Mikrolinsen und das Pixelmuster des Bildaufnahmesensors so zueinander ausgerichtet werden, dass die Teilung zwischen benachbarten Mikrolinsen mit der Pixelteilung des Bildaufnahmesensors übereinstimmt. Dadurch werden benachbarte Teilbereiche des Bildaufnahmesensors, die das Bild von unterschiedlichen Mikrolinsen empfangen, bestmöglich voneinander getrennt und ein mögliches Übersprechend zwischen benachbarten unabhängigen Mikrokameras minimiert. Zudem wird so die Mitte jedes Teilbereichs des Bildaufnahmesensors auf die optische Achse der jeweiligen Mikrolinse zentriert. Bei ungerader Pixelzahl wird so jeweils das zentrale Pixel jedes Teilbereichs des Bildaufnahmesensors auf die optische Achse der zugehörigen Mikrolinse zentriert. Die Anordnung der Mikrolinsen im Mikrolinsenarray kann bevorzugt in rechteckiger, quadratischer oder hexagonaler Anordnung erfolgen, um einen möglichst hohen Füllfaktor der Linsenfläche an der Gesamtfläche des Mikrolinsenarrays zu erhalten.The plenoptic sensor unit consists of at least one image acquisition sensor and a microlens array. The arrangement of image acquisition sensor and microlens array to each other is known and can be done for example via a support structure, which can also be designed to minimize thermal effects. Preferably, the planes of the image sensor and the microlens array are arranged parallel to one another and at a defined optical distance. This defined distance can optionally be made variably adjustable so that it can be changed between successive image recordings. For this purpose, for example, the optical path length between the microlens array and the image acquisition sensor via the refractive index of the medium in this area and / or a change in the mechanical distance of the microlens array and the image acquisition sensor can be changed. Alternatively or additionally, the refractive power of the lenses in the microlens array can be made variable. The lateral extent of a microlens in the microlens array can be favorably chosen as an integer multiple of the edge length of a pixel of the image sensor. It is particularly preferred if the extent of a microlens corresponds to an odd-numbered multiple of the edge length of a pixel. It is particularly advantageous if the array of the plurality of microlenses and the pixel pattern of the image sensor are aligned with one another in such a way that the pitch between adjacent microlenses coincides with the pixel pitch of the image sensor. As a result, adjacent portions of the imaging sensor that receive the image from different microlenses are optimally separated from each other and minimizes possible interference between adjacent independent microcameras. In addition, the center of each subarea of the image sensor is thus centered on the optical axis of the respective microlens. With an odd number of pixels, the central pixel of each subarea of the image sensor is thus centered on the optical axis of the associated microlens. The arrangement of the microlenses in the microlens array can preferably take place in a rectangular, square or hexagonal arrangement in order to obtain the highest possible fill factor of the lens surface on the entire surface of the microlens array.
In einer weiteren Ausgestaltung ist das Bildaufnahmesystem und Bildauswertesystem dazu ausgebildet, bei der Auswertung die unterschiedlichen Abbildungseigenschaften der Mikrolinsen des Mikrolinsenarrays zu berücksichtigen.In a further refinement, the image acquisition system and the image evaluation system are designed to take into account the different imaging properties of the microlenses of the microlens array during the evaluation.
Diese Ausgestaltung kann der tatsächlichen Eigenschaft der Mikrolinsen im Mikrolinsenarray Rechnung tragen. Es können alle Mikrolinsen gleich ausgeführt sein oder die Anordnung der Mikrolinsen kann eine räumlich bekannte Verteilung mit Linsen unterschiedlicher Brechkraft aufweisen. Ferner können die Mikrolinsen unterschiedliche chromatische Abbildungsfehler aufweisen, die es bei der Auswertung zu berücksichtigen gilt. Ferner ist es möglich, dass die Brechkraft der Mikrolinsen für eine Aufnahme variabel eingestellt werden kann. In dem Bildaufnahmesystem und Bildauswertesystem kann die Information zur optischen Wirkung jeder einzelnen Linse des Mikrolinsenarrays hinterlegt sein.This embodiment can take into account the actual property of the microlenses in the microlens array. All microlenses can be the same or the arrangement of the microlenses can have a spatially known distribution with lenses of different refractive power. Furthermore, the microlenses may have different chromatic aberrations, which should be considered in the evaluation. Furthermore, it is possible that the refractive power of the microlenses for a recording can be variably adjusted. In the image acquisition system and image evaluation system, the information about the optical effect of each individual lens of the microlens array can be stored.
In einer weiteren Ausgestaltung besitzt das Bildaufnahmesystem und Bildauswertesystem ein Blendengitter, das mit Stegen oder einem Array aus Lochblenden ausgeführt ist, das die Übergänge von einer Mikrolinse zu den im Array benachbarten Mikrolinsen überdeckt.In a further embodiment, the image acquisition system and image evaluation system has a diaphragm grille which is embodied with webs or an array of pinhole diaphragms which covers the transitions from a microlens to the microlenses adjacent to the array.
Diese Ausgestaltung ermöglicht es in vorteilhafter Weise, Streulichteffekte bzw. das Übersprechen vom Bildbereich einer Mikrokamera zu einer Mikrolinse in einen benachbarten Bildbereich einer weiteren Mikrokamera mit einer weiteren Mikrolinse zu reduzieren. Dadurch trägt diese Ausgestaltung vorteilhaft dazu bei, das Signal-Rausch-Verhältnis bei der Abbildung zu verbessern und so die Messgenauigkeit beim Bestimmen der 3D Koordinaten mit der Lichtfeldkamera zu erhöhen.This refinement advantageously makes it possible to reduce stray light effects or the crosstalk from the image area of a microcamera to a microlens in an adjacent image area of another microcamera with a further microlens. As a result, this refinement advantageously contributes to improving the signal-to-noise ratio in the imaging and thus to increase the measurement accuracy when determining the 3D coordinates with the light field camera.
In einer weiteren Ausgestaltung weist die Lichtfeldkamera ein telezentrisches Objektiv auf.In a further embodiment, the light field camera has a telecentric lens.
Ein telezentrisches Objektiv weist die besondere Eigenschaft auf, dass die sogenannte Eintrittspupille und/oder die Austrittspupille im Unendlichen liegt. Liegen sowohl die Eintrittspupille als auch die Austrittspupille im Unendlichen, so liegt ein beidseitig telezentrisches Objektiv vor. Liegt nur die Eintrittspupille im Unendlichen, so ist das Objektiv objektseitig telezentrisch. Liegt nur die Austrittspupille im Unendlichen, so ist das Objektiv bildseitig telezentrisch. Bei der telezentrischen Abbildung liegen für jeden Objektpunkt und/oder Bildpunkt die Symmetrieachsen des bei der Abbildung genutzten Lichtkegels parallel zur optischen Achse der Optik. Dadurch wird der Abbildungsmaßstab der Abbildung innerhalb des telezentrischen Arbeitsbereichs der Optik weitgehend unabhängig vom Objektabstand und bleibt näherungsweise konstant. Diese Eigenschaft einer telezentrischen Optik lässt sich - entgegen bisheriger Erwartungen - auch in Kombination mit einer plenoptischen Kamera nutzen. Dies belegen die Ergebnisse von Untersuchungen des Anmelders, die sogar eine besondere Eignung telezentrischer Optik für messtechnische Aufgaben mit plenoptischen Kameras an unterschiedlichen Messobjekten und auch mit unterschiedlichen Wellenlängenbereichen der Messwellenlänge im sichtbaren und nahen Infrarotbereich aufzeigen. Besonders vorteilhaft ist es, wenn es für die plenoptische Kamera einen spezifischen Satz Kalibrierdaten gibt, den das Bildaufnahmesystem und Bildauswertesystem beinhaltet, der separat und unabhängig von den Kalibrierdaten des verwendeten Objektivs ist. Für die technische Anwendung ist es von besonderem Vorteil, wenn das Objektiv mit der plenoptischen Kamera stabil und mit bekannter relativer Anordnung gekoppelt werden kann, damit ein vollständiger Kalibrierdatensatz für das verwendete Abbildungssystem aus dem Kalibrierdatensatz für die plenoptische Sensoreinheit und dem Kalibrierdatensatz für das verwendete Objektiv in dem Bildaufnahmesystem und Bildauswertesystem bestimmt werden kann.A telecentric lens has the special property that the so-called entrance pupil and / or the exit pupil lies at infinity. If both the entrance pupil and the exit pupil lie at infinity, then there is a two-sided telecentric objective. If only the entrance pupil lies at infinity, the objective is telecentric on the object side. If only the exit pupil lies at infinity, then the objective is telecentric on the image side. In the case of the telecentric imaging, the symmetry axes of the light cone used in the imaging are parallel to the optical axis of the optics for each object point and / or pixel. As a result, the image scale of the image within the telecentric operating range of the optics is largely independent of the object distance and remains approximately constant. This property of a telecentric optics can - contrary to previous expectations - also be used in combination with a plenoptic camera. This is confirmed by the results of investigations by the applicant, the even demonstrate the particular suitability of telecentric optics for metrological tasks with plenoptic cameras on different measurement objects and also with different wavelength ranges of the measurement wavelength in the visible and near infrared range. It is particularly advantageous if there is a specific set of calibration data for the plenoptic camera which the image acquisition system and image evaluation system contain, which is separate and independent of the calibration data of the objective used. For technical application, it is particularly advantageous if the lens can be coupled with the plenoptic camera stable and with known relative arrangement, so that a complete calibration record for the imaging system used from the calibration data set for the plenoptic sensor unit and the calibration data set for the lens used in the image acquisition system and image evaluation can be determined.
Die Messung von Objektpunkten bezeichnet die Erfassung und Bestimmung von 3D Koordinaten von Punkten in einem für optische Messungen zugänglichen Bereich von Messobjekten. Die Objektpunkte und deren unmittelbare Umgebung sind dabei unmittelbar mit der plenoptischen Kamera erfassbar. Dazu muss der Objektpunkt und seine unmittelbare Umgebung hinreichend kooperativ für die optische Abbildung sein, damit genügend Messsignal beispielsweise von Strukturen, Farbwechseln und/oder Oberflächenstreuung des Messobjektes durch Rauheiten und/oder Texturen vorhanden ist, und mit der Kamera erfasst werden kann. Für die Abbildung von Objektpunkten ist eine homogene Beleuchtung des zu erfassenden Objektbereichs ausreichend. Es kann beispielsweise die natürliche Beleuchtung, das Umgebungslicht oder das Licht einer Beleuchtungseinheit verwendet werden, die beispielsweise von dem Bildaufnahmesystem und Bildauswertesystem in einer weiteren Ausführungsform ergänzend bereitgestellt wird. Ein kontrastreiches Bild des Messobjekts ist Grundlage für die sichere Funktion der Auswertealgorithmik für die plenotischen Bilder zur Ermittlung des ersten 3D Datensatzes und zur Berechnung eines Bildstapels. The measurement of object points refers to the detection and determination of 3D coordinates of points in a range of measurement objects accessible for optical measurements. The object points and their immediate surroundings are directly detectable with the plenoptic camera. For this purpose, the object point and its immediate surroundings must be sufficiently cooperative for the optical image, so that sufficient measurement signal, for example of structures, color changes and / or surface scattering of the measurement object due to roughness and / or textures, can be detected with the camera. For the imaging of object points, a homogeneous illumination of the object area to be detected is sufficient. For example, it is possible to use the natural illumination, the ambient light or the light of a lighting unit, which is additionally provided, for example, by the image recording system and image evaluation system in a further embodiment. A high-contrast image of the measurement object is the basis for the reliable function of the evaluation algorithm for the plenetic images for determining the first 3D data set and for calculating a picture stack.
Die Messung von Raumpunkten bezeichnet die Erfassung und Bestimmung von 3D Koordinaten von Punkten in einem für optische Messungen zugänglichen Bereich eines Messobjekts. Die Raumpunkte und deren unmittelbare Umgebung sind dabei nicht unmittelbar mit der plenoptischen Kamera mit einem für die nachfolgende Auswertung hinreichend kontrastreichen Bild erfassbar. Raumpunkte und deren unmittelbare Umgebung sind a priori nicht hinreichend kooperativ für die optische Abbildung. Das neue Bildaufnahmesystem und Bildauswertesystem weist alternativ und ergänzend eine Beleuchtungseinheit mit Musterprojektor auf, der dazu ausgebildet ist, ein definiertes Lichtmuster mit einer Vielzahl von voneinander beabstandeten Lichtfiguren in den Erfassungsbereich der Lichtfeldkamera zu projizieren. Die Lichtfiguren können dabei durch lokale Variation der Beleuchtungsstärke und/oder Beleuchtungswellenlänge erzeugt werden. Auf dem Messobjekt im Erfassungsbereich der Lichtfeldkamera entstehen so Lichtmuster aufgrund der Beleuchtung, die für die nachfolgende Auswertung verwendet werden können. Es ist auch möglich, Raumpunkte und Objektpunkte in einer Bildaufnahme mit der Beleuchtung mit Musterprojektor zu erfassen.The measurement of spatial points refers to the detection and determination of 3D coordinates of points in an area of a measurement object accessible for optical measurements. The spatial points and their immediate surroundings are not directly detectable with the plenoptic camera with an image sufficiently rich in contrast for the subsequent evaluation. Space points and their immediate surroundings are not a priori sufficiently cooperative for optical imaging. The new image acquisition system and image evaluation system alternatively and additionally has a lighting unit with a pattern projector, which is designed to project a defined light pattern with a multiplicity of spaced-apart light figures into the detection area of the light field camera. The light patterns can be generated by local variation of the illuminance and / or illumination wavelength. On the measurement object in the detection area of the light field camera, light patterns thus arise due to the illumination, which can be used for the subsequent evaluation. It is also possible to capture spatial points and object points in an image acquisition with the illumination with pattern projector.
In einer weiteren Ausgestaltung kann das Bildaufnahmesystem und Bildauswertesystem ferner dazu ausgebildet sein, eine Folge von Bildern mit der plenoptischen Kamera aufzunehmen, bei denen jeweils unterschiedliche Lichtfiguren in den Erfassungsbereich der plenoptischen Kamera projiziert werden. Das Bildaufnahmesystem und Bildauswertesystem kann ferner dazu ausgebildet sein, das projizierte Lichtmuster dem jeweiligen Messbild zuzuordnen.In a further refinement, the image acquisition system and image evaluation system can also be designed to record a sequence of images with the plenoptic camera, in which different light patterns are respectively projected into the detection range of the plenoptic camera. The image acquisition system and image evaluation system can also be designed to associate the projected light pattern with the respective measurement image.
In einer weiteren Ausgestaltung kann das Bildaufnahmesystem und Bildauswertesystem dazu ausgebildet sein, den Musterprojektor derart anzusteuern, dass die projizierten Lichtmuster mit den benachbarten Lichtfiguren so gewählt werden, dass das Messobjekt im Erfassungsbereich der plenoptischen Kamera mit einer vorgegebenen Anzahl von Raumpunkten erfasst wird. Besonders bevorzugt kann das Bildaufnahmesystem und Bildauswertesystem zur Bestimmung der Lichtmuster für die Ansteuerung des Musterprojektors Ergebnisse einer früheren Bildaufnahme und Bildauswertung eines Bildes der plenoptischen Kamera verwenden.In a further refinement, the image acquisition system and image evaluation system can be configured to control the pattern projector in such a way that the projected light patterns with the adjacent light figures are selected such that the measurement object is detected with a predetermined number of spatial points in the detection range of the plenoptic camera. Particularly preferably, the image acquisition system and image evaluation system for determining the light patterns for the control of the pattern projector can use the results of an earlier image acquisition and image evaluation of an image of the plenoptic camera.
In dieser Ausgestaltung ist die Ansteuerung mit angepassten Lichtmustern besonders vorteilhaft vor allem bei unbekannten Messobjekten oder bekannten Messobjekten in unbekannter Anordnung im Erfassungsbereich der plenoptischen Kamera. Zudem bietet eine Anpassung der Lichtmuster den Vorteil zur Minimierung der Anzahl benötigter Bildaufnahmen für eine bestimmte Messgenauigkeit. Dadurch kann die benötigte Messzeit für eine vollständige Messung minimiert und die Produktivität des Bildaufnahmesystems und Bildauswertesystems gesteigert werden.In this embodiment, the control with adapted light patterns is particularly advantageous, especially with unknown measurement objects or known measurement objects in an unknown arrangement in the detection range of the plenoptic camera. In addition, an adaptation of the light pattern offers the advantage of minimizing the number of images required for a specific measurement accuracy. This minimizes the required measurement time for a complete measurement and increases the productivity of the image acquisition system and image evaluation system.
Das gebräuchliche Verfahren bzw. Funktionsprinzip zur Auswertung der Bilder in der plenoptischen Kamera kann für einen groben Überblick wie folgt beschrieben werden: Jede Mikrolinse der plenoptischen Sensoreinheit bildet, wie bereits weiter vorne beschrieben, mit einem zugehörigen Ausschnitt des Bildaufnahmesensors eine Mikrokamera. Diese Mikrokamera bildet zumindest einen Ausschnitt des vom Objektiv erfassten Lichtfeldes auf einen Ausschnitt des Bildaufnahmesensors ab. Für jeden Bildpunkt kann dann über eine Rückprojektion vom Auftreffort des Lichts auf dem Bildaufnahmesensor durch die Mitte der benutzten zugehörigen Mikrolinse des Mikrolinsenarrays eine Richtung bestimmt werden, aus der der Lichtstrahl für diesen Bildpunkt gekommen ist.The conventional method or functional principle for evaluating the images in the plenoptic camera can be described as follows for a rough overview: As already described above, each microlens of the plenoptic sensor unit forms a microcamera with an associated section of the image acquisition sensor. This micro-camera forms at least a section of the light field detected by the lens a section of the image sensor from. For each pixel, a direction from which the light beam has come for this pixel can then be determined by means of a back projection from the point of incidence of the light on the image acquisition sensor through the center of the microlens array used microlens used.
Für benachbarte Mikrolinsen ist das Bild der jeweiligen Mikrokamera auf dem Bildaufnahmesensor gegenüber dem der zuerst betrachteten Kamera in der Lage und/oder Größe verschoben und möglicherweise verzerrt abgebildet. Folglich führt die Rückprojektion zu dem entsprechenden Bildpunkt für jede der benachbarten Mikrokameras zu einem andersartig geneigten Strahl. Alle rückprojizierten Strahlen zu Bildern von benachbarten Mikrokameras auf dem Bildaufnahmesensor, die den entsprechenden Bildpunkt enthalten, schneiden sich bei einem idealen optischen System ohne Abbildungsfehler in einem Schnittpunkt. Dieser Schnittpunkt bestimmt den Abstand zu einer Referenzebene des optischen Systems bzw. der Ebene des Bildaufnahmesensors und damit die dritte Koordinate des Bildpunktes. Die lateralen 2D Koordinaten dieses Bildpunktes ergeben sich aus dem Bild derjenigen Mikrokamera, wo der entsprechende Bildpunkt auf dem Bildaufnahmesensor auf der optischen Achse der zugehörigen Mikrolinse liegt. Ist diese Bedingung nicht exakt erfüllt, kann die Position aus den Bildern benachbarter Mikrokameras entsprechend interpoliert werden. Um die Orte entsprechender Bildpunkte in den benachbarten Mikrokamerabildern auf dem Bildaufnahmesensor zu bestimmen, werden typischerweise in der digitalen Bildverarbeitung bekannte Korrelationsmethoden und Korrelationsalgorithmen verwendet.For adjacent microlenses, the image of the respective microcamera on the imaging sensor is shifted in position and / or size relative to that of the first-viewed camera and possibly distorted. Consequently, the back projection to the corresponding pixel for each of the adjacent microcameras results in a different tilted beam. All backprojected beams to images from adjacent microcameras on the imaging sensor containing the corresponding pixel intersect at an intersection point in an ideal optical system with no aberrations. This intersection determines the distance to a reference plane of the optical system or the plane of the image sensor and thus the third coordinate of the pixel. The lateral 2D coordinates of this pixel result from the image of that microcamera, where the corresponding pixel on the image sensor is located on the optical axis of the associated microlens. If this condition is not met exactly, the position from the images of neighboring microcameras can be interpolated accordingly. In order to determine the locations of corresponding pixels in the adjacent micro-camera images on the imaging sensor, known correlation methods and correlation algorithms are typically used in digital image processing.
In einer weiteren Ausgestaltung kann das Bildaufnahmesystem und Bildauswertesystem dazu ausgebildet sein, eine Kennzahl für die Genauigkeit der ermittelten Tiefeninformation anzugeben.In a further refinement, the image acquisition system and image evaluation system can be designed to provide an index of the accuracy of the determined depth information.
In dieser Ausgestaltung wird das Bildaufnahmesystem und Bildauswertesystem zur Steigerung der Messgenauigkeit weiter entwickelt, die technischen Limitationen realer optischer Systeme zu berücksichtigen. Es kann vorkommen, dass sich die rückprojizierten Strahlen eines Bildpunktes nicht bzw. nicht alle in einem Punkt schneiden. Je zwei dieser rückprojizierten Strahlen schneiden sich entweder in einem Punkt oder sie liegen windschief zueinander. Für den Fall windschiefer Strahlen kann der Ort des geringsten Abstands als Ersatz für Schnittpunkt angenommen werden, in dem dazu beispielsweise der Mittelpunkt der kürzesten Verbindung zwischen den beiden windschiefen Strahlen bestimmt wird. Es bildet sich folglich ein Bereich aus, in dem die Schnittpunkte bzw. Ersatzpunkte für Schnittpunkte zu den rückprojizierten Strahlen liegen. Die Größe dieses Bereichs und insbesondere seine laterale wie longitudinale Ausdehnung können als Gütekriterium bzw. Kennzahl für die Genauigkeit für den ermittelten Abstand zur Referenzebene und damit für die Tiefeninformation dienen.In this embodiment, the image acquisition system and image evaluation system to increase the measurement accuracy is further developed to take into account the technical limitations of real optical systems. It may happen that the back-projected rays of a pixel do not intersect or not all in one point. Each of these two back-projected rays either intersect at one point or are skewed to each other. In the case of wind-shafts, the location of the shortest distance can be taken as a substitute for the intersection, for example by determining the center of the shortest connection between the two skewed beams. Consequently, an area is formed in which the intersections or substitute points for intersections lie with the backprojected beams. The size of this area and in particular its lateral and longitudinal extent can serve as a quality criterion or characteristic number for the accuracy for the determined distance to the reference plane and thus for the depth information.
In einer weiteren Ausgestaltung kann das Bildaufnahmesystem und Bildauswertesystem dazu ausgebildet sein, in den Bildern der Kameras auf dem Bildaufnahmesensor zur präziseren Bestimmung der 3D Bildpunkte auf dem Bildaufnahmesensor eine Kanten-, Formen-, Objekt- und/oder Strukturerkennung durchzuführen. Derartige Algorithmen sind in der industriellen Bildverarbeitung bekannt und detailliert beschrieben oder auch in open source Software wie OpenGL (www.opengl.org) als ausführbarer Computercode unmittelbar verfügbar. Dadurch können die einzelnen Bildpunkte ausgewählter Objektpunkte und/oder Raumpunkte präziser bestimmt werden. Typisch liegt der Genauigkeitsgewinn durch den Mittelungsprozess bei der Strukturbestimmung in einer Stufe bei einem Faktor im Bereich von 5 bis 20 und wird in der Literatur oft pauschal mit einem Faktor 10 angegeben. Werden komplexere Strukturen wie Kreise oder andere flächige Strukturen bestimmt, so kann der Genauigkeitsgewinn auch einen Faktor 100 und größer erreichen.In a further refinement, the image acquisition system and image evaluation system can be designed to perform edge, shape, object and / or structure recognition in the images of the cameras on the image acquisition sensor for more precise determination of the 3D pixels on the image acquisition sensor. Such algorithms are known and described in detail in industrial image processing or are readily available in open source software such as OpenGL (www.opengl.org) as executable computer code. As a result, the individual pixels of selected object points and / or spatial points can be determined more precisely. Typically, the gain in accuracy through the averaging process of one-step structure determination is in the range of 5 to 20 and is often reported as a factor of 10 in the literature. If more complex structures such as circles or other planar structures are determined, the accuracy gain can also reach a factor of 100 and greater.
Im Rahmen dieser Patentanmeldung ist von besonderer Bedeutung, daß die Genauigkeitssteigerung bei der Bestimmung von Objektpunkten und/oder Raumpunkten vor der Rückprojektion zur Bestimmung der 3D Koordinate die Genauigkeit der Bestimmung dieser 3D Koordinate um einen entsprechenden Faktor steigern kann.In the context of this patent application, it is of particular importance that the increase in accuracy in the determination of object points and / or spatial points before the backprojection for determining the 3D coordinate can increase the accuracy of the determination of this 3D coordinate by a corresponding factor.
In einer weiteren Ausgestaltung kann das Bildaufnahmesystem und Bildauswertesystem dazu ausgebildet sein, aus den Bildern der Mikrokameras auf dem Bildaufnahmesensor der plenoptischen Kamera über Kanten-, Formen- und/oder Strukturerkennung präziser bestimmte 3D Koordinaten der Bildpunkte zu ausgewählten Objektpunkten und/oder Raumpunkten zu bestimmen. In einer bevorzugten Variante der Ausgestaltung kann aus den Bilddaten der plenoptischen Kamera ein Bildstapel mit einer Vielzahl von Bildebenen entlang der optischen Achse der Abbildungsoptik der plenoptischen Kamera bestimmt werden.In a further refinement, the image acquisition system and image evaluation system can be designed to more precisely determine specific 3D coordinates of the pixels from selected image points and / or spatial points from the images of the microcameras on the image acquisition sensor of the plenoptic camera via edge, shape and / or texture recognition. In a preferred variant of the embodiment, an image stack having a multiplicity of image planes along the optical axis of the imaging optics of the plenoptic camera can be determined from the image data of the plenoptic camera.
In einer weiteren Ausgestaltung kann das Bildaufnahmesystem und Bildauswertesystem dazu ausgebildet sein, über eine Phasenrekonstruktion zu den 3D Daten der plenoptischen Kamera das zugehörige Lichtfeld zu berechnen. Besonders bevorzugt können bei der Phasenrekonstruktion die Kennzahlen für die Genauigkeit der ermittelten Tiefeninformation mit berücksichtigt werden.In a further embodiment, the image acquisition system and image evaluation system can be designed to calculate the associated light field via a phase reconstruction to the 3D data of the plenoptic camera. Particularly preferably, the characteristics for the accuracy of the determined depth information can be taken into account in the phase reconstruction.
Dazu verwendet das Bildaufnahmesystem und Bildauswertesystem in vorteilhafter Weise einen iterativen Algorithmus. Ein vorteilhaftes Verfahren für die Phasenrekonstruktion ist in
In einer weiteren Ausgestaltung kann das Bildaufnahmesystem und Bildauswertesystem dazu ausgebildet sein, einen Kalibrierdatensatz zur Kompensation geometrischer Verzerrungen im rechnerisch bestimmten Lichtfeld vorzuhalten und eine Korrektur durchzuführen.In a further refinement, the image acquisition system and image evaluation system can be designed to provide a calibration data record for compensating geometrical distortions in the computationally determined light field and to carry out a correction.
Bei der Bestimmung des Lichtfeldes können systematische geometrische Verzeichnungen auftreten, die sich mit Messobjekten bekannter Geometrie und Anordnung bestimmen lassen und mit einem Korrekturdatensatz beschrieben werden können. Bei nachfolgenden Messungen können dann geometrische Verzeichnungen mit einer rechnerischen Korrektur korrigiert werden.When determining the light field, systematic geometric distortions can occur which can be determined with measurement objects of known geometry and arrangement and can be described using a correction data record. In subsequent measurements geometric distortions can then be corrected with a computational correction.
In einer weiteren Ausgestaltung kann das Bildaufnahmesystem und Bildauswertesystem dazu ausgebildet sein, das Lichtfeld in Bezug auf geometrische Eigenschaften von Objekten auszuwerten.In a further embodiment, the image acquisition system and image evaluation system can be designed to evaluate the light field with respect to geometric properties of objects.
Das Lichtfeld enthält die verfügbare Information, die zur Berechnung der Lichtpropagation notwendig ist. Somit kann das Lichtfeld für die ausgewählten Raumpunkte und/oder Objektpunkte ausgewertet werden und damit neue 3D Koordinaten der ausgewählten Raumpunkte und/oder Objektpunkte bestimmt werden, die im Vergleich zu den 3D Koordinaten aus der ersten Auswertung eine verbesserte Genauigkeit aufweisen. In dem berechneten Lichtfeld kann beispielsweise auch die Best-Fokus Fläche bestimmt werden, die der Oberfläche des Messobjekts entspricht. Ferner kann beispielsweise zu Bereichen der Oberfläche um die ausgewählten Objektpunkte und/oder Raumpunkte die Oberflächennormale bestimmt werden. So kann anstelle oder ergänzend zur Höheninformation aus der 3D Koordinate auch eine Richtungsinformation zur Richtung der Oberflächennormale bestimmt werden. Alternativ können aus dem Lichtfeld auch Bilder vom Messobjekt berechnet werden, die eine Kamera mit vorgegebener relativer Anordnung zum Messobjekt und vorgegebenen Abbildungsparametern erzeugt hätte. So können beispielsweise aus dem Lichtfeld neue Bildstapel mit vorgegebenen Abbildungsparametern und Abständen benachbarter Fokusebenen bestimmt werden. Die so gewonnen Bilder können mit den bekannten Methoden der Bildverarbeitung eingehend analysiert werden. Alternativ können die Ergebnisse zu den 3D Punkten als Punktewolken bereitgestellt werden.The light field contains the available information necessary to calculate the light propagation. Thus, the light field for the selected space points and / or object points can be evaluated and thus new 3D coordinates of the selected space points and / or object points can be determined, which have an improved accuracy compared to the 3D coordinates from the first evaluation. In the calculated light field, it is also possible, for example, to determine the best focus area that corresponds to the surface of the measurement object. Furthermore, for example, the surface normal to areas of the surface around the selected object points and / or spatial points can be determined. Thus, instead of or in addition to the height information from the 3D coordinate, direction information about the direction of the surface normal can also be determined. Alternatively, images from the measurement object can also be calculated from the light field, which would have produced a camera with a predetermined relative arrangement to the measurement object and given imaging parameters. For example, new image stacks with predetermined imaging parameters and distances of adjacent focal planes can be determined from the light field. The images thus obtained can be thoroughly analyzed using the known methods of image processing. Alternatively, the results for the 3D points may be provided as point clouds.
In einer weiteren Ausgestaltung kann das Bildaufnahmesystem und Bildauswertesystem dazu ausgebildet sein, die Auswertung von 3D Koordinaten für ausgewählte Objektpunkte und/oder Raumpunkte ausführen zu können, wenn das Messobjekt in einem Medium mit Brechungsindex n eingebettet ist.In a further embodiment, the image acquisition system and image evaluation system can be designed to be able to carry out the evaluation of 3D coordinates for selected object points and / or spatial points if the measurement object is embedded in a medium with refractive index n.
In dieser Ausgestaltung ist das Messobjekt in ein optisches Medium eingebettet, dessen Brechungsindex größer 1 und insbesondere größer 1,1 ist. In diesem Fall ist das Bildaufnahmesystem und Bildauswertesystem dazu ausgebildet, bei der Bildaufnahme und/oder Bildauswertung den Brechungsindex des Mediums zu berücksichtigen. Durch die angepasste Auswertung können präzise Messungen der 3D Koordinaten z.B. für ausgewählte Raumpunkte und/oder Objektpunkte ausgeführt werden, die in gasförmigen, flüssigen oder festen Medien eingebettet sind. Beispiele für solche Medien sind Wasser, Öle, Alkohole oder anderen Flüssigkeiten, Glas, Kristalle, Kunststoffe, Harze oder andere zumindest im Bereich der Messwellenlänge teilweise transparente Festköper. Die Lichtfeldkamera kann dazu beispielsweise durch ein Schutzgehäuse mit Sichtfenster für das Objektiv von dem Medium abgetrennt sein, in das das Messobjekt eingebettet ist. Alternativ kann die plenoptische Kamera von außen auf das Medium schauen und die Grenzfläche zwischen Luft und dem Medium bei der nachfolgenden Auswertung berücksichtigen. Dabei ist es möglich und vorteilhaft, wenn die plenoptische Kamera die Grenzfläche zwischen Luft und dem Medium über ausgewählte Raumpunkte auf der Oberfläche bestimmt und bei der Auswertung die so bestimmte Grenzfläche berücksichtigt. Der Brechungsindex des Medium kann vorher bekannt sein oder aus der Messung von sich entsprechenden Objektpunkten in den Bildern benachbarter Mikrokameras bestimmt werden.In this embodiment, the measurement object is embedded in an optical medium whose refractive index is greater than 1 and in particular greater than 1.1. In this case, the image acquisition system and image evaluation system is designed to take into account the refractive index of the medium during image acquisition and / or image evaluation. Due to the adapted evaluation, precise measurements of the 3D coordinates, e.g. for selected points in space and / or object points are embedded, which are embedded in gaseous, liquid or solid media. Examples of such media are water, oils, alcohols or other liquids, glass, crystals, plastics, resins or other solid particles which are at least partially transparent in the region of the measurement wavelength. The light field camera can be separated from the medium, for example, by a protective housing with viewing window for the lens, in which the measurement object is embedded. Alternatively, the plenoptic camera can look at the medium from the outside and take into account the interface between air and the medium in the subsequent evaluation. It is possible and advantageous if the plenoptic camera determines the interface between air and the medium via selected points in space on the surface and takes into account the so determined interface in the evaluation. The refractive index of the medium may be previously known or determined from the measurement of corresponding object points in the images of adjacent microcameras.
In einer weiteren Ausgestaltung kann das Bildaufnahmesystem und Bildauswertesystem dazu ausgebildet sein, mit einem Trägersystem verbunden zu werden, um Messungen an Messobjekten auszuführen.In a further embodiment, the image recording system and image evaluation system can be designed to be connected to a carrier system to take measurements on DUTs.
Bei dieser Ausgestaltung verfügt das Bildaufnahmesystem und Bildauswertesystem und insbesondere die Lichtfeldkamera oder das Schutzgehäuse über eine Schnittstelle zur Ankopplung an ein Trägersystem, das ein Stativ, ein Roboter oder allgemein eine Verschiebeeinheit sein kann, um die Lichtfeldkamera an Orten im Raum an einer vorbestimmten Position mit vorbestimmter Orientierung der optischen Achse der Lichtfeldkamera für eine Bildaufnahme zu positionieren.In this embodiment, the image acquisition system and image evaluation system and in particular the light field camera or the protective housing via an interface for coupling to a support system, which may be a tripod, a robot or generally a displacement unit to the light field camera at locations in space at a predetermined position with predetermined Orientation of the optical axis of the light field camera to position an image capture.
In einer weiteren Ausgestaltung kann das Bildaufnahmesystem und Bildauswertesystem dazu ausgebildet sein, die Ergebnisse der Auswertungen in einem Datensatz zu speichern und/oder an ein weiteres System zur Datenverarbeitung zu übertragen bzw. zu übergeben und/oder auf einem Ausgabegerät auszugeben und/oder auf einem Darstellungssystem darzustellen.In a further refinement, the image acquisition system and image evaluation system can be designed to store the results of the evaluations in a data record and / or to transmit or transfer them to another system for data processing and / or output to an output device and / or on a display system display.
Es versteht sich, dass die vorstehend genannten und nachstehend noch zu erläuternden Merkmale nicht nur in der jeweiligen angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.It is understood that the features mentioned above and those yet to be explained can be used not only in the respective specified combination but also in other combinations or alone, without departing from the scope of the present invention.
Figurenlistelist of figures
Die beigefügten Zeichnungen zeigen Ausführungsbeispiele der Erfindung. Sie werden in der nachfolgenden Beschreibung näher erläutert. Es zeigen:
-
1 eine schematische Darstellung für ein Bildaufnahmesystem und Bildauswertesystem, -
2 eine weitere schematische Darstellung für ein Bildaufnahmesystem und Bildauswertesystem mit einer telezentrischen Optik, -
3 ein schematische Darstellung für Beispiele möglicher Anordnungen von Mikrolinsen im Mikrolinsenarray, (a) quadratisch, (b) hexagonal, (c) quadratisch mit 2 Linsentypen, (d) rechteckig mit unterschiedlich gekrümmten Linsenflächen in Richtung der horizontalen (1) und vertikalen (2) Achse in der Zeichenebene, (e) quadratisch mit einer veränderlichen Brechkraft, die beispielsweise über ein elektrisches Feld eingestellt werden kann, das über Elektroden angelegt wird, -
4 eine Prinzipdarstellung für einen Bildstapel, -
5 eine vereinfachte Darstellung für ein Bildauswertesystem für eine Auswertung (a) und für eine erweiterte Auswertung (b) des Bildes der plenoptischen Kamera, -
6 eine vereinfachte Darstellung für ein Bildauswertesystem für eine Auswertung (a) und für eine erweiterte Auswertung (b) zur Phasenrekonstruktion undBestimmung von 3D Koordinaten -
7 eine schematische Darstellung für ein Bildaufnahmesystem und Bildauswertesystem mit einer telezentrischen Optik, mit einem Schutzgehäuse mit Sichtfenster um die plenoptische Kamera und in -
8 eine Prinzipdarstellung zum Ablauf des Verfahrens für ein Bildaufnahmesystem und Bildauswertesystem.
-
1 a schematic representation of an image recording system and image evaluation system, -
2 a further schematic representation of an image acquisition system and image evaluation system with a telecentric optics, -
3 a schematic representation of examples of possible arrangements of microlenses in the microlens array, (a) square, (b) hexagonal, (c) square with 2 lens types, (d) rectangular with differently curved lens surfaces in the direction of horizontal (1) and vertical (2) Axis in the plane of the drawing, (e) square with a variable refractive power, which can be adjusted, for example, by an electric field applied via electrodes, -
4 a schematic diagram for a picture stack, -
5 a simplified representation for an image evaluation system for an evaluation (a) and for an extended evaluation (b) of the image of the plenoptic camera, -
6 a simplified representation for an image evaluation system for an evaluation (a) and for an extended evaluation (b) for the phase reconstruction and determination of 3D coordinates -
7 a schematic representation of an image recording system and image evaluation system with a telecentric optics, with a protective housing with viewing window to the plenoptic camera and in -
8th a schematic diagram of the procedure for an image acquisition system and image evaluation system.
AUSFÜHRUNGSBEISPIELEEMBODIMENTS
Weitere Vorteile, Kennzeichen und Merkmale der folgenden Erfindung werden bei der nachfolgenden Beschreibung der Ausführungsbeispiele deutlich. Allerdings ist die Erfindung nicht auf diese Ausführungsbeispiele beschränkt.Further advantages, characteristics and features of the following invention will become apparent in the following description of the embodiments. However, the invention is not limited to these embodiments.
In
Die plenoptische Kamera
In
In
In
Die
Bei dem Ausführungsbeispiel der
Der Bildaufnahmesensor
Obwohl die vorliegende Erfindung anhand der Ausführungsbeispiele detailliert beschrieben worden ist, ist für den Fachmann selbstverständlich, dass die Erfindung nicht auf diese Ausführungsbeispiele beschränkt ist, sondern das vielmehr Abwandlungen in der Weise möglich sind, dass einzelne Merkmale weggelassen oder andersartige Kombinationen der Merkmale vorgenommen werden können, solange der Schutzbereich der beigefügten Ansprüche nicht verlassen wird. Die vorliegende Offenbarung schließt sämtliche Kombinationen der vorgestellten Einzelmerkmale mit ein.Although the present invention has been described in detail with reference to the embodiments, it will be understood by those skilled in the art that the invention is not limited to these embodiments, but rather modifications in the manner that individual features omitted or other combinations of features can be made as long as the scope of protection of the appended claims is not abandoned. The present disclosure includes all combinations of the features presented.
BezugszeichenlisteLIST OF REFERENCE NUMBERS
- 1010
- Bildaufnahmesystem und BildauswertesystemImage acquisition system and image evaluation system
- 1212
- Plenoptische Kamera, LichtfeldkameraPlenoptic camera, light field camera
- 1414
- Beleuchtungseinheitlighting unit
- 1616
- Musterprojektorpattern projector
- 1818
- BildaufnahmesteuerungImage capture control
- 2020
- Auswerteeinheitevaluation
- 2424
- DatenausgabeschnittstelleOutput data interface
- 2626
- KommunikationsschnittstelleCommunication Interface
- 2828
- Anzeigeeinheitdisplay unit
- 3030
- Erfassungsbereich der plenoptischen KameraDetection range of the plenoptic camera
- 3232
-
Lichtkegel der Beleuchtungseinheit 14Light cone of the
illumination unit 14 - 3434
-
Lichtfiguren des Musterprojektors 16Light figures of the
pattern projector 16 - 4040
- Plenoptisches SensormodulPlenoptic sensor module
- 4242
- BildaufnahmesensorImage sensor
- 4343
- Pixel im BildaufnahmesensorPixels in the image sensor
- 4444
- MikrolinsenarrayMicrolens array
- 4545
- Linse im MikrolinsenarrayLens in the microlens array
- 4646
- Mikrokameramicro camera
- 4848
- Tragkörpersupporting body
- 5050
- Objektivlens
- 5252
- Mikrolinsenmicrolenses
- 5454
-
Krümmungsradius der Mikrolinse 52 in horizontaler RichtungRadius of curvature of the
microlens 52 in the horizontal direction - 5555
-
Krümmungsradius der Mikrolinse 52 in vertikaler RichtungRadius of curvature of the
microlens 52 in the vertical direction - 5656
-
Elektrode 1
Electrode 1 - 5757
- Elektrode 2Electrode 2
- 5858
- Ansteuerungcontrol
- 6060
- Bildstapelstacks
- 6262
- Bildebeneimage plane
- 6464
- optische Achseoptical axis
- 7070
- Schutzgehäusehousing
- 7272
- Sichtfensterwindow
- 7474
- geschützte Verbindungprotected connection
- 8080
- Verfahren für Bildaufnahmesystem und BildauswertesystemMethod for image acquisition system and image evaluation system
- 8282
- Ausrichten des BildaufnahmesystemsAlign the imaging system
- 8484
- Einstellen der BeleuchtungAdjust the lighting
- 8686
- Aufnehmen eines Bildes mit der LichtfeldkameraTake a picture with the light field camera
- 8888
- Bestimmung erster Satz 3D Koordinaten aus Daten LichtfeldkameraDetermining first set of 3D coordinates from data light field camera
- 9090
- Bestimmung Bildstapel aus Daten LichtfeldkameraDetermining image stacks from data light field camera
- 9292
- Phasenrekonstruktion zu dem von Lichtfeldkamera aufgenommenen LichtfeldPhase reconstruction to the light field recorded by light field camera
- 9494
- Auswertung Lichtfeld mit Phasenwerten zur Bestimmung 3D KoordinatenEvaluation light field with phase values for determining 3D coordinates
- 9696
- Bereitstellen bzw. Ausgabe ErgebnisseDeploying or outputting results
Claims (19)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102015011427.1A DE102015011427B4 (en) | 2015-09-01 | 2015-09-01 | Image acquisition system and image evaluation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102015011427.1A DE102015011427B4 (en) | 2015-09-01 | 2015-09-01 | Image acquisition system and image evaluation system |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102015011427A1 DE102015011427A1 (en) | 2017-03-02 |
DE102015011427B4 true DE102015011427B4 (en) | 2019-01-17 |
Family
ID=58010978
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102015011427.1A Expired - Fee Related DE102015011427B4 (en) | 2015-09-01 | 2015-09-01 | Image acquisition system and image evaluation system |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102015011427B4 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017113614B4 (en) * | 2017-06-20 | 2021-04-29 | Carl Zeiss Smt Gmbh | Position sensor device for determining a position of a moving object |
DE102018107363B4 (en) * | 2018-03-28 | 2020-09-10 | Sick Ag | Method and sensor for generating 3D image data |
DE102019103519B4 (en) * | 2019-02-12 | 2021-09-16 | Carl Zeiss Industrielle Messtechnik Gmbh | Device for determining dimensional and / or geometric properties of a measurement object |
DE102019214602B3 (en) * | 2019-09-24 | 2021-03-25 | Optocraft Gmbh | Combination detector and method for the detection of visual and optical properties of an optic and associated test device for an optic |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10327019A1 (en) | 2003-06-12 | 2004-12-30 | Carl Zeiss Sms Gmbh | Method for determining the imaging quality of an optical imaging system |
EP2244484A1 (en) | 2009-04-22 | 2010-10-27 | Raytrix GmbH | Digital imaging system for synthesizing an image using data recorded with a plenoptic camera |
EP2282164A1 (en) | 2006-10-11 | 2011-02-09 | Steinbichler Optotechnik GmbH | Method and device for determining the 3D coordinates of an object |
WO2012075978A1 (en) | 2010-09-13 | 2012-06-14 | Micro-Epsilon Optronic Gmbh | Optical measurement system for determining distances |
DE102013009634A1 (en) * | 2013-06-10 | 2014-12-11 | Technische Universität Dortmund | Plenoptic imaging procedure |
DE102014108353A1 (en) * | 2013-06-13 | 2014-12-18 | Werth Messtechnik Gmbh | Method and device for the determination of geometries on measured objects by means of a combined sensor system |
DE102013011848A1 (en) | 2013-07-16 | 2015-01-22 | Steinbichler Optotechnik Gmbh | Apparatus and method for determining the 3D coordinates of an object |
US20150138402A1 (en) | 2008-12-08 | 2015-05-21 | Lytro, Inc. | Light Field Data Acquisition |
WO2015100105A1 (en) | 2013-12-24 | 2015-07-02 | Lytro, Inc. | Improving plenoptic camera resolution |
US20160065938A1 (en) * | 2014-08-29 | 2016-03-03 | Farnoud KAZEMZADEH | Imaging system and method for concurrent multiview multispectral polarimetric light-field high dynamic range imaging |
-
2015
- 2015-09-01 DE DE102015011427.1A patent/DE102015011427B4/en not_active Expired - Fee Related
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10327019A1 (en) | 2003-06-12 | 2004-12-30 | Carl Zeiss Sms Gmbh | Method for determining the imaging quality of an optical imaging system |
EP2282164A1 (en) | 2006-10-11 | 2011-02-09 | Steinbichler Optotechnik GmbH | Method and device for determining the 3D coordinates of an object |
US20150138402A1 (en) | 2008-12-08 | 2015-05-21 | Lytro, Inc. | Light Field Data Acquisition |
EP2244484A1 (en) | 2009-04-22 | 2010-10-27 | Raytrix GmbH | Digital imaging system for synthesizing an image using data recorded with a plenoptic camera |
WO2012075978A1 (en) | 2010-09-13 | 2012-06-14 | Micro-Epsilon Optronic Gmbh | Optical measurement system for determining distances |
DE102013009634A1 (en) * | 2013-06-10 | 2014-12-11 | Technische Universität Dortmund | Plenoptic imaging procedure |
DE102014108353A1 (en) * | 2013-06-13 | 2014-12-18 | Werth Messtechnik Gmbh | Method and device for the determination of geometries on measured objects by means of a combined sensor system |
DE102013011848A1 (en) | 2013-07-16 | 2015-01-22 | Steinbichler Optotechnik Gmbh | Apparatus and method for determining the 3D coordinates of an object |
WO2015100105A1 (en) | 2013-12-24 | 2015-07-02 | Lytro, Inc. | Improving plenoptic camera resolution |
US20160065938A1 (en) * | 2014-08-29 | 2016-03-03 | Farnoud KAZEMZADEH | Imaging system and method for concurrent multiview multispectral polarimetric light-field high dynamic range imaging |
Non-Patent Citations (3)
Title |
---|
C. Perwaß, L. Wietzke: Single Lens 3D-Camera with Extended Depth-of-Field. In: Proc. of SPIE-IS&T Electronic Imaging, SPIE Vol. 8291, 2012, 829108-1 bis 829108-1 * |
R.G. Lane, R. Irwan: Phase retrieval as a means of wavefront sensing. In: IEEE International Conference on Image Processing, Vol. 2, 242 bis 245, 1997 * |
R.J. Marshall, C.J. Meah et al.: Improving depth estimation from a plenoptic camera by patterned illumination. In: Proc. of SPIE Vol. 9528, 2015, 952815-1 bis 952815-6 * |
Also Published As
Publication number | Publication date |
---|---|
DE102015011427A1 (en) | 2017-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69207176T2 (en) | Optical sensor | |
DE102012108567B4 (en) | Method of obtaining depth information using a light pattern | |
EP3557523B1 (en) | Method for generating a correcting model of a camera for correcting an imaging error | |
DE102017101188B4 (en) | Microscope and method of microscopy on a sample | |
EP3293558B1 (en) | Device for recording a stereo image | |
DE102015011427B4 (en) | Image acquisition system and image evaluation system | |
WO2007104542A1 (en) | Method and device for creating a fibrescopic recording that is devoid of structures | |
EP3346230B1 (en) | Device and method for measuring the curvature of a wire | |
EP3746740B1 (en) | Method and device for measuring an optical lens for individual wear situations of a user | |
DE102015226154A1 (en) | HOLE PICTURE SYSTEM | |
DE60132551T2 (en) | METHOD AND APPARATUS FOR MEASURING THE GEOMETRIC STRUCTURE OF AN OPTICAL COMPONENT BY LIGHT TRANSMISSION | |
DE19919584A1 (en) | 3D recording method and arrangement | |
WO2013143882A1 (en) | Method for the scanning measurement of a dental object, and intraoral scanner | |
DE102009008747B4 (en) | Optical imaging system | |
DE102013009634B4 (en) | Plenoptic imaging procedure | |
DE102008031412A1 (en) | Device i.e. line scanner, for monitoring measuring points on object surface to be measured, has focus plane displaceable parallel to object surface, where object surface is displaceable lateral to focus plane | |
DE102014222628A1 (en) | Measuring the topography and / or the gradient and / or the curvature of a light-reflecting surface of a spectacle lens | |
DE102019133516B4 (en) | Method and device for determining wavelength deviations from recordings of a multi-lens camera system | |
DE102017001524A1 (en) | Arrangement for measuring at least partially reflective surfaces | |
DE102017220720B4 (en) | Method and device for contactless measurement of three-dimensional surface contours | |
DE102020206768A1 (en) | Image acquisition device and method for determining a plenoptic function | |
DE102009014216B4 (en) | Apparatus and method for generating an optical image of a three-dimensional object and electronic image output device | |
DE102019132712A1 (en) | System for measuring objects to be measured | |
DE102008046964A1 (en) | Image recording unit i.e. thermographic camera, for consolidating thermographic images produced by image sensors, has signal processing unit converting signals from optical unit into signals of another optical unit using formula | |
DE102008046965A1 (en) | Image recording unit for fusion of images producing different wavelength sensitivity with sensors, has switching unit provided for switching radiation coming on optical unit from image with wavelength |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R086 | Non-binding declaration of licensing interest | ||
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |