DE102016109131B4 - Method for the three-dimensional detection of an object - Google Patents

Method for the three-dimensional detection of an object Download PDF

Info

Publication number
DE102016109131B4
DE102016109131B4 DE102016109131.6A DE102016109131A DE102016109131B4 DE 102016109131 B4 DE102016109131 B4 DE 102016109131B4 DE 102016109131 A DE102016109131 A DE 102016109131A DE 102016109131 B4 DE102016109131 B4 DE 102016109131B4
Authority
DE
Germany
Prior art keywords
camera
light
focus position
images
light pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102016109131.6A
Other languages
German (de)
Other versions
DE102016109131A1 (en
Inventor
Frank Blöhbaum
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sick AG
Original Assignee
Sick AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sick AG filed Critical Sick AG
Priority to DE102016109131.6A priority Critical patent/DE102016109131B4/en
Publication of DE102016109131A1 publication Critical patent/DE102016109131A1/en
Application granted granted Critical
Publication of DE102016109131B4 publication Critical patent/DE102016109131B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur dreidimensionalen Erfassung eines Objekts, bei welchem – das Objekt nacheinander mit mehreren Lichtmustern beleuchtet wird, die sich in ihrer Fokuslage unterscheiden, – von dem Objekt rückgestrahltes Licht der Lichtmuster mittels einer Kamera erfasst wird, wobei die Fokuslage der Kamera an die Fokuslage des jeweiligen Lichtmusters angepasst wird und die Kamera für jede Fokuslage ein Bild des Objekts erzeugt, – anhand von scharfen Bereichen des Lichtmusters in den Bildern und der Fokuslagen die dreidimensionale Form und/oder die räumliche Position des Objekts ermittelt wird.The invention relates to a method for three-dimensional detection of an object, in which - the object is successively illuminated with a plurality of light patterns that differ in their focus position, - is detected by the object reflected light of the light pattern by means of a camera, wherein the focus position of the camera the focus position of the respective light pattern is adjusted and the camera generates an image of the object for each focal position, - the three-dimensional shape and / or the spatial position of the object is determined on the basis of sharp regions of the light pattern in the images and the focal positions.

Description

Die vorliegende Erfindung betrifft ein Verfahren zur dreidimensionalen Erfassung eines Objekts.The present invention relates to a method for three-dimensional detection of an object.

Die dreidimensionale Erfassung von Objekten wird in vielen Einsatzgebieten benötigt. So können beispielsweise industrielle Fertigungsprozesse vereinfacht gesteuert und kontrolliert werden, wenn das zu prüfende oder das zu bearbeitende Objekt in seiner dreidimensionalen Form und/oder dessen räumliche Position bekannt ist.The three-dimensional detection of objects is needed in many applications. For example, industrial manufacturing processes can be controlled and controlled in a simplified manner if the object to be tested or the object to be processed is known in its three-dimensional form and / or its spatial position.

Zur dreidimensionalen Erfassung von Objekten sind verschiedene Verfahren bekannt, beispielsweise aktive Verfahren, wie Time-Of-Flight (TOF) Messungen, welche z. B. mittels Laserscannern durchgeführt werden. Alternativ können auch passive Verfahren verwendet werden, in welchen z. B. Stereokameras eingesetzt werden, um das Objekt aus verschiedenen Blickwinkeln zu betrachten und auf diese Weise auf die dreidimensionalen Eigenschaften des Objekts Rückschlüsse zu ziehen.For the three-dimensional detection of objects, various methods are known, for example, active methods, such as time-of-flight (TOF) measurements, which, for. B. be carried out by means of laser scanners. Alternatively, passive methods may be used, in which z. As stereo cameras are used to view the object from different angles and in this way to draw conclusions about the three-dimensional properties of the object.

Nachteiligerweise ist der technische Aufwand für Time-Of-Flight-Verfahren sehr hoch. Bei Stereokameras kann der Nachteil auftreten, dass für ein Objektiv der Stereokamera bestimmte Bereiche des Objekts verdeckt sind (Okklusion), sodass vollständige dreidimensionale Objektkonturen nur in idealisierten Anwendungsfällen erzielbar sind.Disadvantageously, the technical outlay for time-of-flight methods is very high. With stereo cameras, the disadvantage can occur that certain areas of the object are occluded for a lens of the stereo camera (occlusion), so that complete three-dimensional object contours can only be achieved in idealized applications.

Aus der US 6 219 461 B1 ist es bekannt, eine Vielzahl von Bildern unter Verwendung einer strukturierten Beleuchtung aufzunehmen. Die WO 2015/177784 A2 lehrt die Verwendung von Kontrasten eines Bildes, um scharfe Bereiche eines projizierten Musters zu ermitteln. Die EP 0 890 822 A2 offenbart das Fokussieren verschiedener Farben in unterschiedlichen Abständen, um eine Tiefenmessung durchzuführen. Aus der DE 10 2014 119 126 B3 ist ein Streifenprojektor mit einer Gellinse bekannt. In ”K. Mishra: Recent Developments in Optofluidic Lens Technology” (DOI: 10.3390/mi7060102) werden Linsen mit veränderbarer Brennweite beschrieben. Weiterhin ist aus der DE 10 2011 052 802 A1 die Projektion von Licht mit Hilfe einer Vielzahl von Mikrooptiken bekannt. Die US 6 229 913 B1 lehrt die Erfassung von Tiefeninformationen mittels projizierter Lichtmuster. Aus der US 2011/0229840 A1 ist ein Verfahren bekannt, bei welchem ein Lichtmuster auf einem Objekt durch ein telezentrisches optisches System erfasst wird. Das optische System wird mechanisch bewegt. Dabei werden in verschiedenen Bildern scharfe Bereiche anhand ihres Kontrasts ermittelt. Schließlich offenbart die US 5 608 529 A eine Vorrichtung zur Vermessung von dreidimensionalen Objekten, wobei die Vorrichtung Lichtmuster auf Objekte projiziert.From the US Pat. No. 6,219,461 B1 It is known to take a variety of pictures using structured lighting. The WO 2015/177784 A2 teaches using contrasts of an image to determine sharp areas of a projected pattern. The EP 0 890 822 A2 discloses focusing different colors at different distances to perform a depth measurement. From the DE 10 2014 119 126 B3 is a strip projector with a gel lens known. In "K. Mishra: Recent Developments in Optofluidic Lens Technology "(DOI: 10.3390 / mi7060102) describes variable focal length lenses. Furthermore, from the DE 10 2011 052 802 A1 the projection of light using a variety of micro-optics known. The US Pat. No. 6,229,913 B1 teaches the acquisition of depth information using projected light patterns. From the US 2011/0229840 A1 For example, a method is known in which a light pattern on an object is detected by a telecentric optical system. The optical system is moved mechanically. In this process, sharp areas are determined in different images based on their contrast. Finally, the reveals US 5,608,529 A a device for measuring three-dimensional objects, the device projecting light patterns onto objects.

Es ist die der Erfindung zugrunde liegende Aufgabe, ein Verfahren und eine Vorrichtung zur dreidimensionalen Erfassung eines Objekts anzugeben, welche eine verdeckungsfreie dreidimensionale Objekterfassung auf einfache Weise ermöglichen.It is the object underlying the invention to provide a method and a device for the three-dimensional detection of an object, which allow a concealment-free three-dimensional object detection in a simple manner.

Diese Aufgabe wird durch die Gegenstände der unabhängigen Ansprüche gelöst.This object is solved by the subject matters of the independent claims.

Gemäß Anspruch 1 wird ein Verfahren zur dreidimensionalen Erfassung eines Objekts angegeben, bei welchem

  • – das Objekt nacheinander mit mehreren Lichtmustern beleuchtet wird, wobei sich die Lichtmuster in ihrer Fokuslage unterscheiden,
  • – von dem Objekt zurückgestrahltes Licht der Lichtmuster mittels einer Kamera erfasst wird, wobei die Fokuslage der Kamera an die Fokuslage des jeweiligen Lichtmusters angepasst wird und die Kamera für jede Fokuslage ein Bild des Objekts erzeugt,
  • – anhand von Kontrastunterschieden zwischen den Bildern und anhand von scharfen Bereichen des Lichtmusters in den Bildern und der Fokuslagen die dreidimensionale Form und/oder die räumliche Position des Objekts ermittelt wird, und
  • – das Lichtmuster zumindest lokal selbstunähnlich ist.
According to claim 1, a method for the three-dimensional detection of an object is specified, in which
  • The object is successively illuminated with a plurality of light patterns, the light patterns differing in their focus position,
  • The light of the light pattern reflected back from the object is detected by means of a camera, wherein the focus position of the camera is adapted to the focal position of the respective light pattern and the camera generates an image of the object for each focal position,
  • - Determining the three-dimensional shape and / or the spatial position of the object based on contrast differences between the images and on the basis of sharp areas of the light pattern in the images and the focal positions, and
  • - The light pattern is at least locally selbstunähnlich.

Insofern können a-priori Informationen genutzt werden, um die räumliche Lage scharfer Bildinhalte zu ermitteln. So kann sowohl anhand der a-priori bekannten Fokuslage des projizierten Lichtmusters als auch anhand der (ebenfalls bekannten) Fokuslage der Kamera ermittelt werden, wie weit bestimmte Bereiche des Objekts von der Kamera entfernt sind. Die Lichtmuster können insbesondere mit geringer oder eingeschränkter Tiefenschärfe projiziert werden, sodass die Lichtmuster nur in Bereichen des Objekts scharf dargestellt werden, die einen geringen Abstand zur Fokuslage des Lichtmusters besitzen.In this respect, a-priori information can be used to determine the spatial location of sharp image content. Thus, it can be determined both on the basis of the a priori known focus position of the projected light pattern as well as on the basis of the (also known) focus position of the camera, how far certain areas of the object are removed from the camera. The light patterns can be projected in particular with little or limited depth of field, so that the light patterns are sharply displayed only in areas of the object that have a small distance from the focus position of the light pattern.

In entsprechender Weise kann die Kamera derart ausgebildet sein, dass die von der Kamera erzeugten Bilder des Objekts nur eine geringe oder eingeschränkte Tiefenschärfe (auch Schärfentiefe genannt) aufweisen. Ist nun bekannt, dass die Kamera auf eine bestimmte Entfernung scharf gestellt hat, so kann davon ausgegangen werden, dass scharfe Bereiche des Lichtmusters und/oder des Objekts in dem Abstand zur Kamera liegen, auf den die Kamera scharf gestellt hat. Auf diese Weise kann ermittelt werden, dass sich die scharfen Bereiche des Objekts in der bekannten Entfernung bzw. in dem bekannten Abstand befinden.In a corresponding manner, the camera can be designed such that the images of the object generated by the camera have only a limited or limited depth of focus (also called depth of field). If it is known that the camera has focused on a certain distance, then it can be assumed that sharp areas of the light pattern and / or the object are at the distance to the camera, on which the camera has focused. In this way it can be determined that the sharp areas of the object are in the known distance or in the known distance.

Als Fokuslage eines projizierten Lichtmusters wird dabei ein Ort im Raum bezeichnet, in dem die Abbildung des projizierten Lichtmusters scharf ist. Als Fokuslage der Kamera wird ein Ort bezeichnet, in dem ein Gegenstand sich befindet, wenn er von der Kamera scharf abgebildet wird. Eine Fokuslage eines Lichtmusters kann also beispielsweise als ein Abstand gemessen von einem Projektor aus und eine Fokuslage der Kamera beispielsweise als ein Abstand gemessen von der Kamera aus angegeben werden.The focal position of a projected light pattern is a location in the space in which the image of the projected light pattern is in focus. The focal point of the camera is a place called, in an object is located when it is sharply imaged by the camera. A focus position of a light pattern can thus be indicated, for example, as a distance measured by a projector and a focus position of the camera, for example, as a distance measured from the camera.

Anhand der bekannten Fokuslagen kann demnach die räumliche Position und/oder die dreidimensionale Form des Objekts ermittelt werden. Die Fokuslagen, anhand derer die räumliche Position ermittelt wird, können zumindest eine Fokuslage der Kamera und zumindest eine Fokuslage eines Lichtmusters umfassen. Alternativ können die Fokuslagen, anhand derer die räumliche Position ermittelt wird, Fokuslagen der Kamera und/oder Fokuslagen der Lichtmuster umfassen.Based on the known focus positions, the spatial position and / or the three-dimensional shape of the object can accordingly be determined. The focal positions, by means of which the spatial position is determined, may comprise at least one focus position of the camera and at least one focal position of a light pattern. Alternatively, the focal positions, on the basis of which the spatial position is determined, include focal positions of the camera and / or focal positions of the light patterns.

Die Lichtmuster können von einer Projektionseinheit ausgegeben und auf das Objekt projiziert werden.The light patterns can be output by a projection unit and projected onto the object.

Der Ablauf des erfindungsgemäßen Verfahrens wird nachfolgend nochmals detaillierter dargestellt.The course of the method according to the invention will be shown in more detail below.

Zunächst wird das Objekt mit einem ersten Lichtmuster mit einer ersten Fokuslage beleuchtet, wobei die Kamera derart eingestellt wird, dass die Fokuslage der Kamera der ersten Fokuslage des Lichtmusters entspricht. Der Abstand der ersten Fokuslage von der Kamera ist dabei bekannt. In dem von der Kamera erfassten Bild können anschließend scharfe Bereiche ermittelt werden, was beispielsweise durch die Erfassung des Kontrasts in verschiedenen Bildbereichen erfolgen kann. Bei den scharfen Bildbereichen wird insbesondere davon ausgegangen, dass diese Bildbereiche in der ersten Fokuslage liegen. Dementsprechend können über den bekannten Abstand der ersten Fokuslage und die Anordnung des scharfen Bereichs in dem Kamerabild der Abstand und die Richtung des scharfen Bereichs des Objekts im Raum ermittelt werden.First, the object is illuminated with a first light pattern having a first focus position, wherein the camera is adjusted such that the focus position of the camera corresponds to the first focus position of the light pattern. The distance between the first focus position of the camera is known. Sharp areas can then be determined in the image captured by the camera, which can be done, for example, by detecting the contrast in different image areas. In the case of the sharp image areas, it is particularly assumed that these image areas are in the first focus position. Accordingly, the distance and the direction of the sharp area of the object in space can be determined by the known distance of the first focus position and the arrangement of the sharp area in the camera image.

Anschließend wird ein zweites Lichtmuster auf das Objekt projiziert, das eine zweite Fokuslage aufweist. Die zweite Fokuslage kann beispielsweise weiter entfernt von der Kamera liegen, als die erste Fokuslage. Die Kamera wird dann so eingestellt, dass ihre Fokuslage an die zweite Fokuslage des zweiten Lichtmusters angepasst ist. Die nun scharf erscheinenden Bereiche des Objekts bzw. Bereiche des Objekts, in denen das Lichtmuster scharf ist, werden dann erfasst und es kann wiederum anhand des bekannten Abstands der zweiten Fokuslage und der Anordnung der nun scharfen Bereiche im zweiten aufgenommenen Kamerabild ermittelt werden, welche Regionen des Objekts einen Abstand von der Kamera besitzen, der dem Abstand zwischen der Kamera und der zweiten Fokuslage entspricht.Subsequently, a second pattern of light is projected onto the object, which has a second focus position. The second focus position may, for example, be further away from the camera than the first focus position. The camera is then adjusted so that its focus position is adapted to the second focal position of the second light pattern. The now sharply appearing areas of the object or areas of the object in which the light pattern is sharp are then detected and it can again be determined on the basis of the known distance of the second focus position and the arrangement of the now sharp areas in the second recorded camera image which regions of the object have a distance from the camera corresponding to the distance between the camera and the second focus position.

In entsprechender Weise wird erfindungsgemäß eine Vielzahl von verschiedenen Bildern mit der Kamera aufgenommen, wobei jedes Bild mit unterschiedlicher Fokuslage der projizierten Lichtmuster und an die Fokuslage der Lichtmuster angepasster Fokuslage der Kamera aufgenommen wird.In a corresponding manner, a multiplicity of different images are recorded with the camera according to the invention, each image being recorded with a different focal position of the projected light patterns and a focus position of the camera adapted to the focal position of the light patterns.

Auf diese Weise kann das Objekt in einer Vielzahl von Schritten abgetastet werden, sodass nach der Projektion der verschiedenen Lichtmuster und der Aufnahme der entsprechenden Bilder Informationen über die dreidimensionale Form und/oder die räumliche Position des Objekts vorhanden sind.In this way, the object can be scanned in a plurality of steps so that information about the three-dimensional shape and / or the spatial position of the object are present after the projection of the different light patterns and the recording of the corresponding images.

Durch die Einstellung auf eine bestimmte Fokuslage sowohl für die Kamera als auch des Lichtmusters kann der Effekt verstärkt werden, dass das Lichtmuster nur mit einer definierten Fokuslage der Kamera scharf abbildbar ist, wodurch die Genauigkeit der Tiefenauflösung erhöht werden kann.By setting to a specific focus position for both the camera and the light pattern, the effect can be enhanced that the light pattern can be sharply imaged only with a defined focal position of the camera, whereby the accuracy of the depth resolution can be increased.

Die Lichtmuster unterscheiden sich vorteilhafterweise nur durch eine unterschiedliche Fokuslage.The light patterns advantageously differ only by a different focus position.

Zusätzliche Informationen über die dreidimensionale Form des Objekts können auch anhand von Verzerrungen des Lichtmusters bei der Projektion auf das Objekt berechnet werden.Additional information about the three-dimensional shape of the object can also be calculated from distortions of the light pattern when projecting onto the object.

Die dreidimensionale Form und die räumliche Position des Objekts können abschließend als Tiefeninformation, beispielsweise über eine Schnittstelle, ausgegeben werden.The three-dimensional shape and the spatial position of the object can finally be output as depth information, for example via an interface.

Vorteilhafte Weiterbildungen der Erfindung sind der Beschreibung, den Zeichnungen sowie den Unteransprüchen zu entnehmen.Advantageous developments of the invention are described in the description, the drawings and the dependent claims.

Gemäß einer ersten vorteilhaften Ausführungsform wird aus den scharfen Bereichen des Lichtmusters in den Bildern und der Fokuslage der Bilder eine erste Tiefenkarte ermittelt. Die erste Tiefenkarte nutzt also die a-priori Informationen über die Fokuslage (d. h. die Fokusebene) der Bilder und der Lichtmuster.According to a first advantageous embodiment, a first depth map is determined from the sharp regions of the light pattern in the images and the focus position of the images. The first depth map thus uses the a-priori information about the focus position (i.e., the focal plane) of the images and the light patterns.

Bevorzugt handelt es sich bei der Fokuslage um eine Ebene, d. h. das Lichtmuster wird in einer Fokusebene scharf dargestellt. Alternativ kann die Fokuslage (von Lichtmuster und/oder Kamera) auch eine gekrümmte Fläche definieren, die beispielsweise halbkugelförmig ist. Eine solche gekrümmte Fläche kann zur schnellen Erfassung gekrümmter Objekte eingesetzt werden.The focal position is preferably a plane, ie. H. the light pattern is sharply displayed in a focal plane. Alternatively, the focal position (of light pattern and / or camera) may also define a curved surface which is, for example, hemispherical. Such a curved surface can be used for rapid detection of curved objects.

Erfindungsgemäß wird die dreidimensionale Form und/oder die räumliche Position des Objekts auch anhand von Kontrastunterschieden zwischen den Bildern ermittelt. Die Lichtmuster und/oder beispielsweise die Grenzen des Objekts können zu den Kontrastunterschieden beitragen. Als Kontrast wird dabei eine unterschiedliche Helligkeit und/oder eine unterschiedliche Farbe benachbarter Regionen eines von der Kamera erzeugten Bilds definiert. Kontrastunterschiede sind dementsprechend Unterschiede im Kontrast zwischen verschiedenen Bildern an sich jeweils entsprechenden Positionen. Beispielsweise kann eine Position oder Begrenzung des Objekts als erkannt gelten, wenn der Kontrast für eine Fokuslage besonders stark steigt, da dann davon auszugehen ist, dass das Lichtmuster scharf gestellt ist und für einen hohen Kontrast sorgt. Dementsprechend ist an einer solchen Stelle der Kontrastunterschied zwischen einem Bild mit scharfem Lichtmuster und einem Bild mit nicht scharfem Lichtmuster besonders groß. Die Kontrastunterschiede können gemeinsam mit einer jeweiligen Fokuslage (der Kamera und/oder des projizierten Lichtmusters) zur Ermittlung der dreidimensionalen Form und/oder der räumlichen Position des Objekts herangezogen werden. According to the invention, the three-dimensional shape and / or the spatial position of the object is also determined on the basis of contrast differences between the images. The light patterns and / or, for example, the boundaries of the object may contribute to the contrast differences. As a contrast, a different brightness and / or a different color of adjacent regions of an image generated by the camera is defined. Differences in contrast are accordingly differences in the contrast between different images in each case corresponding positions. For example, a position or boundary of the object can be considered as recognized when the contrast for a focal position increases particularly strong, since then it can be assumed that the light pattern is focused and provides a high contrast. Accordingly, the contrast difference between a sharp-light image and a non-sharp-light image is particularly large at such a location. The contrast differences can be used together with a respective focal position (the camera and / or the projected light pattern) to determine the three-dimensional shape and / or the spatial position of the object.

Bevorzugt wird aus den Kontrastunterschieden zwischen den Bildern eine zweite Tiefenkarte ermittelt. Die Kontrastunterschiede können losgelöst von den Informationen der ersten Tiefenkarte separat vorverarbeitet werden. Für jeden Punkt (d. h. für jeden Pixel) eines der von der Kamera aufgenommenen Bilder kann ein Tiefenwert in die zweite Tiefenkarte eingetragen werden.Preferably, a second depth map is determined from the contrast differences between the images. The contrast differences can be preprocessed separately from the information of the first depth map separately. For each point (i.e., each pixel) of one of the images taken by the camera, a depth value may be entered in the second depth map.

Gemäß einer weiteren vorteilhaften Ausführungsform wird die dreidimensionale Form und/oder die räumliche Position des Objekts auch anhand von Farbunterschieden zwischen den Bildern ermittelt. Die Farbe der von der Kamera erfassten Bilder an einander entsprechenden Positionen kann sich ändern, abhängig davon, ob beispielsweise das Lichtmuster scharf abgebildet wird. Zwischen verschiedenen Bildern mit verschiedenen Fokuslagen kann deshalb ein Farbunterschied an einander entsprechenden Positionen entstehen. So kann z. B. ein besonders großer Farbunterschied zwischen Bildern, die ein unscharfes Lichtmuster zeigen, und einem Bild, das ein scharfes Lichtmuster zeigt, bestehen. Aufgrund des Farbunterschieds des Bilds mit scharfem Lichtmuster im Vergleich zu den Bildern mit unscharfem Lichtmuster, kann das Bild mit scharfem Lichtmuster ermittelt werden. Aufgrund der Kenntnis, dass das Lichtmuster scharf dargestellt wird, kann abgeleitet werden, dass in dem Bild mit scharfem Lichtmuster auch das Objekt scharf dargestellt sein muss, wodurch wiederum die Entfernung des Objekts ermittelbar ist.According to a further advantageous embodiment, the three-dimensional shape and / or the spatial position of the object is also determined based on color differences between the images. The color of the images captured by the camera at corresponding positions may change depending on whether, for example, the light pattern is focused. Therefore, between different images with different focus positions, a color difference may arise at positions corresponding to each other. So z. For example, there is a particularly large color difference between images showing a blurred light pattern and an image showing a sharp light pattern. Due to the color difference of the image with a sharp light pattern compared to the images with a blurred light pattern, the image can be detected with a sharp light pattern. Due to the knowledge that the light pattern is displayed sharply, it can be deduced that in the image with a sharp light pattern, the object must also be in focus, which in turn enables the distance of the object to be determined.

Im Unterschied zur Verwendung von Kontrastunterschieden können die Farbunterschiede anhand sich jeweils entsprechender Bildbereiche verschiedener Bilder, d. h. von Bildern die mit verschiedenen Fokuslagen der Kamera aufgenommen wurden, ermittelt werden. Bei einem solchen Vorgehen werden also gegebenenfalls innerhalb eines einzelnen Bildes vorhandene Farbunterschiede nicht berücksichtigt. Die Farbunterschiede können gemeinsam mit einer jeweiligen Fokuslage (der Kamera und/oder des projizierten Lichtmusters) zur Ermittlung der dreidimensionalen Form und/oder der räumlichen Position des Objekts herangezogen werden.In contrast to the use of contrast differences, the color differences can be determined by respectively corresponding image areas of different images, i. H. from images taken at different focal positions of the camera. In the case of such a procedure, color differences that may exist within a single image are therefore not taken into account. The color differences can be used together with a respective focal position (the camera and / or the projected light pattern) for determining the three-dimensional shape and / or the spatial position of the object.

Bevorzugt können für die Kontrastunterschiede und/oder die Farbunterschiede jeweils einander entsprechende Bildpunkte in den Bildern der Kamera herangezogen werden. Alternativ werden Bildpunkte herangezogen, die jeweils derselben Position auf dem Objekt entsprechen.Preferably, mutually corresponding pixels in the images of the camera can be used for the contrast differences and / or the color differences. Alternatively, pixels are used, each corresponding to the same position on the object.

Weiter bevorzugt wird aus den Farbunterschieden zwischen den Bildern eine dritte Tiefenkarte ermittelt. Die dritte Tiefenkarte kann unabhängig von den anderen Tiefenkarten erstellt werden. Für jeden Punkt der Bilder kann wiederum ein Tiefenwert in die dritte Tiefenkarte eingetragen sein.More preferably, a third depth map is determined from the color differences between the images. The third depth map can be created independently of the other depth maps. For each point of the images, a depth value can again be entered in the third depth map.

Aufgrund der Verwendung sowohl der a-priori Informationen, der Kontrastunterschiede, als auch der Farbunterschiede, werden also verschiedene Messgrößen gleichzeitig als Entfernungslineal für das Verfahren verwendet. Auf diese Weise kann ein besonders fehlertolerantes und damit robustes und industriell einsetzbares Verfahren zur dreidimensionalen Erfassung von Objekten geschaffen werden. Zudem werden für sämtliche Messgrößen keine aufwendigen Apparaturen benötigt, sodass eine kompakte Realisierung ermöglicht wird. Ein weiterer Vorteil ist, dass die Erfassung der verschiedenen Messgrößen in kurzer Zeit erfolgen kann, sodass das Verfahren eine echtzeitfähige Ausgabe von dreidimensionalen Daten ermöglicht.Due to the use of both the a-priori information, the contrast differences, as well as the color differences, so different measures are used simultaneously as a distance ruler for the process. In this way, a particularly fault tolerant and thus robust and industrially applicable method for the three-dimensional detection of objects can be created. In addition, no complex equipment is required for all measured variables, so that a compact realization is possible. Another advantage is that the acquisition of the various measured quantities can be done in a short time, so that the method allows a real-time output of three-dimensional data.

Gemäß einer weiteren vorteilhaften Ausführungsform wird aus zumindest zwei der Tiefenkarten mittels Datenfusion eine Ergebnistiefenkarte erstellt. Bei der Datenfusion kann beispielsweise eine Mittelwertbildung zwischen den Werten von zwei oder drei Tiefenkarten erfolgen. Beispielsweise kann auch eine gewichtete Mittelwertbildung erfolgen, wobei z. B. die erste Tiefenkarte oder die zweite Tiefenkarte die stärkste Gewichtung erfährt, wenn davon auszugehen ist, dass diese Tiefenkarte die genauesten Informationen enthält.According to a further advantageous embodiment, a result depth map is created from at least two of the depth maps by means of data fusion. In the case of data fusion, for example, averaging can take place between the values of two or three depth maps. For example, a weighted averaging can take place, wherein z. For example, if the first depth map or the second depth map experiences the heaviest weighting, it is assumed that this depth map contains the most accurate information.

Bevorzugt können die Gewichtungsfaktoren auch einstellbar sein. Auf diese Weise kann das Verfahren beispielsweise an den Einsatzzweck und/oder die zu vermessenden Objekte angepasst werden.Preferably, the weighting factors can also be adjustable. In this way, the method can be adapted, for example, to the intended use and / or the objects to be measured.

Gemäß einer weiteren vorteilhaften Ausführungsform werden für nacheinander projizierte Lichtmuster unterschiedliche Farben verwendet. Beispielsweise können die Lichtmuster von einer Matrix aus RGB-LEDs (Rot-Grün-Blau-LEDs) projiziert werden. Ein Lichtmuster kann jeweils vollständig aus einer Farbe bestehen. Durch verschiedene Lichtmuster mit unterschiedlichen Farben kann, wie später erläutert, die chromatische Aberration der Kamera ausgenutzt werden. Zudem kann jeweils eine solche Farbe für die Lichtmuster verwendet werden, die einen besonders starken Kontrast zu der Farbe des Objekts aufweist. According to a further advantageous embodiment, different colors are used for successively projected light patterns. For example, the light patterns may be projected from a matrix of RGB LEDs (Red-Green-Blue LEDs). A light pattern can each consist entirely of one color. By different light patterns with different colors, as explained later, the chromatic aberration of the camera can be exploited. In addition, such a color can be used for the light pattern, which has a particularly strong contrast to the color of the object.

Gemäß einer weiteren vorteilhaften Ausführungsform wird die Fokuslage der Kamera synchron mit der Fokuslage der Lichtmuster verändert. Dies bedeutet, die Kamera stellt ihre Fokuslage jeweils derart ein, dass sie die projizierten Lichtmuster scharf darstellen kann. Bei einer Veränderung der Fokuslage der Lichtmuster kann zeitgleich eine Veränderung der Fokuslage der Kamera erfolgen. Eine derartige Synchronisation kann beispielsweise über eine Synchronisationsleitung vorgenommen werden, wobei die Synchronisation das Durchlaufen aller Tiefenebenen bzw. Fokuslagen beschleunigt.According to a further advantageous embodiment, the focus position of the camera is changed synchronously with the focus position of the light patterns. This means that the camera adjusts its focus position in such a way that it can sharply represent the projected light patterns. When the focus position of the light pattern changes, a change in the focus position of the camera can take place at the same time. Such a synchronization can be carried out, for example, via a synchronization line, the synchronization accelerating the passage through all depth planes or focal positions.

Alternativ oder zusätzlich kann eine Verzögerung in die Veränderung der Fokuslagen der Kamera oder der Lichtmuster integriert werden, sodass z. B. die Fokuslage der Kamera der Fokuslage der Lichtmuster wiederholt kurzzeitig nachfolgt (oder umgekehrt). Auf diese Weise können durch Interpolation zusätzliche Tiefeninformationen erhalten werden. Hierzu kann die Kamera zusätzliche Bilder aufnehmen, wenn sich die Fokuslagen der Kamera und der Lichtmuster unterscheiden.Alternatively or additionally, a delay in the change in the focal positions of the camera or the light pattern can be integrated, so z. B. the focus position of the camera of the focus position of the light pattern repeatedly briefly follows (or vice versa). In this way, additional depth information can be obtained by interpolation. For this purpose, the camera can take additional pictures when the focal positions of the camera and the light patterns differ.

Gemäß einer weiteren vorteilhaften Ausführungsform wird die Fokuslage der Lichtmuster zumindest alle 100 ms, bevorzugt zumindest alle 10 ms, besonders bevorzugt zumindest jede 1 ms, verändert. Aufgrund einer derart schnellen Veränderung der Fokuslage kann das gesamte Objekt in geringer Zeit abgetastet werden.According to a further advantageous embodiment, the focal position of the light patterns is changed at least every 100 ms, preferably at least every 10 ms, particularly preferably at least every 1 ms. Due to such a rapid change in the focus position, the entire object can be scanned in a short time.

Erfindungsgemäß sind die Lichtmuster zumindest lokal selbstunähnlich. Die Lichtmuster können auch insgesamt selbstunähnlich sein. Dies bedeutet, das Objekt wird mit einem Lichtmuster beleuchtet, dessen Musterstrukturen sich frühestens innerhalb eines gewissen Abstands oder gar nicht innerhalb des Lichtmusters wiederholen. Die selbstunähnlichen Musterstrukturen können es vereinfachen, einander entsprechende Bildbereiche oder Objektbereiche in verschiedenen Bildern zu identifizieren, wodurch beispielsweise die korrekte Zuordnung von Kontrastunterschieden oder Farbunterschieden erleichtert werden kann.According to the invention, the light patterns are at least locally self-similar. The light patterns can also be completely self-dissimilar. This means that the object is illuminated with a light pattern whose pattern structures repeat at the earliest within a certain distance or not at all within the light pattern. The self-similar pattern structures can make it easier to identify corresponding image areas or object areas in different images, thus facilitating, for example, the correct assignment of contrast differences or color differences.

Bei den Lichtmustern kann es sich um zweidimensional korrelierende Beleuchtungsmuster, insbesondere um optimal zweidimensional korrelierende Beleuchtungsmuster, handeln. Die Lichtmuster können beispielsweise rechteckige oder quadratische Bereiche mit unterschiedlichen Helligkeiten aufweisen.The light patterns can be two-dimensionally correlated illumination patterns, in particular optimal two-dimensionally correlated illumination patterns. The light patterns may have, for example, rectangular or square areas with different brightnesses.

Alternativ können die Lichtmuster aber auch periodische Strukturen, wie beispielsweise Linienmuster umfassen.Alternatively, however, the light patterns may also include periodic structures, such as line patterns.

Gemäß einer weiteren vorteilhaften Ausführungsform weisen die Lichtmuster eine Tiefenschärfe auf, die geringer als 30%, bevorzugt geringer als 10%, des Abstands zwischen der Kamera und dem Objekt ist. Allgemein gesprochen, können die Tiefenschärfe der Lichtmuster und die Tiefenschärfe der Kamera beschränkt sein.According to a further advantageous embodiment, the light patterns have a depth of focus which is less than 30%, preferably less than 10%, of the distance between the camera and the object. Generally speaking, the depth of focus of the light patterns and the depth of focus of the camera may be limited.

Die Kamera kann die gleiche oder eine geringere Tiefenschärfe bei der Erfassung der Bilder aufweisen wie die Lichtmuster. Die Tiefenschärfe der projizierten Lichtmuster und/oder der Kamera kann auch geringer sein als 1% oder 0,1% des Abstands zwischen der Kamera und dem Objekt. Durch eine geringere Tiefenschärfe kann eine erhöhte Genauigkeit in der Erfassung des Abstands des Objekts von der Kamera erreicht werden. Damit können genauere Tiefenkarten geschaffen werden.The camera may have the same or less depth of field in capturing the images as the light patterns. The depth of field of the projected light patterns and / or the camera may also be less than 1% or 0.1% of the distance between the camera and the object. Lower depth of focus can provide increased accuracy in detecting the distance of the object from the camera. This allows more accurate depth maps to be created.

Eine absichtliche Verringerung der Tiefenschärfe der Lichtmuster stellt eine Abkehr von der üblichen Verwendung von Lichtmustern (z. B. bei Lichtschnittverfahren) dar, welche mit möglichst großer Tiefenschärfe projiziert werden, um Objekte in unterschiedlichen Entfernungen mit einem scharfen Lichtmuster zu beleuchten.An intentional reduction of the depth of field of the light patterns represents a departure from the usual use of light patterns (eg in light-section methods), which are projected with as much depth of field as possible in order to illuminate objects at different distances with a sharp light pattern.

Unter der Tiefenschärfe wird hierbei ein Tiefenschärfebereich verstanden, der sich von dem Nahpunkt der Kamera (oder der Projektionseinheit) bis zum Fernpunkt der Kamera (oder der Projektionseinheit) erstreckt. Nahpunkt und Fernpunkt können insbesondere anhand der hyperfokalen Entfernung, der Objektiv-Brennweite der Kamera (oder der Projektionseinheit) und der Gegenstandsweite berechnet werden.In this case, the depth of field is understood to mean a depth of field that extends from the near point of the camera (or the projection unit) to the far point of the camera (or the projection unit). The near and far points can be calculated in particular from the hyperfocal distance, the lens focal length of the camera (or the projection unit) and the object's distance.

Die Erfindung betrifft weiterhin eine Vorrichtung zur dreidimensionalen Erfassung eines Objekts, mit

  • – einer Projektionseinheit, welche ausgebildet ist, das Objekt nacheinander mit mehreren Lichtmustern zu beleuchten, die sich in ihrer Fokuslage unterscheiden,
  • – einer Kamera, die von dem Objekt rückgestrahltes Licht der Lichtmuster erfasst, und
  • – einer Steuereinheit, welche eingerichtet ist, die Fokuslage der Kamera an die Fokuslage des jeweiligen Lichtmusters anzupassen, mittels der Kamera für jede Fokuslage ein Bild des Objekts zu erzeugen und anhand von Kontrastunterschieden zwischen den Bildern und anhand von scharfen Bereichen des Lichtmusters in den Bildern und der Fokuslagen die dreidimensionale Form und/oder die räumliche Position des Objekts zu ermitteln.
Erfindungsgemäß sind die Lichtmuster zumindest lokal selbstunähnlich.The invention further relates to a device for three-dimensional detection of an object, with
  • A projection unit which is designed to illuminate the object successively with a plurality of light patterns which differ in their focus position,
  • A camera which detects light of the light patterns reflected by the object, and
  • A control unit which is set up, the focus position of the camera at the focal position of the adapt the respective light pattern, to generate an image of the object for each focal position by means of the camera and to determine the three-dimensional shape and / or the spatial position of the object based on contrast differences between the images and on the basis of sharp areas of the light pattern in the images and the focal positions.
According to the invention, the light patterns are at least locally self-similar.

Bei der Kamera kann es sich insbesondere um eine High-Dynamic-Range-Kamera (HDR-Kamera) handeln. Die Kamera und die Projektionseinheit sind bevorzugt in einem gemeinsamen Gehäuse angeordnet und/oder benachbart zueinander oder angrenzend aneinander angeordnet. Die Kamera und die Projektionseinheit können im Wesentlichen aus derselben Richtung auf das Objekt blicken.In particular, the camera may be a high dynamic range (HDR) camera. The camera and the projection unit are preferably arranged in a common housing and / or adjacent to each other or adjacent to each other. The camera and the projection unit can look at the object from substantially the same direction.

Im Übrigen gelten die zu dem erfindungsgemäßen Verfahren getroffenen Aussagen entsprechend, insbesondere hinsichtlich Vorteilen und vorteilhaften Ausführungsformen.Incidentally, the statements made with regard to the method according to the invention apply correspondingly, in particular with regard to advantages and advantageous embodiments.

Gemäß einer vorteilhaften Ausführungsform der erfindungsgemäßen Vorrichtung weist die Kamera ein Objektiv mit einer Membranlinse auf, insbesondere umfasst die Kamera ein Objektiv mit einer Silikon-Membranlinse und einem Piezo-Aktuator.In accordance with an advantageous embodiment of the device according to the invention, the camera has an objective with a membrane lens, in particular the camera comprises an objective with a silicone membrane lens and a piezoactuator.

Die Membranlinse kann derart aktuierbar sein, dass die Fokuslage der Kamera in weniger als 100 ms, bevorzugt in weniger als 10 ms, besonders bevorzugt in weniger als 1 ms, veränderbar ist. Hierbei ist unter einer Veränderung der Fokuslage zu verstehen, dass die Fokuslage der Kamera an eine neue oder ”benachbarte” Fokuslage der Projektionseinheit angepasst wird. Nachdem die Fokuslage der Kamera an die Fokuslage der Projektionseinheit angepasst worden ist, kann mit der Kamera ein Bild des Objekts erzeugt werden. Dies bedeutet, die Kamera kann zumindest alle 100 ms, bevorzugt zumindest alle 10 ms, besonders bevorzugt zumindest jede 1 ms, ein Bild des Objekts erzeugen.The membrane lens can be actuated in such a way that the focus position of the camera can be changed in less than 100 ms, preferably in less than 10 ms, particularly preferably in less than 1 ms. Here, a change in the focus position is understood to mean that the focus position of the camera is adapted to a new or "neighboring" focal position of the projection unit. After the focus position of the camera has been adapted to the focus position of the projection unit, the camera can be used to generate an image of the object. This means that the camera can generate an image of the object at least every 100 ms, preferably at least every 10 ms, particularly preferably at least every 1 ms.

Gemäß einer weiteren vorteilhaften Ausführungsform handelt es sich bei der Kamera nicht um eine Stereokamera. Zum Beispiel weist die Kamera dann genau ein Objektiv auf. Die Kamera kann dementsprechend genau einen Lichtaufnehmer, genau einen Lichtsensor und/oder genau einen Lichtpfad aufweisen. Durch die Verwendung genau eines Objektivs werden Okklusionen, die bei Stereokameras auftreten können, vermieden.According to a further advantageous embodiment, the camera is not a stereo camera. For example, the camera will have exactly one lens. The camera can accordingly have exactly one light pickup, exactly one light sensor and / or exactly one light path. By using just one lens, occlusions that can occur with stereo cameras are avoided.

Alternativ zu der Kamera mit genau einem Objektiv könnte auch eine Stereokamera verwendet werden, wenn z. B. die Objektgeometrie und/oder die Abbildungsgeometrie dies zulässt.As an alternative to the camera with exactly one lens and a stereo camera could be used if z. B. the object geometry and / or the imaging geometry allows this.

Gemäß einer weiteren vorteilhaften Ausführungsform weist die Kamera eine, insbesondere entfernungsabhängige, chromatische Aberration auf. Es kann somit bewusst eine Kamera mit einem Objektiv mit besonders großer chromatischer Aberration verwendet werden. Auf diese Weise können z. B. nur Bereiche des Objekts scharfgestellt werden, die eine vorbestimmte Farbe besitzen. Ebenfalls ist es möglich, aufgrund der chromatischen Aberration nur das (einfarbige) Lichtmuster scharf zu stellen. Folglich wird eine gewisse Unabhängigkeit von der Farbe des Objekts erreicht, da durch die chromatische Aberration das Objekt selbst zum Teil ”ausgeblendet” werden kann.According to a further advantageous embodiment, the camera has a, in particular distance-dependent, chromatic aberration. It can therefore be used deliberately a camera with a lens with particularly large chromatic aberration. In this way, for. B. only areas of the object are focused, which have a predetermined color. It is also possible to focus only the (monochrome) light pattern due to the chromatic aberration. Consequently, a certain independence from the color of the object is achieved, since the object itself can be partially "hidden" by the chromatic aberration.

Die chromatische Aberration kann zudem entfernungsabhängig sein und z. B. mit steigender Entfernung zunehmen. Die chromatische Aberration kann derart gewählt sein, dass sich die Brennweite des Objektivs zwischen roten Farbtönen (Wellenlänge > 630 nm) und blauen Farbtönen (Wellenlänge < 490 nm) um zumindest 1%, bevorzugt um zumindest 5%, besonders bevorzugt um zumindest 10% unterscheidet.The chromatic aberration can also be distance-dependent and z. B. increase with increasing distance. The chromatic aberration can be selected such that the focal length of the lens differs between red shades (wavelength> 630 nm) and blue shades (wavelength <490 nm) by at least 1%, preferably by at least 5%, particularly preferably by at least 10% ,

Alternativ oder zusätzlich kann auch eine, insbesondere entfernungsabhängige, chromatische Aberration bei der Projektionseinheit vorgesehen sein.Alternatively or additionally, a, in particular distance-dependent, chromatic aberration may be provided in the projection unit.

Gemäß einer weiteren vorteilhaften Ausführungsform umfasst die Projektionseinheit eine sequentiell schaltbare Beleuchtungs-Matrix von Beleuchtungseinheiten, wobei die Beleuchtungs-Matrix Licht durch eine Matrix von Mikrooptiken emittiert. Bei der Beleuchtungsmatrix kann es sich um eine Matrix aus LEDs handeln. Die LEDs sind bevorzugt RGB-LEDs. Jeder LED kann genau eine Mikrooptik, z. B. eine Mikrolinse, zugeordnet sein. Mittels der Mikrooptiken können die Lichtmuster erzeugt werden, wobei die Mikrooptiken jeweils eine unterschiedliche Fokuslage aufweisen.According to a further advantageous embodiment, the projection unit comprises a sequentially switchable illumination matrix of illumination units, wherein the illumination matrix emits light through a matrix of micro-optics. The illumination matrix may be a matrix of LEDs. The LEDs are preferably RGB LEDs. Each LED can have exactly one micro-optic, e.g. As a microlens, be assigned. By means of the micro-optics, the light patterns can be generated, the micro-optics each having a different focal position.

Alternativ zu den Mikrooptiken kann auch genau eine Lichtquelle vorgesehen sein, die die Lichtmuster mittels einer verstellbaren Optik mit verschiedenen Fokuslagen emittiert. Die verstellbare Optik kann eine Membran-Linse mit einem Piezo-Aktuator umfassen.As an alternative to the micro-optics, it is also possible to provide precisely one light source which emits the light patterns by means of an adjustable optical system with different focal positions. The adjustable optics may include a diaphragm lens with a piezo actuator.

Nachfolgend wird die Erfindung rein beispielhaft unter Bezugnahme auf die beigefügten Zeichnungen beschrieben. Es zeigen:Hereinafter, the invention will be described purely by way of example with reference to the accompanying drawings. Show it:

1 eine erfindungsgemäße Vorrichtung zur dreidimensionalen Erfassung eines Objekts; und 1 an inventive device for three-dimensional detection of an object; and

2 ein lokal selbstunähnliches Lichtmuster. 2 a locally self-similar light pattern.

1 zeigt eine Vorrichtung 10, welche zur dreidimensionalen Erfassung eines Objekts 12 ausgebildet ist. Das Objekt 12 ist beabstandet zu der Vorrichtung 10 angeordnet. Die Vorrichtung 10 umfasst eine Abbildungsoptik 14, welche eine Vielzahl von Mikrolinsen 15 aufweist, die verschiedene Lichtmuster 16 projizieren. 1 shows a device 10 , which for the three-dimensional detection of an object 12 is trained. The object 12 is spaced from the device 10 arranged. The device 10 includes an imaging optics 14 containing a variety of microlenses 15 which has different light patterns 16 project.

Ein beispielhaftes Lichtmuster ist genauer in 2 dargestellt. Das dort gezeigte Lichtmuster 16 ist eine zweidimensionale Anordnung von quadratischen Beleuchtungspunkten 18 mit unterschiedlicher Helligkeit. Das Lichtmuster 16 weist keine periodische Struktur und kein Linienmuster auf, sondern ist selbstunähnlich.An exemplary light pattern is more detailed in FIG 2 shown. The light pattern shown there 16 is a two-dimensional array of square illumination points 18 with different brightness. The light pattern 16 has no periodic structure and no line pattern, but is self-similar.

Wie in 1 gezeigt, sind benachbart zu der Abbildungsoptik 14 eine Vielzahl von LEDs 20 angeordnet, welche Licht verschiedener Farbe emittieren, wobei jeweils eine LED 20 durch eine der Mikrolinsen 15 der Abbildungsoptik 40 hindurch strahlt. Die Mikrolinsen 15 der Abbildungsoptik 14 sind derart ausgebildet, dass unterschiedliche Mikrolinsen 15 das Lichtmuster 16 in jeweils unterschiedlichen Abständen zu der Vorrichtung 10 scharf und mit geringer Tiefenschärfe darstellen.As in 1 are shown adjacent to the imaging optics 14 a variety of LEDs 20 arranged, which emit light of different color, each with an LED 20 through one of the microlenses 15 the imaging optics 40 radiates through. The microlenses 15 the imaging optics 14 are formed such that different microlenses 15 the light pattern 16 in each case at different distances from the device 10 sharp and with a shallow depth of field.

Die LEDs 20 werden von einem LED-Treiber 22 angesteuert. Die Mikrolinsen 15, die LEDs 20 und der LED-Treiber 22 bilden eine Projektionseinheit.The LEDs 20 be from an LED driver 22 driven. The microlenses 15 , the LEDs 20 and the LED driver 22 form a projection unit.

Die Vorrichtung 10 umfasst weiterhin eine Empfangsoptik 24, wobei durch die Empfangsoptik 24 hindurchtretendes Licht von einer Silikon-Membranlinse 26 abgelenkt wird. Die Empfangsoptik 24 und die Silikon-Membranlinse 26 bilden gemeinsam ein Objektiv. Die Brechungsstärke der Silikon-Membranlinse 26 kann durch einen Piezo-Aktuator 28 in sehr kurzen Zeitabständen, beispielsweise in weniger als 1 ms, verändert werden. Das durch die Silikon-Membranlinse 26 hindurchtretende Licht wird auf einen HDR-CMOS-Sensor 30 (High Dynamic Range-CMOS-Sensor) projiziert. Der HDR-CMOS-Sensor 30 erzeugt Bilder des Objekts 12.The device 10 further comprises a receiving optics 24 , wherein by the receiving optics 24 passing light from a silicone membrane lens 26 is distracted. The receiving optics 24 and the silicone membrane lens 26 together form a lens. The refractive power of the silicone membrane lens 26 can by a piezo actuator 28 be changed in very short time intervals, for example in less than 1 ms. That through the silicone membrane lens 26 passing light is applied to an HDR CMOS sensor 30 (High Dynamic Range CMOS sensor) projected. The HDR CMOS sensor 30 creates images of the object 12 ,

Eine Ablaufsteuerung 32 sorgt mittels einer Synchronisationsleitung 34 dafür, dass sich die Fokuslage der Abbildungsoptik 14 und die Fokuslage der aus Empfangsoptik 24, Silikon-Membranlinse 26, Piezo-Aktuator 28 und HDR-CMOS-Sensor 30 gebildeten Kamera jeweils entsprechen.A flow control 32 provides by means of a synchronization line 34 that the focal point of the imaging optics 14 and the focal position of the receiver optics 24 , Silicone membrane lens 26 , Piezo actuator 28 and HDR CMOS sensor 30 each camera correspond.

Mittels eines Signalprozessors 36 werden die Bilder der Kamera ausgewertet und 3D-Daten 38 erzeugt. Die 3D-Daten 38 werden über eine Schnittstelle 40 ausgegeben.By means of a signal processor 36 the images of the camera are evaluated and 3D data 38 generated. The 3D data 38 be through an interface 40 output.

Im Betrieb erzeugt die Vorrichtung ein erstes Lichtmuster 16 mit einer Fokuslage, die in einer ersten Fokusebene 42a liegt. Zum Zeitpunkt der Projektion des Lichtmusters 16 in der Fokusebene 42a ist die Kamera ebenfalls auf die Fokusebene 42a scharf gestellt und erzeugt ein entsprechendes Bild. Die Fokuslagen des Lichtmusters 16 und der Kamera entsprechen sich bei der Erzeugung des Bilds und liegen in der Fokusebene 42a.In operation, the device generates a first pattern of light 16 with a focus position that is in a first focal plane 42a lies. At the time of projection of the light pattern 16 in the focal plane 42a the camera is also on the focal plane 42a focused and produces a corresponding image. The focal positions of the light pattern 16 and the camera correspond to the generation of the image and are in the focal plane 42a ,

In analoger Weise werden nachfolgend weitere Lichtmuster 16 in weitere Fokusebenen 42b, 42c, 42d, 42e, 42f und 42g projiziert. Die Fokuslage der Kamera wird dabei synchron auf die jeweils gerade verwendete Fokusebene 42b bis 42g scharf gestellt. Nach dem Scharfstellen erzeugt die Kamera jeweils ein Bild.In an analogous manner, further light patterns will follow 16 in other focal planes 42b . 42c . 42d . 42e . 42f and 42g projected. The focal position of the camera is synchronized to the currently used focal plane 42b to 42g in focus. After focusing, the camera produces one image at a time.

In dem hier gewählten Beispiel werden somit sieben Bilder erzeugt, wobei jedes Bild dahingehend ausgewertet wird, ob scharfe Bereiche des Lichtmusters 16 und/oder scharfe Bereiche des Objekts 12 erkannt werden können. Anhand der scharfen Bereiche und der jeweils bekannten Fokuslage 42 wird mittels des Signalprozessors 36 eine erste Tiefenkarte erzeugt.Thus, in the example chosen here, seven images are generated, each image being evaluated as to whether there are sharp areas of the light pattern 16 and / or sharp areas of the object 12 can be recognized. Based on the sharp areas and the known focal position 42 is done by means of the signal processor 36 generates a first depth map.

Zusätzlich werden Kontrastunterschiede zwischen den sieben Bildern ermittelt, um eine zweite Tiefenkarte zu schaffen. Eine dritte Tiefenkarte wird auf der Basis von Farbunterschieden zwischen den Bildern generiert. Auch für die Kontrastunterschiede und die Farbunterschiede werden die bekannten Fokuslagen 42 herangezogen.Additionally, contrast differences between the seven images are determined to create a second depth map. A third depth map is generated based on color differences between the images. Also for the contrast differences and the color differences become the known focal positions 42 used.

Nach der Ermittlung der drei Tiefenkarten führt der Signalprozessor 36 eine Mittelung über die drei Tiefenkarten durch und gibt die hierdurch entstehenden 3D-Daten 38 über die Schnittstelle 40 aus.After determining the three depth maps, the signal processor performs 36 an averaging over the three depth maps and gives the resulting 3D data 38 over the interface 40 out.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

1010
Vorrichtungcontraption
1212
Objektobject
1414
Abbildungsoptikimaging optics
1515
Mikrolinsemicrolens
1616
Lichtmusterlight pattern
1818
Beleuchtungspunktlighting point
2020
LEDLED
2222
LED-TreiberLED driver
2424
Empfangsoptikreceiving optics
2626
Silikon-MembranlinseSilicone membrane lens
2828
Piezo-AktuatorPiezo actuator
3030
HDR-CMOS-SensorHDR CMOS sensor
3232
Ablaufsteuerungflow control
3434
Synchronisationsleitungsynchronization line
3636
Signalprozessorsignal processor
3838
3D-Daten3D data
4040
Schnittstelleinterface
42, 42a–g42, 42a-g
Fokusebenefocal plane

Claims (16)

Verfahren zur dreidimensionalen Erfassung eines Objekts (12), bei welchem – das Objekt (12) nacheinander mit mehreren Lichtmustern (16) beleuchtet wird, wobei sich die Lichtmuster (16) in ihrer Fokuslage (42) unterscheiden, – von dem Objekt (12) rückgestrahltes Licht der Lichtmuster (16) mittels einer Kamera erfasst wird, wobei die Fokuslage (42) der Kamera an die Fokuslage (42) des jeweiligen Lichtmusters angepasst wird und die Kamera für jede Fokuslage (42) ein Bild des Objekts (12) erzeugt, – anhand von Kontrastunterschieden zwischen den Bildern und anhand von scharfen Bereichen des Lichtmusters (16) in den Bildern und der Fokuslagen (42) die dreidimensionale Form und/oder die räumliche Position des Objekts (12) ermittelt wird, – die Lichtmuster (16) zumindest lokal selbstunähnlich sind.Method for the three-dimensional detection of an object ( 12 ), in which - the object ( 12 ) successively with several light patterns ( 16 ), whereby the light patterns ( 16 ) in their focus position ( 42 ), - of the object ( 12 ) reflected light of the light pattern ( 16 ) is detected by means of a camera, wherein the focus position ( 42 ) of the camera to the focus position ( 42 ) of the respective light pattern and the camera for each focus position ( 42 ) an image of the object ( 12 ), - based on contrast differences between the images and on the basis of sharp areas of the light pattern ( 16 ) in the images and the focal positions ( 42 ) the three-dimensional shape and / or the spatial position of the object ( 12 ), - the light patterns ( 16 ) are at least locally self-similar. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass aus den scharfen Bereichen des Lichtmusters (16) in den Bildern und den Fokuslagen der Bilder eine erste Tiefenkarte ermittelt wird.A method according to claim 1, characterized in that from the sharp areas of the light pattern ( 16 ) in the images and the focal positions of the images a first depth map is determined. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass aus den Kontrastunterschieden zwischen den Bildern eine zweite Tiefenkarte ermittelt wird.A method according to claim 1 or 2, characterized in that from the contrast differences between the images, a second depth map is determined. Verfahren nach zumindest einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass die dreidimensionale Form und/oder die räumliche Position des Objekts (12) anhand von Farbunterschieden zwischen den Bildern ermittelt wird.Method according to at least one of the preceding claims, characterized in that the three-dimensional shape and / or the spatial position of the object ( 12 ) is determined by color differences between the images. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass aus den Farbunterschieden zwischen den Bildern eine dritte Tiefenkarte ermittelt wird.A method according to claim 4, characterized in that from the color differences between the images, a third depth map is determined. Verfahren nach den Ansprüchen 2, 3 und 5, dadurch gekennzeichnet, dass aus zumindest zwei der Tiefenkarten mittels Datenfusion eine Ergebnistiefenkarte erstellt wird.Method according to claims 2, 3 and 5, characterized in that from at least two of the depth maps by means of data fusion a result depth map is created. Verfahren nach zumindest einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass für nacheinander projizierte Lichtmuster (16) unterschiedliche Farben verwendet werden.Method according to at least one of the preceding claims, characterized in that for successively projected light patterns ( 16 ) different colors are used. Verfahren nach zumindest einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass die Fokuslage (42) der Kamera synchron mit der Fokuslage (42) der Lichtmuster (16) verändert wird.Method according to at least one of the preceding claims, characterized in that the focus position ( 42 ) of the camera in sync with the focus position ( 42 ) the light pattern ( 16 ) is changed. Verfahren nach zumindest einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass die Fokuslage (42) der Lichtmuster (16) zumindest alle 100 ms, bevorzugt zumindest alle 10 ms, besonders bevorzugt zumindest jede 1 ms, verändert wird.Method according to at least one of the preceding claims, characterized in that the focus position ( 42 ) the light pattern ( 16 ) is changed at least every 100 ms, preferably at least every 10 ms, more preferably at least every 1 ms. Verfahren nach zumindest einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass die Lichtmuster (16) eine Tiefenschärfe aufweisen, die geringer als 30%, bevorzugt geringer als 10%, des Abstands zwischen der Kamera und dem Objekt ist.Method according to at least one of the preceding claims, characterized in that the light patterns ( 16 ) have a depth of field that is less than 30%, preferably less than 10%, of the distance between the camera and the object. Vorrichtung (10) zur dreidimensionalen Erfassung eines Objekts (12), mit – einer Projektionseinheit, welche ausgebildet ist, das Objekt (12) nacheinander mit mehreren Lichtmustern (16) zu beleuchten, wobei sich die Lichtmuster in ihrer Fokuslage (42) unterscheiden, – einer Kamera, die von dem Objekt (12) rückgestrahltes Licht der Lichtmuster (16) erfasst, und – einer Steuereinheit (32, 34, 36), welche eingerichtet ist, die Fokuslage (42) der Kamera an die Fokuslage (42) des jeweiligen Lichtmusters (16) anzupassen, mittels der Kamera für jede Fokuslage (42) ein Bild des Objekts (12) zu erzeugen und anhand von Kontrastunterschieden zwischen den Bildern und anhand von scharfen Bereichen des Lichtmusters (16) in den Bildern und der Fokuslagen (42) die dreidimensionale Form und/oder die räumliche Position des Objekts (12) zu ermitteln, wobei die Lichtmuster (16) zumindest lokal selbstunähnlich sind.Contraption ( 10 ) for the three-dimensional detection of an object ( 12 ), with - a projection unit, which is designed, the object ( 12 ) successively with several light patterns ( 16 ), with the light patterns in their focal position ( 42 ), a camera that is separated from the object ( 12 ) reflected light of the light pattern ( 16 ), and - a control unit ( 32 . 34 . 36 ), which is set up, the focus position ( 42 ) of the camera to the focus position ( 42 ) of the respective light pattern ( 16 ), by means of the camera for each focal position ( 42 ) an image of the object ( 12 ) and contrast differences between the images and sharp areas of the light pattern ( 16 ) in the images and the focal positions ( 42 ) the three-dimensional shape and / or the spatial position of the object ( 12 ), the light patterns ( 16 ) are at least locally self-similar. Vorrichtung nach Anspruch 11, dadurch gekennzeichnet, dass die Kamera ein Objektiv mit einer Membranlinse, insbesondere eine Silikon-Membranlinse (26) mit einem Piezo-Aktuator (28), aufweist, wobei die Membranlinse derart aktuierbar ist, dass die Fokuslage (42) der Kamera in weniger als 100 ms, bevorzugt in weniger als 10 ms, besonders bevorzugt in weniger als 1 ms, veränderbar ist.Apparatus according to claim 11, characterized in that the camera is a lens with a membrane lens, in particular a silicone membrane lens ( 26 ) with a piezo actuator ( 28 ), wherein the membrane lens is actuatable such that the focus position ( 42 ) of the camera in less than 100 ms, preferably in less than 10 ms, more preferably in less than 1 ms, is variable. Vorrichtung nach Anspruch 11 oder 12, dadurch gekennzeichnet, dass die Kamera genau ein Objektiv aufweist.Apparatus according to claim 11 or 12, characterized in that the camera has exactly one lens. Vorrichtung nach zumindest einem der Ansprüche 11 bis 13, dadurch gekennzeichnet, dass die Kamera eine, insbesondere entfernungsabhängige, chromatische Aberration aufweist.Device according to at least one of claims 11 to 13, characterized in that the camera has a, in particular distance-dependent, chromatic aberration. Vorrichtung nach zumindest einem der Ansprüche 11 bis 14, dadurch gekennzeichnet, dass die Projektionseinheit eine sequentiell schaltbare Beleuchtungs-Matrix von Beleuchtungseinheiten (20) umfasst, wobei die Beleuchtungs-Matrix Licht durch eine Matrix von Mikrooptiken (15) emittiert.Device according to at least one of Claims 11 to 14, characterized in that the projection unit has a sequentially switchable illumination matrix of illumination units ( 20 ), wherein the illumination matrix transmits light through a matrix of micro-optics ( 15 ) emitted. Vorrichtung nach zumindest einem der Ansprüche 11 bis 15, dadurch gekennzeichnet, dass die Kamera und die Projektionseinheit in einem gemeinsamen Gehäuse angeordnet und/oder benachbart zueinander oder angrenzend aneinander angeordnet sind.Device according to at least one of claims 11 to 15, characterized in that the camera and the projection unit are arranged in a common housing and / or adjacent to each other or adjacent to each other.
DE102016109131.6A 2016-05-18 2016-05-18 Method for the three-dimensional detection of an object Active DE102016109131B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016109131.6A DE102016109131B4 (en) 2016-05-18 2016-05-18 Method for the three-dimensional detection of an object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016109131.6A DE102016109131B4 (en) 2016-05-18 2016-05-18 Method for the three-dimensional detection of an object

Publications (2)

Publication Number Publication Date
DE102016109131A1 DE102016109131A1 (en) 2017-11-23
DE102016109131B4 true DE102016109131B4 (en) 2018-03-01

Family

ID=60254982

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016109131.6A Active DE102016109131B4 (en) 2016-05-18 2016-05-18 Method for the three-dimensional detection of an object

Country Status (1)

Country Link
DE (1) DE102016109131B4 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220051275A (en) * 2019-11-05 2022-04-26 슈운크 소노시스템스 게엠바하 Ultrasonic welding device with integrated camera assembly

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5608529A (en) 1994-01-31 1997-03-04 Nikon Corporation Optical three-dimensional shape measuring apparatus
EP0890822A2 (en) 1997-07-09 1999-01-13 YEDA RESEARCH AND DEVELOPMENT Co. LTD. A triangulation method and system for color-coded optical profilometry
US6219461B1 (en) 1997-07-29 2001-04-17 Cognex Corporation Determining a depth
US6229913B1 (en) 1995-06-07 2001-05-08 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two-images due to defocus
US20110229840A1 (en) 2010-03-19 2011-09-22 Rongguang Liang 3-d imaging using telecentric defocus
DE102011052802A1 (en) 2011-08-18 2013-02-21 Sick Ag 3D camera and method for monitoring a room area
DE102014119126B3 (en) 2014-12-19 2015-08-06 Sick Ag Strip projector to illuminate a scene with a variable stripe pattern
WO2015177784A2 (en) 2014-05-18 2015-11-26 Adom, Advanced Optical Technologies Ltd. System for tomography and/or topography measurements of a layered object

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5608529A (en) 1994-01-31 1997-03-04 Nikon Corporation Optical three-dimensional shape measuring apparatus
US6229913B1 (en) 1995-06-07 2001-05-08 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two-images due to defocus
EP0890822A2 (en) 1997-07-09 1999-01-13 YEDA RESEARCH AND DEVELOPMENT Co. LTD. A triangulation method and system for color-coded optical profilometry
US6219461B1 (en) 1997-07-29 2001-04-17 Cognex Corporation Determining a depth
US20110229840A1 (en) 2010-03-19 2011-09-22 Rongguang Liang 3-d imaging using telecentric defocus
DE102011052802A1 (en) 2011-08-18 2013-02-21 Sick Ag 3D camera and method for monitoring a room area
WO2015177784A2 (en) 2014-05-18 2015-11-26 Adom, Advanced Optical Technologies Ltd. System for tomography and/or topography measurements of a layered object
DE102014119126B3 (en) 2014-12-19 2015-08-06 Sick Ag Strip projector to illuminate a scene with a variable stripe pattern

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
K. Mishra et al; "Recent Developments in Optofluidic Lens Technology"; Micromachines 2016, 7, 102, S. 1 – 24

Also Published As

Publication number Publication date
DE102016109131A1 (en) 2017-11-23

Similar Documents

Publication Publication Date Title
DE60208894T2 (en) RAIN SENSOR WITH STEREOSCOPIC PICTURE SYSTEM
EP3298345B1 (en) Camera and method for the three-dimensional measurement and colour measurement of a dental object
DE102008002730B4 (en) Method and device for 3D reconstruction
DE102008002725B4 (en) Method and device for 3D reconstruction
DE102015209402A1 (en) Device for optical 3D measurement of an object
DE102008062995A1 (en) 3D camera for room surveillance
DE102009009372A1 (en) Monitoring of tiltable mirrors
DE102009030644B4 (en) Non-contact detection device
DE102013207374A1 (en) Device and method for recognizing labels on vehicle tires
DE102017116758B4 (en) Method and device for scanning surfaces with a stereo camera
DE102009018464B4 (en) Optical sensor
EP2799810A1 (en) Apparatus and method for simultaneous three-dimensional measuring of surfaces with multiple wavelengths
DE102012023623B4 (en) Method for assembling partial recordings of a surface of an object to a total record of the object and system for creating a complete record of an object
EP3581881A1 (en) Surface measurement by means of excited fluorescence
WO1996023240A1 (en) Process and device for imaging an object
WO2007134567A1 (en) Method for generating image information
DE102016221184A1 (en) Calibration device and calibration method for a camera system
DE102019201272A1 (en) Device, measurement system and method for detecting an at least partially reflective surface using two reflection patterns
DE102014204686A1 (en) Method and device for image acquisition in vehicle surveying
DE102018108154A1 (en) Calibration device and calibration method for a camera system
DE102012102580A1 (en) Method for measuring an object and intraoral scanner
DE102016109131B4 (en) Method for the three-dimensional detection of an object
DE102013105102A1 (en) Method and device for determining features on objects to be measured
EP3320681B1 (en) Method and device for scanning surfaces using a stereo camera
WO2019007698A1 (en) Digital determination of focus position

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final