DE102023120240A1 - Recording device for generating a 3D image of a three-dimensional object and method - Google Patents

Recording device for generating a 3D image of a three-dimensional object and method Download PDF

Info

Publication number
DE102023120240A1
DE102023120240A1 DE102023120240.5A DE102023120240A DE102023120240A1 DE 102023120240 A1 DE102023120240 A1 DE 102023120240A1 DE 102023120240 A DE102023120240 A DE 102023120240A DE 102023120240 A1 DE102023120240 A1 DE 102023120240A1
Authority
DE
Germany
Prior art keywords
beam splitter
image
pattern
recording
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102023120240.5A
Other languages
German (de)
Inventor
Volker Gäbler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jenoptik Optical Systems GmbH
Original Assignee
Jenoptik Optical Systems GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jenoptik Optical Systems GmbH filed Critical Jenoptik Optical Systems GmbH
Priority to DE102023120240.5A priority Critical patent/DE102023120240A1/en
Priority to PCT/EP2024/069588 priority patent/WO2025026683A1/en
Publication of DE102023120240A1 publication Critical patent/DE102023120240A1/en
Granted legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/002Scanning microscopes
    • G02B21/0024Confocal scanning microscopes (CSOMs) or confocal "macroscopes"; Accessories which are not restricted to use with CSOMs, e.g. sample holders
    • G02B21/0052Optical details of the image generation
    • G02B21/0064Optical details of the image generation multi-spectral or wavelength-selective arrangements, e.g. wavelength fan-out, chromatic profiling
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/50Using chromatic effects to achieve wavelength-dependent depth resolution

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft eine Aufnahmevorrichtung (10) zum Erzeugen einer 3D-Aufnahme eines dreidimensionalen Objekts (11), aufweisend eine Lichtquelle (13) zum Erzeugen eines Lichtstrahlbündels (14) in einer Musterebene (15),einen ersten Strahlteiler (16) zum Abteilen eines Beleuchtungsstrahlbündels (17) von dem Lichtstrahlbündel (14) und zum Abteilen eines Aufnahmestrahlbündels (18) von einem von dem Objekt (11) zurückgeworfenen Beobachtungsstrahlbündel (19), ein chromatisches Element (24) zum Fokussieren des vom ersten Strahlteiler (16) abgeteilten Beleuchtungsstrahlbündels (17) auf die Vielzahl der Projektionsebenen (12), einen zweiten Strahlteiler (25) zum Teilen des Aufnahmestrahlbündels (18) in einen ersten Aufnahmestrahlbündelanteil (26) und einen zweiten Aufnahmestrahlbündelanteil (27), eine Erfassungseinheit (31) mit einem ersten Matrixsensor (36) mit einem zweiten Matrixsensor (38), eine Berechnungseinheit (40), um eine 3D-Aufnahme des dreidimensionalen Objekts (11) zu erzeugen.

Figure DE102023120240A1_0000
The invention relates to a recording device (10) for generating a 3D recording of a three-dimensional object (11), comprising a light source (13) for generating a light beam (14) in a pattern plane (15), a first beam splitter (16) for splitting an illumination beam (17) from the light beam (14) and for splitting a recording beam (18) from an observation beam (19) reflected by the object (11), a chromatic element (24) for focusing the illumination beam (17) split by the first beam splitter (16) onto the plurality of projection planes (12), a second beam splitter (25) for splitting the recording beam (18) into a first recording beam portion (26) and a second recording beam portion (27), a detection unit (31) with a first matrix sensor (36) with a second matrix sensor (38), a calculation unit (40) to produce a 3D image of the three-dimensional object (11).
Figure DE102023120240A1_0000

Description

Die Erfindung betrifft eine Aufnahmevorrichtung mit den Merkmalen des unabhängigen Patentanspruchs 1 sowie ein Verfahren mit den Merkmalen des unabhängigen Patentanspruchs 14.The invention relates to a recording device with the features of independent patent claim 1 and a method with the features of independent patent claim 14.

In vielen Bereichen der Technik ist es mittlerweile gewünscht 3D- Aufnahmen zu erzeugen. Allerdings gibt es dabei Bereiche in denen die aufzunehmenden Objekte klein und schwer zugänglich sind und dennoch aus verschiedenen schwer zugänglichen Perspektiven aufgenommen werden müssen, um ein 3D-Bild zu erhalten. Gleichzeitig dürfen dabei die Aufnahmegeräte nicht groß sein und müssen flexibel und im besten Fall mobil sein. Wenn beispielsweise Bauteile in Geräten oder Modulen analysiert werden sollen, ohne die Geräte zu demontieren sind in-situ 3D Aufnahmen erforderlich. Ein Anwendungsfall hierfür ist beispielsweise die Aufnahme der Form von spanend hergestellten oder spritzgegossenen Bauteilen im eingebauten Zustand, um montagebedingte Verformungen derselben feststellen zu können.In many areas of technology, it is now desired to create 3D images. However, there are areas in which the objects to be recorded are small and difficult to access and yet must be recorded from various difficult-to-access perspectives in order to obtain a 3D image. At the same time, the recording devices must not be large and must be flexible and, ideally, mobile. If, for example, components in devices or modules are to be analyzed without dismantling the devices, in-situ 3D recordings are required. One application for this is, for example, recording the shape of machined or injection-molded components in the installed state in order to be able to determine any deformations caused by assembly.

Aus EP1084379A1 ist eine optoelektronische Formerfassung durch chromatische Kodierung mit Beleuchtungsebenen bekannt, bei welcher eine spektrale Auswertung des von der Probe zurückgeworfenen Lichts erfolgt. Nachteilig ist die Notwendigkeit einer spektralen Messung.Out of EP1084379A1 An optoelectronic form detection by chromatic coding with illumination planes is known, in which a spectral evaluation of the light reflected from the sample is carried out. The disadvantage is the need for a spectral measurement.

Aus US20140043619A ist eine chromatisch konfokale Scanvorrichtung bekannt.Out of US20140043619A A chromatic confocal scanning device is known.

Aus DE102020110298A1 sind eine Vorrichtung und ein Verfahren zur optischen Messung einer Oberflächentopographie bekannt, bei der mehrere Einzelbilder bei unterschiedlichen Wellenlängen aufgenommen werden. Nachteiligigerweise ist diese Verfahren langsam.Out of DE102020110298A1 A device and a method for optically measuring a surface topography are known in which several individual images are recorded at different wavelengths. The disadvantage of this method is that it is slow.

Aus DE102016211748A1 ist eine chromatisch konfokale Messanordnung zur Abstandsmessung bekannt.Out of DE102016211748A1 A chromatic confocal measuring arrangement for distance measurement is known.

Aus DE102015210016A1 ist ein Verfahren zum Ermitteln einer ortsaufgelösten Höheninformation einer Probe mit einem Weitfeldmikroskop bekannt. Dabei wird mit einem Modulationsverfahren die Höheninformation pixelweise ermittelt. Nachteiligigerweise ist diese Verfahren langsam.Out of DE102015210016A1 A method for determining spatially resolved height information of a sample using a wide-field microscope is known. The height information is determined pixel by pixel using a modulation method. The disadvantage of this method is that it is slow.

Aus WO2013/171309A sind ein Lichtmikroskop und ein Verfahren zur Bildaufnahme mit einem Lichtmikroskop bekannt, welches mit einem galvanischen Spiegel arbeitet. Nachteilig ist das Vorhandensein beweglicher Teile.Out of WO2013/171309A A light microscope and a method for image recording with a light microscope are known, which works with a galvanic mirror. The disadvantage is the presence of moving parts.

Aus WO99/24786A ist ein auf spatiochromatischer Triangulation basierendes optoelektronisches System mit einer prismenbasierten Spektrometeranordnung bekannt. Nachteilig ist die Komplexität des Systems. Prismen weisen außerdem zudem eine materialabhängige Dispersion auf.Out of WO99/24786A An optoelectronic system based on spatiochromatic triangulation with a prism-based spectrometer arrangement is known. The disadvantage of the system is the complexity. Prisms also exhibit a material-dependent dispersion.

Aus DE102007019267A1 ist eine Messanordnung zum dreidimensionalen Messen eines Objekts bekannt, welches mit einem Punktraster als Beleuchtung und einer prismenbasierten Spektrometeranordnung arbeitet. Eine ähnliche Anordnung ist auch aus DE102009025815A1 bekannt.Out of DE102007019267A1 A measuring arrangement for three-dimensional measurement of an object is known, which works with a point grid as illumination and a prism-based spectrometer arrangement. A similar arrangement is also known from DE102009025815A1 known.

Aus DE102020200214A1 ist eine Konfokale Messvorrichtung zur 3d-vermessung einer Objektoberfläche bekannt, welche mit einer Lochblende und einem Linsenarray arbeitet.Out of DE102020200214A1 A confocal measuring device for 3D measurement of an object surface is known, which works with a pinhole and a lens array.

Aus DE3428593A1 - ist ein Optisches Oberflächenmessgerät mit einer Longidutional-Dispersionseinrichtung bekannt.Out of DE3428593A1 - an optical surface measuring device with a longitudinal dispersion device is known.

Aus DE102006007170A1 sind ein Verfahren und eine Anordnung zur schnellen und robusten, chromatisch-konfokalen 3d-Messtechnik mit einer spektralen Zerlegung des Lichts durch Prismen bekannt.Out of DE102006007170A1 A method and an arrangement for fast and robust chromatic-confocal 3D measurement technology with a spectral decomposition of light by prisms are known.

Aus WO2019/176938A1 sind ein Wellenlängendetektor und eine konfokale Messvorrichtung bekannt, welche eine spektrale Auswerteeinrichtung erfordert.Out of WO2019/176938A1 A wavelength detector and a confocal measuring device are known, which requires a spectral evaluation device.

Aus DE102013008582A1 sind ein Verfahren und eine Vorrichtung zur chromatisch-konfokalen Mehrpunktmessung bekannt, bei der punktweise der Abstand abgetastet wird. Nachteiligigerweise ist diese Verfahren langsam.Out of DE102013008582A1 A method and a device for chromatic-confocal multi-point measurement are known in which the distance is scanned point by point. The disadvantage of this method is that it is slow.

Aus der WO 95/00 871 A1 ist eine dreidimensionale Abbildungsvorrichtung mit einer breitbandigen Lichtquelle, einer Anordnung zur Bildung von Punktquellen, einem Fokussierelement zur Fokussierung des Lichts jeder Punktquelle auf ein Objekt, einem Strahlteiler, einer chromatischen Farbfiltereinheit, mehreren Lichtsensoren und einer elektronischen Verarbeitungseinheit zur Bestimmung der Position jedes Punktes auf dem Objekt parallel zur Achse des Fokussierelements bekannt. Das Fokussierelement ist axial chromatisch. Diese Vorrichtung ist für die dreidimensionale Prüfung geeignet. Diese Abbildungseinrichtung weist jedoch Elemente in Form einer Nipkow-Scheibe auf, d. h., es sind bewegliche Elemente vorgesehen. Derartige Abbildungsvorrichtungen haben eine größere Bauform und sind daher in ihrem Anwendungsbereich eingeschränkt. Gleichzeitig machen die beweglichen Elemente den Aufbau kompliziert und störanfällig.From the WO 95/00 871 A1 is known a three-dimensional imaging device with a broadband light source, an arrangement for forming point sources, a focusing element for focusing the light of each point source on an object, a beam splitter, a chromatic color filter unit, several light sensors and an electronic processing unit for determining the position of each point on the object parallel to the axis of the focusing element. The focusing element is axially chromatic. This device is suitable for three-dimensional testing. However, this imaging device has elements in the form of a Nipkow disk, ie movable elements are provided. Such imaging devices have a larger design and are therefore limited in their field of application. At the same time, the movable elements make the structure complicated and prone to failure.

Es ist daher eine Aufgabe der vorliegenden Erfindung, wenigstens einen der voranstehend beschriebenen Nachteile zumindest teilweise zu überwinden. Insbesondere ist es Aufgabe der Erfindung eine Aufnahmevorrichtung zur Verfügung zu stellen, die einen geringen Platzbedarf und eine schnelle Aufnahme und keine rotierenden bzw. beweglichen Teile aufweist.It is therefore an object of the present invention to at least partially overcome at least one of the disadvantages described above. In particular, it is an object of the invention to provide a receiving device which requires little space and is quick to receive and has no rotating or moving parts.

Die voranstehende Aufgabe wird gelöst durch eine Aufnahmevorrichtung mit den Merkmalen des unabhängigen Patentanspruchs 1 sowie durch ein Verfahren mit den Merkmalen des unabhängigen Patentanspruchs 14. Weitere Merkmale und Details der Erfindung ergeben sich aus den Unteransprüchen, der Beschreibung und den Zeichnungen. Dabei gelten Merkmale und Details, die im Zusammenhang mit der erfindungsgemäßen Aufnahmevorrichtung beschrieben sind, selbstverständlich auch im Zusammenhang mit dem erfindungsgemäßen Verfahren und jeweils umgekehrt, sodass bezüglich der Offenbarung zu den einzelnen Erfindungsaspekten stets wechselseitig Bezug genommen wird bzw. werden kann.The above object is achieved by a recording device with the features of independent patent claim 1 and by a method with the features of independent patent claim 14. Further features and details of the invention emerge from the subclaims, the description and the drawings. Features and details that are described in connection with the recording device according to the invention naturally also apply in connection with the method according to the invention and vice versa, so that with regard to the disclosure of the individual aspects of the invention, reference is or can always be made to each other.

Ein erster Aspekt der Erfindung ist eine Aufnahmevorrichtung zum Erzeugen einer 3D-Aufnahme eines dreidimensionalen Objekts, wobei die Aufnahmevorrichtung eine Vielzahl von Projektionsebenen zum Beleuchten des Objekts aufweist, wobei die Vielzahl Projektionsebenen auf das Objekt projizierbar ist, wobei die Projektionsebenen jeweils einen wellenlängenabhängigen Abstand zu einer mittleren Projektionsebene aus der Vielzahl der Projektionsebenen aufweisen, aufweisend

  • - eine Lichtquelle zum Erzeugen eines Lichtstrahlbündels in einer Musterebene,
  • - einen ersten Strahlteiler zum Abteilen eines Beleuchtungsstrahlbündels von dem Lichtstrahlbündel und zum Abteilen eines Aufnahmestrahlbündels von einem von dem Objekt zurückgeworfenen Beobachtungsstrahlbündel,
    • - mit einem ersten Strahlteilereingang zum Empfangen des Lichtstrahlbündels und
    • - mit einem ersten Strahlteilerausgang zum Ausgeben des Beleuchtungsstrahlbündels und,
    • - mit einem zweiten Strahlteilereingang zum Empfangen des Beobachtungsstrahlbündels und
    • - mit einem zweiten Strahlteilerausgang zum Ausgeben des Aufnahmestrahlbündels, wobei der zweite Strahlteilereingang dem ersten Strahlteilerausgang entspricht,
  • - ein chromatisches Element zum Fokussieren des vom ersten Strahlteiler abgeteilten Beleuchtungsstrahlbündels auf die Vielzahl der Projektionsebenen,
  • - derart, dass die Musterebene zu jeweils einer der Projektionsebenen aus der Vielzahl von Projektionsebenen jeweils bei einer bestimmten Projektionswellenlänge konjugiert ist,
  • - einen zweiten Strahlteiler zum Teilen des Aufnahmestrahlbündels in einen ersten Aufnahmestrahlbündelanteil und einen zweiten Aufnahmestrahlbündelanteil,
    • - mit einem dritten Strahlteilereingang zum Empfangen des Aufnahmestrahlbündels und,
    • - mit einem dritten Strahlteilerausgang zum Ausgeben des ersten Aufnahmestrahlbündelanteils und,
    • - mit einem vierten Strahlteilerausgang zum Ausgeben des zweiten Aufnahmestrahlbündelanteils,
  • - eine Erfassungseinheit zum Erfassen eines ersten Bilds in einer ersten Bildebene des ersten Aufnahmestrahlbündelanteils und eines zweiten Bilds in einer zweiten Bildebene des zweiten Aufnahmestrahlbündelanteils des Objekts,
  • - mit einem ersten Matrixsensor zum zweidimensionalen Erfassen der ersten Intensitätsdaten des ersten Aufnahmestrahlbündelanteils als ein erstes Bild in der ersten Bildebene, wobei der erste Matrixsensor bezogen auf die Strahlrichtung des ersten Aufnahmestrahlbündelanteils dem dritten Strahlteilerausgang des zweiten Strahlteilers nachgeordnet angeordnet ist,
  • - mit einem zweiten Matrixsensor zum zweidimensionalen Erfassen der zweiten Intensitätsdaten des zweiten Aufnahmestrahlbündelanteils als ein zweites Bild in der zweiten Bildebene, wobei der zweite Matrixsensor bezogen auf die Strahlrichtung des zweiten Aufnahmestrahlbündelanteils dem vierten Strahlteilerausgang des zweiten Strahlteilers nachgeordnet angeordnet ist,
  • - wobei das erste Bild und das zweite Bild miteinander korrespondierende Bildpunkte aufweisen, wobei die korrespondierenden Bildpunkte jeweils denselben Objektpunkten des dreidimensionalen Objekts zuordenbar sind,
  • - eine Berechnungseinheit zum Berechnen zumindest jeweils einer Längskoordinate mehrerer Objektpunkte des Objekts aus den korrespondierenden Bildpunkten des ersten Bilds und des zweiten Bilds, um eine 3D-Aufnahme des dreidimensionalen Objekts zu erzeugen.
A first aspect of the invention is a recording device for generating a 3D recording of a three-dimensional object, wherein the recording device has a plurality of projection planes for illuminating the object, wherein the plurality of projection planes can be projected onto the object, wherein the projection planes each have a wavelength-dependent distance from a middle projection plane from the plurality of projection planes, comprising
  • - a light source for generating a light beam in a pattern plane,
  • - a first beam splitter for splitting an illumination beam from the light beam and for splitting a recording beam from an observation beam reflected by the object,
    • - with a first beam splitter input for receiving the light beam and
    • - with a first beam splitter output for outputting the illumination beam and,
    • - with a second beam splitter input for receiving the observation beam and
    • - with a second beam splitter output for outputting the receiving beam, wherein the second beam splitter input corresponds to the first beam splitter output,
  • - a chromatic element for focusing the illumination beam split by the first beam splitter onto the plurality of projection planes,
  • - such that the pattern plane is conjugated to one of the projection planes from the plurality of projection planes each at a specific projection wavelength,
  • - a second beam splitter for dividing the receiving beam into a first receiving beam portion and a second receiving beam portion,
    • - with a third beam splitter input for receiving the receiving beam and,
    • - with a third beam splitter output for outputting the first receiving beam portion and,
    • - with a fourth beam splitter output for outputting the second receiving beam portion,
  • - a detection unit for detecting a first image in a first image plane of the first recording beam portion and a second image in a second image plane of the second recording beam portion of the object,
  • - with a first matrix sensor for two-dimensionally capturing the first intensity data of the first receiving beam portion as a first image in the first image plane, wherein the first matrix sensor is arranged downstream of the third beam splitter output of the second beam splitter with respect to the beam direction of the first receiving beam portion,
  • - with a second matrix sensor for two-dimensionally capturing the second intensity data of the second receiving beam portion as a second image in the second image plane, wherein the second matrix sensor is arranged downstream of the fourth beam splitter output of the second beam splitter with respect to the beam direction of the second receiving beam portion,
  • - wherein the first image and the second image have corresponding pixels, wherein the corresponding pixels can each be assigned to the same object points of the three-dimensional object,
  • - a calculation unit for calculating at least one longitudinal coordinate of a plurality of object points of the object from the corresponding image points of the first image and the second image in order to generate a 3D image of the three-dimensional object.

Die Projektionsebenen sind auf das Objekt projizierbar. Das kann bedeuten, dass die Aufnahmevorrichtung derart plazierbar ist, dass sich das Objekt wenigstens teilweise innerhalb der Projektionsebenen befindet. Bei einer ortsfest installierten Aufnahmevorrichtung kann das Objekt innerhalb der Projektionsebenen plazierbar sein, und zwar so, dass das Objekt wenigstens teilweise auf die Matrixsensoren abbildbar ist. Vorteilhaft kann die optische Achse das Objekt schneiden. Bei den Projektionsebenen kann es sich im mathematischen Sinne um eine Projektionsebenenschar handeln, mit einer Längskoordinate zp in Richtung der optischen Achse als Parameter, wobei die Längskoordinate zp wiederum von der Projektionswellenlänge λ als Parameter abhängig ist.The projection planes can be projected onto the object. This can mean that the recording device can be placed in such a way that the object is at least partially located within the projection planes. With a fixed recording device, the object can be located within the projection planes, in such a way that the object can be imaged at least partially on the matrix sensors. The optical axis can advantageously intersect the object. In the mathematical sense, the projection planes can be a family of projection planes, with a longitudinal coordinate zp in the direction of the optical axis as a parameter, whereby the longitudinal coordinate zp in turn depends on the projection wavelength λ as a parameter.

Die Musterebene ist zu jeweils einer der Projektionsebenen aus der Vielzahl von Projektionsebenen jeweils bei einer bestimmten Projektionswellenlänge konjugiert. Darunter kann man verstehen, dass die Musterebene bei einer bestimmten Projektionswellenlänge auf eine Projektionsebene scharf projiziert wird. Vorteilhaft kann bezüglich einer Projektionswellenlänge die Strecke zwischen der Musterebene und der Projektionsebene frei von weiteren dazu konjugierten Ebenen (Zwischenbildebenen) sein. Wegen der spektralen Bandbreite des Lichtstrahlbündels gibt es mehrere Projektionsebenen, die senkrecht zur optischen Achse und parallel zueinander sein und jeweils einen Abstand zu einer mittleren Projektionsebene haben können. Als mittlere Projektionsebene kann man die Projektionsebene nehmen, die bei einer mittleren Projektionswellenlänge, d.h einer mittleren Wellenlänge der Lichtquelle, konjugiert zur Musterebene ist.The pattern plane is conjugated to one of the projection planes from the multitude of projection planes at a specific projection wavelength. This means that the pattern plane is sharply projected onto a projection plane at a specific projection wavelength. With regard to a projection wavelength, the distance between the pattern plane and the projection plane can advantageously be free of further conjugated planes (intermediate image planes). Due to the spectral bandwidth of the light beam, there are several projection planes that can be perpendicular to the optical axis and parallel to one another and each have a distance from a central projection plane. The central projection plane can be the projection plane that is conjugated to the pattern plane at a central projection wavelength, i.e. a central wavelength of the light source.

Schneidet die Objektoberfläche eine bestimmte Projektionsebene in einem Punkt oder in einer Linie, kann dieser Punkt bzw. diese Linie bei der dieser Projektionsebene entsprechenden Projektionswellenlänge scharf auf den ersten und zweiten Matrixsensor abgebildet werden. Bei allen anderen Wellenlängen der Lichtquelle kann diese Linie nicht scharf auf die Matrixsensoren abgebildet werden. Somit kann die Projektionsebene, die den genannten Schnittpunkt bzw. die Schnittlinie enthält, bestimmbar sein, wenn man die scharf abbildende Wellenlänge des Bildpunkts bzw. mehrerer Bildpunkte auf der Linie ermittelt.If the object surface intersects a certain projection plane at a point or in a line, this point or line can be sharply imaged on the first and second matrix sensors at the projection wavelength corresponding to this projection plane. For all other wavelengths of the light source, this line cannot be sharply imaged on the matrix sensors. The projection plane that contains the intersection point or line mentioned can therefore be determined if the sharply imaged wavelength of the image point or several image points on the line is determined.

Das erste Bild und das zweite Bild weisen miteinander korrespondierende Bildpunkte auf, wobei die korrespondierenden Bildpunkte jeweils denselben Objektpunkten des dreidimensionalen Objekts zuordenbar sind. Das Objekt kann gleichzeitig auf die zwei Matrixsensoren abgebildet werden. Jedem abgebildeten Objektpunkt können somit jeweils ein Bildpunkt auf dem ersten Sensor und ein Bildpunkt auf dem zweiten Sensor entsprechen Der Bildpunkt auf dem ersten Sensor und der Bildpunkt auf dem zweiten Sensor sind dann korrespondierende Bildpunkte.The first image and the second image have pixels that correspond to one another, whereby the corresponding pixels can each be assigned to the same object points of the three-dimensional object. The object can be imaged on the two matrix sensors at the same time. Each imaged object point can thus correspond to one pixel on the first sensor and one pixel on the second sensor. The pixel on the first sensor and the pixel on the second sensor are then corresponding pixels.

Es können zwei gleiche Matrixsensoren verwendet werde und diese gleichermaßen ausgerichtet sein. Dann können die korrespondierenden Bildpunkte die gleichen Indizes auf dem ersten und zweiten Matrixsensor haben. Allerding kann die Abbildung auf dem zweiten Matrixsensor auch gespiegelt gegenüber dem ersten Matrixsensor sein. Dann können die Indizes korrespondierender Bildpunkte entsprechend gespiegelt sein und können entsprechend umgerechnet werden, um die korrespondierenden Bildpunkte zu bestimmen.Two identical matrix sensors can be used and they can be aligned in the same way. Then the corresponding pixels can have the same indices on the first and second matrix sensors. However, the image on the second matrix sensor can also be mirrored compared to the first matrix sensor. Then the indices of corresponding pixels can be mirrored accordingly and can be converted accordingly to determine the corresponding pixels.

Besonders vorteilhaft ist es, wenn das Lichtstrahlbündel in der Musterebene flächig ausgedehnt ist. Dabei wird unter flächig ausgedehnt verstanden, dass durch das Lichtstahlbündel die gesamte Sensorfläche des ersten und zweiten Matrixsensors ausleuchtbar ist. Oder mathematisch ausgedrückt kann das bedeuten, dass die ausgeleuchtete Fläche der Lichtquelle jeweils in einer Längenausdehnung und einer Breitenausdehnung multipliziert mit einem Projektionsmaßstab und einem Abbildungsmaßstab die entsprechenden Ausdehnungen der Matrixsensoren übersteigt.It is particularly advantageous if the light beam bundle is flat in the pattern plane. Flat means that the entire sensor surface of the first and second matrix sensors can be illuminated by the light beam bundle. Or expressed mathematically, this can mean that the illuminated area of the light source exceeds the corresponding dimensions of the matrix sensors in terms of a length and a width multiplied by a projection scale and an image scale.

Die Lichtquelle reicht hier bis zur Musterebene. Das bedeutet, dass die Musterebene im Strahlengang vor dem ersten Strahlteiler angeordnet ist.The light source here reaches up to the pattern plane. This means that the pattern plane is located in the beam path before the first beam splitter.

In der Musterebene wird ein Muster angeordnet, welches durch das Lichtstrahlbündel auch das Objekt beleuchtet und somit projiziert wird. Vorteilhaft kann das Muster der Musterebene in wenigstens einer Richtung abwechselnd zumindest eine erste Musterstelle und zumindest eine zweite Musterstelle aufweisen Dabei können vor allem Muster verwendet werden, die eine erste Musterstelle mit einer anderen spezifischen Lichtausstrahlung (englisch luminous exitance) als die zweite Musterstelle aufweisen, wobei die spektrale Verteilung der ersten und zweiten Musterstelle gleich sein können. Vorteilhaft kann die zweite Musterstelle insbesondere idealerweise die Intensität Null aufweisen, also dunkel, d.h. lichtabblockend bzw. nichtemittierend sein. Das Muster kann eine örtliche Modulation der spezifischen Lichtausstrahlung darstellen. Trotz der örtlichen Modulation der spezifischen Lichtausstrahlung kann die Farbtemperatur ortsunabhängig sein. Vorteilhaft kann man das erste und zweite Bild nur an den hellen Bildstellen auswerten, welche den ersten Musterstellen entsprechen. Enthält das Muster dunkle zweite Musterstellen, idealerweise mit einer Intensität von Null, können diese Stellen auf den Bildsensoren dunkel abgebildet sein. Allerdings können diese Stellen im Bild jeweils eine Untergrundstrahlung beinhalten und somit von Null verschiedene Intensitätswerte aufweisen. Diese Untergrund- Intensitätswerte können zum Korrigieren der an den hellen ersten Bildstellen vorhandenen Intensitätswerte herangezogen werden, insbesondere kann der Intensitätswert einer ersten (hellen) Stelle mit den Intensitätswerten der jeweils benachbarten zweiten (dunklen) Stellen für jeden Matrixsensor separat korrigiert werden.A pattern is arranged in the pattern plane, which also illuminates the object by the light beam and is thus projected. The pattern of the pattern plane can advantageously have at least one first pattern point and at least one second pattern point alternating in at least one direction. In particular, patterns can be used which have a first pattern point with a different specific light emission (luminous exitance) than the second pattern point, whereby the spectral distribution of the first and second pattern points can be the same. Advantageously, the second pattern point can ideally have an intensity of zero, i.e. be dark, i.e. blocking light or non-emitting. The pattern can represent a local modulation of the specific light emission. Despite the local modulation of the specific light emission, the color temperature can be independent of location. Advantageously, the first and second images can only be evaluated at the bright image points that correspond to the first pattern points. If the pattern contains dark second pattern points, ideally with an intensity of zero, these points can be shown as dark on the image sensors. However, these areas in the image may each contain background radiation and thus have intensity values other than zero. These background intensity values can be used to correct the intensity values present at the bright first image areas, in particular the intensity value of a first (bright) area can be compared with the intensity values of the adjacent second (dark) spots must be corrected separately for each matrix sensor.

Die spezifische Lichtausstrahlung kann als photometrische Größe den Lichtstrom, der von einem Oberflächenelement einer Lichtquelle ausgeht, bezeichnen.The specific luminous flux can be described as a photometric quantity, the luminous flux emitted by a surface element of a light source.

Die Matrixsensoren können beispielsweise als CCD- oder CMOS Sensoren zur pixelweisen Bildaufnahme oder als Vidicon-Röhren ausgebildet sein. Dabei können ortsaufgelöste Lichtintensitätswerte als Bilder registriert werden.The matrix sensors can be designed, for example, as CCD or CMOS sensors for pixel-by-pixel image recording or as vidicon tubes. Spatially resolved light intensity values can be registered as images.

Der zweite Strahlteilereingang entspricht dem ersten Strahlteilerausgang. Das kann bedeuten, das das Beobachtungsstrahlenbündel auf dem gleichen Weg in den ersten Strahlteiler einfällt, wie das Beleuchtungsstrahlenbündel ausfällt, nur in umgekehrter Richtung. Falls der erste Strahlteiler als ein Strahlteilerwürfel ausgeführt ist, können der erste Strahlteilerausgang und der zweite Strahlteilereingang ein und dieselbe Seitenfläche des Würfels sein.The second beam splitter input corresponds to the first beam splitter output. This can mean that the observation beam enters the first beam splitter on the same path as the illumination beam exits, only in the opposite direction. If the first beam splitter is designed as a beam splitter cube, the first beam splitter output and the second beam splitter input can be one and the same side surface of the cube.

Der zweite Strahlteiler ist zum Teilen des Aufnahmestrahlbündels in einen ersten Aufnahmestrahlbündelanteil und einen zweiten Aufnahmestrahlbündelanteil vorgesehen. Die Aufteilung des Aufnahmestrahlbündels auf beide Anteile kann in einem Teilerverhältnis erfolgen, welches stetig und monoton wellenlängenabhängig ist. Das Teilerverhältnis des zweiten Strahlteilers kann also eine zweite Wellenlängenabhängigkeit aufweisen. Dadurch kann aus dem Intensitätsverhältnis korrespondierender Bildpunkte auf dem ersten und zweiten Matrixsensor auf die Wellenlänge rückgeschlossen werden.The second beam splitter is designed to split the recording beam into a first recording beam portion and a second recording beam portion. The division of the recording beam into both portions can be carried out in a division ratio that is continuous and monotonically wavelength-dependent. The division ratio of the second beam splitter can therefore have a second wavelength dependency. This allows conclusions to be drawn about the wavelength from the intensity ratio of corresponding pixels on the first and second matrix sensors.

Unter einem chromatischen Element kann man ein transmissives optisches Element mit einer stark wellenlängenabhängigen Fokuslänge verstehen. Im Gegensatz zu einem Achromaten kann die chromatische Abberation beim chromatischen Element besonders ausgeprägt sein. Vorteilhaft kann die Fokuslänge monoton wellenlängenabhängig sein. Mittels der wellenlängenabhängigen Fokuslänge kann man einen chromatischen Fokusversatz erzielen. Dieser Effekt ist im Allgemeinen oftmals unerwünscht und wird in der optischen Fachliteratur als Farblängsfehler bezeichnet. Im Rahmen dieser Erfindung kann der Farblängsfehler jedoch ausgenutzt werden. Das chromatische Element kann eine positive Brechkraft aufweisen und daher als eine Sammellinse wirken. Die positive Brechkraft kann durch Lichtbrechung an den Grenzflächen, durch Lichtbrechung an inneren Gradienten des Brechungsindex und/oder durch Beugung der Lichtwellen verursacht sein. So kann man Licht beispielsweise mit einer fresnelschen Zonenplatte fokussieren und derselben eine „positive Brechkraft“ im Sinne der Erfindung zuordnen, auch wenn die fokussierende Wirkung durch Beugung des Lichts hervorgerufen wird.A chromatic element can be understood as a transmissive optical element with a focus length that is strongly dependent on the wavelength. In contrast to an achromat, the chromatic aberration can be particularly pronounced in the chromatic element. The focus length can advantageously be monotonously wavelength-dependent. A chromatic focus offset can be achieved using the wavelength-dependent focus length. This effect is generally often undesirable and is referred to in the optical literature as longitudinal chromatic aberration. However, the longitudinal chromatic aberration can be exploited within the scope of this invention. The chromatic element can have a positive refractive power and therefore act as a converging lens. The positive refractive power can be caused by light refraction at the interfaces, by light refraction at internal gradients of the refractive index and/or by diffraction of the light waves. For example, light can be focused with a Fresnel zone plate and assigned a "positive refractive power" to it within the meaning of the invention, even if the focusing effect is caused by diffraction of the light.

Der chromatische Fokusversatz des chromatischen Elements kann durch eine Farblängskonstante beschrieben werden. Die angestrebte Farblängskonstante kann vorteilhaft größer als 1mm/100nm, besonders vorteilhaft mit 10mm/250nm und optimal mit 10mm/150nm sein.The chromatic focus offset of the chromatic element can be described by a longitudinal color constant. The desired longitudinal color constant can advantageously be greater than 1mm/100nm, particularly advantageous with 10mm/250nm and optimal with 10mm/150nm.

Beispiele für chromatische Elemente sind Kombinationen aus hochbrechenden Gläsern mit einer Abbezahl kleiner 45, idealerweise kleiner als 25 und niedrig brechenden Gläsern mit einer Abbezahl größer 55, idealerweise größer 80. Beispiel-Glaskombinationen sind H-ZF71/N-LASF41 (Doublet) oder S-NPH7/LASFN31/H-ZF71GT (Tripplet). Die Gläser mit niedriger Abbezahl können in der Kombination als Sammellinse und die mit hoher Abbezahl als Zerstreuungslinse verwendet werden, wobei die Kombination insgesamt eine positive Brechkraft haben sollte.Examples of chromatic elements are combinations of high-refractive lenses with an Abbe number of less than 45, ideally less than 25, and low-refractive lenses with an Abbe number of greater than 55, ideally greater than 80. Example glass combinations are H-ZF71/N-LASF41 (doublet) or S-NPH7/LASFN31/H-ZF71GT (triplet). The lenses with a low Abbe number can be used in the combination as a converging lens and those with a high Abbe number as a diverging lens, whereby the combination should have a positive refractive power overall.

Erfindungsgemäß ist eine Berechnungseinheit zum Berechnen zumindest jeweils einer Längskoordinate mehrerer Objektpunkte des Objekts aus den korrespondierenden Bildpunkten des ersten Bilds und des zweiten Bilds vorgesehen, um die 3D-Aufnahme des dreidimensionalen Objekts zu erzeugen. Es kann, wie oben beschrieben, ein Objektpunkt nur dann scharf auf die Matrixsensoren abgebildet werden, wenn der Objektpunkt in einer einer bestimmten Wellenlänge entsprechenden Projektionsebene liegt. Ein scharf abgebildeter Objektpunkt liefert im Bild eine höhere Intensität als ein nicht scharf abgebildeter Objektpunkt. Aus den Intensitäten der beiden zum Objektpunkt [x,y] korrespondierenden Bildpunkte des ersten und zweiten Bilds kann die scharf abbildende Wellenlänge λ [x,y] bestimmt werden. Beispielsweise kann das nach folgender Formel erfolgen: λ [ x , y ] = λ 0 k2 * I Sensor1 [ x , y ] I Sensor2 [ x , y ] I Sensor1 [ x , y ] + I Sensor2 [ x , y ]

Figure DE102023120240A1_0001
λ0 kann die mittlere Wellenlänge der Lichtquelle sein. Der Wert k2 ist eine Konstante der Vorrichtung, die durch Kalibrieren bestimmt werden kann. ISensor1[x,y] ist die Intensität des Bildpunkts auf dem ersten Sensor, ISensor2[x,y] die auf dem zweiten Sensor. Aus λ [x,y] kann die Längskoordinate z [x,y] berechnet werden. Jede Projektionswellenlänge λ entspricht einer Projektionsebene zp(λ). Deren Längskoordinate zp(λ) kann dann als das Ergebnis z(x,y) = zp [λ (x,y)] dargestellt werden. Man kann auch gleich die Längskoordinate z aus den Intensitätswerten berechnen, wenn man die Abhängigkeiten ineinander einsetzt. Die Abhängigkeit zp(λ) der Längskoordinate der Projektionsebenen kann kalibriert werden oder aus der ersten Wellenlängenabhängigkeit des chromatischen Elements berechnet oder per Raytracing-Simulation ermittelt werden. Die Bestimmung der Längskoordinaten für mehrere Objektpunkte, idealerweise für alle abgebildeten Objektpunkte, führt zu einer dreidimensionalen Aufnahme des Objekts, genauer gesagt, der Objektoberfläche. Dieses Herangehen ermöglicht die Erstellung der 3D Aufnahme aus einem einzigen Aufnahmezyklus (Livebild). Die 3D Aufnahme kann als eine Menge von Raumpunkten [x,y,z] der Objektoberfläche vorliegen. Die Berechnung kann mit einer Recheneinheit durchgeführt werden.According to the invention, a calculation unit is provided for calculating at least one longitudinal coordinate of several object points of the object from the corresponding pixels of the first image and the second image in order to generate the 3D image of the three-dimensional object. As described above, an object point can only be sharply imaged on the matrix sensors if the object point lies in a projection plane corresponding to a specific wavelength. A sharply imaged object point provides a higher intensity in the image than an object point that is not sharply imaged. The sharply imaging wavelength λ [x, y] can be determined from the intensities of the two pixels of the first and second image corresponding to the object point [x, y]. For example, this can be done using the following formula: λ [ x , y ] = λ 0 k2 * I Sensor1 [ x , y ] I Sensor2 [ x , y ] I Sensor1 [ x , y ] + I Sensor2 [ x , y ]
Figure DE102023120240A1_0001
λ 0 can be the mean wavelength of the light source. The value k2 is a constant of the device that can be determined by calibration. I Sensor1 [x,y] is the intensity of the pixel on the first sensor, I Sensor2 [x,y] that on the second sensor. From λ [x,y] the longitudinal coordinate z [x,y] can be calculated. Each projection wavelength λ corresponds to a projection plane zp(λ). Its longitudinal coordinate zp(λ) can then be represented as the result z(x,y) = zp [λ (x,y)]. The longitudinal coordinate z can also be calculated from the intensity values by inserting the dependencies into each other. The dependency zp(λ) of the longitudinal coordinate of the projection planes can be calibrated or from the first wavelength dependence of the chromatic element or determined by ray tracing simulation. The determination of the longitudinal coordinates for several object points, ideally for all imaged object points, leads to a three-dimensional image of the object, or more precisely, the object surface. This approach enables the 3D image to be created from a single recording cycle (live image). The 3D image can be present as a set of spatial points [x,y,z] of the object surface. The calculation can be carried out with a computing unit.

Insbesondere falls die zweite Wellenlängenabhängigkeit, d.h. die des zweiten Strahlteilers, nichtlinear sein sollte, kann anstatt der oben genannten Formel auch eine Kalbrierfunktion benutzt werden, um aus den Intensitätswerten die zugehörige scharf abbildende Wellenlänge zu berechnen. Eine solche Kalibrierfunktion kann beispielsweise analytisch oder in Form einer look-up-Tabelle hinterlegt sein.In particular, if the second wavelength dependence, i.e. that of the second beam splitter, is non-linear, a calibration function can be used instead of the above formula to calculate the corresponding sharply imaging wavelength from the intensity values. Such a calibration function can be stored analytically or in the form of a look-up table, for example.

Mittels der Aufnahmevorrichtung ist es möglich die Tiefenberechnung und der Differenzbildung zur Erzeugung einer 3D-Aufnahme durch eine Abbildung auf zwei Sensoren durchzuführen, wobei die Tiefenberechnung zur Erzeugung der 3D-Aufnahme unabhängig von der Intensität des Lichts der Lichtquelle ist.By means of the recording device it is possible to carry out the depth calculation and the difference formation to generate a 3D image by imaging on two sensors, whereby the depth calculation to generate the 3D image is independent of the intensity of the light from the light source.

Durch die Bauweise der Aufnahmevorrichtung kann das jeweils vorhandene Licht optimal ausgenutzt werden.The design of the recording device allows the available light to be used optimally.

Da auf den Einsatz eines Spektrometers verzichtet werden kann, ist eine höhere Auflösung möglich, da keine spektrale Spreizung der Sensorpixel erforderlich ist.Since the use of a spectrometer is not necessary, a higher resolution is possible because no spectral spreading of the sensor pixels is required.

Gleichzeitig ist es möglich aufgrund des vereinfachten Aufbaus die Aufnahmevorrichtung als mobiles Gerät auszubilden. Dies ermöglicht beispielsweise Bauteile in Geräten oder Modulen aufzunehmen, ohne die Geräte bzw. Module zu demontieren. Außerdem sind Applikationen in der Aufnahme detaillierter Knochenformen in Fossilien denkbar. Des Weiteren kommen Anwendungen in der Prothetik im Bereich Medizin und Dentalmedizin in Betracht, beispielsweise um ein Modell eines Knochens zur Herstellung einer Endoprotese zu erstellen oder zur Erstellung eines dreidimensionalen Modells eines Gebisses oder von Teilen davon.At the same time, the simplified structure makes it possible to design the recording device as a mobile device. This makes it possible, for example, to record components in devices or modules without dismantling the devices or modules. Applications in recording detailed bone shapes in fossils are also conceivable. Applications in prosthetics in the field of medicine and dentistry are also possible, for example to create a model of a bone for the production of an endoprosthesis or to create a three-dimensional model of a set of teeth or parts thereof.

Im Rahmen der Erfindung kann es von Vorteil sein, dass die Lichtquelle einen ersten divergent abstrahlenden Lichtemitter und eine erste Kollimationsoptik umfasst. Dieser Lichtemitter kann kleinflächig, idealerweise als ein Punktstrahler, beispielsweise eine LED, ausgebildet sein. Durch die Divergenz kann die Lichtstrahlung in der Musterebene flächig aufgespreizt sein. Die erste Kollimationsoptik kann bewirken, dass die Strahlung in der Musterebene gleichgerichtet ist.Within the scope of the invention, it can be advantageous for the light source to comprise a first divergently emitting light emitter and a first collimating lens. This light emitter can be designed to be small-area, ideally as a point source, for example an LED. Due to the divergence, the light radiation can be spread out over a large area in the pattern plane. The first collimating lens can cause the radiation to be rectified in the pattern plane.

Die Lichtquelle kann eine erste Mustereinheit mit einem ersten Muster aufweisen, wobei das erste Muster in der Musterebene angeordnet ist. Dies ermöglicht ein einfaches Erzeugen des Musters in der Musterebene. Gleichzeitig wird durch die Nähe des Musters bzw. der Mustereinheit zu der Lichtquelle sichergestellt, dass das Muster bei dem Beleuchten des Objekts gut auf dem Objekt abgebildet werden kann. Oder besser gesagt, dass das Muster mit gut auf die Vielzahl der Projektionsebenen projizierbar ist. Dabei kann bewerkstelligt werden, dass die Musterebene bei pixelweise jeweils einer scharf abbildenden Projektionswellenlänge scharf auf dem Objekt abgebildet wird und eine scharfe 3D-Aufnahme erzeugen zu können.The light source can have a first pattern unit with a first pattern, the first pattern being arranged in the pattern plane. This enables the pattern to be easily generated in the pattern plane. At the same time, the proximity of the pattern or the pattern unit to the light source ensures that the pattern can be projected well onto the object when the object is illuminated. Or, to be more specific, that the pattern can be projected well onto the multitude of projection planes. This makes it possible for the pattern plane to be projected sharply onto the object pixel by pixel at a sharply imaging projection wavelength, and to be able to generate a sharp 3D image.

Gleichzeitig ist diese eine günstige Erzeugung unterschiedlicher spezifischer Lichtausstrahlungen, um die Tiefenberechnung und damit die Berechnung der zur Erzeugung der 3D-Aufnahme notwendigen Längskoordinate der Objektpunkte aus den korrespondierenden Bildpunkte durchzuführen.At the same time, this is a favorable generation of different specific light emissions in order to carry out the depth calculation and thus the calculation of the longitudinal coordinates of the object points from the corresponding image points necessary for generating the 3D image.

Dabei kann der divergent abstrahlende Lichtemitter in einer Lichtemitterebene angeordnet sein und eine zur Lichtemitterebene konjugierte Ebene vorhanden sein, die zwischen dem ersten Strahlteiler und dem Objekt angeordnet ist, insbesondere vor den Projektionsebenen, genauer gesagt, vor der ersten der Projektionsebenen. Besonders vorteilhaft kann die zur Lichtemitterebene konjugierte Ebene an der Position des chromatischen Elements angeordnet sein. Diesen in diesem Absatz beschriebenen Strahlengang kann man als einen mit dem Projektionsstrahlengang verflochtenen weiteren Strahlengang auffassen, wie er beispielsweise aus einer Köhlerschen Beleuchtung bekannt ist. Die Strecke zwischen dem Lichtemitter und den Projektionsebenen kann vorteilhaft genau eine zur Lichtemitterebene konjugierten Ebene aufweisen.The divergently emitting light emitter can be arranged in a light emitter plane and a plane conjugated to the light emitter plane can be present, which is arranged between the first beam splitter and the object, in particular in front of the projection planes, more precisely, in front of the first of the projection planes. The plane conjugated to the light emitter plane can be arranged particularly advantageously at the position of the chromatic element. This beam path described in this paragraph can be understood as a further beam path interwoven with the projection beam path, as is known, for example, from Köhler illumination. The path between the light emitter and the projection planes can advantageously have exactly one plane conjugated to the light emitter plane.

Ebenso kann die Lichtquelle insbesondere ein Flächenstrahler sein, der direkt in der Musterebene angeordnet sein kann. Denkbar ist auch, dass die Mustereinheit in die Lichtquelle integriert ist.The light source can also be a surface radiator that can be arranged directly in the pattern plane. It is also conceivable that the pattern unit is integrated into the light source.

Denkbar ist auch, dass die Mustereinheit ein zweites Muster aufweist, wobei das zweite Muster invertiert zu dem ersten Muster ist. Dies ermöglicht das Herstellen der flächigen Lichtverteilung in der Musterebene. Vorteilhaft können das erste und zweite Muster nacheinander bereitgestellt werden. Dazu kann die Mustereinheit umschaltbar ausgebildet sein. Besonders vorteilhaft kann das erste Muster ein Schachbrettmuster sein und das zweite Muster dazu invertiert sein, d.h. indem die hellen und dunklen Stellen vertauscht werden.It is also conceivable that the pattern unit has a second pattern, the second pattern being inverted to the first pattern. This enables the flat light distribution to be produced in the pattern plane. The first and second patterns can advantageously be provided one after the other. For this purpose, the pattern unit can be designed to be switchable. It is particularly advantageous for the first pattern to be a checkerboard pattern and for the second pattern to be inverted, ie by swapping the light and dark areas.

Im Rahmen der Erfindung ist es denkbar, dass zwischen der Lichtquelle und dem ersten Strahlteiler ein erster Umlenkspiegel zum Umlenken des Beleuchtungsstrahlbündels um einen bestimmten Winkel vorgesehen ist, insbesondere zum Umlenken um einen stumpfen Winkel, vorgesehen ist und/oder dass zwischen dem chromatischen Element und dem Objekt ein zweiter Umlenkspiegel zum Umlenken des Beobachtungsstrahlbündels um einen bestimmten Winkel, insbesondere zum Umlenken um einen stumpfen Winkel, vorgesehen ist.Within the scope of the invention, it is conceivable that a first deflection mirror for deflecting the illumination beam by a specific angle, in particular for deflecting it by an obtuse angle, is provided between the light source and the first beam splitter and/or that a second deflection mirror for deflecting the observation beam by a specific angle, in particular for deflecting it by an obtuse angle, is provided between the chromatic element and the object.

Durch die Verwendung des ersten Umlenkspiegels und/oder des zweiten Umlenkspiegels können die Strahlbündel, also das Beleuchtungsstrahlbündel und das Beobachtungsstrahlbündel, umgelenkt werden. Dies beeinflusst den Verlauf des Strahlengangs dahingehend, dass dieser an räumliche Einschränkungen angepasst werden kann. So kann mittels des Umlenkspiegels der Bauraum der Aufnahmevorrichtung an die Bedürfnisse des Nutzers oder den Einsatzbereich angepasst werden. Dies ist besonders vorteilhaft für mobile Anwendungen.By using the first deflection mirror and/or the second deflection mirror, the beam bundles, i.e. the illumination beam bundle and the observation beam bundle, can be deflected. This influences the course of the beam path in such a way that it can be adapted to spatial restrictions. The installation space of the recording device can be adapted to the needs of the user or the area of application using the deflection mirror. This is particularly advantageous for mobile applications.

Es kann im Rahmen der Erfindung vorgesehen sein, dass zwischen der Lichtquelle und dem ersten Strahlteiler ein zweiter Kollimator und/oder zwischen dem ersten Strahlteiler und dem zweiten Strahlteiler eine Fokussieroptik angeordnet ist.Within the scope of the invention, it can be provided that a second collimator is arranged between the light source and the first beam splitter and/or a focusing optics is arranged between the first beam splitter and the second beam splitter.

Dies führt dazu, dass das Beleuchtungsstrahlbündel durch den zweiten Kollimator und das Beobachtungsstrahlbündel beim ersten Strahlteiler einen parallelen Strahlabschnitt aufweisen.This results in the illumination beam through the second collimator and the observation beam at the first beam splitter having a parallel beam section.

Die Fokussieroptik fokussiert das Beobachtungsstrahlbündel so, dass der Bauraum reduziert werden kann. Gleichzeitig wirkt sich die Positionierung der Fokussieroptik positiv auf die Erzeugung der 3D-Aufnahme aus.The focusing optics focus the observation beam in such a way that the installation space can be reduced. At the same time, the positioning of the focusing optics has a positive effect on the generation of the 3D image.

Es ist ferner denkbar, dass die Aufnahmevorrichtung frei von rotierenden Elementen ist. Dies sorgt für einen vereinfachten Aufbau der Aufnahmevorrichtung, das heißt, die mechanische Komplexität wird reduziert, sodass die Verschleißanfälligkeit und damit einhergehende die Ausfallzeiten reduziert werden können. Gleichzeitig führen beweglich Teile zu erhöhten Kosten und Konstruktionsaufwand, welche durch das Verzichten auf bewegliche Teile reduziert werden können.It is also conceivable that the mounting device is free of rotating elements. This ensures a simplified structure of the mounting device, i.e. the mechanical complexity is reduced so that the susceptibility to wear and the associated downtime can be reduced. At the same time, moving parts lead to increased costs and design effort, which can be reduced by dispensing with moving parts.

Auch ist es denkbar, dass das chromatische Element ein diffraktives optisches Element und/oder eine Fresnellinse und/oder eine Meta-Linse und/oder eine Kombination aus einer positiven Flintglaslinse mit einer negativen Kronglaslinse umfasst. Ebenso kann das chromatische Element eine fresnelsche Zonenplatte sein.It is also conceivable that the chromatic element comprises a diffractive optical element and/or a Fresnel lens and/or a meta lens and/or a combination of a positive flint glass lens with a negative crown glass lens. The chromatic element can also be a Fresnel zone plate.

Ein diffraktives optisches Element (DOE) ist eine Art optisches Bauteil, das Lichtwellen durch den Prozess der Beugung manipuliert. Es besteht aus Mikrostrukturen oder Mustern, die die Phase oder Amplitude des einfallenden Lichts steuern können.A diffractive optical element (DOE) is a type of optical device that manipulates light waves through the process of diffraction. It consists of microstructures or patterns that can control the phase or amplitude of the incident light.

Eine Fresnellinse ist eine Art kompaktes optisches Bauteil, das eine Reihe konzentrischer Rillen auf seiner Oberfläche nutzt, um Licht zu bündeln. Die Linse ist so konstruiert, dass sie im Vergleich zu herkömmlichen Linsen weniger Material und Gewicht benötigt, was sie ideal für Anwendungen macht, bei denen Größe und Gewicht eine Rolle spielen, wie z. B. bei Leuchttürmen, Overhead-Projektoren, Kameraobjektiven und in-situ Sonden.A Fresnel lens is a type of compact optical component that uses a series of concentric grooves on its surface to focus light. The lens is designed to use less material and weight compared to traditional lenses, making it ideal for applications where size and weight are a concern, such as lighthouses, overhead projectors, camera lenses, and in-situ probes.

Die Meta-Linse ist ein Konzept der Physik und der Metamaterialien, bei dem neuartige optische Geräte mit künstlich hergestellten Materialien geschaffen werden. Diese Metamaterialien besitzen einzigartige Eigenschaften, die es ermöglichen, Licht auf unkonventionelle Weise zu manipulieren und Linsen mit außergewöhnlichen Funktionen zu schaffen. Im Gegensatz zu herkömmlichen Linsen, die auf Brechung basieren, lenken Meta-Linsen das Licht durch Strukturen unterhalb der Wellenlänge und ermöglichen so ultrakompakte und hochauflösende Abbildungssysteme. Das Design und die Implementierung von Meta-Linsen bergen ein erhebliches Potenzial für die Revolutionierung verschiedener optischer Anwendungen, einschließlich Mikroskopie, Bildgebung und Datenkommunikation.The meta-lens is a concept in physics and metamaterials that involves creating novel optical devices using man-made materials. These metamaterials possess unique properties that allow light to be manipulated in unconventional ways and create lenses with extraordinary functions. Unlike conventional lenses that rely on refraction, meta-lenses direct light through sub-wavelength structures, enabling ultra-compact and high-resolution imaging systems. The design and implementation of meta-lenses hold significant potential for revolutionizing various optical applications, including microscopy, imaging, and data communications.

Eine Flintglaslinse ist eine Linse aus einem optischen Glas, das sich durch einen hohen Brechungsindex und hohe Dispersion auszeichnet. Es wird aus einer speziellen Zusammensetzung auf der Basis von Quarz und Bleioxid hergestellt und hat eine Abbezahl von weniger als 50. Der Zusatz von Bleioxid verleiht Flintglas seine einzigartigen optischen Eigenschaften und macht es geeignet für die Herstellung von Linsen und Prismen, die in optischen Instrumenten wie Teleskopen, Mikroskopen und Kameraobjektiven verwendet werden. Der höhere Brechungsindex von Flintglas ermöglicht eine bessere Lichtbeugung, während seine Dispersionseigenschaften die Trennung des Lichts in seine einzelnen Farben ermöglichen, was für die Korrektur von Farbfehlern in optischen Systemen unerlässlich ist.A flint glass lens is a lens made from an optical glass characterized by a high refractive index and high dispersion. It is made from a special composition based on quartz and lead oxide and has an Abbe number of less than 50. The addition of lead oxide gives flint glass its unique optical properties and makes it suitable for the manufacture of lenses and prisms used in optical instruments such as telescopes, microscopes and camera lenses. The higher refractive index of flint glass allows for better light diffraction, while its dispersion properties allow light to be separated into its individual colors, which is essential for correcting chromatic aberrations in optical systems.

Eine Kronglaslinse ist eine Linse aus einem optischem Glas mit einem relativ niedrigen Brechungsindex und geringer Dispersion. Es wird aus einer speziellen Zusammensetzung auf der Basis von Quarz und Kaliumoxid hergestellt, und weist eine Abbezahl größer 50 auf.A crown glass lens is a lens made of an optical glass with a relatively low refractive index and low dispersion. It is made from a special composition based on quartz and potassium oxide and has an Abbe number greater than 50.

In optischen Systemen werden Kronglaslinsen in der Regel zur Korrektur chromatischer Aberrationen verwendet, da sie einen anderen Brechungsindex als Flintglaslinsen haben. In Kombination mit Flintglaslinsen tragen Kronglaslinsen zur Verringerung der chromatischen Aberration und zur Verbesserung der optischen Gesamtleistung des Systems bei.In optical systems, crown glass lenses are typically used to correct chromatic aberrations because they have a different refractive index than flint glass lenses. When combined with flint glass lenses, crown glass lenses help reduce chromatic aberration and improve the overall optical performance of the system.

Im Rahmen der Erfindung ist es optional möglich, dass eine Maske, insbesondere eine Schattenmaske, wie beispielsweise eine strukturierte Schwarzchromplatte, oder ein pixelweise ansteuerbares TFT-Display oder ein pixelweise ansteuerbares hinterleuchtetes LCD Display zur Erzeugung des ersten Musters der ersten Mustereinheit vorgesehen ist.Within the scope of the invention, it is optionally possible that a mask, in particular a shadow mask, such as a structured black chrome plate, or a pixel-by-pixel controllable TFT display or a pixel-by-pixel controllable backlit LCD display is provided for generating the first pattern of the first pattern unit.

Diese Ausgestaltungen erzeugen das Muster besonders einfach und sicher. Dabei kann das Muster als homogen ausgeleuchtete Fläche ausgebildet sein oder vorteilhaft in wenigstens einer Richtung, besonders vorteilhaft in zwei linear unabhängigen Richtungen, translationssymmetrisch angeordnete beleuchtete Bereiche, welche von unbeleuchteten Bereichen umgeben sind, aufweisen.These designs produce the pattern particularly easily and reliably. The pattern can be designed as a homogeneously illuminated surface or advantageously have illuminated areas arranged in a translationally symmetrical manner in at least one direction, particularly advantageously in two linearly independent directions, which are surrounded by unilluminated areas.

Dabei lässt eine Maske oder ein TFT-Display oder ein LCD-Display eine Erzeugung des Musters als Streifenmuster, Schachbrettmuster, Bienenwabenmuster mit hellen und dunklen Waben oder Lochraster zu. Vorteilhaft kann das Muster eine Periodenlänge der Translationssymmetrie von 0.010mm bis 0.5mm aufweisen. Vorteilhaft können 10 bis 1000 Musterperioden vorhanden sein.A mask or a TFT display or an LCD display allows the pattern to be created as a stripe pattern, checkerboard pattern, honeycomb pattern with light and dark honeycombs or a hole pattern. The pattern can advantageously have a period length of translational symmetry of 0.010mm to 0.5mm. Advantageously, there can be 10 to 1000 pattern periods.

Dabei kann vor allem bei den Displays das Muster in seiner Periodenlänge oder dem Aufbau einfach und schnell an wechselnde Einsatzbereiche anpassen.Especially with displays, the pattern in its period length or structure can be easily and quickly adapted to changing areas of application.

Ferner kann es im Rahmen der Erfindung vorgesehen sein, dass der zweite Strahlteiler einen ersten Filter und/oder einen zweiten Filter umfasst, wobei an dem dritten Strahlteilerausgang des zweiten Strahlteilers der erste Filter zum wellenlängenabhängigen Filtern des ersten Aufnahmestrahlbündelanteils vorgesehen ist und/oder an dem vierten Strahlteilerausgang des zweiten Strahlteilers der zweite Filter zum wellenlängenabhängigen Filtern des zweiten Aufnahmestrahlbündelanteils vorgesehen ist.Furthermore, it can be provided within the scope of the invention that the second beam splitter comprises a first filter and/or a second filter, wherein the first filter for wavelength-dependent filtering of the first receiving beam portion is provided at the third beam splitter output of the second beam splitter and/or the second filter for wavelength-dependent filtering of the second receiving beam portion is provided at the fourth beam splitter output of the second beam splitter.

Die wellenlängenabhängige Filterung durch den ersten Filter und/oder den zweiten Filter bietet mehrere Vorteile bei der Erfassung von 3D-Aufnahmen. Durch die gleichzeitige Erfassung einer Szene bei mehreren Wellenlängen ermöglicht sie die Erfassung von Tiefeninformationen und erleichtert genaue 3D-Rekonstruktionen. Die spektrale Bildgebung ermöglicht eine bessere Unterscheidung zwischen verschiedenen Strukturen innerhalb der Szene, was zu präziseren und detaillierteren 3D-Darstellungen führt. Die Verwendung der Filter gestattet die Verwendung eines kostengünstigen wellenlängenunabhängigen Strahlteilerspiegels.The wavelength-dependent filtering by the first filter and/or the second filter offers several advantages when acquiring 3D images. By capturing a scene at multiple wavelengths simultaneously, it enables the capture of depth information and facilitates accurate 3D reconstructions. Spectral imaging enables better discrimination between different structures within the scene, resulting in more precise and detailed 3D representations. The use of the filters allows the use of a low-cost wavelength-independent beam splitter mirror.

Dabei ist es besonders vorteilhaft, wenn der erste Filter eine monoton steigende wellenlängenabhängige Transmission und/oder der zweite Filter eine monoton fallende wellenlängenabhängige Transmission aufweisen.
Eine monoton steigende wellenlängenabhängige Transmission eines optischen Filters bedeutet, dass die Transmission des Filters mit zunehmender Wellenlänge kontinuierlich ansteigt. Das heißt, je höher die Wellenlänge des Lichts ist, desto mehr Licht wird durch den Filter hindurchgelassen. Es handelt sich also um einen Filter, der die Durchlässigkeit für Licht in Abhängigkeit von dessen Wellenlänge erhöht. Auf diese Weise können der erste und zweite Aufnahmestrahlbündelanteils mit unterschiedlicher Wellenlängenabhängigkeit gefiltert durch die Matrixsensoren empfangen werden, sodass aus dem Intensitätsverhältnis der korrespondierenden Bildpunkte auf die Wellenlänge des jeweiligen Bildpunktpaares rückgeschlossen werden kann.
It is particularly advantageous if the first filter has a monotonically increasing wavelength-dependent transmission and/or the second filter has a monotonically decreasing wavelength-dependent transmission.
A monotonically increasing wavelength-dependent transmission of an optical filter means that the transmission of the filter increases continuously with increasing wavelength. This means that the higher the wavelength of the light, the more light is allowed to pass through the filter. It is therefore a filter that increases the permeability of light depending on its wavelength. In this way, the first and second parts of the recording beam can be received filtered with different wavelength dependencies by the matrix sensors, so that the wavelength of the respective pair of pixels can be deduced from the intensity ratio of the corresponding pixels.

Ebenfalls vorteilhaft kann ein zweiter Strahlteiler verwendet werden, welcher ohne Filter bereits selbst ein monoton wellenlängenabhängiges Teilerverhältnis aufweist. Das kann mit einer dielektrischen Spiegelschicht realisiert werden, welche einen stetigen Verlauf der Reflektivität bezüglich der Wellenlänge aufweist. Das kann den Vorteil haben, dass keine Filter benötigt werden und dadurch mehr Licht an den Matrixsensoren zur Verfügung steht.It is also advantageous to use a second beam splitter, which already has a monotonous wavelength-dependent divider ratio without a filter. This can be achieved with a dielectric mirror layer, which has a continuous reflectivity curve with respect to the wavelength. This can have the advantage that no filters are required and therefore more light is available to the matrix sensors.

In Bezug auf die vorliegende Erfindung ist es vorstellbar, dass das chromatische Element eine positive Brechkraft aufweist, wobei die Brechkraft eine erste Wellenlängenabhängigkeit, insbesondere eine erste monotone Wellenlängenabhängigkeit, aufweist.With regard to the present invention, it is conceivable that the chromatic element has a positive refractive power, wherein the refractive power has a first wavelength dependence, in particular a first monotonic wavelength dependence.

Eine positive Brechkraft eines chromatischen Elements bedeutet, dass das Element in der Lage ist, Lichtstrahlen zu sammeln und zu fokussieren. Es kann eine konvexe Form aufweisen und kann dazu verwendet werden, um Lichtstrahlen zu bündeln.A positive refractive power of a chromatic element means that the element is able to collect and focus light rays. It can have a convex shape and can be used to concentrate light rays.

Der Vorteil einer positiven Brechkraft eines chromatischen Elements kann in seiner Fähigkeit liegen, chromatische Aberration im Beleuchtungsstrahlengang gezielt zu erzeugen und im Beobachtungsstrahlengang wieder zu kompensieren. Chromatische Aberration ist eine weit verbreitete optische Verzerrung, die auftritt, wenn verschiedene Farben des Lichts an unterschiedlichen Punkten fokussiert werden, was in der Fotografie zu Farbsäumen und verminderter Bildschärfe führt, hier aber, speziell in Form des Farblängsfehlers, gewollt ausgenutzt werden kann..The advantage of a positive refractive power of a chromatic element can lie in its ability to specifically generate chromatic aberration in the illumination beam path and to compensate for it again in the observation beam path. Chromatic aberration is a widespread optical distortion that occurs when different colors of light are focused at different points, which in photography leads to color fringes and reduced image sharpness, but here, especially in the form of longitudinal chromatic aberration, can be deliberately exploited.

Diese Eigenschaft ist besonders vorteilhaft für die präzise Wiedergabe des Musters zur Erzeugung der 3D-Aufnahme mit der Aufnahmevorrichtung, wie beispielsweise zum Aufnehmen eines dreidimensionalen Oberflächenmodells gewünscht, um die Struktur der Objekte genau wiedergeben zu können. Durch die Erzeugung der chromatischen Aberration kann das chromatische Element die Ermittelung von Längskoordinaten (d.h. in Richtung der optischen Achse) der Oberfläche des Objekts ermöglichen.This property is particularly advantageous for the precise reproduction of the pattern for generating the 3D image with the recording device, such as for recording a three-dimensional surface model in order to be able to accurately reproduce the structure of the objects. By generating the chromatic aberration, the chromatic element can enable the determination of longitudinal coordinates (i.e. in the direction of the optical axis) of the surface of the object.

Ferner ist es vorstellbar, dass der erste Strahlteiler ein 80:20 bis 20:80, vorzugweise von 70:30 bis 30:70, weiter vorzugsweise von 60:40 bis 40:60, Teilerverhältnis aufweist. Das Teilerverhältnis des ersten Strahlteilers kann wellenlängenunabhängig sein. Dabei wird der erste Strahlenteiler verwendet, um das Beleuchtungsstrahlbündel von dem Lichtstrahlbündel abzuteilen und gleichermaßen das Beobachtungsstrahlenbündel auf die Matrixsensoren zu leiten. Der Rest des Beleuchtungsstrahlbündels kann als Reststrahl verworfen werden.It is also conceivable that the first beam splitter has a splitter ratio of 80:20 to 20:80, preferably 70:30 to 30:70, more preferably 60:40 to 40:60. The splitter ratio of the first beam splitter can be independent of the wavelength. The first beam splitter is used to split the illumination beam from the light beam and to guide the observation beam to the matrix sensors. The rest of the illumination beam can be discarded as a residual beam.

Der zweite Strahlteiler kann eine zweite Wellenlängenabhängigkeit, insbesondere eine zweite monotone Wellenlängenabhängigkeit, aufweisen.The second beam splitter may have a second wavelength dependence, in particular a second monotonic wavelength dependence.

Der zweite Strahlenteiler teilt das Aufnahmestrahlbündel in Abhängigkeit der Wellenlänge in den ersten Aufnahmestrahlbündelanteil und den zweiten Aufnahmestrahlbündelanteil. Dabei kann eine dem Aufnahmestrahlbündel anhaftende ortsabhängige Wellenlängeninformation in eine ortsabhängige Intensitätsinformation umgewandelt werden, um so die Wellenlängeninformation ohne Verwendung eines Spektrometers gewinnen zu können.The second beam splitter divides the receiving beam into the first receiving beam portion and the second receiving beam portion depending on the wavelength. In this case, location-dependent wavelength information inherent in the receiving beam can be converted into location-dependent intensity information in order to be able to obtain the wavelength information without using a spectrometer.

Strahlenteiler bieten Vielseitigkeit und Effizienz in Bildgebungssystemen und sind damit wertvolle Werkzeuge für die Erfassung und Analyse komplexer visueller Informationen in verschiedenen wissenschaftlichen, medizinischen und industriellen Anwendungen.Beamsplitters provide versatility and efficiency in imaging systems, making them valuable tools for capturing and analyzing complex visual information in a variety of scientific, medical and industrial applications.

Im Rahmen der Erfindung kann es von Vorteil sein, dass der erste Strahlteiler und/oder der zweite Strahlteiler eine Strahlteilerplatte oder einen Strahlteilerwürfel umfasst.Within the scope of the invention, it may be advantageous that the first beam splitter and/or the second beam splitter comprises a beam splitter plate or a beam splitter cube.

Dabei kann die Ausführung des ersten Strahlteilers und des zweiten Strahlteilers je nach zur Verfügung stehenden Bauraum gewählt werden. Dies erhöht die Flexibilität der Konstruktion einer Aufnahmevorrichtung.The design of the first beam splitter and the second beam splitter can be selected depending on the available installation space. This increases the flexibility of the design of a recording device.

Im Rahmen der Erfindung ist es denkbar, dass das Lichtstrahlbündel ein spektral breitbandiges Lichtstrahlbündel mit einer spektralen Bandbreite von wenigstens 100nm in einem Wellenlängenbereich von 400nm bis 1100nm ist. Vorteilhaft kann die Bandbreite wenigstens 150nm besonders vorteilhaft wenigstens 200nm betragen. Außerdem kann es vorteilhaft sein, die Bandbreite kleiner als 300nm zu wählen, um Artefakte, beispielsweise durch Streulicht oder Überschreiten von Spezifikationen von Antireflexbeschichtungen auf den verwendeten optischen Komponenten, hinreichend gering zu halten.Within the scope of the invention, it is conceivable that the light beam is a spectrally broadband light beam with a spectral bandwidth of at least 100 nm in a wavelength range from 400 nm to 1100 nm. The bandwidth can advantageously be at least 150 nm, particularly advantageously at least 200 nm. It can also be advantageous to select a bandwidth of less than 300 nm in order to keep artifacts, for example due to scattered light or exceeding specifications of anti-reflective coatings on the optical components used, sufficiently low.

Der Vorteil der Verwendung eines breitbandigen Lichtstrahls für die 3D-Aufnahme besteht darin, dass ein breites Spektrum von Wellenlängen gleichzeitig erfasst werden kann, was die Genauigkeit und Vielseitigkeit der aufgenommenen Daten erhöht.The advantage of using a broadband light beam for 3D imaging is that a wide range of wavelengths can be captured simultaneously, increasing the accuracy and versatility of the acquired data.

Breitbandige Lichtstrahlbündel bieten eine verbesserte Tiefenauflösung bei der 3D-Bildgebung, da sie aufgrund der unterschiedlichen Wellenlängen, die sie umfassen, verschiedene Oberflächenmerkmale effektiver messen können. Auch der erfassbare Tiefenbereich kann vergrößert werden, indem die Bandbreite der Lichtstrahlbündel erhöht wird.Broadband light beams provide improved depth resolution in 3D imaging because they can measure different surface features more effectively due to the different wavelengths they encompass. The detectable depth range can also be increased by increasing the bandwidth of the light beams.

Die Verwendung eines breitbandigen Lichtstrahlbündels ermöglicht die Erfassung feiner Details und komplizierter Oberflächenstrukturen, die mit schmalbandigen Lichtquellen möglicherweise nicht erfasst werden.The use of a broadband light beam enables the capture of fine details and complex surface structures that may not be captured with narrowband light sources.

Mit einem breiteren Spektrum an Wellenlängen erleichtert Breitbandlicht präzise Messungen von Objekten mit unterschiedlichem Reflexionsvermögen und ermöglicht umfassendere und zuverlässigere 3D-Aufnahmen der Objekte.With a wider range of wavelengths, broadband light facilitates precise measurements of objects with different reflectivities and enables more comprehensive and reliable 3D images of the objects.

Es kann im Rahmen der Erfindung vorgesehen sein, dass eine Numerische Apertur NA der Beleuchtung der Objektpunkte auf dem Objekt einen Bereich von NA=0,05 bis NA=0,25, vorzugsweise NA=0,08 bis NA=0,18, weiter vorzugsweise bei NA=0,10 bis NA=0,14, aufweist. Vorteilhaft kann das Objekt mit einem zwischen dem chromatischen Element und dem Objekt telezentrisch ausgebildeten Beleuchtungsstrahlengang beleuchtbar und/oder das Objekt mit einem zwischen dem chromatischen Element und dem Objekt telezentrisch ausgebildeten Beobachtungsstrahlengang erfassbar ist. Die genannte Telezentrie des Beleuchtungsstrahlengangs und/oder des Beobachtungsstrahlengangs kann einen störenden Farbquerfehler verringern, im Idealfall beseitigen. Besonders vorteilhaft können beide genannte Telezentrien vorhanden sein.It can be provided within the scope of the invention that a numerical aperture NA of the illumination of the object points on the object has a range of NA=0.05 to NA=0.25, preferably NA=0.08 to NA=0.18, more preferably NA=0.10 to NA=0.14. Advantageously, the object can be illuminated with an illumination beam path formed telecentrically between the chromatic element and the object and/or the object can be detected with an observation beam path formed telecentrically between the chromatic element and the object. The aforementioned telecentricity of the illumination beam path and/or the observation beam path can reduce a disturbing transverse chromatic aberration, in Ideally, eliminate it. It is particularly advantageous if both of the telecentricities mentioned are present.

Die numerische Apertur der Beleuchtung der Objektpunkte ist eine Maßzahl der Aufnahmevorrichtung, die angibt, wie viel Licht von einem Punkt des Objekts in der Aufnahmevorrichtung eingefangen werden kann. Sie wird durch die numerische Apertur der Beleuchtungsoptik und der Beleuchtungsquelle bestimmt.The numerical aperture of the illumination of the object points is a measurement of the recording device that indicates how much light from a point of the object can be captured in the recording device. It is determined by the numerical aperture of the illumination optics and the illumination source.

Je größer die numerische Apertur der Beleuchtung ist, desto mehr Licht wird in die Aufnahmevorrichtung eingeführt und desto mehr Details und feine Strukturen können sichtbar gemacht werden. Eine höhere numerische Apertur verbessert die Auflösung und das Kontrastverhalten der Aufnahmevorrichtung. Die oben angegebene numerische Apertur dient außerdem der Minimierung eines eventuell störenden Farbquerfehlers bei der Aufnahme des Objekts. Eine zu hohe numerische Apertur kann allerdings die Baugröße der Vorrichtung erhöhen und zu Abbildungsfehlern führen. Daher wird oben auch eine obere Grenze der numerischen Apertur empfohlen und ein Bereich angegeben, der sich als günstig erwiesen hat.The larger the numerical aperture of the illumination, the more light is introduced into the recording device and the more details and fine structures can be made visible. A higher numerical aperture improves the resolution and contrast behavior of the recording device. The numerical aperture specified above also serves to minimize any potentially disturbing lateral chromatic aberration when recording the object. However, a numerical aperture that is too high can increase the size of the device and lead to imaging errors. Therefore, an upper limit of the numerical aperture is recommended above and a range is specified that has proven to be favorable.

Ein zweiter Aspekt der Erfindung ist ein Verfahren zum Erzeugen einer 3D-Aufnahme eines dreidimensionalen Objekts, insbesondere mit einer Aufnahmevorrichtung nach dem ersten Aspekt der Erfindung, aufweisend die folgenden Schritte:

  • - Anordnen des dreidimensionalen Objekts in einer Vielzahl von Projektionsebenen der Aufnahmevorrichtung;
  • - Beleuchten des dreidimensionalen Objekts, aufweisend die folgenden Teilschritte:
    • - Erzeugen des Lichtstrahlbündels mittels einer Lichtquelle in einer Musterebene,
    • - Empfangen des erzeugten Lichtstrahlbündels mittels eines ersten Strahlteilereingangs eines ersten Strahlteilers,
    • - Abteilen eines Beleuchtungsstrahlbündels von dem Lichtstrahlbündel mittels des ersten Strahlteilers,
    • - Ausgeben des abgeteilten Beleuchtungsstrahlbündels mittels eines ersten Strahlteilerausgangs des ersten Strahlteilers,
    • - Fokussieren des ausgegebenen Beleuchtungsstrahlbündels auf die Vielzahl Projektionsebenen mittels eines chromatischen Elements, wobei die Musterebene projiziert wird und wobei die Musterebene zu jeweils einer der Projektionsebenen aus der Vielzahl von Projektionsebenen bei jeweils einer bestimmten Projektionswellenlänge konjugiert wird,
  • - Erfassen des dreidimensionalen Objekts, aufweisend folgende Teilschritte:
    • - Zurückwerfen des Beleuchtungsstrahlbündels als ein Beobachtungsstrahlbündel mittels des dreidimensionalen Objekts,
    • - Durchleiten des Beobachtungsstrahlbündels durch das chromatische Element,
    • - Empfangen des durchgeleiteten Beobachtungsstrahlbündels mittels eines zweiten Strahlteilereingangs des ersten Strahlteilers, wobei der zweite Strahlteilereingang dem ersten Strahlteilerausgang entspricht,
    • - Abteilen eines Aufnahmestrahlbündels von dem Beobachtungsstrahlbündel mittels des ersten Strahlteilers,
    • - Ausgeben des abgeteilten Aufnahmestrahlbündels mittels eines zweiten Strahlteilerausgangs des ersten Strahlteilers,
    • - Empfangen des ausgegebenen Aufnahmestrahlbündels mittels eines dritten Strahlteilereingangs eines zweiten Strahlteilers,
    • - Teilen, insbesondere monoton wellenlängenabhängiges Teilen, des Aufnahmestrahlbündels in einen ersten Aufnahmestrahlbündelanteil und einen zweiten Aufnahmestrahlbündelanteil mittels des zweiten Strahlteilers,
    • - Ausgeben des ersten Aufnahmestrahlbündelanteils mittels des dritten Strahlteilerausgangs des zweiten Strahlteilers und
    • - Ausgeben des zweiten Aufnahmestrahlbündelanteils mittels des vierten Strahlteilerausgangs des zweiten Strahlteilers,
    • - zweidimensionales Erfassen der ersten Intensitätsdaten des ersten Aufnahmestrahlbündelanteils als ein erstes Bild einer ersten Bildebene mittels eines ersten Matrixsensors einer Erfassungseinheit und,
    • - zweidimensionales Erfassen der zweiten Intensitätsdaten eines zweiten Aufnahmestrahlbündelanteils als ein zweites Bild einer zweiten Bildebene mittels eines zweiten Matrixsensors der Erfassungseinheit, wobei das erste Bild und das zweite Bild eine Vielzahl korrespondierender Bildpunkte aufweisen, welche jeweils einem Objektpunkt des beleuchteten Objekts zugeordnet sind,
  • - Berechnen zumindest einer Längskoordinate mehrerer Objektpunkte des Objekts aus den korrespondierenden Bildpunkten des ersten Bilds und zweiten Bilds mittels der Berechnungseinheit, um die 3D-Aufnahme des Objekts zu erzeugen.
A second aspect of the invention is a method for generating a 3D image of a three-dimensional object, in particular with a recording device according to the first aspect of the invention, comprising the following steps:
  • - Arranging the three-dimensional object in a plurality of projection planes of the recording device;
  • - Illuminating the three-dimensional object, comprising the following substeps:
    • - generating the light beam using a light source in a pattern plane,
    • - receiving the generated light beam by means of a first beam splitter input of a first beam splitter,
    • - dividing an illumination beam from the light beam by means of the first beam splitter,
    • - outputting the split illumination beam by means of a first beam splitter output of the first beam splitter,
    • - focusing the output illumination beam onto the plurality of projection planes by means of a chromatic element, whereby the pattern plane is projected and whereby the pattern plane is conjugated to each of the projection planes from the plurality of projection planes at a respective specific projection wavelength,
  • - Capturing the three-dimensional object, comprising the following substeps:
    • - reflecting the illumination beam as an observation beam by means of the three-dimensional object,
    • - Passing the observation beam through the chromatic element,
    • - receiving the transmitted observation beam by means of a second beam splitter input of the first beam splitter, wherein the second beam splitter input corresponds to the first beam splitter output,
    • - dividing a receiving beam from the observation beam by means of the first beam splitter,
    • - outputting the split recording beam by means of a second beam splitter output of the first beam splitter,
    • - receiving the output receiving beam by means of a third beam splitter input of a second beam splitter,
    • - dividing, in particular monotonically wavelength-dependently dividing, the receiving beam into a first receiving beam portion and a second receiving beam portion by means of the second beam splitter,
    • - outputting the first receiving beam portion by means of the third beam splitter output of the second beam splitter and
    • - outputting the second receiving beam portion by means of the fourth beam splitter output of the second beam splitter,
    • - two-dimensionally detecting the first intensity data of the first recording beam portion as a first image of a first image plane by means of a first matrix sensor of a detection unit and,
    • - two-dimensionally capturing the second intensity data of a second recording beam portion as a second image of a second image plane by means of a second matrix sensor of the detection unit, wherein the first image and the second image have a plurality of corresponding image points, each of which is assigned to an object point of the illuminated object,
  • - Calculating at least one longitudinal coordinate of several object points of the object from the corresponding image points of the first image and second image by means of the calculation unit in order to generate the 3D image of the object.

Dabei kann das Beleuchten des Objekts mit einem zwischen dem chromatischen Element und dem Objekt telezentrisch ausgebildeten Strahlengang durchgeführt werden. Zusätzlich oder alternativ kann das Erfassen des Objekts mit einem zwischen dem chromatischen Element und dem Objekt telezentrisch ausgebildeten Strahlengang durchgeführt werden. Die genannte Telezentrie kann einen störenden Farbquerfehler verringern, im Idealfall beseitigen.The object can be illuminated using a beam path that is telecentrically formed between the chromatic element and the object. Additionally or alternatively, the object can be captured using a beam path that is telecentrically formed between the chromatic element and the object. The aforementioned telecentricity can reduce, and ideally eliminate, a disturbing transverse chromatic aberration.

Als Bildpunkte werden vorliegend Pixel oder Pixelcluster verstanden, wobei Bildpunkte paarweise (d. h., ein Bildpunkt des ersten Bilds mit einem Bildpunkt des zweiten Bilds) korrespondieren können, sodass jedes Paar von Bildpunkten die Abbildung ein und desselben Objektpunkts darstellt. Pixelcluster können nebeneinanderliegende Pixel des Sensors sein, welche durch Binning zusammengefasst werden, um beispielsweise die Lichtempfindlichkeit des Sensors und/oder Verarbeitungsgeschwindigkeit der Bilder zu erhöhen.In this case, pixels or pixel clusters are understood as image points, whereby pixels can correspond in pairs (i.e., a pixel of the first image with a pixel of the second image) so that each pair of pixels represents the image of one and the same object point. Pixel clusters can be adjacent pixels of the sensor which are combined by binning in order to increase, for example, the light sensitivity of the sensor and/or the processing speed of the images.

Das Zurückwerfen des Beleuchtungsstrahlbündels als ein Beobachtungsstrahlbündel kann durch Reflexion und/oder durch Lichtstreuung erfolgen.The reflection of the illumination beam as an observation beam can occur by reflection and/or by light scattering.

Es ist ferner denkbar, dass die Lichtquelle eine Mustereinheit mit einem ersten Muster aufweist, wobei das erste Muster in der Musterebene angeordnet ist, sodass das erste Muster der Musterebene bei der zugeordneter Projektionswellenlänge Wellenlänge scharf auf eine Muster-Projektionsebene aus der Vielzahl der Projektionsebenen projiziert wird, während die Projektion auf die anderen Projektionsebenen bei dieser Wellenlänge unscharf sein kannIt is further conceivable that the light source has a pattern unit with a first pattern, wherein the first pattern is arranged in the pattern plane, so that the first pattern of the pattern plane is projected sharply onto a pattern projection plane from the plurality of projection planes at the associated projection wavelength, while the projection onto the other projection planes can be blurred at this wavelength.

Vorteilhaft kann das Muster eine Periodenlänge der Translationssymmetrie von 0,010mm bis 0,5mm aufweisen. Vorteilhaft können 10 bis 1000 Musterperioden vorhanden sein.Advantageously, the pattern can have a period length of translational symmetry of 0.010 mm to 0.5 mm. Advantageously, 10 to 1000 pattern periods can be present.

Dies führt zu einer günstigen Erzeugung unterschiedlicher spezifische Lichtausstrahlungen, um die Tiefenberechnung und damit die Berechnung der zur Erzeugung der 3D- Aufnahme notwendigen Längskoordinate der Objektpunkte aus den korrespondierenden Bildpunkte durchzuführen.This leads to a favorable generation of different specific light emissions in order to carry out the depth calculation and thus the calculation of the longitudinal coordinates of the object points from the corresponding image points necessary for generating the 3D image.

Auch ist es denkbar, dass die Vielzahl der Projektionsebenen zu der ersten Bildebene und der der zweiten Bildebene konjugiert werden, um die Längskoordinate zu berechnen.It is also conceivable that the plurality of projection planes are conjugated to the first image plane and the second image plane in order to calculate the longitudinal coordinate.

Im Rahmen der Erfindung ist es optional möglich, dass das Muster in der Musterebene in wenigstens einer Richtung abwechselnd dass das Muster in der Musterebene in wenigstens einer Richtung abwechselnd erste Musterstellen und zweite Musterstellen aufweist, wobei die ersten Musterstellen eine erste spezifische Lichtausstrahlung aufweisen und die zweiten Musterstellen eine zweite, geringere, spezifische Lichtausstrahlung insbesondere einen spezifische Lichtausstrahlungs Null, aufweisen, und die zweiten Musterstellen abgedunkelte Bildstellen im ersten Bild und im zweiten Bild bewirken und vor dem Berechnen der Längskoordinate die Intensitätswerte der abgedunkelten Bildstellen zur Korrektur der Intensitätswerte von benachbarten nicht abgedunkelten Bildstellen im ersten und zweiten Bild herangezogen werden. Die erste spezifische Lichtausstrahlung kann über die ersten Musterstellen jeweils konstant, d.h. ortsunsbhängig, sein und für alle ersten Musterstellen gleich.Within the scope of the invention, it is optionally possible for the pattern in the pattern plane to have first pattern points and second pattern points alternating in at least one direction, the first pattern points having a first specific light emission and the second pattern points having a second, lower, specific light emission, in particular a specific light emission of zero, and the second pattern points causing darkened image points in the first image and in the second image and, before calculating the longitudinal coordinate, the intensity values of the darkened image points are used to correct the intensity values of neighboring non-darkened image points in the first and second images. The first specific light emission can be constant across the first pattern points, i.e. independent of location, and the same for all first pattern points.

Die unterschiedlichen Musterstellen können jeweils unterschiedliche spezifische Lichtausstrahlungen aufweisen, also helle und dunkle Stellen, die beispielsweise durch die Maske erzeugt werden und die Form eines Schachbretts oder eines Streifenmusters aufweisen können.The different pattern areas can each have different specific light emissions, i.e. light and dark areas, which are created, for example, by the mask and can have the shape of a checkerboard or a striped pattern.

Die unterschiedlichen spezifische Lichtausstrahlungen führen zu unterschiedlichen Intensitätswerten der Intensitätsdaten. Da diese unterschiedlichen Intensitäten für jeweils einen Bildpunkt und/oder benachbarte Bildpunkte vorliegen, können diese für die Korrektur der Längskoordinaten verwendet werden, sodass systematische Fehler und/oder solche Beiträge zu den aufgenommenen Intensitäten, welche durch Streulicht und unscharfe Abbildung aus anderen Objektbereichen bei nicht scharf abbildenen Wellenlängen resultieren, vor der Berechnung der Längskoordinaten korrigiert werden können.The different specific light emissions lead to different intensity values of the intensity data. Since these different intensities are available for each pixel and/or neighboring pixels, they can be used to correct the longitudinal coordinates so that systematic errors and/or contributions to the recorded intensities that result from scattered light and blurred images from other object areas at wavelengths that are not sharply imaged can be corrected before calculating the longitudinal coordinates.

Ferner kann es im Rahmen der Erfindung vorgesehen sein, dass eine Steuereinheit die Lichtquelle steuert, wobei eine Lichtverteilung der Lichtquelle verändert wird. Insbesondere kann ein Schachbrettmuster oder Streifenmuster zum Erzeugen einer ersten 3D Aufnahme des Objekts verwendet werden. In einem weiteren Schritt kann ein invertiertes Schachbrettmuster oder Streifenmuster, d.h. mit vertauschten hellen und dunklen Stellen gegenüber dem ersten Muster, zum Erzeugen einer zweiten 3D Aufnahme des Objekts verwendet werden. Danach können die erste und zweite Aufnahme beispielsweise mittels der Recheneinheit zusammengeführt werden, um eine verbesserte 3D Aufnahme des Objekts zu erzeugen.Furthermore, within the scope of the invention, it can be provided that a control unit controls the light source, whereby a light distribution of the light source is changed. In particular, a checkerboard pattern or stripe pattern can be used to generate a first 3D image of the object. In a further step, an inverted checkerboard pattern or stripe pattern, i.e. with swapped light and dark areas compared to the first pattern, can be used to generate a second 3D image of the object. The first and second images can then be merged, for example by means of the computing unit, in order to generate an improved 3D image of the object.

Die Steuerung der Lichtverteilung kann außerdem eine Kalibrierung der Lichtquelle bzw. der Lichtverteilung in Abhängigkeit des zu beleuchtenden und aufzunehmenden Objekts zulassen, um die Genauigkeit der 3D-Aufnahme zu verbessern.The light distribution control can also allow calibration of the light source or light distribution depending on the object to be illuminated and recorded in order to improve the accuracy of the 3D recording.

Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung, in der unter Bezugnahme auf die Zeichnungen mehrere Ausführungsbeispiele der Erfindung im Einzelnen beschrieben sind. Dabei können die in den Ansprüchen und in der Beschreibung erwähnten Merkmale jeweils einzeln für sich oder in beliebiger Kombination erfindungswesentlich sein. Dabei ist die Erfindung in den folgenden Figuren gezeigt:

  • 1 eine schematische Darstellung einer Aufnahmevorrichtung nach einer ersten Ausführung,
  • 2 eine schematische Darstellung einer Aufnahmevorrichtung nach einer zweiten Ausführung,
  • 3 eine schematische Darstellung einer Aufnahmevorrichtung nach einer dritten Ausführung,
  • 4 eine schematische Darstellung eines erfindungsgemäßen Verfahrens,
  • 5 ein chromatisches Element,
  • 6 ein anderes chromatisches Element,
  • 7 und 8 beispielhafte Filterkennlinien,
  • 9 eine Strahlteilerkennlinie.
Further advantages, features and details of the invention emerge from the following description, in which several embodiments of the invention are described in detail with reference to the drawings. The features mentioned in the claims and in the description can each be essential to the invention individually or in any combination. The invention is shown in the following figures:
  • 1 a schematic representation of a receiving device according to a first embodiment,
  • 2 a schematic representation of a receiving device according to a second embodiment,
  • 3 a schematic representation of a receiving device according to a third embodiment,
  • 4 a schematic representation of a method according to the invention,
  • 5 a chromatic element,
  • 6 another chromatic element,
  • 7 and 8 exemplary filter characteristics,
  • 9 a beam splitter characteristic curve.

In den 1 bis 3 ist jeweils eine Aufnahmevorrichtung 10 zum Erzeugen 130 einer 3D-Aufnahme eines dreidimensionalen Objekts 11 dargestellt. Die Aufnahmevorrichtung 10 ist dabei frei von rotierenden Elementen. Dabei weist die Aufnahmevorrichtung 10 eine Vielzahl von Projektionsebenen 12 zum Beleuchten 120 des Objekts 11 auf, wobei die Vielzahl Projektionsebenen 12 auf das Objekt 11 projizierbar ist, wobei die Projektionsebenen 12 jeweils einen wellenlängenabhängigen Abstand zp(λ) zu einer mittleren Projektionsebene 12 aus der Vielzahl der Projektionsebenen 12 aufweisen.In the 1 to 3 a recording device 10 for generating 130 a 3D recording of a three-dimensional object 11 is shown. The recording device 10 is free of rotating elements. The recording device 10 has a plurality of projection planes 12 for illuminating 120 the object 11, wherein the plurality of projection planes 12 can be projected onto the object 11, wherein the projection planes 12 each have a wavelength-dependent distance zp(λ) to a middle projection plane 12 from the plurality of projection planes 12.

Die Aufnahmevorrichtungen 10 umfassen jeweils eine Lichtquelle 13 zum Erzeugen 130 eines Lichtstrahlbündels 14 in einer Musterebene 15. Dabei ist die Lichtquelle 13 der 1 bis 3 ein divergent abstrahlender Lichtemitter 41 der eine erste Kollimationsoptik 42 umfasst. Dabei ist die Kollimationsoptik 42 in 1 in dem Lichtemitter 41 integriert. Dabei ist das Lichtstrahlbündel 14 ein spektral breitbandiges Lichtstrahlbündel 14 mit einer spektralen Bandbreite von wenigstens 100nm in einem Wellenlängenbereich von 400nm bis 1100nm ist.The recording devices 10 each comprise a light source 13 for generating 130 a light beam 14 in a pattern plane 15. The light source 13 of the 1 until 3 a divergently emitting light emitter 41 which comprises a first collimation optics 42. The collimation optics 42 are in 1 integrated in the light emitter 41. The light beam 14 is a spectrally broadband light beam 14 with a spectral bandwidth of at least 100 nm in a wavelength range from 400 nm to 1100 nm.

In den 2 und 3 sind der Lichtemitter 41 und die Kollimationsoptik 42 zwei einzelne Bauteile der Aufnahmevorrichtung 10, die beabstandet zueinander angeordnet sind. Dabei kann der jeweilige Abstand zp(λ) an das jeweilige Einsatzgebiet angepasst werden. Zusätzlich zu der ersten Kollimationsoptik 42 sehen die Aufnahmevorrichtung 10 der 2 und 3 einen zweiten Kollimator 46 vor, dieser ist zwischen der Lichtquelle 13 und dem ersten Strahlteiler 16 vorgesehen.In the 2 and 3 The light emitter 41 and the collimation optics 42 are two individual components of the recording device 10, which are arranged at a distance from each other. The respective distance zp(λ) can be adapted to the respective application area. In addition to the first collimation optics 42, the recording device 10 of the 2 and 3 a second collimator 46, which is provided between the light source 13 and the first beam splitter 16.

Des Weiteren ist jeweils ein als Strahlteilerplatte 51 ausgebildeter erster Strahlteiler 16 zum Abteilen 150 eines Beleuchtungsstrahlbündels 17 von dem Lichtstrahlbündel 14 und zum Abteilen 150 eines Aufnahmestrahlbündels 18 von einem von dem Objekt 11 zurückgeworfenen Beobachtungsstrahlbündel 19 vorgesehen.Furthermore, a first beam splitter 16 designed as a beam splitter plate 51 is provided for splitting 150 an illumination beam 17 from the light beam 14 and for splitting 150 a recording beam 18 from an observation beam 19 reflected by the object 11.

Der erste Strahlteiler 16 weist einen ersten Strahlteilereingang 20 zum Empfangen 140 des Lichtstrahlbündels 14 und einen ersten Strahlteilerausgang 21 zum Ausgeben 160 des Beleuchtungsstrahlbündels 17 und einen zweiten Strahlteilereingang 22 zum Empfangen 140 des Beobachtungsstrahlbündels 19 und einen zweiten Strahlteilerausgang 23 zum Ausgeben 160 des Aufnahmestrahlbündels 18 auf. Dabei entspricht der zweite Strahlteilereingang 22 dem ersten Strahlteilerausgang 21. Der erste Strahlteiler 16 der 1 bis 3 weist ein Teilerverhältnis von 80:20 für das Lichtstrahlbündel 14 auf, sodass 80% als Beleuchtungsstrahlbündel 17 zum Beleuchten 120 des Objekts 11 den ersten Strahlteiler 16 über den ersten Strahlteilerausgang 21 verlassen. Auch für das Beobachtungsstrahlbündel 19 weist der erste Strahlteiler 16 ein Teilerverhältnis von 80:20 auf, sodass 80% den ersten Strahlteiler 16 über den zweiten Strahlteilerausgang 23 verlassen. In einer Abwandlung dieses Ausführungsbeipiels wird ein Strahlteiler mit einem Teilerverhältnis 50:50 verwendet.The first beam splitter 16 has a first beam splitter input 20 for receiving 140 the light beam 14 and a first beam splitter output 21 for outputting 160 the illumination beam 17 and a second beam splitter input 22 for receiving 140 the observation beam 19 and a second beam splitter output 23 for outputting 160 the recording beam 18. The second beam splitter input 22 corresponds to the first beam splitter output 21. The first beam splitter 16 of the 1 to 3 has a splitter ratio of 80:20 for the light beam 14, so that 80% leaves the first beam splitter 16 via the first beam splitter output 21 as the illumination beam 17 for illuminating 120 the object 11. The first beam splitter 16 also has a splitter ratio of 80:20 for the observation beam 19, so that 80% leaves the first beam splitter 16 via the second beam splitter output 23. In a modification of this embodiment, a beam splitter with a splitter ratio of 50:50 is used.

Zum Fokussieren 170 des vom ersten Strahlteiler 16 abgeteilten Beleuchtungsstrahlbündels 17 auf die Vielzahl der Projektionsebenen 12 ist in den 1 bis 3 jeweils ein chromatisches Element 24 mit einer positiven Brechkraft mit einer ersten monotonen Wellenlängenabhängigkeit vorgesehen. Dieses fokussiert das Beleuchtungsstrahlbündel 17 derart, dass die Musterebene 15 zu jeweils einer der Projektionsebenen 12 aus der Vielzahl von Projektionsebenen 12 jeweils bei einer bestimmten Projektionswellenlänge konjugiert ist. Hier ist in allen Ausführungsbeispielen eine Fresnellinse vorgesehen. Diese sind sehr kompakt und eignen sich für Aufnahmevorrichtungen 10, die keinen großen Bauraum zur Verfügung haben. Dadurch wird das Objekt 11 mit einem zwischen dem chromatischen Element 24 und dem Objekt 11 telezentrisch ausgebildeten Beleuchtungsstrahlengang beleuchtbar und mit einem zwischen dem chromatischen Element 24 und dem Objekt 11 telezentrisch ausgebildeten Beobachtungsstrahlengang erfassbar.For focusing 170 the illumination beam 17 split by the first beam splitter 16 onto the plurality of projection planes 12, 1 to 3 a chromatic element 24 with a positive refractive power with a first monotonic wavelength dependence is provided in each case. This focuses the illumination beam 17 in such a way that the pattern plane 15 is conjugated to one of the projection planes 12 from the plurality of projection planes 12, each at a specific projection wavelength. A Fresnel lens is provided here in all embodiments. These are very compact and are suitable for recording devices 10 that do not have a large installation space available. As a result, the object 11 can be illuminated with an illumination beam path formed telecentrically between the chromatic element 24 and the object 11 and can be captured with an observation beam path formed telecentrically between the chromatic element 24 and the object 11.

Im Strahlengang des Aufnahmestrahlbündels 18 ist anschließend ein als Strahlteilerwürfel 52 ausgebildeter zweiten Strahlteiler 25 zum Teilen 270 des Aufnahmestrahlbündels 18 in einen ersten Aufnahmestrahlbündelanteil 26 und einen zweiten Aufnahmestrahlbündelanteil 27 vorgesehen.In the beam path of the recording beam 18, a second beam splitter 25 designed as a beam splitter cube 52 is subsequently provided for splitting 270 the recording beam 18 into a first recording beam portion 26 and a second recording beam portion 27.

Der zweite Strahlteiler 25 sieht einen dritten Strahlteilereingang 28 zum Empfangen 140 des Aufnahmestrahlbündels 18, einen dritten Strahlteilerausgang 29 zum Ausgeben 160 des ersten Aufnahmestrahlbündelanteils 26, einen vierten Strahlteilerausgang 30 zum Ausgeben 160 des zweiten Aufnahmestrahlbündelanteils 27 vor und weist eine zweite monotone Wellenlängenabhängigkeit auf. Dabei ist an dem dritten Strahlteilerausgang 29 des zweiten Strahlteilers 25 ein erster Filter 49 zum wellenlängenabhängigen Filtern des ersten Aufnahmestrahlbündelanteils 26 vorgesehen ist und an dem vierten Strahlteilerausgang 30 des zweiten Strahlteilers 25 ein zweiter Filter 50 zum wellenlängenabhängigen Filtern des zweiten Aufnahmestrahlbündelanteils 27 vorgesehen.The second beam splitter 25 provides a third beam splitter input 28 for receiving 140 the recording beam 18, a third beam splitter output 29 for outputting 160 the first recording beam portion 26, a fourth beam splitter output 30 for outputting 160 the second recording beam portion 27 and has a second monotonic wavelength dependence. A first filter 49 for wavelength-dependent filtering of the first recording beam portion 26 is provided at the third beam splitter output 29 of the second beam splitter 25 and a second filter 50 for wavelength-dependent filtering of the second recording beam portion 27 is provided at the fourth beam splitter output 30 of the second beam splitter 25.

Des Weiteren sieht die Aufnahmevorrichtung 10 der 1 bis 3 eine Erfassungseinheit 31 zum Erfassen 200 eines ersten Bilds 32 in einer ersten Bildebene 33 des ersten Aufnahmestrahlbündelanteils 26 und eines zweiten Bilds 34 in einer zweiten Bildebene 35 des zweiten Aufnahmestrahlbündelanteils 27 des Objekts 11 auf. Hierfür ist ein erster Matrixsensor 36 zum zweidimensionalen Erfassen 200 der ersten Intensitätsdaten 37 des ersten Aufnahmestrahlbündelanteils 26 als ein erstes Bild 32 in der ersten Bildebene 33 vorgesehen, wobei der erste Matrixsensor 36 bezogen auf die Strahlrichtung des ersten Aufnahmestrahlbündelanteils 26 dem dritten Strahlteilerausgang 29 des zweiten Strahlteilers 25 nachgeordnet angeordnet ist. Zusätzlich ist ein zweiter Matrixsensor 38 zum zweidimensionalen Erfassen 200 der zweiten Intensitätsdaten 39 des zweiten Aufnahmestrahlbündelanteils 27 als ein zweites Bild 34 in der zweiten Bildebene 35 vorgehen, wobei der zweite Matrixsensor 38 bezogen auf die Strahlrichtung des zweiten Aufnahmestrahlbündelanteils 27 dem vierten Strahlteilerausgang 30 des zweiten Strahlteilers 25 nachgeordnet angeordnet ist. Dabei weisen das erste Bild 32 und das zweite Bild 34 miteinander korrespondierende Bildpunkte auf, wobei die korrespondierenden Bildpunkte jeweils denselben Objektpunkten des dreidimensionalen Objekts 11 zuordenbar sind.Furthermore, the receiving device 10 of the 1 to 3 a detection unit 31 for detecting 200 a first image 32 in a first image plane 33 of the first recording beam portion 26 and a second image 34 in a second image plane 35 of the second recording beam portion 27 of the object 11. For this purpose, a first matrix sensor 36 is provided for two-dimensionally detecting 200 the first intensity data 37 of the first recording beam portion 26 as a first image 32 in the first image plane 33, wherein the first matrix sensor 36 is arranged downstream of the third beam splitter output 29 of the second beam splitter 25 with respect to the beam direction of the first recording beam portion 26. In addition, a second matrix sensor 38 is provided for two-dimensionally capturing 200 the second intensity data 39 of the second recording beam portion 27 as a second image 34 in the second image plane 35, wherein the second matrix sensor 38 is arranged downstream of the fourth beam splitter output 30 of the second beam splitter 25 with respect to the beam direction of the second recording beam portion 27. The first image 32 and the second image 34 have pixels that correspond to one another, wherein the corresponding pixels can each be assigned to the same object points of the three-dimensional object 11.

Für die Berechnung der zumindest jeweils einer Längskoordinate mehrerer Objektpunkte des Objekts 11 aus den korrespondierenden Bildpunkten des ersten Bilds und des zweiten Bilds, weist die Aufnahmevorrichtung 10 jeweils eine Berechnungseinheit 40 auf, um eine 3D-Aufnahme des dreidimensionalen Objekts 11 zu erzeugen 130.For calculating at least one longitudinal coordinate of a plurality of object points of the object 11 from the corresponding image points of the first image and the second image, the recording device 10 has a calculation unit 40 in order to generate 130 a 3D recording of the three-dimensional object 11.

In den Ausführungsbeispielen der 1 und 3 sieht die jeweilige Aufnahmevorrichtung 10 eine Fokussieroptik 47 vor, die zwischen dem ersten Strahlteiler 16 und dem zweiten Strahlteiler 25 angeordnet ist. So kann das abgeteilte Aufnahmestrahlbündel 18 zum dritten Strahlteilereingang 28 des zweiten Strahlteilers fokussiert werden.In the examples of the 1 and 3 the respective recording device 10 provides a focusing optics 47, which is arranged between the first beam splitter 16 and the second beam splitter 25. The split recording beam bundle 18 can thus be focused to the third beam splitter input 28 of the second beam splitter.

Sowohl die 1 als auch die 2 und 3 weisen eine erste Mustereinheit 43 mit einem ersten Muster auf, wobei das erste Muster 53 in der Musterebene 15 angeordnet ist. Dabei ist die Mustereinheit der 1 auch in dem Lichtemitter 41 integriert, sodass die Musterebene 15 identisch mit der abstrahlenden Ebene des Lichtemitters ist. In den 2 und 3 ist die Mustereinheit 43 in dem Strahlengang des Lichtstrahlbündelns 14 nach der ersten Kollimationsoptik 43 angeordnet. Mit der Position der ersten Kollimationsoptik 42 verschiebt sich auch die Position der Musterebene 15.Both the 1 as well as the 2 and 3 have a first pattern unit 43 with a first pattern, wherein the first pattern 53 is arranged in the pattern plane 15. The pattern unit of the 1 also integrated in the light emitter 41, so that the pattern plane 15 is identical with the emitting plane of the light emitter. In the 2 and 3 the pattern unit 43 is arranged in the beam path of the light beam bundling 14 after the first collimation optics 43. The position of the pattern plane 15 also shifts with the position of the first collimation optics 42.

Dabei wird das erste Muster in der 1 durch ein pixelweise ansteuerbares hinterleuchtetes LCD Display erzeugt. In den 2 und 3 sieht die Mustereinheit 43 eine Maske, vorliegend eine strukturierte Schwarzchromplatte, vor. Es sei darauf hingewiesen, dass die Darstellung der Muster 53, 54 in den Figuren nur schematisch zu verstehen ist. Tatsächlich handelt es sich um ein flächiges Muster in der Musterebene 15, also senkrecht zur Zeichnungsebene.The first pattern in the 1 generated by a pixel-by-pixel backlit LCD display. In the 2 and 3 The pattern unit 43 provides a mask, in this case a structured black chrome plate. It should be noted that the representation of the patterns 53, 54 in the figures is only to be understood schematically. In fact, it is a flat pattern in the pattern plane 15, i.e. perpendicular to the drawing plane.

Das Muster 53 wird mittels der abgeteilten und zurückgeworfenen Strahlbündel mittransportiert und ist somit sowohl in dem Beleuchtungsstrahlbündel 17, dem Beobachtungsstrahlbündel 19, dem Aufnahmestrahlbündel 18 und dem ersten Aufnahmestrahlbündelanteil 26 und dem zweiten Aufnahmestrahlbündelanteil 27 nachweisbar. Das Muster 53 ist vorliegend ein Schachbrettmuster und hat somit eine erste Musterstelle 54 mit einer ersten Wellenlänge und/oder spezifische Lichtausstrahlung und eine zweite Musterstelle 55 mit einer zweiten Wellenlänge und/oder spezifische Lichtausstrahlung. Durch diese Muster 53 und die damit einhergehenden unterschiedlichen Intensitätsdaten können die berechneten Längskoordinaten korrigiert werden und zu einer verbesserten 3D-Aufnahme führen.The pattern 53 is transported by means of the divided and reflected beams and can thus be detected in the illumination beam 17, the observation beam 19, the recording beam 18 and the first recording beam portion 26 and the second recording beam portion 27. The pattern 53 is a checkerboard pattern in the present case and thus has a first pattern location 54 with a first wavelength and/or specific light emission and a second pattern location 55 with a second wavelength and/or specific light emission. The calculated longitudinal coordinates can be corrected using these patterns 53 and the associated different intensity data, leading to an improved 3D image.

Die Aufnahmevorrichtung 10 der 3 weist einen kleinen Bauraum auf, um diesen bewerkstelligen zu können ohne Einbußen in der Qualität der 3D-Aufnahmen in Kauf nehmen zu müssen, sind ein erster Umlenkspiegel 44 zum Umlenken des Beleuchtungsstrahlbündels 17 um einen bestimmten Winkel und ein zweiter Umlenkspiegel 45 zum Umlenken des Beobachtungsstrahlbündels 19 um einen bestimmten Winkel vorgesehen. Dabei ist der erste Umlenkspiegel 44 zwischen der Lichtquelle 13 und dem ersten Strahlteiler 16 vorgesehen. Dabei lenkt der erste Umlenkspiegel 44 das Beleuchtungsstrahlbündel 17 um einen stumpfen Winkel um. Der zweite Umlenkspiegel 45 ist zwischen dem chromatischen Element 24 und dem Objekt 11 vorgesehen. Dabei lenkt der zweite Umlenkspiegel 45 das Beobachtungsstrahlbündel 19 um einen stumpfen Winkel um.The receiving device 10 of the 3 has a small installation space, in order to be able to accomplish this without having to accept losses in the quality of the 3D images, a first deflection mirror 44 for deflecting the illumination beam 17 by a certain angle and a second deflection mirror 45 for deflecting the observation beam 19 by a certain angle are provided. The first deflection mirror 44 is between the light source 13 and the first beam splitter 16. The first deflection mirror 44 deflects the illumination beam 17 by an obtuse angle. The second deflection mirror 45 is provided between the chromatic element 24 and the object 11. The second deflection mirror 45 deflects the observation beam 19 by an obtuse angle.

Die Lichtquelle 13 sowie die erste Kollimationsoptik 42, der zweite Kollimator 46 und die Fresnellinse 48 der 1 bis 3 sind dabei so ausgelegt, dass eine Numerische Apertur NA der Beleuchtung der Objektpunkte auf dem Objekt 11 einen Bereich von NA=0,05 bis NA=0,25 aufweist.The light source 13 as well as the first collimation optics 42, the second collimator 46 and the Fresnel lens 48 of the 1 to 3 are designed such that a numerical aperture NA of the illumination of the object points on the object 11 has a range from NA=0.05 to NA=0.25.

In 2 ist der divergent abstrahlende Lichtemitter 13 in einer Lichtemitterebene angeordnet. Es ist mit dem Projektionsstrahlengang verflochtener Strahlengang 62 mit gepunkteten Linien dargestellt. In diesem verflochtenen Strahlengang ist eine zur Lichtemitterebene konjugierte Ebene 63 vorhanden, die daran zu erkennen ist, dass die gepunkteten Linien auf der optischen Achse 65 zusammenlaufen. Die zur Lichtemitterebene konjugierte Ebene 63 des verflochtenen Strahlengangs 62 liegt zwischen dem ersten Strahlteiler 16 und dem Objekt 11, in diesem Beispiel vor der ersten der Projektionsebenen 12, hier also vor zp(λ1). In einer nicht dargestellten Abwandlung des Ausführungsbeispiels kann die zur Lichtemitterebene konjugierte Ebene 63 an der Position des chromatischen Elements 24 angeordnet sein. Diesen in diesem Absatz beschriebenen Strahlengang kann man als einen mit dem Projektionsstrahlengang verflochtenen weiteren Strahlengang auffassen, wie er beispielsweise aus einer Köhlerschen Beleuchtung bekannt ist. Bei der zur Lichtemitterebene konjugierten Ebene 63 handelt es sich um die Ebene senkrecht zur optischen Achse 65. Der Übersichtlichkeit halber ist hier nur der Schnittpunkt dieser Ebene mit der optischen Achse 65 eingezeichnet.In 2 the divergently emitting light emitter 13 is arranged in a light emitter plane. A beam path 62 intertwined with the projection beam path is shown with dotted lines. In this intertwined beam path there is a plane 63 conjugated to the light emitter plane, which can be recognized by the fact that the dotted lines converge on the optical axis 65. The plane 63 of the intertwined beam path 62 conjugated to the light emitter plane lies between the first beam splitter 16 and the object 11, in this example in front of the first of the projection planes 12, i.e. here in front of zp(λ1). In a modification of the embodiment not shown, the plane 63 conjugated to the light emitter plane can be arranged at the position of the chromatic element 24. This beam path described in this paragraph can be understood as a further beam path intertwined with the projection beam path, as is known, for example, from Köhler illumination. The plane 63 conjugated to the light emitter plane is the plane perpendicular to the optical axis 65. For the sake of clarity, only the intersection point of this plane with the optical axis 65 is shown here.

Zusätzlich ist, wie in 1 gezeigt, eine Steuereinheit 61 vorgesehen, diese Steuereinheit 61 steuert die Lichtquelle 13, sodass deren Lichtverteilung verändert wird.In addition, as in 1 shown, a control unit 61 is provided, this control unit 61 controls the light source 13 so that its light distribution is changed.

In 4 ist ein Verfahren 100 zum Erzeugen 130 einer 3D-Aufnahme eines dreidimensionalen Objekts 11, insbesondere mit einer Aufnahmevorrichtung 10 nach einem der 1 bis 3, aufweisend die folgenden Schritte:

  • - Anordnen 110 des dreidimensionalen Objekts 11 in einer Vielzahl von Projektionsebenen 12 der Aufnahmevorrichtung 10;
  • - Beleuchten 120 des dreidimensionalen Objekts 11, aufweisend die folgenden Teilschritte:
  • - Erzeugen 130 des Lichtstrahlbündels 14 mittels einer Lichtquelle 13 in einer Musterebene 15,
  • - Empfangen 140 des erzeugten Lichtstrahlbündels 14 mittels eines ersten Strahlteilereingangs eines ersten Strahlteilers 16,
  • - Abteilen 150 eines Beleuchtungsstrahlbündels 17 von dem Lichtstrahlbündel 14 mittels des ersten Strahlteilers 16,
  • - Ausgeben 160 des abgeteilten Beleuchtungsstrahlbündels 17 mittels eines ersten Strahlteilerausgangs 21 des ersten Strahlteilers 16,
  • - Fokussieren 170 des ausgegebenen Beleuchtungsstrahlbündels 17 auf die Vielzahl Projektionsebenen 12 mittels eines chromatischen Elementes 24, wobei die Musterebene 15 projiziert wird und wobei die Musterebene 15 zu jeweils einer der Projektionsebenen 12 aus der Vielzahl von Projektionsebenen 12 bei jeweils einer bestimmten Projektionswellenlänge konjugiert wird,
  • - Erfassen 200 des dreidimensionalen Objekts 11, aufweisend folgende Teilschritte:
  • - Zurückwerfen 210 des Beleuchtungsstrahlbündels 17 als ein Beobachtungsstrahlbündel 19 mittels des dreidimensionalen Objekts 11,
  • - Durchleiten 220 des Beobachtungsstrahlbündels 19 durch das chromatische Element 24,
  • - Empfangen 230 des durchgeleiteten Beobachtungsstrahlbündels 19 mittels eines zweiten Strahlteilereingangs des ersten Strahlteilers, wobei der zweite Strahlteilereingang 22 dem ersten Strahlteilerausgang 21 entspricht,
  • - Abteilen 240 eines Aufnahmestrahlbündels 18 von dem Beobachtungsstrahlbündel 19 mittels des ersten Strahlteilers 16,
  • - Ausgeben 250 des abgeteilten Aufnahmestrahlbündels 18 mittels eines zweiten Strahlteilerausgangs 23 des ersten Strahlteilers 16,
  • - Empfangen 230 des ausgegebenen Aufnahmestrahlbündels 18 mittels eines dritten Strahlteilereingangs 28 eines zweiten Strahlteilers 25,
  • - Teilen 270, insbesondere monoton wellenlängenabhängiges Teilen 270, des Aufnahmestrahlbündels 18 in einen ersten Aufnahmestrahlbündelanteil 26 und einen zweiten Aufnahmestrahlbündelanteil 27 mittels des zweiten Strahlteilers 25,
  • - Ausgeben 250 des ersten Aufnahmestrahlbündelanteils 26 mittels des dritten Strahlteilerausgangs 29 des zweiten Strahlteilers 25 und
  • - Ausgeben 250 des zweiten Aufnahmestrahlbündelanteils 27 mittels des vierten Strahlteilerausgangs 30 des zweiten Strahlteilers 25,
  • - zweidimensionales Erfassen 200 der ersten Intensitätsdaten 37 des ersten Aufnahmestrahlbündelanteils 26 als ein erstes Bild 32 einer ersten Bildebene 33 mittels eines ersten Matrixsensors 36 einer Erfassungseinheit 31 und,
  • - zweidimensionales Erfassen 200 der zweiten Intensitätsdaten 39 eines zweiten Aufnahmestrahlbündelanteils 27 als ein zweites Bild 34 einer zweiten Bildebene 35 mittels eines zweiten Matrixsensors 38 der Erfassungseinheit 31, wobei das erste Bild 32 und das zweite Bild 34 eine Vielzahl korrespondierender Bildpunkte aufweisen, welche jeweils einem Objektpunkt des beleuchteten Objekts 11 zugeordnet sind,
  • - Berechnen 300 zumindest einer Längskoordinate mehrerer Objektpunkte des Objekts 11 aus den korrespondierenden Bildpunkten des ersten Bilds und zweiten Bilds mittels der Berechnungseinheit 40, um die 3D-Aufnahme des Objekts 11 zu erzeugen 130.
In 4 is a method 100 for generating 130 a 3D image of a three-dimensional object 11, in particular with a recording device 10 according to one of the 1 to 3 , comprising the following steps:
  • - arranging 110 the three-dimensional object 11 in a plurality of projection planes 12 of the recording device 10;
  • - Illuminating 120 the three-dimensional object 11, comprising the following substeps:
  • - generating 130 the light beam 14 by means of a light source 13 in a pattern plane 15,
  • - receiving 140 the generated light beam 14 by means of a first beam splitter input of a first beam splitter 16,
  • - dividing 150 an illumination beam 17 from the light beam 14 by means of the first beam splitter 16,
  • - outputting 160 of the split illumination beam 17 by means of a first beam splitter output 21 of the first beam splitter 16,
  • - focusing 170 the output illumination beam 17 onto the plurality of projection planes 12 by means of a chromatic element 24, whereby the pattern plane 15 is projected and whereby the pattern plane 15 is conjugated to one of the projection planes 12 from the plurality of projection planes 12 at a respective specific projection wavelength,
  • - detecting 200 the three-dimensional object 11, comprising the following substeps:
  • - reflecting 210 the illumination beam 17 as an observation beam 19 by means of the three-dimensional object 11,
  • - Passing 220 the observation beam 19 through the chromatic element 24,
  • - receiving 230 the transmitted observation beam 19 by means of a second beam splitter input of the first beam splitter, wherein the second beam splitter input 22 corresponds to the first beam splitter output 21,
  • - dividing 240 a receiving beam 18 from the observation beam 19 by means of the first beam splitter 16,
  • - outputting 250 the split recording beam 18 by means of a second beam splitter output 23 of the first beam splitter 16,
  • - receiving 230 the output receiving beam 18 by means of a third beam splitter input 28 of a second beam splitter 25,
  • - dividing 270, in particular monotonically wavelength-dependent dividing 270, the receiving beam 18 into a first receiving beam portion 26 and a second receiving beam portion 27 by means of the second beam splitter 25,
  • - Outputting 250 the first receiving beam portion 26 by means of the third beam splitter output 29 of the second beam splitter 25 and
  • - outputting 250 the second receiving beam portion 27 by means of the fourth beam splitter output 30 of the second beam splitter 25,
  • - two-dimensional detection 200 of the first intensity data 37 of the first recording beam portion 26 as a first image 32 of a first image plane 33 by means of a first matrix sensor 36 of a detection unit 31 and,
  • - two-dimensional detection 200 of the second intensity data 39 of a second recording beam portion 27 as a second image 34 of a second image plane 35 by means of a second matrix sensor 38 of the detection unit 31, wherein the first image 32 and the second image 34 have a plurality of corresponding image points, which are each assigned to an object point of the illuminated object 11,
  • - Calculating 300 at least one longitudinal coordinate of several object points of the object 11 from the corresponding image points of the first image and second image by means of the calculation unit 40 in order to generate the 3D image of the object 11 130.

In dem dargestellt Verfahren 100 weist die Lichtquelle 13 eine Mustereinheit mit einem ersten Muster 53 auf, wobei das erste Muster 53 in der Musterebene 15 angeordnet ist, sodass das erste Muster 53 der Musterebene 15 bei der scharf abbildenden Projektionswellenlänge scharf auf eine Muster-Projektionsebene 56 aus der Vielzahl der Projektionsebenen 12 projiziert wird, auf den anderen der Projektionsebenen hingegen unscharf.In the method 100 shown, the light source 13 has a pattern unit with a first pattern 53, wherein the first pattern 53 is arranged in the pattern plane 15, so that the first pattern 53 of the pattern plane 15 is projected sharply onto a pattern projection plane 56 from the plurality of projection planes 12 at the sharply imaging projection wavelength, but is blurred on the other projection planes.

Dabei wird die Vielzahl der Projektionsebenen 12 zu der ersten Bildebene 33 und der der zweiten Bildebene 35 konjugiert, um die Längskoordinate zu berechnen 300.The plurality of projection planes 12 are conjugated to the first image plane 33 and the second image plane 35 in order to calculate the longitudinal coordinate 300.

Das Muster 53 in der Musterebene 15 weist in wenigstens einer Richtung abwechselnd zumindest eine erste Musterstelle 54 und zumindest eine zweite Musterstelle 55 auf. Dabei weist die zumindest eine erste Musterstelle 54 eine erste Wellenlänge und die zumindest eine zweite Musterstelle 55 eine zweite Wellenlänge auf, wobei die zumindest eine erste Musterstelle 54 des Musters 53 und die zumindest eine zweite Musterstelle 55 des Musters 53 auf der Musterebene 15 auf die jeweilige wellenlängenabhängige Muster-Projektionsebene 12, 56 konjugiert werden. Dies führt dazu, dass die jeweilige wellenlängenabhängige Muster-Projektionsebene 12, 56 auf die erste Bildebene 33 und die zweite Bildebene 35 konjugiert werden, wodurch das Muster auch in den Bildern erkennbar ist.The pattern 53 in the pattern plane 15 has at least one first pattern location 54 and at least one second pattern location 55 alternating in at least one direction. The at least one first pattern location 54 has a first wavelength and the at least one second pattern location 55 has a second wavelength, wherein the at least one first pattern location 54 of the pattern 53 and the at least one second pattern location 55 of the pattern 53 on the pattern plane 15 are conjugated to the respective wavelength-dependent pattern projection plane 12, 56. This results in the respective wavelength-dependent pattern projection plane 12, 56 being conjugated to the first image plane 33 and the second image plane 35, whereby the pattern can also be recognized in the images.

Die ersten Intensitätsdaten 37 des ersten Bilds weisen zumindest einen ersten Intensitätswert 57 für die zumindest erste Wellenlänge der zumindest einen ersten Musterstelle 54 und zumindest einen zweiten Intensitätswert 58 für die zumindest zweite Wellenlänge und der zumindest einen zweiten Musterstelle 55 auf. Die zweiten Intensitätsdaten 39 weisen zumindest einen dritten Intensitätswert 59 für die zumindest eine erste Wellenlänge der zumindest einen ersten Musterstelle 54 und zumindest einen vierten Intensitätswert 60 für die zumindest eine zweite Wellenlänge der zumindest einen zweiten Musterstelle 55 auf. Dabei wird der zumindest eine zweite Intensitätswert 58 zum Korrigieren 320 des zumindest einen ersten Intensitätswert 57 verwendet, und der zumindest eine vierte Intensitätswert 60 zum Korrigieren 320 des zumindest einen dritten Intensitätswert 59 verwendet.The first intensity data 37 of the first image have at least one first intensity value 57 for the at least first wavelength of the at least one first pattern location 54 and at least one second intensity value 58 for the at least second wavelength and the at least one second pattern location 55. The second intensity data 39 have at least one third intensity value 59 for the at least one first wavelength of the at least one first pattern location 54 and at least one fourth intensity value 60 for the at least one second wavelength of the at least one second pattern location 55. The at least one second intensity value 58 is used to correct 320 the at least one first intensity value 57, and the at least one fourth intensity value 60 is used to correct 320 the at least one third intensity value 59.

Zusätzlich wird die Lichtverteilung der Lichtquelle 13 verändert indem die Lichtquelle 13 mittels einer Steuereinheit 61 gesteuert wird.In addition, the light distribution of the light source 13 is changed by controlling the light source 13 by means of a control unit 61.

5 zeigt ein chromatisches Element als Dubletlinse 5 shows a chromatic element as a doublet lens

6 zeigt ein anderes chromatisches Element, welches als eine diffraktive Fresnellinse ausgebildet ist. Erkennbar sind die beugenden Zonen, welche zum Linsenrand dichter beieinander liegen. Gleichzeitig haben die Zonen auf der links dargestellten Linsenseite geneigte Oberflächen. Dadurch ist es möglich, gegenüber einer fresnelschen Zonenplatte das Licht effektiver zu fokussieren. 6 shows another chromatic element, which is designed as a diffractive Fresnel lens. The diffractive zones are visible, which are closer together towards the edge of the lens. At the same time, the zones on the left-hand side of the lens have inclined surfaces. This makes it possible to focus the light more effectively than with a Fresnel zone plate.

7 zeigt eine beispielhafte spektrale Filterkennlinien des ersten Filters 49 und 8 die des zweiten Filters 50, wie diese im zweiten Strahlteiler 25 verwendet werden können. Die Verwendung derartiger Filter erlaubt es, den zweiten Strahlteilerspiegel wellenlängenunabhängig auszuführen. 7 shows an exemplary spectral filter characteristic of the first filter 49 and 8 those of the second filter 50, as can be used in the second beam splitter 25. The use of such filters allows the second beam splitter mirror to be designed to be wavelength-independent.

9 zeigt die Kennlinie einer weiteren Ausführung eines zweiten Strahlteilers. Diese ist mittels einer dielektrischen Spiegelschicht, welche die gezeigte Reflektivität unter 45° Einfallswinkel aufweist, realisiert. Die Transmission ist dann idealerweise 1 minus der Reflektivität. Bei dieser Ausführung ist es möglich, auf das erste und zweite Filter zu verzichten. 9 shows the characteristic curve of another version of a second beam splitter. This is realized by means of a dielectric mirror layer, which has the reflectivity shown at a 45° angle of incidence. The transmission is then ideally 1 minus the reflectivity. With this version, it is possible to dispense with the first and second filters.

In den 7 bis 9 sind idealisierte Kennlinien dargestellt, in der Praxis wären technisch bedingte Nichtlinearitäten insbesondere im oberen und unteren Wellenlängenbereich zu erwarten. Diese können durch entsprechende Korrekturfunktionen, welche durch Kalibration zu ermitteln sind, kompensiert werden.In the 7 to 9 Idealized characteristics are shown; in practice, technical nonlinearities would be expected, particularly in the upper and lower wavelength ranges. These can be compensated by appropriate correction functions, which can be determined by calibration.

Bezugszeichenlistelist of reference symbols

1010
Aufnahmevorrichtungreceiving device
1111
Objektobject
1212
Projektionsebeneprojection plane
1313
Lichtquellelight source
1414
Lichtstrahlbündellight beam
1515
Musterebenepattern layer
1616
erster Strahlteilerfirst beam splitter
1717
Beleuchtungsstrahlbündelillumination beam
1818
Aufnahmestrahlbündelrecording beam
1919
Beobachtungsstrahlbündelobservation beam bundle
2020
erster Strahlteilereingangfirst beam splitter input
2121
erster Strahlteilerausgangfirst beam splitter output
2222
zweiter Strahlteilereingangsecond beam splitter input
2323
zweiter Strahlteilerausgangsecond beam splitter output
2424
chromatisches Elementchromatic element
2525
zweiter Strahlteilersecond beam splitter
2626
erster Aufnahmestrahlbündelanteilfirst part of the recording beam
2727
zweiter Aufnahmestrahlbündelanteilsecond receiving beam portion
2828
dritter Strahlteilereingangthird beam splitter input
2929
dritter Strahlteilerausgangthird beam splitter output
3030
vierter Strahlteilerausgangfourth beam splitter output
3131
Erfassungseinheitregistration unit
3232
erstes Bildfirst picture
3333
erste Bildebenefirst image plane
3434
zweites Bildsecond picture
3535
zweite Bildebenesecond image plane
3636
erster Matrixsensorfirst matrix sensor
3737
erste Intensitätsdatenfirst intensity data
3838
zweiter Matrixsensorsecond matrix sensor
3939
zweite Intensitätsdatensecond intensity data
4040
Berechnungseinheitcalculation unit
4141
abstrahlenden Lichtemitteremitting light emitter
4242
erste Kollimationsoptikfirst collimation optics
4343
erste Mustereinheitfirst sample unit
4444
erster Umlenkspiegelfirst deflection mirror
4545
zweiter Umlenkspiegelsecond deflection mirror
4646
zweiter Kollimatorsecond collimator
4747
Fokussieroptikfocusing optics
4848
FresnellinseFresnel lens
4949
erster Filterfirst filter
5050
zweiter Filtersecond filter
5151
Strahlteilerplattebeam splitter plate
5252
Strahlteilerwürfelbeam splitter cube
5353
MusterPattern
5454
erste Musterstellefirst sample position
5555
zweite Musterstellesecond sample position
5656
Muster-Projektionsebenepattern projection plane
5757
erster Intensitätswertfirst intensity value
5858
zweiter Intensitätswertsecond intensity value
5959
dritter Intensitätswertthird intensity value
6060
vierter Intensitätswertfourth intensity value
6161
Steuereinheitcontrol unit
6262
Verflochtener StrahlengangIntertwined beam path
6363
konjugierte Ebene des Verflochtenen Strahlengangsconjugate plane of the interwoven beam path
6565
optische Achseoptical axis
100100
VerfahrenProceedings
110110
Anordnenarranging
120120
Beleuchtenlighting
130130
ErzeugenGenerate
140140
EmpfangenReceived
150150
Abteilencompartments
160160
AusgebenSpend
170170
FokussierenFocus
200200
ErfassenCapture
210210
Zurückwerfenthrowing back
220220
Durchleitenpassing through
230230
EmpfangenReceived
240240
Abteilencompartments
250250
AusgebenSpend
260260
EmpfangenReceived
270270
TeilenSplit
280280
AusgebenSpend
290290
ErfassenCapture
300300
BerechnenCalculate
310310
KonjugierenConjugate
320320
KorrigierenCorrect
zp(λ)zp(λ)
AbstandDistance

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA accepts no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • EP 1084379A1 [0003]EP 1084379A1 [0003]
  • US 20140043619A [0004]US 20140043619A [0004]
  • DE 102020110298A1 [0005]DE 102020110298A1 [0005]
  • DE 102016211748A1 [0006]DE 102016211748A1 [0006]
  • DE 102015210016A1 [0007]DE 102015210016A1 [0007]
  • WO 2013/171309A [0008]WO 2013/171309A [0008]
  • WO 99/24786A [0009]WO 99/24786A [0009]
  • DE 102007019267A1 [0010]DE 102007019267A1 [0010]
  • DE 102009025815A1 [0010]DE 102009025815A1 [0010]
  • DE 102020200214A1 [0011]DE 102020200214A1 [0011]
  • DE 3428593A1 [0012]DE 3428593A1 [0012]
  • DE 102006007170A1 [0013]DE 102006007170A1 [0013]
  • WO 2019/176938A1 [0014]WO 2019/176938A1 [0014]
  • DE 102013008582A1 [0015]DE 102013008582A1 [0015]
  • WO 95/00 871 A1 [0016]WO 95/00 871 A1 [0016]

Claims (19)

Aufnahmevorrichtung (10) zum Erzeugen einer 3D-Aufnahme eines dreidimensionalen Objekts (11), wobei die Aufnahmevorrichtung (10) eine Vielzahl von Projektionsebenen (12) zum Beleuchten des Objekts (11) aufweist, wobei die Vielzahl Projektionsebenen (12) auf das Objekt (11) projizierbar ist, wobei die Projektionsebenen (12) jeweils einen wellenlängenabhängigen Abstand (zp(λ)) zu einer mittleren Projektionsebene (12) aus der Vielzahl der Projektionsebenen (12) aufweisen, aufweisend - eine Lichtquelle (13) zum Erzeugen eines Lichtstrahlbündels (14) in einer Musterebene (15), - einen ersten Strahlteiler (16) zum Abteilen eines Beleuchtungsstrahlbündels (17) von dem Lichtstrahlbündel (14) und zum Abteilen eines Aufnahmestrahlbündels (18) von einem von dem Objekt (11) zurückgeworfenen Beobachtungsstrahlbündel (19), - mit einem ersten Strahlteilereingang (20) zum Empfangen des Lichtstrahlbündels (14) und - mit einem ersten Strahlteilerausgang (21) zum Ausgeben des Beleuchtungsstrahlbündels (17) und, - mit einem zweiten Strahlteilereingang (22) zum Empfangen des Beobachtungsstrahlbündels (19) und - mit einem zweiten Strahlteilerausgang (23) zum Ausgeben des Aufnahmestrahlbündels (18), wobei der zweite Strahlteilereingang (22) dem ersten Strahlteilerausgang (21) entspricht, - ein chromatisches Element (24) zum Fokussieren des vom ersten Strahlteiler (16) abgeteilten Beleuchtungsstrahlbündels (17) auf die Vielzahl der Projektionsebenen (12), derart, dass die Musterebene (15) zu jeweils einer der Projektionsebenen (12) aus der Vielzahl von Projektionsebenen (12) jeweils bei einer bestimmten Projektionswellenlänge konjugiert ist, - einen zweiten Strahlteiler (25) zum Teilen des Aufnahmestrahlbündels (18) in einen ersten Aufnahmestrahlbündelanteil (26) und einen zweiten Aufnahmestrahlbündelanteil (27), - mit einem dritten Strahlteilereingang (28) zum Empfangen des Aufnahmestrahlbündels (18) und, - mit einem dritten Strahlteilerausgang (29) zum Ausgeben des ersten Aufnahmestrahlbündelanteils (26) und, - mit einem vierten Strahlteilerausgang (30) zum Ausgeben des zweiten Aufnahmestrahlbündelanteils (27), - eine Erfassungseinheit (31) zum Erfassen eines ersten Bilds (32) in einer ersten Bildebene (33) des ersten Aufnahmestrahlbündelanteils (26) und eines zweiten Bilds (34) in einer zweiten Bildebene (35) des zweiten Aufnahmestrahlbündelanteils (27) des Objekts (11), - mit einem ersten Matrixsensor (36) zum zweidimensionalen Erfassen der ersten Intensitätsdaten (37) des ersten Aufnahmestrahlbündelanteils (26) als ein erstes Bild (32) in der ersten Bildebene (33), wobei der erste Matrixsensor (36) bezogen auf die Strahlrichtung des ersten Aufnahmestrahlbündelanteils (26) dem dritten Strahlteilerausgang (29) des zweiten Strahlteilers (25) nachgeordnet angeordnet ist, - mit einem zweiten Matrixsensor (38) zum zweidimensionalen Erfassen der zweiten Intensitätsdaten (39) des zweiten Aufnahmestrahlbündelanteils (27) als ein zweites Bild (34) in der zweiten Bildebene (35), wobei der zweite Matrixsensor (38) bezogen auf die Strahlrichtung des zweiten Aufnahmestrahlbündelanteils (27) dem vierten Strahlteilerausgang (30) des zweiten Strahlteilers (25) nachgeordnet angeordnet ist, - wobei das erste Bild (32) und das zweite Bild (34) miteinander korrespondierende Bildpunkte aufweisen, wobei die korrespondierenden Bildpunkte jeweils denselben Objektpunkten des dreidimensionalen Objekts (11) zuordenbar sind, - eine Berechnungseinheit (40) zum Berechnen zumindest jeweils einer Längskoordinate mehrerer Objektpunkte des Objekts (11) aus den korrespondierenden Bildpunkten des ersten Bilds und des zweiten Bilds, um eine 3D-Aufnahme des dreidimensionalen Objekts (11) zu erzeugen.Recording device (10) for generating a 3D recording of a three-dimensional object (11), wherein the recording device (10) has a plurality of projection planes (12) for illuminating the object (11), wherein the plurality of projection planes (12) can be projected onto the object (11), wherein the projection planes (12) each have a wavelength-dependent distance (zp(λ)) to a central projection plane (12) from the plurality of projection planes (12), comprising - a light source (13) for generating a light beam (14) in a pattern plane (15), - a first beam splitter (16) for splitting an illumination beam (17) from the light beam (14) and for splitting a recording beam (18) from an observation beam (19) reflected by the object (11), - with a first beam splitter input (20) for receiving the light beam bundle (14) and - with a first beam splitter output (21) for outputting the illumination beam bundle (17) and, - with a second beam splitter input (22) for receiving the observation beam bundle (19) and - with a second beam splitter output (23) for outputting the recording beam bundle (18), wherein the second beam splitter input (22) corresponds to the first beam splitter output (21), - a chromatic element (24) for focusing the illumination beam bundle (17) split by the first beam splitter (16) onto the plurality of projection planes (12) in such a way that the pattern plane (15) is conjugated to one of the projection planes (12) from the plurality of projection planes (12) at a specific projection wavelength, - a second beam splitter (25) for splitting the recording beam bundle (18) into a first recording beam bundle portion (26) and a second recording beam portion (27), - with a third beam splitter input (28) for receiving the recording beam (18) and, - with a third beam splitter output (29) for outputting the first recording beam portion (26) and, - with a fourth beam splitter output (30) for outputting the second recording beam portion (27), - a detection unit (31) for detecting a first image (32) in a first image plane (33) of the first recording beam portion (26) and a second image (34) in a second image plane (35) of the second recording beam portion (27) of the object (11), - with a first matrix sensor (36) for two-dimensionally detecting the first intensity data (37) of the first recording beam portion (26) as a first image (32) in the first image plane (33), wherein the first matrix sensor (36) is based on the Beam direction of the first recording beam portion (26) is arranged downstream of the third beam splitter output (29) of the second beam splitter (25), - with a second matrix sensor (38) for two-dimensionally capturing the second intensity data (39) of the second recording beam portion (27) as a second image (34) in the second image plane (35), wherein the second matrix sensor (38) is arranged downstream of the fourth beam splitter output (30) of the second beam splitter (25) with respect to the beam direction of the second recording beam portion (27), - wherein the first image (32) and the second image (34) have pixels that correspond to one another, wherein the corresponding pixels can each be assigned to the same object points of the three-dimensional object (11), - a calculation unit (40) for calculating at least one longitudinal coordinate of a plurality of object points of the object (11) from the corresponding pixels of the first image and the second image to create a 3D image of the three-dimensional object (11). Aufnahmevorrichtung (10) nach Anspruch 1, dadurch gekennzeichnet, dass die Lichtquelle (13) einen ersten divergent abstrahlenden Lichtemitter (41) und eine erste Kollimationsoptik (42) umfasst und/oder eine erste Mustereinheit (43) mit einem ersten Muster aufweist, wobei das erste Muster (53) in der Musterebene (15) angeordnet ist.receiving device (10) according to claim 1 , characterized in that the light source (13) comprises a first divergently emitting light emitter (41) and a first collimation optic (42) and/or has a first pattern unit (43) with a first pattern, wherein the first pattern (53) is arranged in the pattern plane (15). Aufnahmevorrichtung (10) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass zwischen der Lichtquelle (13) und dem ersten Strahlteiler (16) ein erster Umlenkspiegel (44) zum Umlenken des Beleuchtungsstrahlbündels (17) um einen bestimmten Winkel vorgesehen ist, insbesondere zum Umlenken um einen stumpfen Winkel, vorgesehen ist und/oder dass zwischen dem chromatischen Element (24) und dem Objekt (11) ein zweiter Umlenkspiegel (45) zum Umlenken des Beobachtungsstrahlbündels (19) um einen bestimmten Winkel, insbesondere zum Umlenken um einen stumpfen Winkel, vorgesehen ist.receiving device (10) according to claim 1 or 2 , characterized in that a first deflecting mirror (44) for deflecting the illumination beam (17) by a certain angle, in particular for deflecting by an obtuse angle, is provided between the light source (13) and the first beam splitter (16) and/or that a second deflecting mirror (45) for deflecting the observation beam (19) by a certain angle, in particular for deflecting by an obtuse angle, is provided between the chromatic element (24) and the object (11). Aufnahmevorrichtung (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zwischen der Lichtquelle (13) und dem ersten Strahlteiler (16) ein zweiter Kollimator (46) und/oder zwischen dem ersten Strahlteiler (16) und dem zweiten Strahlteiler (25) eine Fokussieroptik (47) angeordnet ist.Recording device (10) according to one of the preceding claims, characterized in that a second collimator (46) is arranged between the light source (13) and the first beam splitter (16) and/or a focusing optics (47) is arranged between the first beam splitter (16) and the second beam splitter (25). Aufnahmevorrichtung (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Aufnahmevorrichtung (10) frei von rotierenden Elementen ist.Receiving device (10) according to one of the preceding claims, characterized in that the receiving device (10) is free of rotating elements. Aufnahmevorrichtung (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das chromatische Element (24) ein diffraktives optisches Element und/oder eine Fresnellinse (48) und/oder eine Meta-Linse und/oder eine Kombination aus einer positiven Flintglaslinse mit einer negativen Kronglaslinse und/oder eine fresnelsche Zonenplatte umfasst.Recording device (10) according to one of the preceding claims, characterized in that the chromatic element (24) comprises a diffractive optical element and/or a Fresnel lens (48) and/or a meta lens and/or a combination of a positive flint glass lens with a negative crown glass lens and/or a Fresnel zone plate. Aufnahmevorrichtung (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Maske, insbesondere eine strukturierte Schwarzchromplatte, oder ein pixelweise ansteuerbares TFT-Display oder ein pixelweise ansteuerbares hinterleuchtetes LCD Display zur Erzeugung des ersten Musters der ersten Mustereinheit (43) vorgesehen ist.Recording device (10) according to one of the preceding claims, characterized in that a mask, in particular a structured black chrome plate, or a pixel-by-pixel controllable TFT display or a pixel-by-pixel controllable backlit LCD display is provided for generating the first pattern of the first pattern unit (43). Aufnahmevorrichtung (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass an dem dritten Strahlteilerausgang (29) des zweiten Strahlteilers (25) ein erster Filter (49) zum wellenlängenabhängigen Filtern des ersten Aufnahmestrahlbündelanteils (26) vorgesehen ist und/oder dass an dem vierten Strahlteilerausgang (30) des zweiten Strahlteilers (25) ein zweiter Filter (50) zum wellenlängenabhängigen Filtern des zweiten Aufnahmestrahlbündelanteils (27) vorgesehen ist.Recording device (10) according to one of the preceding claims, characterized in that a first filter (49) for wavelength-dependent filtering of the first recording beam portion (26) is provided at the third beam splitter output (29) of the second beam splitter (25) and/or that a second filter (50) for wavelength-dependent filtering of the second recording beam portion (27) is provided at the fourth beam splitter output (30) of the second beam splitter (25). Aufnahmevorrichtung (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das chromatische Element (24) eine positive Brechkraft aufweist, wobei die Brechkraft eine erste Wellenlängenabhängigkeit, insbesondere eine erste monotone Wellenlängenabhängigkeit, aufweist.Recording device (10) according to one of the preceding claims, characterized in that the chromatic element (24) has a positive refractive power, wherein the refractive power has a first wavelength dependence, in particular a first monotonic wavelength dependence. Aufnahmevorrichtung (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der erste Strahlteiler (16) ein 80:20 bis 20:80, vorzugweise von 70:30 bis 30:70, weiter vorzugsweise von 60:40 bis 40:60, Teilerverhältnis aufweist und/oder dass der zweite Strahlteiler (25) eine zweite Wellenlängenabhängigkeit, insbesondere eine zweite monotone Wellenlängenabhängigkeit, aufweist.Recording device (10) according to one of the preceding claims, characterized in that the first beam splitter (16) has a 80:20 to 20:80, preferably from 70:30 to 30:70, more preferably from 60:40 to 40:60, divider ratio and/or that the second beam splitter (25) has a second wavelength dependence, in particular a second monotonic wavelength dependence. Aufnahmevorrichtung (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der erste Strahlteiler (16) und/oder der zweite Strahlteiler (25) eine Strahlteilerplatte (51) oder einen Strahlteilerwürfel (52) umfasst.Recording device (10) according to one of the preceding claims, characterized in that the first beam splitter (16) and/or the second beam splitter (25) comprises a beam splitter plate (51) or a beam splitter cube (52). Aufnahmevorrichtung (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Lichtstrahlbündel (14) ein spektral breitbandiges Lichtstrahlbündel (14) mit einer spektralen Bandbreite von wenigstens 100nm in einem Wellenlängenbereich von 400nm bis 1100nm ist.Recording device (10) according to one of the preceding claims, characterized in that the light beam (14) is a spectrally broadband light beam (14) with a spectral bandwidth of at least 100 nm in a wavelength range from 400 nm to 1100 nm. Aufnahmevorrichtung (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Numerische Apertur NA der Beleuchtung der Objektpunkte auf dem Objekt (11) einen Bereich von NA=0,05 bis NA=0,25, vorzugsweise NA=0,08 bis NA=0,18, weiter vorzugsweise bei NA=0,10 bis NA=0,14, aufweist und/oder dass das Objekt (11) mit einem zwischen dem chromatischen Element (24) und dem Objekt (11) telezentrisch ausgebildeten Beleuchtungsstrahlengang beleuchtbar und/oder das Objekt (11) mit einem zwischen dem chromatischen Element (24) und dem Objekt (11) telezentrisch ausgebildeten Beobachtungsstrahlengang erfassbar ist.Recording device (10) according to one of the preceding claims, characterized in that a numerical aperture NA of the illumination of the object points on the object (11) has a range from NA=0.05 to NA=0.25, preferably NA=0.08 to NA=0.18, more preferably NA=0.10 to NA=0.14, and/or that the object (11) can be illuminated with an illumination beam path formed telecentrically between the chromatic element (24) and the object (11) and/or the object (11) can be detected with an observation beam path formed telecentrically between the chromatic element (24) and the object (11). Aufnahmevorrichtung (10) nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Lichtquelle (13) einen divergent abstrahlenden Lichtemitter aufweist, wobei der divergent abstrahlende Lichtemitter (13) in einer Lichtemitterebene angeordnet ist und in einem mit dem Projektionsstrahlengang verflochtenen Strahlengang (62) eine zur Lichtemitterebene konjugierte Ebene (63) vorhanden ist, die zwischen dem ersten Strahlteiler (16) und der ersten Projektionsebene (12, zp(λ1)) angeordnet ist, insbesondere an der Position des chromatischen Elements (24).Recording device (10) according to one of the preceding claims, characterized in that the light source (13) has a divergently emitting light emitter, wherein the divergently emitting light emitter (13) is arranged in a light emitter plane and in a beam path (62) intertwined with the projection beam path there is a plane (63) conjugated to the light emitter plane, which is arranged between the first beam splitter (16) and the first projection plane (12, zp(λ1)), in particular at the position of the chromatic element (24). Verfahren (100) zum Erzeugen (130) einer 3D-Aufnahme eines dreidimensionalen Objekts (11), insbesondere mit einer Aufnahmevorrichtung (10) nach einem der vorhergehenden Ansprüche, aufweisend die folgenden Schritte: - Anordnen (110) des dreidimensionalen Objekts (11) in einer Vielzahl von Projektionsebenen (12) der Aufnahmevorrichtung (10); - Beleuchten (120) des dreidimensionalen Objekts (11), aufweisend die folgenden Teilschritte: - Erzeugen (130) des Lichtstrahlbündels (14) mittels einer Lichtquelle (13) in einer Musterebene (15), - Empfangen (140) des erzeugten Lichtstrahlbündels (14) mittels eines ersten Strahlteilereingangs eines ersten Strahlteilers (16), - Abteilen (150) eines Beleuchtungsstrahlbündels (17) von dem Lichtstrahlbündel (14) mittels des ersten Strahlteilers (16), - Ausgeben (160) des abgeteilten Beleuchtungsstrahlbündels (17) mittels eines ersten Strahlteilerausgangs (21) des ersten Strahlteilers (16), - Fokussieren (170) des ausgegebenen Beleuchtungsstrahlbündels (17) auf die Vielzahl Projektionsebenen (12) mittels eines chromatischen Elementes (24), wobei die Musterebene (15) projiziert wird und wobei die Musterebene (15) zu jeweils einer der Projektionsebenen (12) aus der Vielzahl von Projektionsebenen (12) bei jeweils einer bestimmten Projektionswellenlänge konjugiert wird, - Erfassen (200) des dreidimensionalen Objekts (11), aufweisend folgende Teilschritte: - Zurückwerfen (210) des Beleuchtungsstrahlbündels (17) als ein Beobachtungsstrahlbündel (19) mittels des dreidimensionalen Objekts (11), - Durchleiten (220) des Beobachtungsstrahlbündels (19) durch das chromatische Element (24), - Empfangen (230) des durchgeleiteten Beobachtungsstrahlbündels (19) mittels eines zweiten Strahlteilereingangs des ersten Strahlteilers, wobei der zweite Strahlteilereingang (22) dem ersten Strahlteilerausgang (21) entspricht, - Abteilen (240) eines Aufnahmestrahlbündels (18) von dem Beobachtungsstrahlbündel (19) mittels des ersten Strahlteilers (16), - Ausgeben (250) des abgeteilten Aufnahmestrahlbündels (18) mittels eines zweiten Strahlteilerausgangs (23) des ersten Strahlteilers (16), - Empfangen (260) des ausgegebenen Aufnahmestrahlbündels (18) mittels eines dritten Strahlteilereingangs (28) eines zweiten Strahlteilers (25), - Teilen (270), insbesondere monoton wellenlängenabhängiges Teilen (270), des Aufnahmestrahlbündels (18) in einen ersten Aufnahmestrahlbündelanteil (26) und einen zweiten Aufnahmestrahlbündelanteil (27) mittels des zweiten Strahlteilers (25), - Ausgeben (280) des ersten Aufnahmestrahlbündelanteils (26) mittels des dritten Strahlteilerausgangs (29) des zweiten Strahlteilers (25) und - Ausgeben (280) des zweiten Aufnahmestrahlbündelanteils (27) mittels des vierten Strahlteilerausgangs (30) des zweiten Strahlteilers (25), - zweidimensionales Erfassen (290) der ersten Intensitätsdaten (37) des ersten Aufnahmestrahlbündelanteils (26) als ein erstes Bild (32) einer ersten Bildebene (33) mittels eines ersten Matrixsensors (36) einer Erfassungseinheit (31) und, - zweidimensionales Erfassen (290) der zweiten Intensitätsdaten (39) eines zweiten Aufnahmestrahlbündelanteils (27) als ein zweites Bild (34) einer zweiten Bildebene (35) mittels eines zweiten Matrixsensors (38) der Erfassungseinheit (31), wobei das erste Bild (32) und das zweite Bild (34) korrespondierende Bildpunkte aufweisen, welche jeweils einem Objektpunkt des beleuchteten Objekts (11) zugeordnet sind, - Berechnen (300) zumindest einer Längskoordinate mehrerer Objektpunkte des Objekts (11) aus den korrespondierenden Bildpunkten des ersten Bilds und zweiten Bilds mittels der Berechnungseinheit (40), um die 3D-Aufnahme des Objekts (11) zu erzeugen.Method (100) for generating (130) a 3D image of a three-dimensional object (11), in particular with a recording device (10) according to one of the preceding claims, comprising the following steps: - arranging (110) the three-dimensional object (11) in a plurality of projection planes (12) of the recording device (10); - Illuminating (120) the three-dimensional object (11), comprising the following sub-steps: - generating (130) the light beam (14) by means of a light source (13) in a pattern plane (15), - receiving (140) the generated light beam (14) by means of a first beam splitter input of a first beam splitter (16), - splitting (150) an illumination beam (17) from the light beam (14) by means of the first beam splitter (16), - outputting (160) the split illumination beam (17) by means of a first beam splitter output (21) of the first beam splitter (16), - focusing (170) the output illumination beam (17) on the plurality of projection planes (12) by means of a chromatic element (24), wherein the pattern plane (15) is projected and wherein the pattern plane (15) is conjugated to one of the projection planes (12) from the plurality of projection planes (12) at a respective specific projection wavelength, - detecting (200) the three-dimensional object (11), comprising the following sub-steps: - reflecting (210) the illumination beam (17) as an observation beam (19) by means of the three-dimensional object (11), - passing (220) the observation beam (19) through the chromatic element (24), - receiving (230) the passed observation beam (19) by means of a second beam splitter input of the first beam splitter, wherein the second beam splitter input (22) corresponds to the first beam splitter output (21), - splitting (240) a recording beam (18) from the observation beam (19) by means of of the first beam splitter (16), - outputting (250) the divided receiving beam (18) by means of a second beam splitter output (23) of the first beam splitter (16), - receiving (260) the output receiving beam (18) by means of a third beam splitter input (28) of a second beam splitter (25), - dividing (270), in particular monotonously wavelength-dependently dividing (270), the receiving beam (18) into a first receiving beam portion (26) and a second receiving beam portion (27) by means of the second beam splitter (25), - outputting (280) the first receiving beam portion (26) by means of the third beam splitter output (29) of the second beam splitter (25) and - outputting (280) the second receiving beam portion (27) by means of the fourth beam splitter output (30) of the second beam splitter (25), - two-dimensionally capturing (290) the first intensity data (37) of the first recording beam portion (26) as a first image (32) of a first image plane (33) by means of a first matrix sensor (36) of a detection unit (31) and, - two-dimensionally capturing (290) the second intensity data (39) of a second recording beam portion (27) as a second image (34) of a second image plane (35) by means of a second matrix sensor (38) of the detection unit (31), wherein the first image (32) and the second image (34) have corresponding pixels which are each assigned to an object point of the illuminated object (11), - calculating (300) at least one longitudinal coordinate of a plurality of object points of the object (11) from the corresponding pixels of the first image and second image by means of the calculation unit (40) in order to generate the 3D recording of the object (11). Verfahren (100) nach Anspruch 15, dadurch gekennzeichnet, dass die Lichtquelle (13) eine Mustereinheit mit einem ersten Muster (53) aufweist, wobei das erste Muster (53) in der Musterebene (15) angeordnet ist, sodass das erste Muster (53) der Musterebene (15) auf die Projektionsebenen (12) projiziert wird.Procedure (100) according to claim 15 , characterized in that the light source (13) has a pattern unit with a first pattern (53), wherein the first pattern (53) is arranged in the pattern plane (15) so that the first pattern (53) of the pattern plane (15) is projected onto the projection planes (12). Verfahren (100) nach einem der Ansprüche 15 bis 16, dadurch gekennzeichnet, dass die Vielzahl der Projektionsebenen (12) zu der ersten Bildebene (33) und der der zweiten Bildebene (35) konjugiert werden, um die Längskoordinate zu berechnen (300).Method (100) according to one of the Claims 15 until 16 , characterized in that the plurality of projection planes (12) are conjugated to the first image plane (33) and that of the second image plane (35) in order to calculate the longitudinal coordinate (300). Verfahren (100) nach einem der Ansprüche 15 bis 17, dadurch gekennzeichnet, dass das Muster (53) in der Musterebene (15) in wenigstens einer Richtung abwechselnd erste Musterstellen (54) und zweite Musterstellen (55) aufweist, wobei die ersten Musterstellen (54) einen erste spezifische Lichtausstrahlung aufweis und die zweiten Musterstellen (55) eine zweite, geringere, spezifische Lichtausstrahlungs, insbesondere eine spezifische Lichtausstrahlungs Null, aufweis, und die zweiten Musterstellen abgedunkelte Bildstellen im ersten Bild und im zweiten Bild bewirken und vor dem Berechnen der Längskoordinate die Intensitätswerte der abgedunkelten Bildstellen zur Korrektur der Intensitätswerte von benachbarten nicht abgedunkelten Bildstellen im ersten und zweiten Bild herangezogen werden..Method (100) according to one of the Claims 15 until 17 , characterized in that the pattern (53) in the pattern plane (15) has alternating first pattern locations (54) and second pattern locations (55) in at least one direction, wherein the first pattern locations (54) have a first specific light emission and the second pattern locations (55) have a second, lower, specific light emission, in particular a specific light emission of zero, and the second pattern locations cause darkened image locations in the first image and in the second image and, before calculating the longitudinal coordinate, the intensity values of the darkened image locations are used to correct the intensity values of adjacent non-darkened image locations in the first and second images. Verfahren (100) nach einem der Ansprüche 15 bis 18, dadurch gekennzeichnet, dass eine Steuereinheit (61) die Lichtquelle (13) steuert, wobei eine Lichtverteilung der Lichtquelle (13) verändert wird.Method (100) according to one of the Claims 15 until 18 , characterized in that a control unit (61) controls the light source (13), whereby a light distribution of the light source (13) is changed.
DE102023120240.5A 2023-07-31 2023-07-31 Recording device for generating a 3D image of a three-dimensional object and method Granted DE102023120240A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102023120240.5A DE102023120240A1 (en) 2023-07-31 2023-07-31 Recording device for generating a 3D image of a three-dimensional object and method
PCT/EP2024/069588 WO2025026683A1 (en) 2023-07-31 2024-07-11 Recording device for generating a 3-d recording of a three-dimensional object, and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102023120240.5A DE102023120240A1 (en) 2023-07-31 2023-07-31 Recording device for generating a 3D image of a three-dimensional object and method

Publications (1)

Publication Number Publication Date
DE102023120240A1 true DE102023120240A1 (en) 2025-02-06

Family

ID=91961984

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102023120240.5A Granted DE102023120240A1 (en) 2023-07-31 2023-07-31 Recording device for generating a 3D image of a three-dimensional object and method

Country Status (2)

Country Link
DE (1) DE102023120240A1 (en)
WO (1) WO2025026683A1 (en)

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3428593A1 (en) 1983-08-02 1985-02-14 Istituto Nazionale di Ottica, Arcetri, Florenz/Firenze OPTICAL SURFACE MEASURING DEVICE
WO1995000871A1 (en) 1993-06-22 1995-01-05 Commissariat A L'energie Atomique Three-dimensional imaging device
WO1999024786A1 (en) 1997-11-06 1999-05-20 Stil S.A. Optoelectronic system using spatiochromatic triangulation
EP1084379A1 (en) 1998-06-05 2001-03-21 Dentalmatic Technologies Inc. Method and device for optoelectric acquisition of shapes by axial illumination
DE102005043627A1 (en) * 2005-09-13 2007-03-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Optical sensor for measuring distance and color of object, has lens detecting light reflected by surface of object, where light is focusable on receivers to detect distance dependent wavelength spectrum and spectral reflection, respectively
DE102006007170A1 (en) 2006-02-08 2007-08-16 Sirona Dental Systems Gmbh Method and arrangement for fast and robust chromatic confocal 3D metrology
DE102007019267A1 (en) 2007-04-24 2008-10-30 Degudent Gmbh Measuring arrangement and method for three-dimensional measuring of an object
DE102009025815A1 (en) 2009-05-15 2010-11-25 Degudent Gmbh Measuring arrangement and method for three-dimensional measuring of an object
WO2013171309A1 (en) 2012-05-16 2013-11-21 Carl Zeiss Microscopy Gmbh Light microscope and method for image recording using a light microscope
US20140043619A1 (en) 2012-08-08 2014-02-13 Jiangwen DENG Chromatic confocal scanning apparatus
DE102013008582A1 (en) 2013-05-08 2014-11-27 Technische Universität Ilmenau Method and apparatus for chromatic-confocal multipoint measurement and their use
DE102015210016A1 (en) 2015-06-01 2016-12-01 Carl Zeiss Microscopy Gmbh Method for determining a spatially resolved height information of a sample with a wide field microscope and a wide field microscope
DE102016211748A1 (en) 2016-06-29 2018-01-04 Carl Zeiss Ag Chromatic confocal measuring arrangement
WO2019176938A1 (en) 2018-03-12 2019-09-19 オムロン株式会社 Wavelength detection device and confocal measurement device
DE102020200214A1 (en) 2020-01-09 2021-07-15 Hochschule für angewandte Wissenschaften Kempten Körperschaft des öffentlichen Rechts Confocal measuring device for 3D measurement of an object surface
DE102020110298A1 (en) 2020-04-15 2021-09-30 Carl Zeiss Industrielle Messtechnik Gmbh Device and method for the optical measurement of a surface topography

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3428593A1 (en) 1983-08-02 1985-02-14 Istituto Nazionale di Ottica, Arcetri, Florenz/Firenze OPTICAL SURFACE MEASURING DEVICE
WO1995000871A1 (en) 1993-06-22 1995-01-05 Commissariat A L'energie Atomique Three-dimensional imaging device
WO1999024786A1 (en) 1997-11-06 1999-05-20 Stil S.A. Optoelectronic system using spatiochromatic triangulation
EP1084379A1 (en) 1998-06-05 2001-03-21 Dentalmatic Technologies Inc. Method and device for optoelectric acquisition of shapes by axial illumination
DE102005043627A1 (en) * 2005-09-13 2007-03-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Optical sensor for measuring distance and color of object, has lens detecting light reflected by surface of object, where light is focusable on receivers to detect distance dependent wavelength spectrum and spectral reflection, respectively
DE102006007170A1 (en) 2006-02-08 2007-08-16 Sirona Dental Systems Gmbh Method and arrangement for fast and robust chromatic confocal 3D metrology
DE102007019267A1 (en) 2007-04-24 2008-10-30 Degudent Gmbh Measuring arrangement and method for three-dimensional measuring of an object
DE102009025815A1 (en) 2009-05-15 2010-11-25 Degudent Gmbh Measuring arrangement and method for three-dimensional measuring of an object
WO2013171309A1 (en) 2012-05-16 2013-11-21 Carl Zeiss Microscopy Gmbh Light microscope and method for image recording using a light microscope
US20140043619A1 (en) 2012-08-08 2014-02-13 Jiangwen DENG Chromatic confocal scanning apparatus
DE102013008582A1 (en) 2013-05-08 2014-11-27 Technische Universität Ilmenau Method and apparatus for chromatic-confocal multipoint measurement and their use
DE102015210016A1 (en) 2015-06-01 2016-12-01 Carl Zeiss Microscopy Gmbh Method for determining a spatially resolved height information of a sample with a wide field microscope and a wide field microscope
DE102016211748A1 (en) 2016-06-29 2018-01-04 Carl Zeiss Ag Chromatic confocal measuring arrangement
WO2019176938A1 (en) 2018-03-12 2019-09-19 オムロン株式会社 Wavelength detection device and confocal measurement device
DE102020200214A1 (en) 2020-01-09 2021-07-15 Hochschule für angewandte Wissenschaften Kempten Körperschaft des öffentlichen Rechts Confocal measuring device for 3D measurement of an object surface
DE102020110298A1 (en) 2020-04-15 2021-09-30 Carl Zeiss Industrielle Messtechnik Gmbh Device and method for the optical measurement of a surface topography

Also Published As

Publication number Publication date
WO2025026683A1 (en) 2025-02-06

Similar Documents

Publication Publication Date Title
EP1248132B1 (en) Method and arrangement for depth resolving optical detection of a probe
EP2137488B1 (en) Method and assembly for optical reproduction with depth discrimination
DE102012023024B4 (en) Light microscope and microscopy methods
EP2430395B1 (en) Method and measuring arrangement for the three-dimensional measurement of an object
DE102013015931B4 (en) Microscope and method for high-resolution scanning microscopes
DE102011055294B4 (en) Microscopic device and method for the three-dimensional localization of punctiform objects in a sample
WO2013171309A1 (en) Light microscope and method for image recording using a light microscope
DE102004053730B4 (en) Method and arrangement for the suppression of false light
EP2398379A1 (en) Handheld dental camera and method for optical 3d measurement
EP2863167B1 (en) Method and device for measuring the deflection of light beams by an object structure or a medium
DE102015201561A1 (en) Measuring head of an endoscopic device and method for inspecting and measuring an object
DE10155002A1 (en) Depth-resolved optical imaging method for use in biological scanning microscopy, uses phase or frequency modulation of the imaging light
WO2015044035A1 (en) Confocal light microscope and method for examining a sample using a confocal light microscope
WO2016193037A1 (en) Method for determining spatially resolved height information of a sample by means of a wide-field microscope, and wide-field microscope
EP3948392A1 (en) Method and device for detecting movements of a sample with respect to a lens
DE10118463A1 (en) Depth-resolved optical imaging method for use in biological scanning microscopy, uses phase or frequency modulation of the imaging light
DE102021118327A1 (en) Measuring camera and method for two-dimensional measurement of objects
DE10014334C2 (en) Device and method for spatially resolved refractive power determination
WO2020207795A1 (en) Light sheet microscope and method for determining the refractive indices of objects in the specimen space
DE102013004963A1 (en) Microscope with structured illumination
DE102023120240A1 (en) Recording device for generating a 3D image of a three-dimensional object and method
DE102008031412A1 (en) Device i.e. line scanner, for monitoring measuring points on object surface to be measured, has focus plane displaceable parallel to object surface, where object surface is displaceable lateral to focus plane
DE102019214865B4 (en) Illumination system, optical measuring device and method for the metrological measurement of workpieces
WO2022188923A1 (en) Multichannel optical unit for synchronously recording image representations
DE10206004A1 (en) Device for confocal optical microanalysis

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division