DE10321888A1 - 3D optical metrology method in which a structured pattern is generated on an object surface and resultant virtual pixels measured with a white-light interferogram - Google Patents

3D optical metrology method in which a structured pattern is generated on an object surface and resultant virtual pixels measured with a white-light interferogram Download PDF

Info

Publication number
DE10321888A1
DE10321888A1 DE2003121888 DE10321888A DE10321888A1 DE 10321888 A1 DE10321888 A1 DE 10321888A1 DE 2003121888 DE2003121888 DE 2003121888 DE 10321888 A DE10321888 A DE 10321888A DE 10321888 A1 DE10321888 A1 DE 10321888A1
Authority
DE
Germany
Prior art keywords
point
focus
beam path
camera
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE2003121888
Other languages
German (de)
Inventor
Klaus Dr. Körner
Wolfgang Prof. Dr. Osten
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universitaet Stuttgart
Original Assignee
Universitaet Stuttgart
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universitaet Stuttgart filed Critical Universitaet Stuttgart
Priority to DE2003121888 priority Critical patent/DE10321888A1/en
Publication of DE10321888A1 publication Critical patent/DE10321888A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • G01B11/2527Projection by scanning of the object with phase change by in-plane movement of the patern
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • G01B11/2522Projection by scanning of the object the position of the object changing and being recorded

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Optical measurement method in which a structured light pattern is generated on the surface of an object to be measured either by interference or imaging of a grating on the surface. Surface definition measurements are then undertaken. An independent claim is made for an optical sensor for 3D measurement of the profile of an object whereby a signal is generated with virtual pixels in the form of a white-light interferogram.

Description

Die bekannten optischen Messverfahren zur dreidimensionalen optischen Erfassung des Profils einer Objektoberfläche versagen bei lateral schnell bewegten Objekten. Es gibt bisher ungelöste Probleme, wenn verfahrensbedingt für jeden bewegten Objektpunkt mehrere Signalwerte gewonnen werden müssen, um dynamische Phasenauswerte-Verfahren einsetzen zu können. Bei diesen Verfahren wird bekanntlich im Sensor ein beleuchtetes Liniengitter lateral verschoben, oder es wird ein Liquid Crystal Display (LCD) oder ein Digital Micro Mirror Device (DMD) als steuerbares Gitter und eine elektronische, pixelierte Kamera verwendet. Das Liniengitter, das LCD oder das DMD wird auf das zu untersuchende Objekt abgebildet. Das dort entstehende Streifenmuster, welches die Information über die Oberflächentopografie beinhaltet, wird über einen Beobachtungsstrahlengang abgebildet, s. a. Technisches Messen 62 (1995) 9, Seite 321 bis 327. Bei einem lateral zum Sensor bewegten Objekt, wenn zur Anwendung eines dynamischen Phasenauswerte-Verfahrens mehrere Signalwerte von jedem Objektpunkt gewonnen werden müssen, kann die Bildaufnahme des strukturiert beleuchteten Objektes in der Regel nicht schnell genug erfolgen. In diesem Fall treten wegen der Bewegungsunschärfe, besonders bei Oberflächen mit kleinen Defekten, nicht zu vernachlässigende Messfehler auf.The known optical measurement methods for three-dimensional optical Acquisition of the profile of an object surface fails with laterally fast moving ones Objects. So far there are unsolved Problems if procedural for each moving object point Several signal values must be obtained in order to use dynamic phase evaluation methods to be able to. With these methods, it is known that an illuminated one is located in the sensor Line grid shifted laterally, or it becomes a liquid crystal Display (LCD) or a digital micro mirror device (DMD) as controllable Grid and an electronic, pixelated camera are used. The Line grid, the LCD or the DMD is placed on the object to be examined displayed. The stripe pattern created there, which contains the information about the surface topography includes, is about mapped an observation beam path, see a. Technical measurement 62 (1995) 9, pages 321 to 327. With a laterally moved to the sensor Object if using a dynamic phase evaluation procedure several signal values can be obtained from each object point the image of the structured illuminated object is usually not done quickly enough. In this case, especially because of the motion blur for surfaces with small defects, not negligible measurement errors.

Dagegen ermöglichen statische Phasenauswerte-Verfahren, die zwar sehr schnell durchgeführt werden können, nur eine geringe laterale Auflösung, welche auch durch die projizierte Streifenbreite vorgegeben ist. Die Anwendung dieses Verfahrens ist in Technisches Messen 65 (1997) 9, S. 311–315 für die Messung von lateral kontinuierlich bewegten Dünnglasplatten dargestellt, wobei hier jedoch nur die langperiodische Ebenheitsabweichung der Glasplatten ausgewertet wird. Jedoch ist bei statischen Phasenauswerte-Verfahren die Erfassung des dreidimensionalen Profils beim Vorhandensein größerer Gradienten und bei Defekten beispielsweise im Submillimeterbereich nicht sehr robust, so dass dieses Messverfahren nur bei der Ebenheitsprüfung staubarmer und nahezu fehlerfreier Glasplatten uneingeschränkt funktioniert. Beim Auftreten von Oberflächenfehlern mit geringer lateraler Ausdehnung oder bei einer Textur auf der Oberfläche kann es dagegen keine oder nur fehlerhafte Informationen liefern.On the other hand enable static phase evaluation procedures that are carried out very quickly can, only a low lateral resolution, which is also determined by the projected strip width. The application this method is in technical measuring 65 (1997) 9, pp. 311-315 for the measurement represented by laterally continuously moving thin glass plates, but here only the long-period flatness deviation of the Glass plates is evaluated. However, with static phase evaluation methods the acquisition of the three-dimensional profile in the presence of larger gradients and not very bad for defects, for example in the submillimeter range robust, so that this measuring method is only dust-free for flatness testing and almost error-free glass plates works without restrictions. When it occurs of surface defects with little lateral expansion or with a texture on the surface on the other hand, it can supply no or only incorrect information.

Bei diesem Messverfahren liegt die Glasoberfläche stets in der Schärfeebene oder parallel zur Schärfeebene des auf die Glasoberfläche abgebildeten Liniengitters.at With this measuring method, the glass surface is always in the focus plane or parallel to the focus plane of the on the glass surface pictured line grid.

Beschreibung der Erfindungdescription the invention

Das Ziel besteht vor allem darin, lateral bewegte Objekte dreidimensional für die gewerbliche Anwendung zu vermessen und dies vergleichsweise kostengünstig und zuverlässig durchzuführen. Das Ziel wird erreicht mit den Merkmalen der unabhängigen Ansprüche.The The main goal is to make laterally moving objects three-dimensional for the to measure commercial application and this is comparatively inexpensive and reliable perform. The aim is achieved with the features of the independent claims.

Der Erfindung liegt die Aufgabe zugrunde, eine optische Sensor-Anordnung sowie ein optisches Messverfahren zur dreidimensionalen Vermessung von lateral bewegten Objekten derart weiterzuentwickeln, dass auch lateral bewegte Objekte, die eine größere Tiefenausdehnung als die einfache Triangulationswellenlänge bei einer bekannten Streifenprojektions-Sensor-Anordnung im Objektraum aufweisen, fehlerfrei optisch vermessen werden können. Hierbei wird die laterale Bewegung des Objektes in die dreidimensionale optische Vermessung einbezogen und dadurch ist nur ein vergleichsweise geringer apparativer Aufwand für den Sensor notwendig. Schließlich soll auch die Vermessung von Präzisionsschweißnähten mit einer Genauigkeit von mindestens 10 μm in den drei kartesischen Koordinaten möglich sein, wobei es eine laterale Relativbewegung zwischen dem optischen Sensor und der Schweißnaht gibt. Dabei soll der Tiefenmessbereich des optischen Sensors beispielsweise mindestens 600 μm betragen können.The The invention has for its object an optical sensor arrangement as well as an optical measurement method for three-dimensional measurement of to develop laterally moving objects in such a way that laterally moving objects that have a greater depth than the simple triangulation wavelength in a known fringe projection sensor arrangement have in the object space, can be optically measured without errors. in this connection the lateral movement of the object becomes three-dimensional optical measurement included and this is only a comparative low equipment expenditure for the sensor necessary. Finally should also measure precision welds with an accuracy of at least 10 μm in the three Cartesian coordinates, where there is a lateral relative movement between the optical sensor and the weld gives. The depth measurement range of the optical sensor should, for example at least 600 μm can be.

Für ein bewegtes Objekt soll bei der dreidimensionalen, optischen Erfassung des Profils oder zur Detektion von Mikrodefekten der Einfluss der Bewegungsunschärfe nur zu vergleichsweise kleinen, tolerierbaren Messfehlern führen.For a moving one Object should be in the three-dimensional, optical detection of the profile or for the detection of microdefects the influence of motion blur only lead to comparatively small, tolerable measurement errors.

Im erfinderischen optischen Messverfahren wird in einem ersten Verfahrensschritt optisch ein strukturiertes Lichtfeld mit Streifen und mit einer Schärfefläche in den Objektraum projiziert, wobei die Streifen stets zur optischen Sensor-Anordnung feststehen. Das strukturierte Lichtfeld mit einer Schärfefläche mit Streifen kann bekannterweise durch ein beleuchtetes und in den Objektraum abgebildetes Sendemuster-Array erzeugt werden. Es können als Sendemuster-Arrays beleuchtete Liniengitter, aber auch elektronische Sendemuster-Arrays wie LCDs (Liquid Crystal Displays) oder DMDs (Direct Micromirror Devices) oder elektronische, lichtemittierende Sendemuster-Arrays eingesetzt werden. Andererseits kann ein strukturiertes Lichtfeld auch durch die Überlagerung von zwei kohärenten Lichtbündeln entstehen.in the inventive optical measuring method is in a first step optically a structured light field with stripes and with a focus in the Object space projected, the stripes always to the optical sensor arrangement fixed. The structured light field with a focus area with Streak can be seen through an illuminated and in the object space shown transmission pattern array are generated. It can be used as a transmission pattern array Illuminated line grids, but also electronic transmission pattern arrays such as LCDs (Liquid Crystal Displays) or DMDs (Direct Micromirror Devices) or electronic, light-emitting transmission pattern arrays be used. On the other hand, a structured light field also through the overlay of two coherent light beams arise.

Das strukturierte Lichtfeld mit Streifen und mit einer Schärfefläche kann bekannterweise aber auch mittels Interferometer erzeugt werden. Dazu wird vorzugsweise ein Interferometer mit Lichtquellen mit Licht angepasster Kohärenzlänge oder mittels Lichtquellen mit angepasster lateraler Ausdehnung oder aber auch mittels Lichtquellen sowohl mit angepasster Kohärenzlänge als auch mit angepasster lateraler Ausdehnung eingesetzt. Die laterale Ausdehnung einer Lichtquelle bestimmt den räumlichen Kohärenzgrad der Interferenzerscheinung. Die Schärfefläche stellt bei einem Interferometer die Fläche maximalen Kohärenzgrades dar, also wo der Kontrast der Interferenzerscheinung ein Maximum wird. Es können Laserlichtquellen, Laserlichtquellen-Arrays, einzelne LEDs, LED-Arrays aber auch Weißlichtquellen mit oder ohne zugeordnetem LCD oder DMD oder auch Lichtquellen mit einem Spektralfilter eingesetzt werden. Die Lichtquellen können als Punktlichtquellen mit einem Kollimator oder auch als flächenhafte Lichtquellen mit einem Kollimator ausgebildet sein, wobei deren flächenhafte Ausdehnung rechnergesteuert sein kann. Dem Interferometer ist vorzugsweise ein fokussierendes Objektiv nachgeordnet, in dessen Fokalebene das strukturierte Lichtfeld mit einer Schärfefläche, also die Fläche maximalen Kohärenzgrades, erzeugt wird, wobei mittels Strahlteilung durch Teilung der Amplitude der Wellenfront zwei kohärente Strahlenbündel mit Lateral-Shear erzeugt werden. Das strukturierte Lichtfeld entsteht also durch Fokussierung von zwei kohärenten und vorzugsweise zueinander geneigten Strahlenbündeln. Mittels Interferometrie kann ein für das Objekt optimal angepasstes Streifenmuster erzeugt werden, da mittels eines Interferometers sowohl die Tiefe als auch die Streifenbreite der Interferenzerscheinung einstellbar sind.As is known, the structured light field with stripes and with a focus area can also be generated by means of an interferometer. To an interferometer with light sources with light adapted to coherence length or by means of light sources with adapted lateral extension or else with light sources with both adapted coherence length and with adapted lateral extension is preferably used. The lateral extent of a light source determines the degree of spatial coherence of the interference phenomenon. With an interferometer, the focus area represents the area of maximum degree of coherence, that is, where the contrast of the interference phenomenon becomes a maximum. Laser light sources, laser light source arrays, individual LEDs, LED arrays but also white light sources with or without an associated LCD or DMD or light sources with a spectral filter can be used. The light sources can be designed as point light sources with a collimator or also as area light sources with a collimator, their areal extension can be computer-controlled. The interferometer is preferably followed by a focusing lens, in the focal plane of which the structured light field is generated with a focus area, i.e. the area of maximum degree of coherence, two coherent beams with lateral shear being generated by beam splitting by dividing the amplitude of the wave front. The structured light field is thus created by focusing two coherent and preferably inclined beams. A stripe pattern that is optimally adapted to the object can be generated by means of interferometry, since both the depth and the stripe width of the interference phenomenon can be set by means of an interferometer.

Es können mittels Phasengitter in der äußeren Brennebene einer afokalen Anordnung und einer Lichtquelle mit Kollimator zwei kollimierte kohärente Bündel erzeugt werden, die über die afokale Anordnung unter Passieren eines außeraxialen Blendenbereiches in die Schärfefläche, die mit der zweiten äußeren Brennebene der afokalen Anordnung zusammenfällt, ein Streifenfeld erzeugen. Licht von Punkten der Objektoberfläche in der Umgebung der zweiten äußeren Brennebene der afokalen Anordnung gelangt über die afokalen Anordnung, unter Passieren eines zweiten außeraxialen Blendenbereiches wieder auf das Phasengitter, wobei der jeder Punkt des Phasengitters wieder auf sich selbst abgebildet wird und so ein schleifenförmiger, geschlossener Strahlengang besteht. Das Beugungsgitter beugt das auftreffende Licht. Das gebeugte Licht passiert ein weiteres Objektiv mit einem Lochblende in der Brennebene und gelangt über ein weiteres Objektiv auf den Sensor-Chip einer Kamera.It can using a phase grating in the outer focal plane an afocal arrangement and a light source with collimator two collimated coherent bundle is generated be that over the afocal arrangement while passing through an off-axis diaphragm area in the focus area, the with the second outer focal plane the afocal arrangement coincides, create a strip field. Light from points on the surface of the object Surroundings of the second outer focal plane the afocal arrangement comes across the afocal arrangement, passing through a second off-axis Aperture area back onto the phase grating, with each point of the phase grating is mapped onto itself again and so a loop-shaped, closed beam path exists. The diffraction grating bends that incident light. The diffracted light passes through another lens with a pinhole in the focal plane and enters via another lens on the sensor chip of a camera.

Es gibt erfindungsgemäß zur Projektionsrichtung des Sensors eine mit Lateralkomponente erfolgende Bewegung des Objektes oder eine mit Lateralkomponente durchgeführte Bewegung des optischen Sensors zum Objekt. In jedem Fall gibt es also eine Relativbewegung mit einer Lateralkomponente zwischen dem optischen Sensor und dem Objekt und damit zwischen dem strukturierten Lichtfeld und dem zu erfassenden Objekt. Dazu wird im optischen Sensor vorzugsweise ein fest und lagegenau eingebautes, beleuchtetes Sendemuster-Array mit mindestens einem Bereich mit mindestens einer linienhaften Struktur eingesetzt. Diese linienhafte Struktur, welche vorzugsweise durch ein Liniengitter oder ein Zylinderlinsen-Array dargestellt ist, wird mittels einer Lichtquelle über einen Beleuchtungsstrahlengang auf die Objektoberfläche abgebildet, so dass dort bei hinreichend scharfer Abbildung mehrere Streifen beobachtet werden können.It gives according to the projection direction the sensor a movement of the object with lateral component or a movement of the optical performed with a lateral component Sensors to the object. In any case, there is a relative movement with a lateral component between the optical sensor and the Object and thus between the structured light field and the to capturing object. For this purpose, a is preferably used in the optical sensor fixed and precisely installed, illuminated transmission pattern array with at least one area with at least one linear structure used. This linear structure, which is preferred by a line grid or a cylindrical lens array is shown, is via a light source an illumination beam path is mapped onto the object surface, so that there are several stripes if the image is sufficiently sharp can be observed.

Es wird im weiteren von einem Liniengitter als Sendemuster-Array, in der Anwendung der Erfindung wohl ein sehr häufiger Fall, ausgegangen. Das Liniengitter wird von einer Lichtquelle mit kollimiertem Licht beleuchtet. Vorzugsweise schließen dabei die Hauptstrahlen mit der zugehörigen optischen Achse des Beleuchtungsstrahlenganges einen Winkel von mindestens 2° ein, so dass in der Brennebene des nachgeordneten Objektivs ein dezentrierter Lichtschwerpunkt gebildet ist. Einem Beobachtungsstrahlengang, der vorteilhafterweise im optischen Sensor angeordnet ist, ist eine elektronische, pixelierte Bildaufnahme-Kamera mit einem Sensor-Chip zugeordnet, die im Erfassungsvorgang kontinuierlich Bilder aufnimmt, wobei der Erfassungsvorgang mittels Kamera so lange durchgeführt wird wie eine Relativbewegung mit Lateralkomponente zwischen Objekt und Optischen Sensors stattfindet. Die Linien des Liniengitters können auch durch sehr dicht benachbarte Punkte oder extrem feine Linien erzeugt sein, die makroskopisch als Linien erscheinen. Das Liniengitter besitzt mindestens eine einzige Periodenlänge.It is further described by a line grid as a transmission pattern array, in the application of the invention is probably a very common case. The line grid is illuminated by a light source with collimated light. Preferably conclude the main rays with the associated optical axis of the illumination beam path an angle of at least 2 °, so that a decentered in the focal plane of the downstream lens Center of gravity is formed. An observation beam path, the is advantageously arranged in the optical sensor electronic, pixelated image recording camera with a sensor chip assigned, which continuously takes pictures in the acquisition process, whereby the acquisition process is carried out for so long by means of a camera like a relative movement with a lateral component between the object and the optical Sensor takes place. The lines of the line grid can also generated by very close points or extremely fine lines that appear macroscopically as lines. The line grid has at least one period length.

Wenn es sich um ein elektronisch steuerbares Sendemuster-Array handelt, ist die laterale oder die rotatorische Position des Sendemuster-Arrays selbst oder aber die dessen Musters zum Sensor-Chip im optischen Sensor grundsätzlich oder aber zumindest für einen Zeitbereich von mindestens drei Bildaufnahmezyklen unveränderlich gemacht. Drei Intensitäten pro Pixel stellen bekannterweise das Minimum für die Anwendung eines phasenauswertenden Algorithmus' dar.If it is an electronically controllable transmission pattern array, is the lateral or the rotational position of the transmission pattern array itself or the pattern of the sensor chip in the optical sensor in principle or at least for a time range of at least three image acquisition cycles cannot be changed made. Three intensities As is known, per pixel represents the minimum for the use of a phase evaluating Algorithm '.

Wird ein elektronisches Sendemuster-Array als Liniengitter verwendet, beispielsweise ein beleuchteter LCD-Chip oder ein beleuchteter DMD-Chip oder auch ein selbstleuchtendes elektronisches Sendemuster-Array, ist zumindest für einen einzigen Zeitbereich von mindestens drei Bildaufnahmezyklen, also der Zeitbereich einer Bildaufnahmeserie, das mittels elektronischem Sendemuster-Array projizierte Lichtmuster unveränderlich gemacht. In diesem Zeitbereich bewegt sich jedoch das Objekt mit Lateralkomponente zum optischen Sensor oder aber der Sensor bewegt sich zum feststehenden Objekt. Die Bewegung, die so in jedem Fall eine relative Bewegung mit Lateralkomponente zwischen Sensor und Objekt darstellt, ist kontinuierlich oder erfolgt in diesem Zeitbereich in mindestens zwei Schritten. Bei einer Schrittbewegung erfolgen üblicherweise jedoch sehr viele feine Schritte.If an electronic transmission pattern array is used as a line grid, for example an illuminated LCD chip or an illuminated DMD chip or also a self-illuminating electronic transmission pattern array, the time range of at least three image recording cycles, i.e. the time range of an image recording series, is the minimum electronic transmission pattern array made projected light patterns unchangeable. However, the object moves in this time range with lateral component to the optical sensor or the sensor moves to the fixed object. The movement, which in any case represents a relative movement with a lateral component between the sensor and the object, is continuous or takes place in this time range in at least two steps. With a step movement, however, there are usually very many fine steps.

Vorzugsweise werden äquidistante Linienmuster mit einer vorab an die Messaufgabe optimal angepassten Periodelänge mit dem elektronischen Sendemuster-Array erzeugt.Preferably become equidistant Line pattern with an optimally adapted to the measurement task in advance period length generated with the electronic transmission pattern array.

Das strukturierte Lichtfeld besitzt durch die Größe der Pupille des Beleuchtungssystems einen begrenzten Schärfentiefebereich, so dass sich in Abhängigkeit von der Position eines Objektpunktes in bezug auf die Schärfefläche im strukturierten Lichtfeld der Kontrast der beobachteten Lichtstruktur auf diesem Objektpunkt ändert.The structured light field possesses by the size of the pupil of the lighting system a limited depth of field, so that depending from the position of an object point in relation to the focus in the structured Light field the contrast of the observed light structure on this Object point changes.

Im optischen Sensor selbst gibt es also überhaupt keine mechanisch bewegten Komponenten. Vorzugsweise wird die laterale Bewegung des Objektes benutzt, um im Messvorgang mittels dieser lateralen Bewegung ein Signal mit mehreren Intensitätswerten, mindestens jedoch drei, typischerweise jedoch um 20 bis 50 Intensitätswerte, aus jedem bewegten Objektpunkt zu gewinnen. Aus diesem Signal wird mindestens der Ort des maximalen Kontrastes bestimmt. Vorzugsweise wird aus diesem Signal mindestens ein Phasenwert errechnet. Aus dem Ort des maximalen Kontrastes und gegebenenfalls auch aus der Phaseninformation wird dann die Tiefe für jeden Objektpunkt bestimmt.in the optical sensor itself there are therefore no mechanically moved at all Components. The lateral movement of the object is preferred used to enter the measurement process by means of this lateral movement Signal with multiple intensity values, at least three, but typically around 20 to 50 intensity values, to win from every moving object point. This signal becomes at least the location of the maximum contrast is determined. Preferably at least one phase value is calculated from this signal. Out the location of the maximum contrast and possibly also from the Phase information then determines the depth for each object point.

Grundsätzlich kann sich aber auch der optische Sensor gegenüber einem feststehenden Objekt bewegen. In diesem Fall wird der optische Sensor mit einem Roboterarm oder einer Hand oder aber mit einem Bearbeitungskopf mitbewegt bewegt. Dieser letztgenannte Fall ist für die optische Zwei- oder Drei-Koordinatenmesstechnik – vor allem bei mittlerer Messgenauigkeit, also im 2 μm bis 20 μm-Bereich – von großem Interesse. Hierbei wird der optische Sensor vorteilhafterweise von der Messmaschine in zwei oder drei Koordinaten mit einer typischen Positionsgenauigkeit im 1 μm-Bereich positioniert, so dass auch die aktuelle Position des Sensor zum Werkstück mit einer Genauigkeit von etwa 1 μm bekannt ist.Basically can but the optical sensor is also moving in relation to a fixed object. In this case, the optical sensor with a robot arm or moved with one hand or with a processing head. This latter case is for optical two or three coordinate measuring technology - above all with medium measurement accuracy, i.e. in the 2 μm to 20 μm range - of great interest. Here will the optical sensor advantageously from the measuring machine in two or three coordinates with a typical position accuracy in 1 μm range positioned, so that the current position of the sensor to the workpiece with a Accuracy of around 1 μm is known.

Beispielsweise wird hier im weiteren ein Ansatz mit der Bewegung eines zu vermessenden Objektes beschrieben. Mittels einem Bewegungssystem wird also das zu untersuchende Objekt kontinuierlich bewegt, beispielsweise bei der kontinuierlichen Vermessung des dreidimensionalen Profils von Schweißnähten im kontinuierlichen Fertigungsprozess, wobei der optische Sensor dabei feststeht. Die ganz genaue Position eines Details des Objektes, beispielsweise ein kleines Loch in dessen Oberfläche, steht dabei nicht so sehr im Vordergrund, sondern vielmehr die Tatsache, dass ein Mikroloch überhaupt vorhanden ist.For example is an approach with the movement of one to be measured Property described. So with a movement system The object to be examined moves continuously, for example at the continuous measurement of the three-dimensional profile of welds in the continuous manufacturing process, with the optical sensor included fixed. The very exact position of a detail of the object, for example a small hole in its surface is not so much in the foreground, but rather the fact that a micro-hole at all is available.

Die Bewegung des Objektes sollte auf einer für die gewünschte Messgenauigkeit hinreichend präzisen Bahn b erfolgen, um nicht fälschlicherweise einen Lagefehler des Objektes als Messergebnis zu interpretieren. Die Geschwindigkeit der Bewegung des Objektes kann sehr genau gemessen und geregelt werden.The Movement of the object should be on a path that is sufficiently precise for the desired measuring accuracy b are done so as not to erroneously one To interpret the position error of the object as a measurement result. The The speed of movement of the object can be measured very accurately and be regulated.

Beim erfinderischen Verfahren gibt es entweder a priori-Kenntnisse über die Richtung und die Geschwindigkeit der Bewegung des Objektes, oder es erfolgt die in situ-Messung der Richtung und der Geschwindigkeit des zu prüfenden Objektes. Vorzugsweise können dabei auch auf dem Objekt aufgebrachte Marken oder Strukturen oder die natürliche Struktur der Oberfläche wie die Rauheit oder eine Textur verwendet werden. Letztere können beispielsweise mittels Kreuzkorrelationsverfahren ausgewertet werden, so dass stets die Bewegungsrichtung und die Geschwindigkeit des Objektes zumindest in lateraler Richtung genau bekannt sind. Für die Bestimmung der Geschwindigkeit des Objektes kann beispielsweise eine Spalte einer pixelierten Kamera, beispielsweise eine CMOS-Kamera oder auch eine CCD-Kamera dienen, die parallel zur Bewegungsrichtung angeordnet ist und welche gleichzeitig auch zur Objektbeobachtung eingesetzt wird. Aber auch außerhalb des Fertigungsprozesses kann einem zu vermessenden Objekt für die Messung ein rechnersteuerbares Bewegungssystem fest zugeordnet sein. Beispielsweise kann dies ein Linearschlitten oder ein Drehtisch sein, dessen Geschwindigkeit mit der Auslesung von Vollbildern, benutzerdefinierten Regions of Interest (ROI) oder einzelner Pixel einer elektronischen, pixelierten Kamera genau synchronisiert ist.At the inventive methods are either a priori knowledge of the Direction and speed of movement of the object, or the direction and the speed are measured in situ of the item to be checked Object. Preferably can thereby also brands or structures applied to the object or the natural structure the surface how to use the roughness or a texture. The latter can, for example are evaluated by means of cross-correlation methods, so that always the direction of movement and the speed of the object at least are known exactly in the lateral direction. For the determination of the speed The object can be, for example, a column of a pixelated camera, for example a CMOS camera or also serve a CCD camera that is parallel to the direction of movement is arranged and which at the same time also for object observation is used. But also outside The manufacturing process can be an object to be measured for measurement a computer-controlled movement system can be permanently assigned. For example this can be a linear slide or a turntable whose speed with the reading of full images, user-defined regions of Interest (ROI) or individual pixels of an electronic, pixelated Camera is precisely synchronized.

Das bewegte Objekt wird über den Beleuchtungsstrahlengang des optischen Sensors mit einem strukturierten Lichtfeld beleuchtet, welches also mindestens für einige Bildzyklen bei der Bildaufnahme in Bezug zum optischen Sensor feststeht. Da auch der Sensor bewegt werden kann, wobei dann das Objekt feststeht, ist im weiteren stets ein relativ mit Lateralkomponente zum Sensor bewegtes Objekt gemeint. Die Beleuchtung des Objektes erfolgt vorzugsweise durch ein im optischen Sensor fest angeordnetes, beleuchtetes Liniengitter, welches durch das Beleuchtungssystem des Sensors in die Schärfefläche SEO im Objektraum abgebildet wird. Die Schärfefläche SEO stellt den Bildort des Liniengitters im strukturierten Lichtfeld dar.The moving object is over the illumination beam path of the optical sensor with a structured Illuminated light field, which is at least for a few image cycles in the Image acquisition in relation to the optical sensor is fixed. Since the sensor too can be moved, and then the object is fixed, is in the further always an object that is moved relative to the sensor with a lateral component meant. The object is preferably illuminated by an illuminated line grid fixedly arranged in the optical sensor, which by the lighting system of the sensor in the focus area SEO in Object space is mapped. The focus area SEO represents the image location of the line grid in the structured light field.

Relativ zum Sensor bewegte Objektpunkte besitzen jeweils eine Bewegungsbahn. Erfindungsgemäß besteht bei der Bewegung des Objektes stets ein Winkel γ zwischen einer Tangente an die Bewegungsbahn bj eines jeden Objektpunktes Pj und einer Tangente an die Schärfefläche SEO im strukturierten Lichtfeld im Durchstoßpunkt Pjs der Bewegungsbahn bj durch die Schärfefläche SEO. Die Bewegungsbahn bj wird durch das dem Objekt zugeordnete Bewegungssystem realisiert, das die Bewegungsbahn b besitzt. Der Winkel γ ist erfindungsgemäß jeweils größer als mindestens 1°. Ist die Schärfefläche SBO plan und die Bewegung des Bewegungssystems geradlinig, besteht im Objektraum ein konstanter Winkel γ zwischen der Schärfefläche SEO und der Bewegungsbahn b. Typische Werte für den Winkel γ liegen zwischen 5° und 60°.Object points moving relative to the sensor each have a trajectory. According to the invention, when the object moves, there is always an angle γ between a tangent to the movement path bj of each object point Pj and a tangent to the focus area SEO in the structured light field in the penetration point Pjs of the movement path bj through the focus surface SEO. The movement path bj is realized by the movement system assigned to the object, which has the movement path b. According to the invention, the angle γ is in each case greater than at least 1 °. If the focus area SBO is flat and the movement of the motion system is straight, there is a constant angle γ in the object space between the focus area SEO and the movement path b. Typical values for the angle γ are between 5 ° and 60 °.

Das Sendemuster-Array und der Sensorchip der pixelierten Kamera weisen durch den jeweils zugeordneten Beleuchtungs- und Beobachtungsstrahlengang vorzugsweise eine zumindest näherungsweise gemeinsame Schärfefläche (SEO) im Objektraum auf. Die Schärfefläche SEO ist vorzugsweise plan.The Send pattern array and the sensor chip of the pixelated camera through the respectively assigned illumination and observation beam path preferably at least approximately common focus (SEO) in the object space. The focus area SEO is preferably plan.

Das Sendemuster-Array kann auch als Ronchi-Gitter ausgebildet sein. Der Beleuchtungs- und Beobachtungsstrahlengang des Sensors ist vorzugsweise durch eine afokale, zweistufige Anordnung ausgebildet, also mit im Inneren der Abbildungsstufe zusammenfallenden Brennebenen. So besteht für ein im Array-Raum von der Lichtquelle ausgehendes kollimiertes Lichtbündel auch im Objektraum Kollimation. Der Lichtschwerpunkt der Beleuchtung in der gemeinsamen Brennebene im Inneren der Abbildungsstufe ist vorzugsweise dezentriert. Dies ergibt sich durch eine Neigung des kollimierten Lichtbündels im Array-Raum zur optischen Achse. So gelangt vorzugsweise ein geneigtes, kollimiertes Lichtbündel auf die Oberfläche des zu vermessenden Objektes. Es ist vorteilhaft, wenn der Beleuchtungsstrahlengang für den Lichtdurchgang mit geneigten Lichtbündeln durch ein spezielles Design der Optik optimiert ist. Das Licht gelangt von der Oberfläche des Objektes in den Beobachtungsstrahlengang. Der Lichtfluss im Beobachtungsstrahlengang kann vorzugsweise durch eine Abschattblende in der gemeinsamen Brennebene beeinflusst werden. Diese kann vorzugsweise dezentriert sein, so dass zwischen dem Lichtschwerpunkt des Lichtbündels im Beleuchtungsstrahlengang und dem Blendenzentrum vorzugsweise ein Abstand d_nom besteht, der als Triangulationsbasis des Sensors wirkt. Der Beobachtungsstrahlengang ist ebenfalls mittels speziellem optischen Design hinsichtlich geneigter, kollimierter Lichtbündel optimiert. Es ist aber auch möglich, dass sich im Beobachtungsstrahlengang weitere optische Elemente befinden, welche die zur Kamera gelangenden Lichtstrahlen begrenzen. Vorzugsweise können im Beobachtungsstrahlengang dazu vor der Kamera Mikrolinsen angeordnet sein.The Transmitting pattern array can also be designed as a Ronchi grating. The illumination and observation beam path of the sensor is preferred formed by an afocal, two-stage arrangement, i.e. with focal planes coinciding inside the imaging stage. So exists for a Collimated light bundle emanating from the light source in the array space, too collimation in the object space. The center of gravity of the lighting is in the common focal plane inside the imaging stage preferably decentered. This results from an inclination of the collimated light beam in the array space to the optical axis. So preferably an inclined, collimated light beam the surface of the object to be measured. It is advantageous if the illuminating beam path for the Light passage with inclined light beams through a special Design of the optics is optimized. The light comes from the surface of the Object in the observation beam path. The light flow in the observation beam path can preferably by a shading in the common focal plane to be influenced. This can preferably be decentered, so that between the center of gravity of the light beam in the illuminating beam path and there is preferably a distance d_nom from the center of the aperture which acts as the triangulation base of the sensor. The observation beam path is also by means of a special optical design with regard to inclined, collimated light beam optimized. But it is also possible that there are further optical elements in the observation beam path, which limit the rays of light reaching the camera. Preferably can Microlenses are arranged in front of the camera in the observation beam path his.

Die Aufnahme des strukturiert beleuchteten Objektes erfolgt also über den Beobachtungsstrahlengang des optischen Sensors mittels einer elektronischen, pixelierten Kamera mit einem bildaufnehmenden Sensor-Chip. Es werden im Messvorgang, so lange der Bewegungsvorgang besteht, Bilder vom mit Lateralkomponente bewegten Objekt bzw. Sensor aufgenommen, so dass also auf den Sensor-Chip in jedem Fall ein bewegtes Bild erzeugt wird, wobei die Bildpunkte des Objektes im Array-Raum sich mit Lateralkomponente bewegen. Auf dieser Annahme basieren alle weiteren erfinderischen Aussagen.The The structured illuminated object is thus recorded via the Observation beam path of the optical sensor by means of an electronic, pixelated camera with an image-taking sensor chip. It will in the measuring process, as long as the moving process exists, pictures of the Lateral component moving object or sensor recorded so that in any case, a moving image is generated on the sensor chip is, the pixels of the object in the array space itself with lateral component move. All further inventive are based on this assumption Statement.

Der Beobachtungsstrahlengang kann eine Strahlteilerfläche enthalten, um den Beleuchtungsstrahlengang vom Beobachtungsstrahlengang trennen zu können. Es können aber auch zwei völlig separate Objektivsysteme für die Beleuchtung und die Aufnahme des Objektes angeordnet sein, die dann direkt nebeneinander angeordnet sind. Diese Objektive können parallel oder auch zueinander geneigt angeordnet sein. Da in diesem Fall die Pupille der Beleuchtung von der Pupille der Beobachtung getrennt ist, besteht ein Triangulationswinkel, der stets größer als der Aperturwinkel von Beleuchtung und Beobachtung ist, und so kann hierbei zweckmäßigerweise auch ein Triangulations-Messverfahren mit kombinierter Kontrast- und Phasenauswertung eingesetzt werden.The Observation beam path can contain a beam splitter surface, to separate the illumination beam path from the observation beam path to be able to. It can but also two completely separate ones Lens systems for the lighting and the inclusion of the object must be arranged then arranged directly next to each other. These lenses can be used in parallel or be arranged inclined to each other. Because in this case the pupil of illumination is separated from the pupil of observation there is a triangulation angle that is always greater than is the aperture angle of lighting and observation, and so can expediently here also a triangulation measurement method with combined contrast and phase evaluation.

Zwei Objektivsysteme dieser Art sind in der Summe meist noch deutlich kostengünstiger als ein einziges Frontobjektiv, da dieses sowohl für die Beleuchtung als auch die Aufnahme des Objektes benutzt wird und somit in der Regel eine deutlich höhere numerische Apertur aufweisen muss als jedes der beiden einzelnen Objektive. Zur besseren Trennung der beiden Strahlengänge können dabei in einem oder auch in beiden Strahlengängen Planspiegel oder Spiegelprismen eingesetzt werden, beispielsweise auch Spiegeltreppen, damit so genügend Platz für die Objektivsysteme zur Beleuchtung und Beobachtung vorhanden ist.Two Overall, lens systems of this type are usually still clear cost-effective as a single front lens as this is for both lighting as the recording of the object is used and thus in the Usually a much higher numeric Must have an aperture as each of the two individual lenses. For better separation of the two beam paths, one or more can in both beam paths Flat mirrors or mirror prisms can be used, for example also mirrored stairs, so there is enough space for the lens systems for lighting and observation.

Bei mikroskopisch kleinen Objektfeldern mit weniger als 10 mm Durchmesser muss dagegen aus Platzgründen beim Stand der Technik meist ein einziges Frontobjektiv verwendet werden. Dieses kann auch zwei getrennte Pupillenbereiche aufweisen, denen je ein eigenes Objektivsystem zugeordnet ist, so dass getrennte und meist parallele Strahlengänge für die Beleuchtung und Beobachtung bestehen. Das Leica-Stereomikroskop MZ 12 ist dafür ein Beispiel.at microscopic object fields with a diameter of less than 10 mm on the other hand, for space reasons mostly used a single front lens in the prior art become. This can also have two separate pupil areas, which are each assigned their own lens system, so that separate and mostly parallel beam paths for the Illumination and observation exist. The Leica stereo microscope MZ 12 is for that an example.

Es ist aber auch möglich, dass ein Frontobjektiv nur einen einzigen Pupillenbereich aufweist und diesem auch nur ein einziges weiteres Objektiv zugeordnet ist, welches dann gemeinsam für die Beleuchtung und Beobachtung des Objektes genutzt wird. Dann erfolgt die notwendige Trennung der Lichtbündel von Beleuchtung und Beobachtung mittels eines Strahlteilers.However, it is also possible for a front objective to have only a single pupil area and for this to be associated with only a single further objective, which is then common for the lens lighting and observation of the object is used. Then the necessary separation of the light beams from lighting and observation takes place using a beam splitter.

Es ist vorteilhaft, die Beobachtungspupille dieses Frontobjektivs so zu wählen, dass sich eine numerische Apertur von mindestens etwa 0,05 für die Beobachtung ergibt. Die Beleuchtungsapertur sollte dann ebenfalls mindestens 0,05 betragen. Der Abstand zwischen den beiden Pupillen kann etwa das Doppelte des Pupillendurchmessers betragen.It the observation pupil of this front lens is advantageous to choose, that there is a numerical aperture of at least about 0.05 for observation results. The lighting aperture should then also be at least 0.05. The distance between the two pupils can be about be twice the pupil diameter.

Unabhängig von der Gestaltung des Beleuchtungs- und Beobachtungssystems besteht also an jedem Punkt des Objektes zwischen jedem Hauptstrahl des Beleuchtungsbündels und jedem Hauptstrahl des Beobachtungsbündels vorzugsweise ein Triangulationswinkel von mindestens 2°. Typisch sind Werte im Bereich von 5° bis 30°, so dass hierbei auch mit Vorteil ein Triangulations-Messverfahren mit Kontrast und Phasenauswertung eingesetzt werden kann.Independent of the design of the lighting and observation system at every point of the object between every main ray of the illumination beam and preferably a triangulation angle for each main beam of the observation beam of at least 2 °. Values in the range of 5 ° to 30 ° are typical, so that this is also advantageous a triangulation measurement method with contrast and phase evaluation can be used.

Ohne dass Details vom Profil des Objektes bekannt sind, werden mittels der bekannten Parameter der Relativbewegung nacheinander Pixel auf dem Sensor-Chip so belichtet und ausgelesen, dass sich eine Nachverfolgung des hinsichtlich seiner Oberflächengestalt und Reflektivität weitgehend unbekannten Objektes ergibt. Die Nachverfolgung erfolgt so, als ob je ein Bild eines relativ zum Sensor-Chip bewegten Objektpunktes auf dem Bildempfänger das jeweils aktuell zugehörige Pixel selbst ausliest, also durch den sich bewegenden Hauptstrahl des Abbildungsbündels dieses Objektpunktes. Diese Betrachtung geht hierbei vom Hauptstrahl der Abbildung aus, da das Objektpunktbild ja auch völlig unscharf sein kann. In der Regel wird bei der zu vermessenden Objektoberfläche von einer zumindest näherungsweise bekannten mittleren Entfernung derselben vom optischen Sensor ausgegangen.Without that details of the profile of the object are known are made known by means of of the known parameters of the relative movement successively pixels the sensor chip exposed and read out so that there is a follow-up of its surface shape and reflectivity largely unknown object. Follow-up is done as if an image of an object point moved relative to the sensor chip on the image receiver the currently associated Pixel itself reads out, i.e. by the moving main beam of the picture bundle this object point. This consideration starts from the main beam the illustration, since the object point image is also completely out of focus can be. Usually the object surface to be measured is from one at least approximately known mean distance from the optical sensor.

Ein Winkel γ von einigen Grad wirkt sich nun wie folgt bei der Aufnahme von Bildern mit dem optischen Sensor aus, wobei hier ein Standardfall als Beispiel beschrieben wird: Zu Beginn der Detektion eines zum optischen Sensor mit Lateralkomponente bewegten Objektpunktes, also bei seinem Eintritt in den optischen Erfassungsbereich des optischen Sensors, wird dieser Objektpunkt in der Regel unscharf beleuchtet und auch unscharf abgebildet. Auf dem Objektpunkt tritt trotz lateraler Bewegung im Lichtfeld praktisch keine Änderung der Beleuchtungsstärke auf. Bei der weiteren Bewegung passiert dieser hier betrachtete Objektpunkt nach und nach mehrere Hell-Dunkel-Bereiche des Lichtfeldes, da er in den Bereich des Lichtfeldes gelangt, welches nun strukturiert ist. So verändert sich die Beleuchtung dieses bewegten Objektpunktes, also die Lichtintensität auf demselben periodisch mit der Zeit. Ist das Bild des Objektpunktes etwa im mittleren Bereich des Sensor-Chips der Kamera angelangt, der dem Erfassungsbereich des optischen Sensors entspricht, erfolgt eine scharfe Abbildung des Liniengitters auf die Objektoberfläche und somit auch auf den Objektpunkt. Vorzugsweise erfolgt jetzt auch eine scharfe Abbildung des Objektpunktes auf die pixelierte Kamera, da das Bild des Liniengitters und das Bild des Sensor-Chips der pixelierten Kamera im Objektraum vorzugsweise zusammenfallen. Im weiteren Verlauf der Bewegung des Objektes wird der betrachtete Objektpunkt in der Regel wieder unscharf beleuchtet und unscharf abgebildet, da die Bewegung des Objektes mit Lateralkomponente aufgrund des Winkels γ auch stets eine Komponente enthält, die parallel zur Normalen der Schärfeebene des strukturierten Lichtfeldes liegt. So ändert sich bei der erfindungsgemäßen Bewegung des Objektes die Entfernung dieses Objektes zur Schärfeebene ständig und damit auch der Kontrast der zu beobachtenden Streifen.On Angle γ of A few degrees now works as follows when taking pictures with the optical sensor, here a standard case as an example is described: At the beginning of the detection of an optical sensor with the lateral component of the moving object point, i.e. when it enters in the optical detection range of the optical sensor, this is Object point is usually out of focus and also out of focus. On the object point occurs despite lateral movement in the light field practically no change the illuminance on. With the further movement this happens here considered Object point gradually several light-dark areas of the light field, since it reaches the area of the light field, which is now structuring is. So changed the lighting of this moving object point, i.e. the light intensity on it periodically with time. Is the image of the object point approximately in the middle area of the sensor chip of the camera, which the Corresponds to the detection range of the optical sensor sharp image of the line grid on the object surface and thus also on the object point. Now preferably also a sharp image of the object point on the pixelated camera, because the image of the line grid and the image of the sensor chip pixelated camera preferably coincide in the object space. in the the course of the movement of the object becomes the one under consideration Object point is usually again out of focus and out of focus shown because the movement of the object is due to the lateral component of the angle γ too always contains a component the parallel to the normal of the plane of focus of the structured Light field lies. So changes yourself in the movement according to the invention of the object the distance of this object to the focus plane constantly and with it the contrast of the stripes to be observed.

Aus der vorab bekannten Bewegungsrichtung und -geschwindigkeit des Objektes mit den aus der Objektbewegung gesteuert zu belichtenden und auszulesenden Pixeln des Sensor-Chips einer pixelierten Kamera wird eine laterale Verfolgung von Objektpunkten realisiert, wobei die Signalwerte eines jeden verfolgten Objektpunktes programmgesteuert je einem virtuellen Pixel zugeordnet werden. Das Bild des Objektes bewegt sich also mit Lateralkomponente relativ zum Sensor-Chip, wobei für die Sensorfläche des Sensor-Chips so stets auch eine in-plane-Komponente der Bildbewegung gegeben ist. Dazu wird je ein zum Sensor-Chip, bewegtes, virtuelles Pixel für jedes einzelne Flächenelement der Objektoberfläche durch das Rechnerprogramm generiert, wenn das Flächenelement den Erfassungsbereich des Sensors aufgrund seiner lateralen Bewegungskomponente passiert. Das bewegte, virtuelle Pixel existiert maximal nur für die Zeitdauer ΔtP, die ein relativ zum Sensor-Chip bewegter Bildpunkt des Objektes für das Passieren der Sensor-Chip-Fläche benötigt.Out the previously known direction and speed of movement of the object with those to be exposed and read out controlled from the movement of the object Pixel of the sensor chip of a pixelated camera becomes a lateral one Tracking of object points realized, the signal values of one each tracked object point programmatically one virtual Pixels can be assigned. The image of the object is moving with lateral component relative to the sensor chip, with the sensor surface of the Sensor chips are always an in-plane component of the image movement given is. For this purpose, a virtual, moving one becomes a sensor chip Pixels for every single surface element the object surface generated by the computer program when the surface element covers the detection area happens due to its lateral movement component. The moving, virtual pixel exists for a maximum of only for the time period ΔtP Image point of the object moving relative to the sensor chip for the passage the sensor chip area needed.

Das bewegte, virtuelle Pixel wird aus einer kontinuierlichen Folge von nacheinander auszuwertenden physikalisch realen Pixeln programmgesteuert errechnet, wobei vorzugsweise genau die Signalwerte physikalisch realer Pixel verrechnet werden, die auf dem Sensor-Chip direkte Nachbarn sind. Das von einem physikalisch realen Pixel bei scharfer Abbildung detektierte Flächenelement auf der Objektoberfläche kann dabei beispielsweise eine Ausdehnung von 2 μm × 2 μm bis zu 20 μm × 20 μm je nach Abbildungsmaßstab und Pixelgröße des Sensor-Chips aufweisen, wobei die numerische Apertur der Beobachtung entsprechend groß genug gewählt werden sollte. Ein technisch optimaler Wert ist hierbei beispielsweise eine numerische Apertur von 0,1.The moving, virtual pixels is made up of a continuous sequence of program-controlled physically real pixels to be evaluated one after the other calculated, preferably exactly the signal values physically real pixels are calculated that are direct on the sensor chip Are neighbors. That from a physically real pixel at sharp Image of detected surface element on the object surface can extend, for example, from 2 μm × 2 μm to 20 μm × 20 μm depending on the imaging scale and Pixel size of the sensor chip have, the numerical aperture corresponding to the observation big enough to get voted should. A technically optimal value is, for example a numerical aperture of 0.1.

Dabei repräsentiert jedes physikalisch reale Pixel einen unveränderlichen Referenzphasenwert, der sich aus der zufälligen Lage des Liniengitters in bezug auf den Sensor-Chip und der Gitterkonstante des Liniengitters ergibt und der mittels Referenzmessung mit einer Referenzplatte hochgenau bestimmt werden kann, beispielsweise durch Tiefen-Scannen. Eine andere, besonders einfache Möglichkeit besteht darin, die Referenzplatte möglichst genau in die Schärfefläche SEO zu legen und eine statische Phasenauswertung durchzuführen. Der mit einer der beiden Methoden bestimmte Referenzphasengang φ_R als Funktion der Lateralkoordinate des Sensor-Chips in Bewegungsrichtung der Bildpunkte wird abgespeichert. Für jedes über die Sensor-Chip-Fläche programmgesteuert mit einer bekannten Geschwindigkeit bewegte virtuelle Pixel kann so der Referenzphasengang des Sensors φ_Rt im Zeitbereich aktuell errechnet werden.there represents each physically real pixel has an invariable reference phase value that out of the random Position of the line grid in relation to the sensor chip and the grid constant of the Line grid results and the reference measurement with a reference plate can be determined with high precision, for example by deep scanning. A another, particularly simple option consists of the reference plate as precisely as possible in the focus area SEO to lay and carry out a static phase evaluation. The with one of the two methods determined reference phase response φ_R as a function the lateral coordinate of the sensor chip in the direction of movement Pixels are saved. For every about the sensor chip area programmable virtual moves at a known speed The reference phase response of the sensor φ_Rt in the time domain can be pixels are currently being calculated.

Die maximale Bewegungsgeschwindigkeit des Objektes ergibt sich aus der Größe des Abstandes von zwei auf dem Objekt abgebildeten Pixeln pro minimal benötigter Auslesezeit für ein Pixel. Das Ziel besteht darin, das Bild eines jeden virtuellen Pixels genau so zu bewegen, dass es „seinem" relativ zum Sensor mit Lateralkomponente bewegten Objektpunkt vorteilhafterweise für die Zeitdauer ΔtP möglichst genau fest zugeordnet ist. Die Genauigkeit der Zuordnung eines auf dem Sensor-Chip sich mit Lateralkomponente bewegenden Objektpunktbildes und eines sich programmgesteuert dort bewegenden, virtuellen Pixels kann dabei im Bereich der Größe eines Pixels liegen.The maximum movement speed of the object results from the Size of the distance of two pixels imaged on the object per minimum read time required for a Pixel. The goal is to get the image of each virtual pixel exactly to move so that it is "his" relative to the sensor object point moved with the lateral component advantageously for the duration ΔtP if possible is exactly assigned. The accuracy of mapping one on the sensor chip with the object component image moving laterally and a virtual pixel moving there programmatically can range in size from a pixel lie.

Dieses ortsfeste Zuordnen kann modellhaft auch so verstanden werden, dass sich dabei das virtuelle Pixel wie auf einem „Laufband" – und im Modell außerdem unmittelbar vor dem bewegten und zu verfolgenden Objektpunkt – befindet. Der Objektpunkt befindet sich dabei in einem zu seiner Bewegungsbahn geneigten, strukturierten Lichtfeld. Dabei weist das „Laufband" mit dem bewegten, virtuellen Pixel zumindest näherungsweise die gleiche Geschwindigkeit wie das sich davor bewegende Objekt auf, so dass nacheinander mehrere Bilder von demselben Objektpunkt aufgenommen werden können. So ergibt sich nacheinander im Objektpunkt eine periodische Hell-Dunkel-Beleuchtung mit wechselndem Kontrast. Dabei tritt in der Regel ein Kontrastmaximum der Beleuchtung auf. Es wird erfindungsgemäß der Ort des maximalen Kontrastes im detektierten, periodischen Signal ausgewertet.This Fixed assignment can also be understood as a model that the virtual pixel looks like on a "treadmill" - and in the model as well immediately in front of the moved and tracked object point. The object point is in one of its trajectory inclined, structured light field. The "treadmill" with the moving, virtual pixels at least approximately the same speed as the object in front of it on, so that several images of the same object point in succession can be included. This results in a periodic light-dark illumination one after the other in the object point with changing contrast. As a rule, a maximum of contrast occurs the lighting on. According to the invention, it becomes the location of the maximum contrast evaluated in the detected, periodic signal.

Mittels des Beobachtungsstrahlengangs des optischen Sensors verfolgt das bewegte, virtuelle Pixel einen bestimmten Punkt eines relativ zum Sensor mit Lateralkomponente bewegten Objektes, beispielsweise den Randbereich eines Mikroloches, kontinuierlich. Dies ist möglich, da die Geschwindigkeit des Objektes vorab bekannt ist oder bei der Objektbewegung echtzeitnah gemessen wird. Mit dem relativ bewegten Objekt bewegt sich auch das Bild des virtuellen Pixels synchron mit, so dass im Schärfebereich der Abbildung des Liniengitters auf der Objektoberfläche, beispielsweise auf den Randbereich eines Mikroloches, vom Bild des virtuellen Pixels wegen der projizierten Streifen hell und weniger hell beleuchtete Bereiche durchfahren werden. Mittels diesem bewegten, virtuellen Pixel kann im zugehörigen Prozessor ein moduliertes, periodisches elektronisches Signal mit einer bestimmten Phasenlage und einer Einhüllenden erzeugt und gespeichert werden, die in der Regel ein einziges Maximum aufweist. Aus diesem Signalverlauf wird zumindest der Schwerpunkt der Einhüllenden, der zumindest näherungsweise dem Ort des Kontrastmaximums entspricht, bestimmt, um die Tiefenposition des mit dem virtuellen Pixel detektierten Objektpunktes festzustellen. Beim Vorhandensein eines effektiven Triangulationswinkels kann auch eine Phasenauswertung zur Genauigkeitssteigerung eingesetzt werden. Zur Bestimmung des Schwerpunktes der Einhüllenden des periodischen Signalverlaufs kann vorzugsweise eine digitale Lock-in Detektion mittels Rechenprogramm angewendet werden, das also einen digitalen Lock-in Detektor darstellt. Dabei ist die aktuelle Frequenz des periodischen Signals zumindest näherungsweise vorab bekannt, und der digitale Lock-in Detektor ist stets auf diese aktuelle Frequenz eingestellt. Die aktuelle Frequenz eines jeden – mittels virtuellen Pixels – detektierten periodischen Signalverlaufs ist der Geschwindigkeit der Bewegung des Bildes eines Objektes auf dem Sensor-Chip proportional. Wenn die Geschwindigkeit des Objektes nicht vorab bekannt ist, wird diese aktuelle Frequenz des periodischen Signalverlaufs echtzeitnah mittels Messung der Geschwindigkeit des Objektes und aus den bekannten Parametern der Anordnung bestimmt wird. Dabei ist zum einen der Abbildungsmaßstab der Kette: Gitter, Beleuchtungsstrahlengang, Objekt, Abbildungsstrahlengang und Kamera zu betrachten sowie die Gitterkonstante. Dabei kann es jedoch auf die aktuelle Frequenz auch noch einen geringen Einfluss durch den aktuell effektiv wirksamen Triangulationswinkel geben, so dass hier gegebenenfalls eine geringe Frequenzanpassung für die digitale Lock-in Detektion noch von Vorteil sein kann.through this follows the observation beam path of the optical sensor moved, virtual pixel a certain point relative to the Sensor with lateral component moving object, such as the Border area of a micro hole, continuous. This is possible because the speed of the object is known in advance or at Object movement is measured in real time. With the relatively moved Object also moves the image of the virtual pixel synchronously with so that in focus the image of the line grid on the object surface, for example the edge area of a micro hole, from the image of the virtual pixel because of the projected stripes lighted and less brightly lit. Areas. By means of this moving, virtual Pixel can in the associated processor a modulated, periodic electronic signal with a certain Phasing and an envelope generated and saved, which is usually a single maximum having. At least the center of gravity becomes from this signal course the envelope, of at least approximately corresponds to the location of the contrast maximum, determined to the depth position of the object point detected with the virtual pixel. At the The presence of an effective triangulation angle can also be a Phase evaluation can be used to increase accuracy. to Determination of the center of gravity of the envelope of the periodic signal curve can preferably digital lock-in detection by means of a computer program be used, which is a digital lock-in detector. The current frequency of the periodic signal is at least approximately in advance known, and the digital lock-in detector is always up to date Frequency set. The current frequency of everyone - by means of virtual pixels - detected periodic waveform is the speed of movement proportional to the image of an object on the sensor chip. If the speed of the object is not known in advance, it becomes current frequency of the periodic signal curve real-time using Measurement of the speed of the object and from the known parameters the arrangement is determined. On the one hand, the image scale is Chain: grating, illumination beam path, object, imaging beam path and camera as well as the lattice constant. It can however, it also has a minor influence on the current frequency through the currently effective triangulation angle, so that here, if necessary, a small frequency adjustment for the digital Lock-in detection can still be beneficial.

Durch die echtzeitnahe Erfassung der relativen Bewegung zwischen dem Objekt und dem Sensor und der daraus abgeleiteten Bestimmung der aktuellen Signalfrequenz kann die digitale Lock-in Detektion mit der Bestimmung des Schwerpunktes der Einhüllenden auch für einen mit Lateralkomponente zur Szene bewegten, handgeführten optischen Sensor zur dreidimensionalen Erfassung dieser Szene eingesetzt werden. Dies ist auch dann möglich, wenn es eine veränderliche laterale Bewegungsgeschwindigkeit des Sensors in Bezug zur Szene gibt.By real-time detection of the relative movement between the object and the sensor and the derived determination of the current one Signal frequency can be digital lock-in detection with the determination the focus of the envelope also for a hand-guided optical system moved to the scene with lateral components Sensor for three-dimensional detection of this scene can be used. This is also possible if it's a changeable lateral movement speed of the sensor in relation to the scene gives.

Auch zur Phasenauswertung kann eine digitale Lock-in Detektion angewendet werden. Die aktuelle Signalfrequenz kann durch eine Messung der aktuellen Bewegungsgeschwindigkeit des Objektes bestimmt und in das Auswerteprogramm, welches die digitale Lock-in Detektion durchführt, eingegeben werden. Bei der digitalen Lock-in Detektion kann mit verschiedenen Lock-in Frequenzen gearbeitet werden. Bei Vorhandensein eines Triangulationswinkels im Linienprojektor-Sensor wird der Phasengang für jeden verfolgten Objektpunkt in der Umgebung des Schwerpunktes als Objektphasengang φ_O berechnet und mit einem vorab bestimmten Referenzphasengang φ_R rechnerisch zum Schnitt gebracht. Der Schnittpunkt derselben liegt auf dem Sensor-Chip. Aus den bekannten geometrisch-optischen Parametern des Sensors kann also aus der Position dieses Schnittpunktes von Referenz- und Objektphasengang die jeweilige Tiefenposition des jeweils detektierten Objektpunktes errechnet werden, wobei sich dessen laterale Position aus der bekannten Position der virtuellen Pixel über der Zeit ergibt.Also A digital lock-in detection can be used for phase evaluation become. The current signal frequency can be determined by measuring the current movement speed of the object is determined and in the evaluation program which carries out the digital lock-in detection can be entered. With digital lock-in detection, different lock-in can be used Frequencies are worked. In the presence of a triangulation angle in the Line projector sensor becomes the phase response for each tracked object point calculated in the vicinity of the center of gravity as the object phase response φ_O and computationally with a predetermined reference phase response φ_R brought to the cut. The intersection of these lies on the sensor chip. Out the known geometric-optical parameters of the sensor that is, from the position of this intersection of the reference and object phase response the respective depth position of the object point detected in each case can be calculated, the lateral position of which is known Position of the virtual pixels above that gives time.

Durch die vorab bekannten Bewegungsparameter des Objektes werden also mittels elektronischer Programmsteuerung des Belichtungs- und Auslesevorganges der pixelierten Kamera und einem Steuerprogramm virtuell auf dem Sensor-Chip bewegte Pixel erzeugt. Dabei erfolgt die Zuordnung eines einzelnen virtuellen Pixels zu einem einzelnen Objektpunkt mit dem Eintritt dieses Objektpunktes in den Erfassungsbereich des optischen Sensors im Pixelauslesetakt, also wenn das in der Regel unscharfe Bild eines Objektpunktes das erste Mal am Rand des Sensor-Chips sichtbar wird. Das virtuelle Pixel, welches zu diesem Zeitpunkt für diesen Objektpunkt programmgesteuert erzeugt wird, kann – wie alle virtuellen Pixel – eine Identifikationsnummer erhalten. Dieses virtuelle Pixel besteht nur genau für die Durchgangszeit dieses bewegten Objektpunktes durch den Erfassungsbereich des optischen Sensors. Wenn sich das virtuelle Pixel aus seiner ersten Position, also beispielsweise ganz am Rand des Sensor-Chips, um einen Pixel-Pitch des Sensor-Chips lateral weiterbewegt hat, wird bereits ein neues, virtuelles Pixel in der Randposition des Sensor-Chips gebildet, welches dann den Nachbarn des vorherigen Objektpunktes in Bewegungsrichtung des Objektes detektiert und programmgesteuert ebenfalls verfolgt. So kann der Bewegungsunschärfebereich nicht größer als maximal ein abgebildeter Pixel-Pitch werden. Es ist aber auch möglich, dass das nächste virtuelle Pixel erst gebildet wird, wenn sich das vorherige bereits um mehrere, beispielsweise um vier Pixel-Pitches, weiterbewegt hat. Dann beträgt die elektronisch gesteuerte Shutter-Zeit nur maximal ein Viertel der Frame-Auslesezeit. Dies ist von Vorteil, wenn sich das Objekt sehr schnell bewegt und die Frame-Auslesezeit der Kamera die Begrenzung darstellt. Andererseits setzt dies wegen der kurzen Shutter-Zeit eine starke Lichtquelle voraus.By the previously known movement parameters of the object are thus by means of electronic program control of the exposure and readout process the pixelated camera and a control program virtually on the Sensor chip generates moving pixels. The assignment is made individual virtual pixels to a single object point with the Entry of this object point into the detection area of the optical Sensor in the pixel reading cycle, i.e. if the image is usually blurred of an object point is visible for the first time on the edge of the sensor chip becomes. The virtual pixel that is currently used for this Object point can be generated programmatically - like all virtual pixels - one Received identification number. This virtual pixel only exists exactly for the transit time of this moving object point through the detection area of the optical sensor. When the virtual pixel comes out of its first position, for example at the very edge of the sensor chip, has moved laterally by a pixel pitch of the sensor chip, a new, virtual pixel is already in the edge position of the Sensor chips formed, which then the neighbors of the previous one Object point in the direction of movement of the object is detected and program-controlled also pursued. So the motion blur area cannot be larger than a maximum of one pixel pitch. But it is also possible that the next virtual pixel is only formed when the previous one is already around has moved several, for example by four pixel pitches. Then it is electronic controlled shutter time only a maximum of a quarter of the frame readout time. This is an advantage if the object moves very quickly and the frame readout time of the camera represents the limitation. on the other hand this sets a strong light source due to the short shutter time ahead.

Aus den zumindest näherungsweise bekannten Bewegungsparametern des Objektes und den Kameradaten werden der Ort, die Integrationszeit und der Ausleszeitpunkt für das jeweils nachfolgende reale Pixel vorab bestimmt, so dass aus diesen reale Pixeln jeweils ein auf dem Sensor-Chip bewegtes, virtuelles Pixel programmgesteuert generiert werden kann. So erfolgt zumindest für einen Teil der Dauer der lateralen Bewegung eines jeden Schwerstrahls eines Bildes eines Objektpunktes über den Sensor-Chip eine feste Kopplung von je einem Objektpunkt mit je einem mitbewegten, virtuellen Pixel. Der Ort des aktuellen realen Pixels, welches zur Bildung des virtuellen Pixels, beispielsweise für die Dauer einer Integrationszeit des realen Pixels benutzt wird, ergibt sich zu jedem Zeitpunkt durch die Abbildung des jeweiligen Objektpunktes mittels Schwerstrahl auf die pixelierte Kamera. Auch wenn einmal an einer Stelle des Objektes kein Objektpunkt vorhanden sein sollte, beispielsweise aufgrund eines sehr tiefen Loches im Objekt, wird dennoch programmgesteuert ein bewegtes, virtuelles Pixel erzeugt.Out at least approximately known movement parameters of the object and the camera data the location, the integration time and the time of reading for each subsequent real pixels are determined in advance, so that real ones Pixels each have a virtual pixel moved on the sensor chip can be generated programmatically. So at least for one Part of the duration of the lateral movement of each heavy beam a fixed image of an object point over the sensor chip Coupling one object point each with one moving virtual one Pixel. The location of the current real pixel, which is used for formation of the virtual pixel, for example for the duration of an integration time of the real pixel is used at all times the imaging of the respective object point using a heavy beam on the pixelated camera. Even if at one point in the No object point should be present, for example due to a very deep hole in the object, it is still program controlled creates a moving, virtual pixel.

Die auf dem Sensor-Chip bewegten, virtuellen Pixel mit aufeinander folgenden Identifikationsnummern sind vorzugsweise direkt nebeneinander in einer Linie angeordnet. Die physikalisch realen Pixel der Kamera werden also zeitlich nacheinander so belichtet und ausgelesen, dass genau ein einzelner Objektpunkt pixelgenau verfolgt werden kann. Die Geschwindigkeit des Bildes eines bewegten, virtuellen Pixels auf dem Objekt muss hierbei möglichst genau der Geschwindigkeit des Objektes entsprechen.The virtual pixels with consecutive moving on the sensor chip Identification numbers are preferably next to each other in one Line arranged. The physically real pixels of the camera will be So one after the other so exposed and read out that exactly a single object point can be tracked with pixel accuracy. The speed the image of a moving, virtual pixel on the object if possible correspond exactly to the speed of the object.

Der so mittels bewegtem, virtuellen Pixel gewonnene Signalverlauf stellt in der Regel ein periodisches Signal mit einer bestimmten Phase und einer Einhüllenden mit mindestens einem Signalmaximum dar. Die Phasenlage ergibt sich aus der aktuellen Tiefenposition des Objektpunktes des optischen Sensors. Jedoch nur, wenn ein Triangulationswinkel im Objektraum besteht, der ja die effektive Triangulationswellenlänge bestimmt, trägt die Phase im detektierten Signal auch eine Information über die Tiefe des Objektpunktes. Nur dann ist es sinnvoll, auch diese Phase auszuwerten.The thus provides a waveform obtained by means of moving, virtual pixels usually a periodic signal with a certain phase and an envelope with at least one signal maximum. The phase position results from the current depth position of the object point of the optical Sensor. However, only if there is a triangulation angle in the object space which determines the effective triangulation wavelength, carries the Phase in the detected signal also provides information about the Depth of the object point. Only then does it make sense to do this phase too evaluate.

Es wird also der Phasengang in der Umgebung des Schwerpunktes der Einhüllenden für jeden verfolgten Objektpunkt Pj des periodischen Signals, welches mit einem virtuellen Pixel gewonnen wurde, bestimmt. Dies führt in der Regel zu einer höheren Genauigkeit bei der Bestimmung der Tiefenposition eines Objektpunktes als die Auswertung der Modulation des periodischen Signals.It becomes the phase response in the vicinity of the center of gravity of the envelope for everyone persecuted Object point Pj of the periodic signal, which with a virtual Pixel was determined. This usually leads to higher accuracy in determining the depth position of an object point as that Evaluation of the modulation of the periodic signal.

Die Triangulationswellenlänge im Objektraum ergibt sich in bekannter Weise aus dem Quotienten der Gitterkonstante des Bildes des Liniengitters auf der Objektoberfläche und der Summe der Tangenswerte des Winkels der Beleuchtung und des Winkels der Beobachtung. Diese beiden Winkel bilden den Triangulationswinkel, der sich bei einem optischen Sensor mit einem einzigen Frontobjektiv aus dem Abstand des Lichtschwerpunktes des Beleuchtungsschwerstrahls und des Beobachtungsschwerstrahls in dessen Pupillenebene und der Brennweite des Frontobjektivs ergibt. Dabei fällt die Pupillenebene des Frontobjektivs vorzugsweise mit dessen Brennebene aufgrund einer dort vorzugsweise angeordneten Abschattblende zusammen.The triangulation wavelength in the object dream results in a known manner from the quotient of the grating constant of the image of the line grating on the object surface and the sum of the tangent values of the angle of the illumination and the angle of the observation. These two angles form the triangulation angle which, in the case of an optical sensor with a single front lens, results from the distance between the light center of gravity of the illuminating heavy beam and the observation heavy beam in its pupil plane and the focal length of the front lens. The pupil plane of the front lens preferably coincides with its focal plane due to a shading diaphragm preferably arranged there.

Wenn die Geschwindigkeit der Objektbewegung konstant, das Liniengitter äquidistant ist und wenn das Beleuchtungsbündel im Objektraum und das Abbildungsbündel im Array-Raum kollimiert sind, ergibt sich in der Regel für das mittels virtuellem Pixel detektierte, periodische Signal eine konstante Frequenz, die jedoch in jedem Objektpunkt auch vom aktuell wirksamen Triangulationswinkel beeinflusst wird.If the speed of the object movement is constant, the line grid is equidistant is and if the bundle of lights collimated in the object space and the image bundle in the array space are usually given for the periodic signal detected by means of a virtual pixel constant frequency, which, however, in every object point also from the current effective triangulation angle is influenced.

Dabei ist durch die Wahl der numerischen Apertur von Beleuchtung und Beobachtung und des Tangens des Winkels γ, wobei der Winkel γ vorzugsweise auch 45° betragen kann, die Einhüllende des periodischen Signals vorzugsweise so bestimmt, dass nicht mehr als maximal 20 Perioden unter dieser Einhüllenden auftreten. Dies gilt insbesondere dann, wenn eine Phasenauswertung vorgenommen wird. Bei Kontrastauswertung können auch bis zu 100 Perioden unter dieser Einhüllenden noch mit einem Vorteil für die Genauigkeit ausgewertet werden. Dabei ist vorab die Soll-Frequenz des periodischen Signals für einen bestimmten Triangulationswinkel sehr genau bekannt, so dass mit Vorteil die digitalen Lock-in Verfahren eingesetzt werden können. Nach Ablage der mittels bewegtem, virtuellen Pixel gewonnenen Intensitätswerte in einem Speicherbereich ist es ja gleichgültig, ob diese Intensitätswerte in örtlicher oder zeitlicher Zuordnung gewonnen wurden, wobei es sich hier wegen der Verfolgung einzelner Objektpunkte letztlich hier immer um eine örtliche Zuordnung, jedoch zu einem bestimmten Zeitpunkt, handelt. Erst durch die Bewegung des Objektes und die programmtechnische Generierung eines virtuellen Pixels erfolgt die Transformation der Signale in den Zeitbereich.there is due to the choice of the numerical aperture of lighting and observation and the tangent of the angle γ, preferably the angle γ also be 45 ° can, the envelope of the periodic signal preferably determined so that no more appear as a maximum of 20 periods under this envelope. this applies especially if a phase evaluation is carried out. When evaluating contrast even up to 100 periods under this envelope still with an advantage for the Accuracy can be evaluated. The target frequency is in advance of the periodic signal for a certain triangulation angle is known very precisely, so that the digital lock-in procedures can be used to advantage. After filing the intensity values obtained by means of moving, virtual pixels in a memory area it doesn't matter whether these intensity values in local or temporal assignment were won, whereby it is because of The tracking of individual object points ultimately always involves a local one Assignment, but at a certain point in time. Only by the movement of the object and the generation of program technology A virtual pixel transforms the signals into the The time domain.

Weiterhin ist aber auch möglich, einen mit der menschlichen Hand oder von einem Roboterarm mit Lateralkomponente bewegten mobilen optischen Sensor – in der bereits zuvor beschriebenen Art – einzusetzen, wobei der Winkel γ hierbei sehr groß sein kann und beispielsweise 75° betragen kann. Der Beleuchtungs- und der Beobachtungsstrahlengang kann dabei völlig voneinander getrennt sein. Dabei kann im Objektraum im Schnitt senkrecht zu den Streifen das Beleuchtungsbündel vorzugsweise telezentrisch und im dazu senkrechten Schnitt mittels Zylinderoptik zentralperspektivisch sein. So entsteht ein langgezogenes, strukturiertes Lichtband, welches die Szene in einem großen Winkelbereich erfasst. Bei diesem Sensor kann aus den Bildern von der aufgenommenen Szene, die mit einer hinreichend schnellen Kamera gewonnen wurden, die Relativbewegung zwischen der Szene und dem Sensor so rekonstruiert werden, dass zumindest näherungsweise ein für jeden detektierbaren Punkt der Szene bewegtes, die Punkte der Szene jeweils nachverfolgendes, virtuelles Pixel errechnet werden kann. Dazu kann beispielsweise auch die Auswertung der Textur der Szene ausgenutzt werden. Zur Ermittlung der Relativbewegung kann auch noch ein weiterer Kamera-Chip eingesetzt werden. Gegebenenfalls kann die Szene dabei mittels einer zusätzlichen Lichtquelle beleuchtet werden, die an die Beleuchtungsaufgabe optimal angepasst ist. Mittels der bereits beschriebenen Ausweitung der Signale, die mit bewegten virtuellen Pixeln gewonnen wurden, kann so das dreidimensionale Profil der Szene mit einem Hand-held-Gerät bestimmt werden.Farther is also possible one with the human hand or from a robotic arm with a lateral component moving mobile optical sensor - in the previously described Type - use, where the angle γ here can be very large and be, for example, 75 ° can. The illumination and the observation beam path can thereby completely be separated from each other. The object space can be cut vertically to the stripes, the lighting bundle is preferably telecentric and in a vertical section using a cylinder optic with a central perspective his. This creates an elongated, structured light band, which the scene in a big one Angular range detected. With this sensor, the images of the recorded scene with a sufficiently fast camera won, the relative movement between the scene and the Sensor be reconstructed so that at least approximately one for everyone detectable point of the scene moves, the points of the scene in each case tracking, virtual pixel can be calculated. This can for example, the evaluation of the texture of the scene is also used become. Another can also be used to determine the relative movement Camera chip are used. If necessary, the scene can by means of an additional Illuminated light source that optimally adapted to the lighting task is. By means of the already described expansion of the signals that obtained with moving virtual pixels, the three-dimensional Profile of the scene can be determined with a hand held device.

Das Objekt kann auch zylindrisch geformte Oberflächen aufweisen, beispielsweise, wenn es sich um ein zylindrisches Präzisionsdrehteil handelt. Vorteilhafterweise wird dieses Präzisionsdrehteil im Messvorgang mittels Präzisionslager um seine Symmetrieachse gedreht. Die Schärfeebene des Liniengitters im Objektraum kann dann vorteilhafterweise ebenfalls eine Zylinderfläche darstellen mit einem zumindest näherungsweise gleichen Radius wie die zu vermessende Zylinderfläche. Dies ist durch die Anordnung und Abbildung eines gekrümmten Liniengitters auf die Objektoberfläche möglich, wobei die Zylinderachse desselben parallel zur Achse des zylindrischen Objektes liegt. Dabei sind die Achsen der beiden Zylinderflächen um den Betrag d separiert. Der Betrag d ist dabei so zu wählen, dass zwischen einer Tangente an die Zylinderfläche und der Tangente an die Schärfefläche SEO des Liniengitters im Durchstoßpunkt Pjs der Bewegungsbahn bj eines bewegten Objektpunktes Pj durch die Schärfefläche SEO ein Winkel von mindestens γ = 1° besteht. Eine gekrümmte Schärfefläche SEO kann aber auch durch eine spezielle Abbildung des Liniengitters, beispielsweise unter Verwendung mindestens einer zylindrischen Zerstreuungslinse, erzeugt werden. Auch dann besteht so stets ein Winkel γ von mehr als 1° zwischen den Tangenten an die Schärfefläche SEO, also der Bildfläche des Liniengitters im Objektraum, und den Tangenten der Bewegungsbahnen bj der einzelnen Objektpunkte Pj am jeweiligen Durchstoßpunkt Pjs durch diese Schärfefläche SEO. So entsteht auch bei zylindrischen Oberflächen durch das kontinuierliche Auslesen der den bewegten Objektpunkten nachgeführten realen Pixel, also beim Auslesen des durch Programmsteuerung erzeugten, mitbewegten, virtuellen Pixels, jeweils ein periodischer Signalverlauf mit einer Einhüllenden für jeden Objektpunkt. Auch hierbei kann sich bei konstanter Rotationsgeschwindigkeit des Objektes und bei einem zumindest näherungsweise äquidistanten Liniengitter jeweils eine zumindest näherungsweise konstante Signalfrequenz ergeben, wobei die Signalfrequenz auch durch die Größe des effektiven Triangulationswinkels beeinflusst wird.The object can also have cylindrically shaped surfaces, for example if it is a cylindrical precision turned part. This precision turned part is advantageously rotated about its axis of symmetry in the measuring process by means of precision bearings. The sharpness plane of the line grid in the object space can then advantageously also represent a cylinder surface with an at least approximately the same radius as the cylinder surface to be measured. This is possible by arranging and mapping a curved line grid onto the object surface, the cylinder axis of which is parallel to the axis of the cylindrical object. The axes of the two cylinder surfaces are separated by the amount d. The amount d is to be selected so that there is an angle of at least γ = 1 ° between a tangent to the cylindrical surface and the tangent to the sharpness surface SEO of the line grid in the point of intersection Pjs of the movement path bj of a moving object point Pj through the sharpness surface SEO. A curved focus surface SEO can also be generated by a special image of the line grid, for example using at least one cylindrical diverging lens. Even then there is always an angle γ of more than 1 ° between the tangents to the focus surface SEO, i.e. the image surface of the line grid in the object space, and the tangents of the movement paths bj of the individual object points Pj at the respective penetration point Pjs through this focus surface SEO. In this way, even with cylindrical surfaces, the real pixels that track the moving object points are continuously read out, i.e. when they are out reading of the virtual pixel that is moved and moved by program control, in each case a periodic signal curve with an envelope for each object point. Here, too, an at least approximately constant signal frequency can result with a constant rotational speed of the object and with an at least approximately equidistant line grating, the signal frequency also being influenced by the size of the effective triangulation angle.

Grundsätzlich ergibt sich in Abhängigkeit von der jeweiligen Entfernung eines Objektpunktes vom optischen Sensor – also von der Tiefenposition des Objektpunktes – im periodischen Signal eine bestimmte Phasenlage und auch eine bestimmte Lage des Maximums der Einhüllenden. Bei großen Abweichungen eines Objektpunktes von der mittleren Entfernung der Oberfläche, beispielsweise, wenn sich ein Objektpunkt auf einem stark hochstehenden Grat befindet, ist das Maximum der Einhüllenden deutlich verschoben. Beim Vorhandenseins eines Triangulationswinkels kann aus der Auswertung der Phasenlage in den einzelnen Signalen die Tiefenposition der Objektpunkte mit noch höherer Genauigkeit bestimmt werden. Dies gilt besonders für Anordnungen mit zwei völlig getrennten Strahlengängen für die Beleuchtung und die Beobachtung. Hierbei wird vorzugsweise am Modulationsmaximum – also am Ort der besten Schärfe – der Schnittpunkt des vorab im Zeitbereich bestimmten Referenzphasenganges des Sensors φ_Rt mit dem Phasengang φ_Otj eines im Zeitbereich bestimmten, unbekannten Objektpunktes Pj bestimmt. Ausgegangen wird dabei rechnerisch vom Referenzphasengang φ_R, der eine Funktion der lateralen Sensor-Chip-Koordinaten ist und der wie bereits beschrieben vorab bestimmt wurde. Daraus wird mittels der bekannten Bewegungsgeschwindigkeit des Objektes ein Referenzphasengang φ_Rt über der Zeit berechnet, der sich für einen zum Objektpunkt synchron bewegten Referenzpunkt in der Schärfefläche SEO ergeben würde. Die Bewegung des Referenzpunktes in der Schärfefläche SEO entspricht dem Fall des Triangulationswinkels null. Der Phasengang φ_Otj über der Zeit eines Objektpunktes Pj wird aktuell mittels virtuellem Pixel am Modulationsmaximum errechnet. Für den Fall des Triangulationswinkels null fallen die Phasengänge von Referenz φ_Rt und Objektpunkt φ_Otj Modulo 2π zusammen, so dass die Berechnung eines derartigen Schnittpunktes praktisch nicht möglich ist. Bei Vorhandensein eines Triangulationswinkels von einigen Grad ergibt dies dagegen ein sehr genaues Kriterium für die Tiefenposition eines bewegten Objektpunktes. Aus dem Ort des Schnittpunktes auf dem Sendemuster-Array kann die Tiefenposition eines jeden Objektpunktes unter Verwendung der bekannten geometrisch-optischen Parameter der Anordnung ermittelt werden.Basically results yourself in dependence on the respective distance of an object point from the optical one Sensor - so from the depth position of the object point - one in the periodic signal certain phase position and also a certain position of the maximum of Envelope. For large ones Deviations of an object point from the mean distance of the Surface, for example, when an object point is on a very high Ridge, the maximum of the envelope is clearly shifted. In the presence of a triangulation angle, the evaluation can the phase position in the individual signals the depth position of the object points with even higher ones Accuracy can be determined. This is especially true for orders with two totally separate beam paths for the Lighting and observation. Here is preferably at the maximum modulation - so on Location of the best sharpness - the intersection of the reference phase response of the sensor φ_Rt determined beforehand in the time domain the phase response φ_Otj of an unknown object point Pj determined in the time domain. The starting point is the reference phase response φ_R, the is a function of the lateral sensor chip coordinates and how has already been described. This is done using the known speed of movement of the object a reference phase response φ_Rt over the Time calculated for a reference point moved synchronously to the object point in the focus area SEO would result. The movement of the reference point in the focus area SEO corresponds to the case of the triangulation angle zero. The phase response φ_Otj over the time of an object point Pj is currently calculated using a virtual pixel at the maximum modulation. For the In the case of the triangulation angle zero, the phase changes decrease from Reference φ_Rt and object point φ_Otj Modulo 2π together, so the calculation of such an intersection is practical not possible is. In the presence of a triangulation angle of a few degrees on the other hand, this gives a very precise criterion for the depth position of a moving object point. The depth position can be determined from the location of the intersection on the transmission pattern array of each object point using the known geometrical-optical Parameters of the arrangement can be determined.

Besonders bei Sensor-Anordnungen mit einem einzigen Frontobjektiv, wenn der Triangulationswinkel zumindest näherungsweise null ist, wird nur das Auswerten des Schwerpunktes der Einhüllenden für jeden Objektpunkt durchgeführt, wobei hier stets das Signal des virtuellen Pixels ausgewertet wird. Die Auswertung der Einhüllenden genügt in der Regel dann, wenn eine große numerische Apertur für die Beleuchtung und die Beobachtung gegeben ist und der Triangulationswinkel ohnehin zum Aperturwinkel vergleichsweise klein oder sogar null ist. Wenn das Objekt mit extrem hoher Geschwindigkeit lateral zum Sensor bewegt wird – beispielsweise mit einer Geschwindigkeit von mehr als 100 mm/s – steht die Zeit für die numerisch aufwendigere Phasenauswertung ohnehin meist nicht zur Verfügung, bzw. es ist ein besonders hoher technischer Aufwand erforderlich.Especially for sensor arrangements with a single front lens, if the Triangulation angle at least approximately is zero, only evaluating the focus of the envelope for each Object point carried out the signal of the virtual pixel is always evaluated here. The evaluation of the envelope enough usually when a large numerical aperture for lighting and the observation is given and the triangulation angle anyway to the aperture angle is comparatively small or even zero. If the object is moved laterally to the sensor at extremely high speed will - for example at a speed of more than 100 mm / s - the time stands for the numerical more complex phase analysis is usually not available anyway, or a particularly high technical outlay is required.

Grundsätzlich können für die Ausweitung der Phase in den detektierten Signalen auch FFT-, Wavelet-Methoden oder andere beliebige Phasenauswerte-Algorithmen sowie auch Kreuzkorrelations-Verfahren mit vorab gewonnenen und abgespeicherten Referenzsignalverläufen eingesetzt werden.Basically, for expansion the phase in the detected signals also FFT, wavelet methods or others any phase evaluation algorithms as well as cross-correlation methods with advance obtained and stored reference waveforms used become.

Weiterhin wird vorzugsweise eine pixelierte Kamera mit einem Kamera-Chip mit einem aufgesetzten Mikrolinsen-Array eingesetzt. Dieses Mikrolinsen-Array bewirkt durch die begrenzte laterale Ausdehnung der lichtempfindlichen Fläche des Pixels stets eine Begrenzung des Aperturwinkels des Lichtbündels, welches auf das Pixel trifft. Bei Kippung der Kamera mit dem eingebauten Kamera-Chip und dem Mikrolinsen-Array um eine zur Einfallsebene der Schwerstrahlen der Lichtbündel von Beleuchtung und Beobachtung im Objektraum senkrechte Achse wird das auf die realen Pixel fallende Bündel etwas asymmetrisch beschnitten. Ohnehin ist in der Regel eine Verkippung des Kamera-Chips ja auch meist notwendig, um die benötigte Koinzidenz der Schärfefläche des Kamera-Chips mit der Schärfefläche des Gitterbildes im Objektraum zu erreichen.Farther is preferably a pixelated camera with a camera chip an attached microlens array. This microlens array caused by the limited lateral expansion of the photosensitive area of the pixel is always a limitation of the aperture angle of the light beam, which meets the pixel. When tilting the camera with the built-in Camera chip and that Microlens array around one to the plane of incidence of the heavy rays of the light beam of illumination and observation in the object space becomes a vertical axis the bundle falling on the real pixels is cropped somewhat asymmetrically. In any case, a tilt of the camera chip is usually also mostly necessary to get the needed Coincidence of the focus of the Camera chips with the focus of the grid image to reach in the object space.

Der Kamera-Chip kann aber auch senkrecht zur optischen Achse des zugehörigen Objektivs angeordnet sein, wenn die Schärfefläche des strukturierten Lichtfeldes senkrecht auf der optischen Achse des Beobachtungsstrahlenganges steht. Dann kann bei Verwendung eines gemeinsamen Frontobjektives mit zwei Pupillenbereichen auch das Sendemuster-Array senkrecht zur optischen Achse des Beleuchtungsstrahlenganges angeordnet sein. Eine derartige Anordnung ermöglicht, die Zoomfunktion eines Stereomikroskops uneingeschränkt zu verwenden, da sich die Schärfeebene SEO durch die Änderung der Vergrößerung nicht dreht, also der Winkel γ von der Zoomeinstellung des Stereomikroskops nicht beeinflusst wird.The Camera chip can also be perpendicular to the optical axis of the associated lens be arranged when the focus of the structured light field perpendicular to the optical axis of the Observation beam path stands. Then when using a common front lens with two pupil areas that too Transmitting pattern array perpendicular to the optical axis of the illumination beam path be arranged. Such an arrangement enables the zoom function of a Unrestricted stereo microscope to use because the focus level SEO through the change not the enlargement rotates, i.e. the angle γ of the zoom setting of the stereo microscope is not affected.

Andererseits kann die Beeinflussung des Winkels γ im Zusammenwirken mit der Zoomfunktion eines Stereomikroskops auch gezielt eingesetzt werden, um eine für ein Objekt bestangepasste Signalform zu finden, indem die neben der Vergrößerung des Mikroskops auch die Breite der Einhüllenden beeinflusst wird. In diesem Fall besteht im Sensor eine Verkippung des Kamera-Chips und des Liniengitters.On the other hand, influencing the Angle γ in cooperation with the zoom function of a stereomicroscope can also be used in a targeted manner in order to find a signal shape that is best adapted to an object by influencing the width of the envelope in addition to the magnification of the microscope. In this case there is a tilt in the sensor of the camera chip and the line grid.

Die asymmetrische Beschneidung des Lichtbündels ergibt sich bei einer Verkippung des Kamera-Chips mit aufgesetzten Mikrolinsen aus der lateralen Ausdehnung des Pixels, das in der Regel deutlich kleiner als der Durchmesser der Mikrolinse ist, im Zusammenwirken mit der Brennweite der vorgesetzten Mikrolinse. So besteht für das System Pixel mit Mikrolinse ein Grenzaperturwinkel von beispielsweise 10° für auftreffendes Licht. Diese asymmetrische Begrenzung des auf das Pixel treffenden Lichtbündels erfolgt durch die Kippung der Kamera mit dem Mikrolinsen-Array erfindungsgemäß so, dass dies eine laterale Verschiebung des Lichtschwerpunktes LSP_D in der Pupillenebene des Frontobjektivs zur Folge hat, so dass dieser außeraxial ist. So vergrößert sich die effektive Triangulationsbasis d_nom gegenüber dem Fall mit zur Objektivachse senkrechter Lage des Kamera-Chips deutlich. Die effektive Triangulationsbasis d_nom ist durch den Abstand des Lichtschwerpunktes der Beleuchtung LSP_L und der Beobachtung LSP_D bestimmt.The asymmetrical pruning of the light beam results in a Tilting of the camera chip with attached microlenses from the lateral extension of the pixel, which is usually significantly smaller than the diameter of the microlens is, in cooperation with the focal length of the front microlens. So there is for the system pixel with microlens a limiting aperture angle of 10 ° for example for incident Light. This asymmetrical limitation of what meets the pixel Beam of light takes place by tilting the camera with the microlens array according to the invention such that this is a lateral shift of the light center of gravity LSP_D in the pupil plane of the front lens, so that this off-axis is. So the effective one increases Triangulation basis d_nom compared to that Case with the camera chip perpendicular to the lens axis. The effective triangulation basis d_nom is given by the distance of the Center of gravity of the lighting LSP_L and the observation LSP_D certainly.

Durch diese Kippung des Kamerachips, die in der Regel gemeinsam mit der Kamera erfolgt, kann die effektive Triangulationswellenlänge beispielsweise noch etwa um die Hälfte verkleinert werden. Dies verbessert die Tiefenmess-Genauigkeit bei der Bestimmung des Profils und bei der Erkennung von Fehlern auf der Oberfläche ganz wesentlich. Außerdem kann so die numerische Apertur der Beleuchtung gleich oder sogar größer als die Beobachtungsapertur gemacht werden, was den Kontrast des unerwünschten Specklings im aufgenommenen Bild stark reduzieren kann.By this tilt of the camera chip, which is usually shared with the Camera, the effective triangulation wavelength, for example about another half be made smaller. This improves the depth measurement accuracy determining the profile and detecting errors the surface very essential. Moreover the numerical aperture of the lighting can be the same or even larger than the observation aperture can be made, which is the contrast of the unwanted Specklings can greatly reduce in the picture taken.

Erfindungsgemäß wird also vorgeschlagen, bei einem optischen Messverfahren die aperturbegrenzende Wirkung eines Mikrolinsen-Arrays einer Kamera zur lateralen, außeraxialen Verschiebung des Lichtschwerpunktes des Lichtbündels der Objektbeobachtung LSP_D in der Pupillenebene eines Frontobjektivs zu nutzen, die so zur effektiven Vergrößerung der Triangulationsbasis d_nom führt.According to the invention proposed the aperture-limiting in an optical measurement method Effect of a microlens array of a camera for lateral, off-axis Shift of the center of gravity of the light beam of the object observation LSP_D in the pupil plane of a front lens to use that for effective enlargement of the Triangulation basis d_nom leads.

Grundsätzlich kann also in jeder Triangulationsanordnung die aperturbegrenzende Wirkung eines System Mikrolinse mit detektierendem Pixel zur gezielten Beeinflussung der Schwerstrahllage im Beobachtungsstrahlengang verwendet werden.Basically can the aperture-limiting effect in every triangulation arrangement of a system microlens with a detecting pixel for targeted influencing the heavy beam position can be used in the observation beam path.

Die nachfolgenden Offenlegung wird durch die Ansprüche 9 und 10 abgedeckt. Weiterhin ist es aber auch möglich, dass ein optischer Sensor mit einem Liniengitter aufgebaut ist, welches von Lichtquelle mit Kollimator beleuchtet wird. Das kollimierte Lichtbündel gelangt auf das Liniengitter. Es entstehen gebeugte Teilbündel, wobei mindestens ein gebeugtes Teilbündel eine Kreisringblende in der gemeinsamen Fokalebene der nachfolgenden Objektive passiert, die eine afokale Abbildungsstufe bilden. Durch die Fokussierung mittels einem dem Objekt zugeordneten Prüfobjektiv entsteht auf den Flächenbereichen des entlang einer Geraden b bewegten Objekts ein hochfrequentes Streifenbild. Dabei beträgt die Tangente an die Bewegungsbahn (bj) eines bewegten Objektpunktes (Pj) des Objektes im Durchstoßpunkt (Pjs) der Bewegungsbahn (bj) durch die Schärfefläche (SEO) des Liniengitters mindestens 1°. Das am Objekt reflektierte und gestreute Licht passiert die afokale Abbildungsstufe mit dem Prüfobjektiv und die Kreisringblende und wird wieder auf das Liniengitter abgebildet. Die Ebene des Liniengitters wird anschließend scharf auf den Sensor-Chip einer Kamera abgebildet. Von Vorteil ist hier, dass die in den virtuellen Pixeln, welche das bewegte Objekt nachverfolgen, Signale generiert werden können, die in der Form den bekannten kurzkohärenten Signalen aus der Interferometrie entsprechen. Diese weisen in erster Näherung stets die gleiche Phase auf, nämlich die Phase null am Schwerpunkt der Einhüllenden des Signals. Dies vereinfacht die Signalauswertung erheblich gegenüber Signalen mit einer variablen Phase am Schwerpunkt, bzw. am Kontrastmaximum.The subsequent disclosure is covered by claims 9 and 10. Farther but it is also possible that an optical sensor is constructed with a line grating, which is illuminated by light source with collimator. The collimated light beam arrives on the line grid. Bent sub-bundles arise, whereby at least one diffracted sub-bundle an annulus in the common focal plane of the following Lenses happen that form an afocal imaging level. By focusing using a test lens assigned to the object arises on the surface areas of the object moving along a straight line b is a high-frequency one Strip layout. It is the tangent to the trajectory (bj) of a moving object point (Pj) of the object at the puncture point (Pjs) of the trajectory (bj) through the focus (SEO) of the line grid at least 1 °. The light reflected and scattered by the object passes through the afocal Mapping level with the test lens and the circular aperture and is mapped onto the line grid again. The level of the line grid is then sharply focused on the sensor chip Pictured camera. The advantage here is that the virtual Pixels, which track the moving object, generate signals can be those in the form of the well-known short-coherent signals from interferometry correspond. In a first approximation, these always have the same phase on, namely the Phase zero at the center of gravity of the envelope of the signal. This simplifies it the signal evaluation significantly compared to signals with a variable Phase at the center of gravity or at the maximum contrast.

Weiterhin ist es möglich, dass das Liniengitter als ein Phasengitter ausgebildet ist. Dies liefert Signale mit einem hohen Modulationsgrad. Das Phasengitter wird von einer quasi-monochromatischen Lichtquelle beleuchtet, die aus einem Laserdioden-Array besteht. Das kollimierte Lichtbündel gelangt auf ein Phasengitter. Es entstehen zwei gebeugte Teilbündel in den beiden ersten Beugungsordnungen. Die nullte Beugungsordnung ist fast vollständig unterdrückt. Die beiden gebeugten Teilbündel passieren eine Kreisringblende in der gemeinsamen Fokalebene der nachfolgenden Objektive, die eine afokale Abbildungsstufe bilden. Durch die Fokussierung mittels dem dem Objekt zugeordneten Prüfobjektiv entsteht auf den Flächenbereichen des entlang einer Geraden b bewegten Objekts ein hochfrequentes Interferenzbild. Dabei beträgt die Tangente an die Bewegungsbahn (bj) eines bewegten Objektpunktes (Pj) des Objektes im Durchstoßpunkt (Pjs) der Bewegungsbahn (bj) durch die Schärfefläche (SEO) des Liniengitters mindestens 1°. Das am Objekt reflektierte und gestreute Licht passiert die afokale Abbildungsstufe mit den Objektiven und die Kreisringblende und wird wieder auf das Phasengitter abgebildet. Es entstehen am Phasengitter zwei gebeugte und kollineare Teilbündel, die mittels nachfolgendem Objektiv über eine Lochblende, die der Raumfrequenzfilterung und der Sperrung der weiteren gebeugten Teilbündel dient, auf den Sensor-Chip einer Kamera gelangen werden, so dass die Ebene des Phasengitters mittels zweitem Objektiv nach der Lochblende scharf abgebildet wird. Dabei bilden die beiden Objektive um die Lochblende eine afokale Abbildungsstufe. Von Vorteil ist hier, dass die in den virtuellen Pixeln, welche das bewegte Objekt nachverfolgen, Signale generiert werden, die in der Form den kurzkohärenten Signalen entsprechen. Diese weisen in erster Näherung stets die gleiche Phase auf, nämlich die Phase null am Schwerpunkt der Einhüllenden des Signals. Dies vereinfacht die Signalauswertung erheblich gegenüber Signalen mit einer variablen Phase am Schwerpunkt, bzw. am Kontrastmaximum.It is also possible for the line grating to be designed as a phase grating. This provides signals with a high degree of modulation. The phase grating is illuminated by a quasi-monochromatic light source, which consists of a laser diode array. The collimated light beam reaches a phase grating. Two diffracted sub-beams are created in the first two diffraction orders. The zeroth diffraction order is almost completely suppressed. The two diffracted sub-bundles pass through a circular diaphragm in the common focal plane of the subsequent lenses, which form an afocal imaging level. Focusing by means of the test lens assigned to the object creates a high-frequency interference image on the surface areas of the object moving along a straight line b. The tangent to the movement path (bj) of a moving object point (Pj) of the object in the penetration point (Pjs) of the movement path (bj) through the focus area (SEO) of the line grid is at least 1 °. The light reflected and scattered on the object passes through the afocal imaging stage with the lenses and the circular ring diaphragm and is mapped onto the phase grating again. Two diffracted and collinear sub-beams are created on the phase grating, which are connected by means of a subsequent lens via a pinhole, the spatial frequency filtering and the blocking of the wide Ren diffracted sub-bundle is used to get onto the sensor chip of a camera, so that the plane of the phase grating is sharply imaged by means of a second lens after the pinhole. The two lenses form an afocal imaging stage around the pinhole. The advantage here is that the signals generated in the virtual pixels, which track the moving object, correspond in shape to the short-coherent signals. In a first approximation, these always have the same phase, namely phase zero at the center of gravity of the envelope of the signal. This considerably simplifies signal evaluation compared to signals with a variable phase at the center of gravity or at the maximum contrast.

Beschreibung der Figurendescription of the figures

Anhand der 1 bis 10 werden verschiedene Ausführungsbeispiele dargestellt. Das in 1 von einer Lichtquelle 1 ausgehende kollimierte Lichtbündel ist zur optischen Achse des Objektivs 7 geneigt und beleuchtet ein Liniengitter 2, welches als Ronchi-Gitter ausgebildet und das sowohl zum Strahlenbündel als auch zur optischen Achse geneigt angeordnet ist. Das durch das Liniengitter 2 geneigt hindurchtretende Licht gelangt über eine Spiegeltreppe mit den Planspiegeln 14 und 15 und durch eine Strahlteilerfläche 16 über ein Abbildungssystem, bestehend aus den Objektiven 7 und 8, sowie einer Abschattblende 31 in der gemeinsamen Brennebene auf das Objekt 9. Wie in der 2 dargestellt, ist durch das um den Winkel αAL geneigte und kollimierte Lichtbündel der Lichtschwerpunkt LSP-L der Beleuchtung in der Pupille um den Betrag d_nom dezentriert. So gelangt der Schwerstrahl des beleuchtenden Bündels ebenfalls geneigt auf die Oberfläche des Objektes 9. Der Schwerstrahl des beleuchtenden Bündels schließt mit der optischen Achse des Objektivs 8 im Punkt Pji einen Winkel αOL ein. Der Schwerstrahl des beobachtenden Bündels schließt im Punkt Pji einen Winkel αOD ein.Based on 1 to 10 different embodiments are shown. This in 1 from a light source 1 outgoing collimated light beam is to the optical axis of the lens 7 a line grid is inclined and illuminated 2 , which is designed as a Ronchi grating and which is arranged inclined both to the beam and to the optical axis. That through the line grid 2 Light that passes through at an incline passes through a mirrored staircase with the plane mirrors 14 and 15 and through a beam splitter surface 16 via an imaging system consisting of the lenses 7 and 8th , as well as a shade 31 on the object in the common focal plane 9 , Like in the 2 shown, the light center LSP-L of the illumination in the pupil is decentered by the amount d_nom due to the light beam inclined and collimated by the angle αAL. In this way, the heavy beam of the illuminating beam also reaches the surface of the object at an angle 9 , The heavy beam of the illuminating beam closes with the optical axis of the lens 8th an angle α OL at point Pji. The heavy beam of the observing bundle forms an angle α OD at point Pji.

Das aus dem Objektiv 8 in 1 austretende Licht wird in die Schärfeebene SEO fokussiert. Der Strahlengang im Objektraum ist telezentrisch. Die Schärfeebene SEO ist hier um den Winkel γ zur achssenkrechten Ebene geneigt, da hierbei die geradlinige Bewegungsbahn b des Objektes 9 senkrecht zur optischen Achse des Objektivs 8 ausgerichtet ist. Die Neigung der Schärfeebene SEO resultiert aus der Neigung des Liniengitters 2. Hier erfolgt eine geradlinige Bewegung des Objektes 9, so dass die Bewegungsbahnen bj aller Objektpunkte Pj zur Bewegungsbahn b des Objektes 9 eine Parallele darstellen. Der Winkel γ in der 1 beträgt etwa 18°. Das Objekt 9, welches eine Zahnform aufweist, ist in unterschiedlichen lateralen Positionen gestrichelt dargestellt, um unterschiedliche Positionen des Objektes 9 zu unterschiedlichen Zeitpunkten zu symbolisieren.That from the lens 8th in 1 emerging light is focused in the focus level SEO. The beam path in the object space is telecentric. The focus plane SEO is inclined by the angle γ to the plane perpendicular to the axis, since here the rectilinear movement path b of the object 9 perpendicular to the optical axis of the lens 8th is aligned. The inclination of the focus level SEO results from the inclination of the line grid 2 , Here the object moves in a straight line 9 so that the trajectories bj of all object points Pj to the trajectory b of the object 9 to represent a parallel. The angle γ in the 1 is about 18 °. The object 9 , which has a tooth shape, is shown in dashed lines in different lateral positions by different positions of the object 9 to symbolize at different times.

Die Abbildung des Objektes 9 erfolgt über das Abbildungssystem, bestehend aus den Objektiven 7 und 8 sowie der Abschattblende 31, und über den Strahlteiler 16, wo der reflektierte Anteil des Lichtes über den Spiegel 17 auf eine geneigte CMOS-Kamera 13 mit einem Mikrolinsen-Array 131 gelangt. Das Bild der effektiven Empfängerfläche der CMOS-Kamera 13, hier die Pupillenfläche der Mikrolinsen, koinzidiert im Objektraum mit dem Bild des Liniengitters 2. Bei der Bewegung des Objektes 9 mit einer bekannten konstanten Geschwindigkeit entlang der Geraden b werden die Signalwerte von realen Pixeln i, i + 1, i + 2 ... so programmgesteuert je einem virtuellen Pixel j zugeordnet, welches dann ein bewegtes, virtuelles Pixel darstellt. Der Rechner ist hier nicht dargestellt. Dabei bestehen mehrere virtuelle Pixel gleichzeitig.The image of the object 9 takes place via the imaging system, consisting of the lenses 7 and 8th as well as the shade 31 , and over the beam splitter 16 where the reflected portion of the light through the mirror 17 on a tilted CMOS camera 13 with a microlens array 131 arrives. The image of the effective receiver area of the CMOS camera 13 , here the pupil surface of the microlenses, coincides in the object space with the image of the line grid 2 , When moving the object 9 With a known constant speed along the straight line b, the signal values of real pixels i, i + 1, i + 2 ... are assigned to a virtual pixel j, which then represents a moving, virtual pixel. The calculator is not shown here. There are several virtual pixels at the same time.

Jedes reale Pixel der CMOS-Kamera 13 ist zu unterschiedlichen Zeitpunkten unterschiedlichen virtuellen Pixeln zugeordnet. Bei der Bewegung des Objektes 9 werden die einzelnen physikalisch realen Pixel i, i + 1, i + 2 ... durch die Synchronisation der Bewegung des Objektes 9 und der Belichtung und der Auslesung der Pixel nacheinander jeweils nacheinander genau auf den Objektpunkt Pj abgebildet, obwohl der Objektpunkt Pj sich wegbewegt und so an unterschiedlichen Positionen i, i + 1, i + 2 ... befindet. So kann programmgesteuert ein Signalverlauf von jedem bewegten Objektpunkt Pj mittels je einem mitbewegten, virtuellen Pixel j gewonnen werden, indem die Signalwerte der realen Pixel, beispielsweise die Pixel i, i + 1, i + 2 ..., mittels Speicherung einem einzigen Signalverlauf zugeordnet werden, der genau den Signalverlauf des virtuellen Pixels j darstellt. Hierbei ist jedoch in der Regel eine präzise und gleichmäßige Bewegung des Objektes 9, wobei die Bildausleserate der CMOS-Kamera 13 und die Bewegungsgeschwindigkeit des Objektes 9 genau aufeinander abgestimmt sind, für eine präzise Verfolgung eines jeden Objektpunktes notwendig, um Messfehler einschränken zu können. Die Bewegung des Objektes 9 erfolgt durch ein hier nicht dargestelltes Bewegungssystem in xO-Richtung. In der Regel ist die zulässige Verschiebung des virtuellen Pixelbildes auf dem bewegten Objekt 9, die durch Abweichungen von der Soll-Geschwindigkeit des Bewegungssystems beim Passieren des Erfassungsbereiches des optischen Sensors hervorgerufen wird, nicht größer als ein scharf abgebildetes, reales Pixelbild.Every real pixel of the CMOS camera 13 is assigned to different virtual pixels at different times. When moving the object 9 the individual physically real pixels i, i + 1, i + 2 ... through the synchronization of the movement of the object 9 and the exposure and the reading of the pixels one after the other in each case exactly on the object point Pj, although the object point Pj has moved away and is thus at different positions i, i + 1, i + 2 ... In this way, a signal curve from each moving object point Pj can be obtained in a program-controlled manner by means of a virtual pixel j that is also moved by assigning the signal values of the real pixels, for example pixels i, i + 1, i + 2 ..., to a single signal curve by means of storage that exactly represents the waveform of the virtual pixel j. However, this is usually a precise and uniform movement of the object 9 , the frame rate of the CMOS camera 13 and the speed of movement of the object 9 are precisely matched to each other, for precise tracking of each object point in order to be able to limit measurement errors. The movement of the object 9 takes place through a movement system (not shown here) in the x O direction. As a rule, the permissible displacement of the virtual pixel image is on the moving object 9 , which is caused by deviations from the target speed of the movement system when passing through the detection area of the optical sensor, is no larger than a sharply depicted, real pixel image.

Die 2 zeigt die Lichtverteilung in der Pupillenebene des Abbildungssystems mit dem Pupillenzentrum PZ, den Lichtschwerpunkten der Beleuchtung LSP_L und der Beobachtung LSP_D. Die beiden Lichtschwerpunkte LSP_L und LSP_D sind um den Abstand d_nom voneinander getrennt. Die Lichtschwerpunkte der Beleuchtung LSP_L und der Beobachtung LSP_D und ergeben sich aus nur den Bündelanteilen, welche die Pixel auch erreichen. Dies wird durch die 3 dargestellt. Die Mikrolinsen des Mikrolinsen-Arrays 131 definieren jeweils den effektiven Bündelanteil in den Pixeln i, i + 1, i + 2... und so auch den Lichtschwerpunkt LSP_D.The 2 shows the light distribution in the pupil plane of the imaging system with the pupil center PZ, the light centers of the illumination LSP_L and the observation LSP_D. The two light centers are LSP_L and LSP_D separated by the distance d_nom. The focal points of light of the lighting LSP_L and the observation LSP_D and result from only the bundle components that also reach the pixels. This is through the 3 shown. The microlenses of the microlens array 131 define the effective bundle share in the pixels i, i + 1, i + 2 ... and thus also the light center LSP_D.

Die 4 stellt einen Ausschnitt aus einem äquidistanten Ronchi-Gitter 2 dar, welches als Sendemuster-Array eingesetzt wird.The 4 represents a section of an equidistant Ronchi grid 2 which is used as a transmission pattern array.

Die 5 zeigt den Sachverhalt im Objektraum mit der Schärfeebene SEO, die bei der Abbildung des Liniengitters entsteht, sowie die Ausdehnung des Schärfentiefebereiches bei der Abbildung des Liniengitters. Das Objekt 9 bewegt sich entlang einer Bahn bj und wird durch das einfallende Lichtbündel beleuchtet und mittels beobachtendem Bündel detektiert. Im Punkt Pj0 tritt ein Punkt Pj des lateral bewegten Objektes 9 in den Erfassungsbereich der CMOS-Kamera 13 ein. Die Erfassung dieses Objektpunktes Pj beginnt unmittelbar, auch wenn die Abbildung zunächst noch unscharf ist, da der Objektpunkt Pj noch außerhalb des Schärfentiefebereiches ist. So ist der Kontrast des Streifenbildes auf dem Objektpunkt Pj zunächst auch noch null. Mit der weiteren lateralen Bewegung des Objektes nimmt der Kontrast des Streifenbildes im Objektpunkt Pj stetig zu, um bei PjS das Maximum zu erreichen. Der Kontrast des Streifenbildes nimmt anschließend wieder stetig ab. Im Punkt PjE verlässt der Objektpunkt Pj wieder den Erfassungsbereich der CMOS-Kamera 13. Die physikalisch realen Pixel i, i + 1, i + 2 generieren mit einem hier nicht dargestellten Rechner programmgesteuert das virtuelle Pixel zu den Zeitpunkten ti, ti + 1, ti + 2.The 5 shows the situation in the object space with the focus level SEO, which arises when the line grid is shown, and the extent of the depth of field when the line grid is shown. The object 9 moves along a path bj and is illuminated by the incident light beam and detected using an observing beam. A point Pj of the laterally moved object occurs at point Pj0 9 in the detection area of the CMOS camera 13 on. The detection of this object point Pj begins immediately, even if the image is initially still out of focus, since the object point Pj is still outside the depth of field. The contrast of the stripe image on the object point Pj is initially zero. With the further lateral movement of the object, the contrast of the stripe image at the object point Pj increases steadily in order to achieve the maximum at PjS. The contrast of the striped image then steadily decreases again. At the point PjE, the object point Pj again leaves the detection range of the CMOS camera 13 , The physically real pixels i, i + 1, i + 2 generate with a computer, not shown here, program-controlled the virtual pixel at the times ti, ti + 1, ti + 2.

6 zeigt den zugehörigen Signalverlauf, welcher mittels eines bewegten, virtuellen Pixels j von einem Objektpunkt Pj gewonnen wurde. Das virtuelle Pixel j bewegt sich möglichst synchron mit dem jeweiligen Objektpunkt Pj mit. Dieses virtuelle Pixel j wird aus einzelnen realen Pixeln, die auf einer einzigen Linie liegen, gebildet, indem die einzelnen Signalwerte in der zeitlichen Folge ihres Entstehens gespeichert werden. Zum Zeitpunkt t0 wird der Objektpunkt Pj erstmalig von der CMOS-Kamera 13 des optischen Sensors erfasst. Dies erfolgt hier durch das Auslesen eines Pixels beispielsweise der ersten Zeile des Kamerachips. Der Signalverlauf ergibt sich durch das zeitlich gesteuerte Belichten und Auslesen weiterer realer Pixel hier i, i + 1, i + 2..., deren Werte einem virtuelles Pixel j zugeordnet werden, welches den Objektpunkt Pj verfolgt. Die realen Pixel i, i + 1, i + 2... liegen hier auf einer Spalte einer CMOS-Kamera 13. In der Position s des Objektpunktes Pj zum Zeitpunkt tS wird die Schärfefläche SEO durchfahren. Jedoch befindet sich in der Schärfefläche SEO der Objektpunkt Pj – in der Position s – nicht genau mittig auf einem Lichtbalken des Gitterbildes, so dass hier am Maximum der Einhüllenden E ein Phasenwert ungleich null auftritt. Zum Zeitpunkt tE verlässt der Objektpunkt Pj wieder den Erfassungsbereich der CMOS-Kamera. Zum Zeitpunkt tE befindet sich der Objektpunkt Pj bereits wieder weit außerhalb des Schärfevolumens von Beleuchtung und Detektion. So weist das Signal des bewegten, virtuellen Pixels j dann keine Modulation mehr auf. Es wird die Phase am Schwerpunkt der Einhüllenden, der im Idealfall auch genau dem Maximum des Kontrastes entspricht, mit den in der Literatur bereits beschriebenen Auswerteverfahren bestimmt. Dies wurde beispielsweise in Applied Optics, Vol. 39, No. 8, vom 10. März 2000, Seite 1290 bis 1295 sowie in Fringe'01, Jüptner, W.; Osten W. (Eds.): Proceedings of the 4th International Workshop on Automatic Processing of Fringe Patterns, Elsevier 2001 unter „Generalized Signal Evaluation for White-light interferometry and Scanning fringe projection", S. 173–180, dargestellt. 6 shows the associated signal curve, which was obtained by means of a moving, virtual pixel j from an object point Pj. The virtual pixel j moves as synchronously as possible with the respective object point Pj. This virtual pixel j is formed from individual real pixels, which lie on a single line, in that the individual signal values are stored in the chronological sequence of their creation. At time t 0 , the object point Pj becomes the first time from the CMOS camera 13 of the optical sensor. This is done here by reading out a pixel, for example the first line of the camera chip. The signal curve results from the time-controlled exposure and readout of further real pixels here i, i + 1, i + 2 ..., the values of which are assigned to a virtual pixel j, which tracks the object point Pj. The real pixels i, i + 1, i + 2 ... are located on a column of a CMOS camera 13 , In the position s of the object point Pj at the time t S , the focus area SEO is traversed. However, in the focus area SEO, the object point Pj - in the position s - is not exactly in the center of a light bar of the grating image, so that a non-zero phase value occurs at the maximum of the envelope E. At time tE, the object point Pj again leaves the detection range of the CMOS camera. At time tE, the object point Pj is again far outside the focus volume of lighting and detection. The signal of the moving virtual pixel j then no longer has any modulation. The phase at the focal point of the envelope, which ideally also corresponds exactly to the maximum of the contrast, is determined using the evaluation methods already described in the literature. This was described, for example, in Applied Optics, Vol. 39, No. 8, from March 10, 2000, pages 1290 to 1295 and in Fringe'01, Jüptner, W .; Osten W. (Eds.): Proceedings of the 4th International Workshop on Automatic Processing of Fringe Patterns, Elsevier 2001 under "Generalized Signal Evaluation for White-light interferometry and Scanning fringe projection", pp. 173–180.

Weiterhin ist in der 6 der Schnittpunkt SPj von Referenzphasengang φ_Rt mit dem Objektphasengang φ_Otj am Schwerpunkt der Einhüllenden für ein virtuelles Pixel j, welches den bewegten Objektpunkt Pj detektiert, eingezeichnet. Der Schnitpunkt SPj tritt zum Zeitpunkt ts auf. Der Schnittwinkel zwischen beiden Phasengängen über der Zeit φ_Rt und φ_Otj ist dem Triangulationswinkel zumindest näherungsweise proportional, wodurch sich in der Regel bei einem größeren Triangulationswinkel auch die Genauigkeit der Bestimmung des Schnittpunktes verbessert. Grundsätzlich kann der Phasengang von Referenz und Objekt auch über die Position des jeweiligen virtuellen Pixels auf dem Sensor-Chip ausgewertet werden, also die Position des Schnittpunktes auf dem Sensor-Chip errechnet werden. Dies ist notwendig, wenn beispielsweise bei einer Freihandbewegung des Sensors dessen Bewegungsgeschwindigkeit nicht konstant ist. Das Auslesen der Bilder erfolgt dann wegen der ungleichmäßigen relativen Bewegung zwischen Sensor und Szene asynchron.Furthermore, in the 6 the point of intersection SPj of the reference phase response φ_Rt with the object phase response φ_Otj at the center of gravity of the envelope for a virtual pixel j, which detects the moving object point Pj. The intersection SPj occurs at the time ts. The intersection angle between the two phase courses over the time φ_Rt and φ_Otj is at least approximately proportional to the triangulation angle, which generally improves the accuracy of the determination of the intersection point with a larger triangulation angle. In principle, the phase response of reference and object can also be evaluated via the position of the respective virtual pixel on the sensor chip, that is to say the position of the intersection point on the sensor chip can be calculated. This is necessary if, for example, when the sensor moves freely, its speed of movement is not constant. The images are then read out asynchronously due to the uneven relative movement between the sensor and the scene.

Im Gedankenexperiment ergibt sich der Phasengang φ_Rt über der Zeit, wenn das auf dem Sensor-Chip mit konstanter Geschwindigkeit bewegte, virtuelle Pixel in der Schärfefläche mit seinem zugehörigen Schwerstrahl eine teildurchlässige und gleichzeitig lichtstreuende Schicht, auf die das Liniengitter des optischen Sensors projiziert ist, abtasten würde. Der Phasengang φ_Otj über der Zeit ergibt sich aus dem vom bewegten, virtuellen Pixel j auf der Objektoberfläche detektierten Licht. Beim Vorhandensein eines Triangulationswinkels ungleich null ergibt sich φ_Rt = φ_Otj genau dann, wenn ein mit konstanter Geschwindigkeit bewegter Objektpunkt Pj die Schärfefläche SEO passiert, also im Schnittpunkt SPj der beiden Phasengänge. Dabei ist die Schärfefläche SEO mit der Sensor-Chipfläche zumindest näherungsweise optisch konjugiert.In the thought experiment, the phase response φ_Rt over time results when the virtual pixel moving on the sensor chip at constant speed in the focus area with its associated heavy beam scans a partially transparent and at the same time light-scattering layer onto which the line grating of the optical sensor is projected would. The phase response φ_Otj over time results from the light detected by the moving virtual pixel j on the object surface. If a triangulation angle other than zero is present, φ_Rt = φ_Otj results precisely when an object point Pj moving at a constant speed passes the focus surface SEO, i.e. at the intersection SPj of the two phase changes. Here is the focus area SEO with the sensor chip area at least approximately optically conjugated.

7 zeigt die Anordnung nach 1 in modifizierter Form. Die CMOS-Kamera 13 weist eine logarithmische Kennlinie auf, um den Dynamikumfang bei der Bildaufnahme zu vergrößern. Der Triangulationswinkel ist hierbei praktisch zu näherungsweise null gemacht und die Lichtschwerpunkte LSP_D und LSP-L nach 8 koinzidieren in der Pupillenebene näherungsweise oder sind durch die Reflexionsverhältnisse der Oberfläche im Objektpunkt nur wenig um den Betrag d_nom separiert. So können auch noch vergleichsweise kleine Löcher detektiert werden. Der Winkel γ zwischen der Schärfefläche SEO und der Bewegungsbahn b des Objektes 9, die eine Parallele zu den Bewegungsbahnen bj aller Objektpunkte Pj darstellt, beträgt hier 15°. Ausgewertet werden wieder periodische Signale mit einer Einhüllenden. Die Auswertung erfolgt mittels Lock-in-Detektion, die frequenzmäßig auf den Zustand des Triangulationswinkels null, beziehungsweise d_nom = 0, abgestimmt wurde. Die Logarithmisierung durch die Kennlinie der CMOS-Kamera 13 führt auch bei der Detektion von periodischen Hell-Dunkel-Übergängen mit cos2-Charakteristik zu Oberwellen im Signal. Das ist jedoch bei der Auswertung des Schwerpunktes der Einhüllenden praktisch kein Nachteil, da durch die Lock-in-Detektion im wesentlichen nur die Grundwelle erfasst wird und die Oberwellen weitgehend weggefiltert werden. Der verwendete digitale Lock-in Detektor, der durch ein Programm gebildet ist, ist stets auf die sich ergebende Signalfrequenz eingestellt. Dabei handelt es sich letztlich um eine Ortsfrequenz, da die gemessenen Intensitäten den Sensor-Chip-Koordinaten zugeordnet sind. Die Transformation in den Zeitbereich erfolgt erst durch die Bewegung des Objektes und den Auslesetakt der Kamera. 7 shows the arrangement 1 in a modified form. The CMOS camera 13 has a logarithmic characteristic to increase the dynamic range during image acquisition. The triangulation angle is practically made approximately zero and the light centers LSP_D and LSP-L after 8th coincide approximately in the pupil plane or are only slightly separated by the amount d_nom due to the reflection conditions of the surface in the object point. Comparatively small holes can also be detected in this way. The angle γ between the focus surface SEO and the movement path b of the object 9 , which is a parallel to the trajectories bj of all object points Pj, is 15 ° here. Periodic signals with an envelope are again evaluated. The evaluation is carried out by means of lock-in detection, which has been frequency-matched to the state of the triangulation angle zero, or d_nom = 0. The logarithmization through the characteristic of the CMOS camera 13 also leads to harmonics in the signal when detecting periodic light-dark transitions with cos 2 characteristics. However, this is practically no disadvantage when evaluating the center of gravity of the envelope, since essentially only the fundamental wave is detected by the lock-in detection and the harmonics are largely filtered away. The digital lock-in detector used, which is formed by a program, is always set to the resulting signal frequency. Ultimately, this is a spatial frequency, since the measured intensities are assigned to the sensor chip coordinates. The transformation into the time domain takes place only through the movement of the object and the reading cycle of the camera.

Die etwas geneigte Kamera 13 besitzt kein Mikrolinsen-Array, da dieses die Bündel hier etwas unsymmetrisch beschneiden könnte.The slightly inclined camera 13 does not have a microlens array, since this could cut the bundles somewhat asymmetrically.

Bei einem durch Reflexe auf der Oberfläche auftretenden Betrag d_nom ≠ 0, der sich sowohl durch eine kleine Frequenzveränderung im periodischen Signal als auch in der Regel in einer starken Verbreiterung der Einhüllenden im Signal bemerkbar macht, kann auch zusätzlich die Phase ausgewertet werden, so dass sich auch durch die Reflexionsverhältnisse auf der Oberfläche bestimmt, ob es sinnvoll ist, nur den Kontrast oder sowohl Kontrast als auch Phase auszuwerten. Die Phasenauswertung kann in der Regel dann die größere Genauigkeit für die Tiefenbestimmung liefern, wenn der Triangulationswinkel größer als die effektiven Aperturwinkel von Beleuchtung und Beobachtung ist. Dann liefert die Kontrastauswertung nur die Eindeutigkeit der Ordnung bei der Phasenauswertung.at an amount d_nom ≠ 0 due to reflections on the surface, which is both by a small frequency change in the periodic signal as well as usually in a widening of the envelope in the signal, the phase can also be evaluated so that it is also determined by the reflection conditions on the surface, whether it makes sense only the contrast or both contrast and phase evaluate. The phase evaluation can then usually have greater accuracy for the Provide depth determination if the triangulation angle is greater than is the effective aperture angle of lighting and observation. Then the contrast evaluation only supplies the uniqueness of the order the phase evaluation.

9 stellt einen Streifentriangulations-Sensor mit einem gemeinsamen Frontobjektiv 8 dar, dem für Beleuchtung und Beobachtung je ein eigener Strahlengang zugeordnet ist. Dieser Sensor ist speziell für die optische Formvermessung mittlerer Genauigkeit für Profile mit Gradienten bis zu etwa maximal 45° in der Ebene des Hauptschnittes ausgelegt; wobei die Oberflächen zumindest etwas lichtstreuend sind. Der Aufbau des Sensorkopfes entspricht dem eines Leica-Stereomikroskops MZ 12 mit einem Frontobjektiv mit der Vergrößerung 1,6× und einer Gesamtvergrößerung von 2. Der gesamte Sensoraufbau mit Frontobjektiv ist hierbei um den Winkel von 15° um die waagerechte Achse im Hauptschnitt gedreht, so dass die Beobachtungsrichtung senkrecht auf der Bewegungsrichtung des Objektes steht. 9 provides a strip triangulation sensor with a common front lens 8th which is assigned a separate beam path for lighting and observation. This sensor is specially designed for optical shape measurement of medium accuracy for profiles with gradients up to a maximum of approximately 45 ° in the plane of the main section; the surfaces being at least somewhat light-scattering. The construction of the sensor head corresponds to that of a Leica MZ 12 stereomicroscope with a front objective with a magnification of 1.6 × and a total magnification of 2. The entire sensor construction with a front objective is rotated by an angle of 15 ° around the horizontal axis in the main section, see above that the direction of observation is perpendicular to the direction of movement of the object.

Die im Sensor eingesetzte CMOS-Kamera 13 besitzt einen Pixel-Pitch von 10 μm und etwa 1,3 Millionen Pixel, wobei eine „Region of Interest" (ROI) zum Erreichen einer hohen Bildauslesefrequenz von 500 Hz definiert wurde. Ein beispielsweise etwa 80 mm langes Objekt mit einer zu vermessenden Schweißnaht von maximal 1 mm Breite und einer maximalen Höhe von 0,3 mm steht auf einem x-Tisch mit einem Verfahrbereich von 100 mm und etwa 2 μm Positioniergenauigkeit. Die Relativbewegung zwischen Objekt und Sensor erfolgt in x-Richtung in Schritten von 5 μm. Dies entspricht genau dem Abstand von zwei Pixelbildern in der Objektebene. Die Geschwindigkeit des x-Tisches beträgt 2,50 mm/s, so dass das virtuelle Pixel sich in 2 ms um einen Pixel-Pitch auf dem Sensor-Chip weiterbewegt hat.The CMOS camera used in the sensor 13 has a pixel pitch of 10 μm and about 1.3 million pixels, whereby a "region of interest" (ROI) was defined to achieve a high image readout frequency of 500 Hz. An object, for example, about 80 mm long with a weld seam to be measured of A maximum of 1 mm wide and a maximum height of 0.3 mm stands on an x-table with a travel range of 100 mm and approximately 2 μm positioning accuracy .. The relative movement between object and sensor takes place in the x-direction in steps of 5 μm exactly the distance of two pixel images in the object plane. The speed of the x-table is 2.50 mm / s, so that the virtual pixel has moved on by a pixel pitch on the sensor chip in 2 ms.

Das im Sensor von der Lichtquelle 1 beleuchtete Liniengitter 2 weist eine Periodenlänge von 110 μm auf. Dieses Liniengitter 2 wird über das Objektiv 71 und das Frontobjektiv 8 auf das Objekt 9 abgebildet, welches sich entlang einer Bahn b bewegt. Das reflektierte Licht gelangt wieder über das Frontobjektiv 8 und über das Objektiv 72 auf die CMOS-Kamera 13. Der Auslesevorgang der CMOS- Kamera 13 und die Bewegung des nicht dargestellten x-Tisches sind genau synchronisiert. Wegen des eingestellten Abbildungsmaßstabes von 2× beträgt das zur Tiefenmessung maximal nutzbare Objektfeld etwa 5 mm × 5,5 mm. Da die ROI hier nur etwa 20% der Chipfläche beträgt ergibt sich hier beispielsweise nur ein Bereich von 1,5 mm × 3,67 mm. Etwa bis zu 2 mm der Sensorfläche werden jeweils zur Signalgewinnung benötigt, so dass sich der zur Tiefenauswertung nutzbare Bereich auf etwa 2,7 mm einschränkt. Der Winkel γ zwischen der Schärfefläche, also der Bildebene des Liniengitters, beträgt also durch die Drehung des Sensorkopfes 15°. Es ergibt sich der maximale Tiefenmessbereich von etwa 1,5 mm. Durch die Beschränkung auf die kleine ROI, um die hohe Bildauslesefrequenz von 500 Hz zu erreichen, steht nur ein Tiefenmessbereich von etwa 0,7 mm zur Verfügung, der hierbei jedoch ausreichen sollte. Wenn der Winkel γ gleich dem halben Gesamt-Triangulationswinkel (αOL + αOD) gewählt ist, liegt die Schärfefläche SEO achssenkrecht zur optischen Achse des Frontobjektivs 8 und auch in der Fokalebene desselben, so dass die besten Abbildungseigenschaften gegeben sind. Außerdem kann die Zoom-Funktion des Leica-Mikroskops uneingeschränkt genutzt werden, ohne dass sich die Schärfeebene dabei verkippt.That in the sensor from the light source 1 illuminated line grid 2 has a period length of 110 μm. This line grid 2 is about the lens 71 and the front lens 8th on the object 9 shown, which moves along a path b. The reflected light comes back through the front lens 8th and through the lens 72 on the CMOS camera 13 , The reading process of the CMOS camera 13 and the movement of the x-table, not shown, are precisely synchronized. Due to the set imaging scale of 2 ×, the maximum usable object field for depth measurement is approximately 5 mm × 5.5 mm. Since the ROI here is only about 20% of the chip area, for example there is only an area of 1.5 mm × 3.67 mm. Approximately up to 2 mm of the sensor surface is required for signal acquisition, so that the range that can be used for depth evaluation is limited to approximately 2.7 mm. The angle γ between the focus surface, ie the image plane of the line grid, is therefore 15 ° due to the rotation of the sensor head. The maximum depth measuring range is approximately 1.5 mm. Due to the limitation to the small ROI in order to achieve the high image readout frequency of 500 Hz, only a depth measuring range of about 0.7 mm is available, which is sufficient here should. If the angle γ is chosen equal to half the total triangulation angle (αOL + αOD), the focus surface SEO is perpendicular to the optical axis of the front lens 8th and also in the focal plane of the same, so that the best imaging properties are given. In addition, the zoom function of the Leica microscope can be used without restriction, without the focus plane tilting.

Es wird mit maximaler numerischer Apertur für Beleuchtung und Beobachtung gearbeitet. So sind etwa sechs bis acht Gitterstreifen mit gutem Kontrast in einer Fläche senkrecht zur Beobachtungsachse, also in der Tischebene, sichtbar. Der Winkel zwischen Beobachtungs- und Beleuchtungsrichtung, also der Gesamt-Triangulationswinkel, beträgt hier konstruktiv (αOL + αOD) = 30°. Die effektive Triangulationswellenlänge des Sensors ergibt sich damit aus der projizierten Streifenbreite von 55 μm in Beobachtungsrichtung zu etwa 106 μm. Für die Verfolgung einer Schweißnaht kann jedoch auch noch ein geringerer Triangulationswinkel und damit eine größere effektive Triangulationswellenlänge sinnvoll sein.It with a maximum numerical aperture for lighting and observation worked. There are about six to eight grid strips with good contrast in one area perpendicular to the observation axis, i.e. in the table plane, visible. The angle between the direction of observation and illumination, that is the total triangulation angle is constructively (αOL + αOD) = 30 °. The effective triangulation wavelength of the Sensor results from the projected strip width of 55 μm in the direction of observation to about 106 μm. For the Tracking a weld can also have a smaller triangulation angle and therefore a bigger effective Triangulationswellenlänge make sense.

Das mittels jedem virtuellen Pixel detektierte Signal besitzt hier bei konstanter Objektgeschwindigkeit eine mittlere Objekt-Signalfrequenz von etwa 40 Hz und wird hinsichtlich Phase am Kontrastmaximum bzw. am Schwerpunkt ausgewertet, so dass der Phasengang in der unmittelbaren Umgebung des Schwerpunktes für jeden Objektpunkt ermittelt werden kann. Anschließend wird der Schnittpunkt der Referenzphasenkurve φ_Rt mit dem Phasengang φ_Otj des jeweiligen Objektpunktes Pj bestimmt.The signal detected by means of each virtual pixel has here constant object speed a medium object signal frequency of about 40 Hz and is in terms of phase at the contrast maximum or evaluated at the center of gravity so that the phase response in the immediate Environment of focus for every object point can be determined. Then will the intersection of the reference phase curve φ_Rt with the phase response φ_Otj des respective object point Pj.

Die Referenzphasenkurve φ_Rt des Sensors ist vorab ermittelt und abgespeichert worden. Bei der Geschwindigkeit des Objektes von 2,5 mm/s beträgt die Referenz-Signalfrequenz hier dann etwa 44 Hz, die sich dann ergeben würde, wenn sich ein gedachter Referenzpunkt permanent in der Schärfeebene SEO bewegen würde. So ist es auch möglich, mittels dieser Referenz-Signalfrequenz im Bereich des Schwerpunktes der Einhüllenden den Zeitpunkt ts, an dem die Referenz-Signalfrequenz mit der Objekt-Signalfrequenz in Phase ist, zu bestimmen und aus der bekannten Bewegung des bewegten, virtuellen Pixels, den zugehörigen Ort desselben auf dem Liniengitter 2 zu diesem Zeitpunkt ts zu bestimmen und daraus die Tiefenposition eines jeden mittels bewegtem, virtuellen Pixels detektierten Objektpunktes Pj zu ermitteln. Das gemessene Profil wird aus den virtuellen Pixeln pixelweise lateral zusammengesetzt, wobei bewegte, virtuelle Pixel, die bei der Detektion Nachbarn sind, stets auch direkt benachbarte Objektpunkte detektieren.The reference phase curve φ_Rt of the sensor has been determined in advance and saved. At the speed of the object of 2.5 mm / s, the reference signal frequency here is about 44 Hz, which would result if an imaginary reference point were to move permanently in the focus plane SEO. It is also possible to use this reference signal frequency in the area of the center of gravity of the envelope to determine the time ts at which the reference signal frequency is in phase with the object signal frequency, and from the known movement of the moving virtual pixel, the associated location of the same on the line grid 2 at this point in time ts and determine the depth position of each object point Pj detected by means of a moving virtual pixel. The measured profile is laterally composed of the virtual pixels pixel by pixel, whereby moving virtual pixels, which are neighbors in the detection, always also detect directly adjacent object points.

Mittels digitaler Lock-in Detektion und einer CMOS-Kamera mit logarithmischer Kennlinie kann mit der Schnittpunktauswertung auch an weniger kooperativen Oberflächen mindestens 2π/32 der Triangulationswellenlänge sinnvoll aufgelöst werden, so dass mit dieser Anordnung ein Tiefen-Auflösungsinkrement von 3,4 μm gegeben ist. So kann eine Auflösung bei der Formmessung von kooperativen Oberflächen in den drei Raumkoordinaten von besser als 5 μm × 5 μm × 5 μm erreicht werden. In x-Richtung ist das Objektfeld nur durch die Länge des Schlittens begrenzt. Durch das kontinuierliche Bewegen des Sensorkopfes kann hiermit ein Volumen von 80 mm × 1,5 mm × 0,71 mm in ca. 32 Sekunden vermessen werden. Eine höhere Messgeschwindigkeit kann mit einer noch schnelleren Kamera erreicht werden.through digital lock-in detection and a CMOS camera with logarithmic Characteristic curve can also be used on the less cooperative with the intersection evaluation surfaces at least 2π / 32 the triangulation wavelength sensibly resolved so that with this arrangement a depth resolution increment of 3.4 μm given is. So can a resolution when measuring the shape of cooperative surfaces in the three spatial coordinates of better than 5 μm × 5 μm × 5 μm become. In the x direction, the object field is only by the length of the Limited sledge. By continuously moving the sensor head can hereby have a volume of 80 mm × 1.5 mm × 0.71 mm in approx. 32 seconds be measured. A higher one Measurement speed can be achieved with an even faster camera become.

Eine andere Möglichkeit noch schneller mit Lateralkomponente bewegte Objekte zu vermessen, besteht darin, den x-Tisch beispielsweise vierfach schneller zu bewegen, also nun mit 10 mm/s. Die Bildrate beträgt wieder 500 Bilder/s und die Integrationszeit eines Pixels wird dabei durch einen elektronischen Shutter auf weniger als 0,5 ms begrenzt. In diesem Fall werden anstelle von 11 Abtastungen pro Streifenperiode im Mittel nur noch 2,75 Abtastungen vorgenommen. Dies stellt eine vierfach geringere Abtastung dar. Das virtuelle Pixel wird zeitlich synchronisiert aus jedem vierten, physikalisch realen Pixel des Sensor-Chips in Bewegungsrichtung generiert. Der zwischen zwei Kamera-Frames zurück gelegte Weg des Objektes ergibt sich bei direkt aufeinander folgenden Frames zu 20 μm.A different possibility to measure objects moving even faster with the lateral component in moving the x-table four times faster, for example, so now with 10 mm / s. The frame rate is again 500 frames / s and the integration time of a pixel is determined by an electronic one Shutter limited to less than 0.5 ms. In this case, instead From 11 samples per strip period, on average only 2.75 samples were made. This represents four times less scanning. The virtual Pixel is synchronized in time from every fourth, physically real pixel of the sensor chip generated in the direction of movement. The back between two camera frames The path of the object is given in the case of directly successive ones 20 μm frames.

Da die Signalfrequenz vorab hinreichend genau bekannt ist, kann im dargestellten Fall mittels digitaler Lock-in Detektion mit angepassten digitalen Signal-Prozessoren selbst bei einer achtfach geringeren Abtastung noch der Phasengang am Schwerpunkt eindeutig bestimmt werden, wobei das Signal-Rausch Verhältnis sich dann schon merklich verschlechtert und damit auch die Unsicherheit der Tiefenmessung entsprechend zunimmt. Außerdem muss auch die Genauigkeit der Generierung des virtuellen Pixels, also die Genauigkeit der Nachverfolgung des bewegten Objektes 9, entsprechend hoch sein.Since the signal frequency is sufficiently well known in advance, the phase response at the center of gravity can still be clearly determined in the illustrated case by means of digital lock-in detection with adapted digital signal processors, even with an eight times lower sampling, the signal-to-noise ratio then becoming noticeable deteriorates and the uncertainty of the depth measurement increases accordingly. In addition, the accuracy of the generation of the virtual pixel, ie the accuracy of the tracking of the moving object, must also be 9 , be correspondingly high.

10 zeigt eine Anordnung mit einem Phasengitter 102, welches von einer Lichtquelle 101 beleuchtet wird, die aus einem Laserdioden-Array besteht, welches sich in der Brennebene des Objektivs 110 befindet. Das kollimierte und quasi-monochromatische Lichtbündel gelangt auf ein Phasengitter 102. Es entstehen zwei gebeugte Teilbündel in den beiden ersten Beugungsordnungen. Die nullte Beugungsordnung ist fast vollständig unterdrückt. Die beiden gebeugten Teilbündel passieren eine Kreisringblende 104 in der gemeinsamen Fokalebene der Objektive 103 und 105. Durch die Fokussierung mittels Objektiv 105 entsteht auf den Flächenbereichen des entlang einer Geraden b bewegten Objekts ein hochfrequentes Interferenzbild. Dabei beträgt die Tangente an die Bewegungsbahn (bj) eines bewegten Objektpunktes (Pj) des Objektes 9 im Durchstoßpunkt (Pjs) der Bewegungsbahn (bj) durch die Schärfefläche (SEO) des Phasengitters (102) mindestens 1°. Das am Objekt 9 reflektierte und gestreute Licht passiert die afokale Abbildungsstufe mit den Objektiven 105 und 103 und die Kreisringblende 104 und wird wieder auf das Phasengitter 102 abgebildet. Aus den beiden Teilbündeln entstehen zwei gebeugte und kollineare Teilbündel, die mittels Objektiv 110 über die Lochblende 111 die Ebene des Phasengitters 102 scharf auf den Sensor-Chip 113 einer Kamera abbilden. Von Vorteil ist hier, dass bei beugungsbegrenzter Abbildung, die in den virtuellen Pixeln, welche das bewegte Objekt nachverfolgen, Signale generiert werden, die in der Form kurzkohärenten Signalen entsprechen und in erster Näherung stets gleiche Phase aufweisen, nämlich Phase null am Schwerpunkt. Dies vereinfacht die Signalauswertung erheblich gegenüber Signalen mit einer variablen Phase am Schwerpunkt, bzw. Kontrastmaximum. 10 shows an arrangement with a phase grating 102 which is from a light source 101 is illuminated, which consists of a laser diode array, which is in the focal plane of the lens 110 located. The collimated and quasi-monochromatic light beam reaches a phase grating 102 , Two diffracted sub-beams are created in the first two diffraction orders. The zeroth diffraction order is almost completely suppressed. The two bent sub-bundles pass through an annular aperture 104 in the common focal plane of the lenses 103 and 105 , By focusing with a lens 105 arises on the surface areas a high-frequency interference image of the object moving along a straight line b. The tangent to the trajectory (bj) of a moving object point (Pj) of the object 9 at the point of penetration (Pjs) of the movement path (bj) through the focus surface (SEO) of the phase grating ( 102 ) at least 1 °. That on the object 9 reflected and scattered light passes through the afocal imaging stage with the lenses 105 and 103 and the circular aperture 104 and gets back on the phase grating 102 displayed. From the two sub-bundles, two diffracted and collinear sub-bundles are created, using an objective 110 over the pinhole 111 the level of the phase grating 102 sharp on the sensor chip 113 of a camera. The advantage here is that with diffraction-limited imaging, the signals generated in the virtual pixels that track the moving object, which correspond in the form of short-coherent signals and always have the same phase, namely phase zero at the center of gravity. This considerably simplifies signal evaluation compared to signals with a variable phase at the center of gravity or maximum contrast.

Claims (10)

Optisches Messverfahren mit einem Beleuchtungsstrahlengang zur Erzeugung eines strukturierten Lichtfeldes mit Streifen entweder durch Abbildung eines Gitters oder durch Interferenz zweier kohärenter Lichtbündel mit einer Schärfefläche des strukturierten Lichtfeldes im Objektraum und einem in diesem strukturierten Lichtfeld relativ zum strukturierten Lichtfeld mit Lateralkomponente bewegten und durch das strukturierte Lichtfeld beleuchteten Objekt, wobei dessen Bewegungsrichtung und Geschwindigkeit zumindest näherungsweise vorab bekannt ist oder echtzeitnah gemessen wird und eine Bildserie vom strukturiert beleuchteten und mit Lateralkomponente bewegten Objekt im Messvorgang mittels einer elektronischen, pixelierten Kamera in einem Beobachtungsstrahlengang erzeugt wird, gekennzeichnet dadurch, dass stets ein Winkel (γ) zwischen einer Tangente an die Bewegungsbahn (bj) eines jeden Objektpunktes (Pj) und einer Tangente an die Schärfefläche (SEO) im strukturierten Lichtfeld im Durchstoßpunkt (Pjs) der Bewegungsbahn (bj) durch die Schärfefläche (SEO) mit einem Betrag von mindestens 1° besteht und bei Bewegung des Objektes (9) im strukturierten Lichtfeld die Objektpunkte die Schärfefläche (SEO) in diesem strukturierten Lichtfeld mindestens einmal passieren und zumindest in einem Zeitbereich des Durchganges das Bild eines jeden bewegten Objektpunktes nacheinander durch mehrere physikalisch reale Pixel der elektronischen, pixelierten Kamera (13) detektiert wird, wobei die Signalwerte eines Objektpunktes jeweils programmgesteuert einem virtuellen Pixel (j) zugeordnet werden und aus den zumindest näherungsweise bekannten Bewegungsparametern des Objektes (9) der Ort, die Integrationszeit und der Ausleszeitpunkt für das jeweils nachfolgende reale Pixel vorab bestimmt werden, so dass aus diesen physikalisch realen Pixeln programmgesteuert jeweils auf dem Sensor-Chip bewegte, virtuelle Pixel (j) gebildet werden, deren Bilder jeweils Objektpunkten (Pj) zumindest für einen Teil der Dauer des Durchganges dieses Objektpunktes durch das strukturierte Lichtfeld fest zugeordnet sind, so dass die Geschwindigkeit eines Bildes eines bewegten, virtuellen Pixels auf dem Objekt (9) jeweils der Geschwindigkeit des Bildes des Objektes (9) auf dem Sensor-Chip entspricht und so jeweils ein modulierter periodischer Signalverlauf von jedem relativ bewegten Objektpunkt (Pj) gewonnen wird und zumindest jeweils der Schwerpunkt der Einhüllenden des periodischen Signals bestimmt wird, um die Tiefenposition der bewegten Objektpunkte (Pj) festzustellen.Optical measuring method with an illumination beam path to generate a structured light field with stripes either by imaging a grating or by interference of two coherent light bundles with a focus area of the structured light field in the object space and a structured light field in this structured relative to the structured light field with lateral component and illuminated by the structured light field Object, the direction and speed of which is known at least approximately in advance or is measured in real time, and an image series of the object illuminated in a structured manner and moved with a lateral component is generated in the measuring process by means of an electronic, pixelated camera in an observation beam path, characterized in that an angle (γ ) between a tangent to the trajectory (bj) of each object point (Pj) and a tangent to the focus (SEO) in the structured light field in Durc hump point (Pjs) of the movement path (bj) through the focus area (SEO) with an amount of at least 1 ° and when the object is moved ( 9 ) in the structured light field the object points pass the focus (SEO) at least once in this structured light field and at least in one time area of the passage the image of each moving object point in succession through several physically real pixels of the electronic, pixelated camera ( 13 ) is detected, the signal values of an object point are each program-controlled assigned to a virtual pixel (j) and from the at least approximately known movement parameters of the object ( 9 ) the location, the integration time and the readout time for the subsequent real pixel are determined in advance, so that from these physically real pixels program-controlled, virtual pixels (j) are formed on the sensor chip, the images of which are each object points (Pj) are permanently assigned at least for part of the duration of the passage of this object point through the structured light field, so that the speed of an image of a moving, virtual pixel on the object ( 9 ) the speed of the image of the object ( 9 ) on the sensor chip and so a modulated periodic signal curve is obtained from each relatively moving object point (Pj) and at least the center of gravity of the envelope of the periodic signal is determined in order to determine the depth position of the moving object points (Pj). Optisches Messverfahren nach Anspruch 1, gekennzeichnet dadurch, dass für die Bestimmung des Schwerpunktes der Einhüllenden des periodischen Signals eine digitale Lock-in Detektion angewendet wird, wobei die aktuelle Frequenz des periodischen Signalverlaufs zumindest näherungsweise vorab bekannt ist oder echtzeitnah mittels Messung der Geschwindigkeit des Objektes bestimmt wird, und der digitale Lock-in Detektor auf diese aktuelle Frequenz eingestellt ist.Optical measuring method according to claim 1, characterized in that for determining the center of gravity of the envelope of the periodic signal digital lock-in detection is applied, with the current Frequency of the periodic signal curve at least approximately in advance is known or real-time by measuring the speed of the object is determined, and the digital lock-in detector this current frequency is set. Optisches Messverfahren nach mindestens einem der Ansprüche 1 bis 2, gekennzeichnet dadurch, dass zwischen dem Beleuchtungs- und dem Beobachtungsstrahlengang ein Triangulationswinkel im Objektraum besteht und der Phasengang in der Umgebung des Schwerpunktes der Einhüllenden für jeden verfolgten Objektpunkt (Pj) des periodischen Signals, welches mit einem virtuellen Pixel gewonnen wurde, bestimmt wird.Optical measuring method according to at least one of the Expectations 1 to 2, characterized in that between the lighting and the observation beam path a triangulation angle in the object space exists and the phase response around the focus of the envelope for each tracked object point (Pj) of the periodic signal, which with a virtual pixel was obtained is determined. Optisches Messverfahren nach mindestens einem der Ansprüche 1 bis 3, gekennzeichnet dadurch, dass für die Bestimmung des Phasenganges in der Umgebung des Schwerpunktes der Einhüllenden für jeden verfolgten Objektpunkt des periodischen Signals eine digitale Lock-in Detektion angewendet wird, wobei die aktuelle Frequenz des periodischen Signalverlaufs zumindest näherungsweise vorab bekannt ist, und der Lock-in Detektor auf diese aktuelle Frequenz eingestellt ist.Optical measuring method according to at least one of the Expectations 1 to 3, characterized in that for the determination of the phase response in the vicinity of the envelope's center of gravity for each object point being tracked a digital lock-in detection is applied to the periodic signal being, the current frequency of the periodic waveform at least approximately is known in advance, and the lock-in detector at this current frequency is set. Optisches Messverfahren nach mindestens einem der Ansprüche 1 bis 4, gekennzeichnet dadurch, dass der Objektphasengang (φ_Oj) mit einem vorab bestimmten Referenzphasengang (φ_R) in der Umgebung des Schwerpunktes rechnerisch zum Schnitt gebracht wird und aus dem Ort des Schnittpunktes auf dem Sendemuster-Array die Tiefenposition eines jeden Objektpunktes (Pj) ermittelt wird.Optical measuring method according to at least one of the Expectations 1 to 4, characterized in that the object phase response (φ_Oj) with a predetermined reference phase response (φ_R) in the vicinity of the center of gravity is arithmetically brought to the cut and from the location of the intersection the send position array the depth position of each object point (Pj) is determined. Optisches Messverfahren nach mindestens einem der Ansprüche 1 bis 5, gekennzeichnet dadurch, dass die aperturbegrenzende Wirkung eines Mikrolinsen-Arrays (131) einer Kamera (13) zur außeraxialen, lateralen Verschiebung des Lichtschwerpunktes des Lichtbündels der Objektbeobachtung in der Pupillenebene eines Frontobjektivs (8) und so zur Vergrößerung einer Triangulationsbasis (d_nom) genutzt wird und ein Triangulations-Messverfahren mit Kontrast- und Phasenauswertung eingesetzt wird.Optical measuring method according to at least one of Claims 1 to 5, characterized in that the aperture-limiting effect of a microlens array ( 131 ) a camera ( 13 ) for off-axis, lateral displacement of the light center of gravity of the light beam of object observation in the pupil plane of a front objective ( 8th ) and is used to enlarge a triangulation basis (d_nom) and a triangulation measurement method with contrast and phase evaluation is used. Optischer Sensor mit einem Beleuchtungsstrahlengang mit einem beleuchteten Sendemuster-Array mit einem Beobachtungsstrahlengang mit einer elektronischen, pixelierten Kamera mit einem Sensor-Chip und einem im Messvorgang mittels fest zugeordneten Bewegungssystem mit Lateralkomponente bewegten und strukturiert beleuchteten Objekt, wobei dessen Bewegungsrichtung und Geschwindigkeit zumindest näherungsweise vorab bekannt ist oder echtzeitnah gemessen wird, gekennzeichnet dadurch dass, eine Tangente an die Bewegungsbahn (bj) eines bewegten Objektpunktes (Pj) des Objektes 9 im Durchstoßpunkt (Pjs) der Bewegungsbahn (bj) durch die Schärfefläche (SEO) des Sendemuster-Arrays (2) eine Tangente an diese Schärfefläche (SEO) unter einem Winkel (γ) schneidet, wobei der Winkel (γ) mindestens 1° beträgt und das Sendemuster-Array (2) und der Sensor-Chip (13) im Objektraum zumindest näherungsweise eine gemeinsame Schärfefläche (SEO) aufweisen.Optical sensor with an illumination beam path with an illuminated transmission pattern array with an observation beam path with an electronic, pixelated camera with a sensor chip and an object which is moved and structured in the measurement process by means of a permanently assigned movement system with lateral component, the direction and speed of which are known at least approximately in advance is or is measured close to real time, characterized in that a tangent to the path of movement (bj) of a moving object point (Pj) of the object 9 at the point of penetration (Pjs) of the movement path (bj) through the focus area (SEO) of the transmission pattern array ( 2 ) intersects a tangent to this focus surface (SEO) at an angle (γ), the angle (γ) being at least 1 ° and the transmission pattern array ( 2 ) and the sensor chip ( 13 ) have at least approximately a common focus (SEO) in the object space. Optischer Sensor mit einem Beleuchtungsstrahlengang mit einem beleuchteten Sendemuster-Array mit mindestens einem Bereich mit mindestens einem Liniengitter und einem Beobachtungsstrahlengang mit einer Kamera und einem dem Beleuchtungsstrahlengang und dem Beobachtungsstrahlengang gemeinsam zugeordneten Frontobjektiv und einem im Messvorgang mit Lateralkomponente bewegten und strukturiert beleuchteten Objekt, dem ein Bewegungssystem fest zugeordnet ist, gekennzeichnet dadurch, dass eine pixelierte Kamera (13) mit einem Kamera-Chip mit einem Mikrolinsen-Array (131) um eine zur Einfallsebene der Schwerstrahlen der Lichtbündel von Beleuchtung und Beobachtung senkrechte Achse gekippt ist, so dass dies eine laterale Verschiebung des Lichtschwerpunktes der Detektion (LSP_D) in der Pupillenebene des Frontobjektivs (8) zur Folge hat, so dass dieser Lichtschwerpunkt (LSP_D) außeraxial ist.Optical sensor with an illumination beam path with an illuminated transmission pattern array with at least one area with at least one line grating and an observation beam path with a camera and a front lens jointly assigned to the illumination beam path and the observation beam path and an illuminated object which is moved and structured in the measurement process with the lateral component and which is a movement system is permanently assigned, characterized in that a pixelated camera ( 13 ) with a camera chip with a microlens array ( 131 ) is tilted about an axis perpendicular to the plane of incidence of the heavy rays of the light bundles from illumination and observation, so that this results in a lateral shift of the light center of gravity of the detection (LSP_D) in the pupil plane of the front objective ( 8th ) has the consequence that this light center of gravity (LSP_D) is off-axis. Optischer Sensor mit einem Beleuchtungsstrahlengang mit einem beleuchteten Liniengitter mit einem Beobachtungsstrahlengang und einer elektronischen, pixelierten Kamera mit einem Sensor-Chip und einem im Messvorgang mittels fest zugeordneten Bewegungssystem mit Lateralkomponente bewegten und strukturiert beleuchteten Objekt, wobei dessen Bewegungsrichtung und Geschwindigkeit zumindest näherungsweise vorab bekannt ist oder echtzeitnah gemessen wird, gekennzeichnet dadurch dass, gekennzeichnet dadurch dass, jeder Punkt des Liniengitters (102) wieder mittels Beleuchtungsstrahlengang und Beobachtungsstrahlengang über die Objektoberfläche (9) auf sich selbst, unter Nutzung von zwei außeraxialen Blendenbereichen, abgebildet wird und so ein schleifenförmiger, geschlossener Strahlengang besteht und eine Tangente an die Bewegungsbahn (bj) eines bewegten Objektpunktes (Pj) des Objektes 9 im Durchstoßpunkt (Pjs) der Bewegungsbahn (bj) durch die Schärfefläche (SEO) des Phasengitters (102) eine Tangente an diese Schärfefläche (SEO) unter einem Winkel (γ) schneidet, wobei der Winkel (γ) mindestens 1° beträgt und das Liniengitter (102) und der Sensor-Chip (113) im Objektraum zumindest näherungsweise eine gemeinsame Schärfefläche (SEO) aufweisen.Optical sensor with an illumination beam path with an illuminated line grating with an observation beam path and an electronic, pixelated camera with a sensor chip and an object which is moved and structured in the measurement process by means of a permanently assigned movement system with lateral component, the direction and speed of which is at least approximately known in advance or is measured in real time, characterized in that, characterized in that, each point of the line grid ( 102 ) again by means of illuminating beam path and observation beam path over the object surface ( 9 ) is mapped onto itself using two off-axis diaphragm areas and so there is a loop-shaped, closed beam path and a tangent to the movement path (bj) of a moving object point (Pj) of the object 9 at the point of penetration (Pjs) of the movement path (bj) through the focus surface (SEO) of the phase grating ( 102 ) intersects a tangent to this focus surface (SEO) at an angle (γ), the angle (γ) being at least 1 ° and the line grid ( 102 ) and the sensor chip ( 113 ) have at least approximately a common focus (SEO) in the object space. Optischer Sensor nach Anspruch 9 gekennzeichnet dadurch, dass das Liniengitter als ein Phasengitter (102) ausgebildet ist und zwischen dem Phasengitter (102) und der elektronischen, pixelierten Kamera (113) eine afokale Abbildungsstufe mit Lochblende (111) zur Raumfrequenzfilterung vorgeordnet ist.Optical sensor according to claim 9, characterized in that the line grating as a phase grating ( 102 ) is formed and between the phase grating ( 102 ) and the electronic, pixelated camera ( 113 ) an afocal imaging level with pinhole ( 111 ) is pre-arranged for spatial frequency filtering.
DE2003121888 2003-05-07 2003-05-07 3D optical metrology method in which a structured pattern is generated on an object surface and resultant virtual pixels measured with a white-light interferogram Withdrawn DE10321888A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE2003121888 DE10321888A1 (en) 2003-05-07 2003-05-07 3D optical metrology method in which a structured pattern is generated on an object surface and resultant virtual pixels measured with a white-light interferogram

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2003121888 DE10321888A1 (en) 2003-05-07 2003-05-07 3D optical metrology method in which a structured pattern is generated on an object surface and resultant virtual pixels measured with a white-light interferogram

Publications (1)

Publication Number Publication Date
DE10321888A1 true DE10321888A1 (en) 2004-12-02

Family

ID=33394619

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2003121888 Withdrawn DE10321888A1 (en) 2003-05-07 2003-05-07 3D optical metrology method in which a structured pattern is generated on an object surface and resultant virtual pixels measured with a white-light interferogram

Country Status (1)

Country Link
DE (1) DE10321888A1 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006007764A1 (en) * 2006-02-20 2007-08-23 Sick Ag Optoelectronic device and method for its operation
EP1944569A1 (en) 2007-01-15 2008-07-16 DMG Microset GmbH Method and device for optical measurement of an object in particular of a workpiece or tool
WO2013009677A1 (en) * 2011-07-14 2013-01-17 Faro Technologies, Inc. Grating-based scanner with phase and pitch adjustment
WO2013009676A1 (en) * 2011-07-13 2013-01-17 Faro Technologies, Inc. Device and method using a spatial light modulator to find 3d coordinates of an object
WO2013160197A3 (en) * 2012-04-27 2013-12-27 Bircher Reglomat Ag Method for inspecting and/or monitoring the areas around reclosable building openings
DE102005047307B4 (en) * 2005-09-30 2014-10-30 Technische Hochschule Mittelhessen A method for improved determination of the relative velocity between a sensor and a spaced-apart surface
EP2980527A1 (en) * 2014-08-01 2016-02-03 GOM Gesellschaft für optische Meßtechnik mbH Measuring device for three dimensional optical object measurement with a topometric sensor and use of a multi laser chip construction element
WO2017136011A2 (en) 2016-02-01 2017-08-10 Kla-Tencor Corporation Method and system for optical three-dimensional topography measurement
DE102017004428A1 (en) * 2017-05-08 2018-11-08 Universität Stuttgart Method and device for robust, deep-scanning focusing strip triangulation with multiple wavelets
DE102017004429A1 (en) * 2017-05-08 2018-11-08 Universität Stuttgart Method and device for robust, deep-scanning / focusing strip triangulation
DE102017129737A1 (en) * 2017-12-13 2019-06-13 Hauni Maschinenbau Gmbh Apparatus for non-contact, 3D optical detection of an end face of a transversely moving, rod-shaped article of the tobacco processing industry

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005047307B4 (en) * 2005-09-30 2014-10-30 Technische Hochschule Mittelhessen A method for improved determination of the relative velocity between a sensor and a spaced-apart surface
US7656541B2 (en) 2006-02-20 2010-02-02 Sick Ag Optoelectronic apparatus and a method for its operation
DE102006007764A1 (en) * 2006-02-20 2007-08-23 Sick Ag Optoelectronic device and method for its operation
EP1944569A1 (en) 2007-01-15 2008-07-16 DMG Microset GmbH Method and device for optical measurement of an object in particular of a workpiece or tool
DE102007002880B4 (en) * 2007-01-15 2011-08-25 DMG Microset GmbH, 33689 Method and device for optically measuring an object, in particular a workpiece or a tool
GB2507020A (en) * 2011-07-13 2014-04-16 Faro Tech Inc Device and method using a spatial light modulator to find 3D coordinates of an object
US9170098B2 (en) 2011-07-13 2015-10-27 Faro Technologies, Inc. Device and method using a spatial light modulator to find 3D coordinates of an object
WO2013009676A1 (en) * 2011-07-13 2013-01-17 Faro Technologies, Inc. Device and method using a spatial light modulator to find 3d coordinates of an object
JP2014522982A (en) * 2011-07-14 2014-09-08 ファロ テクノロジーズ インコーポレーテッド Grating-based scanner with phase and pitch adjustment
CN103649678A (en) * 2011-07-14 2014-03-19 法罗技术股份有限公司 Grating-based scanner with phase and pitch adjustment
US9091529B2 (en) 2011-07-14 2015-07-28 Faro Technologies, Inc. Grating-based scanner with phase and pitch adjustment
WO2013009677A1 (en) * 2011-07-14 2013-01-17 Faro Technologies, Inc. Grating-based scanner with phase and pitch adjustment
WO2013160197A3 (en) * 2012-04-27 2013-12-27 Bircher Reglomat Ag Method for inspecting and/or monitoring the areas around reclosable building openings
EP2980527A1 (en) * 2014-08-01 2016-02-03 GOM Gesellschaft für optische Meßtechnik mbH Measuring device for three dimensional optical object measurement with a topometric sensor and use of a multi laser chip construction element
WO2017136011A2 (en) 2016-02-01 2017-08-10 Kla-Tencor Corporation Method and system for optical three-dimensional topography measurement
CN108603848B (en) * 2016-02-01 2021-08-10 科磊股份有限公司 Method and system for optical three-dimensional topography measurement
US11287248B2 (en) 2016-02-01 2022-03-29 Kla-Tencor Corporation Method and system for optical three dimensional topography measurement
EP3411695B1 (en) * 2016-02-01 2022-01-26 KLA-Tencor Corporation Method and system for optical three-dimensional topography measurement
CN108603848A (en) * 2016-02-01 2018-09-28 科磊股份有限公司 Method and system for optical 3-dimensional topography measurement
CN113607088A (en) * 2016-02-01 2021-11-05 科磊股份有限公司 Method and system for optical three-dimensional topography measurement
JP2019503499A (en) * 2016-02-01 2019-02-07 ケーエルエー−テンカー コーポレイション Optical three-dimensional topography measurement method and system
WO2018206233A1 (en) 2017-05-08 2018-11-15 Universität Stuttgart Method and arrangement for robust, depth-scanning/focusing strip triangulation by means of a plurality of wavelets
US10866088B2 (en) 2017-05-08 2020-12-15 Universität Stuttgart Method and arrangement for robust, depth-scanning/focusing strip triangulation by means of a plurality of wavelets
DE102017004429B4 (en) 2017-05-08 2019-05-09 Universität Stuttgart Method and device for robust, deep-scanning / focusing strip triangulation
DE102017004428B4 (en) 2017-05-08 2018-11-29 Universität Stuttgart Method and device for robust, deep-scanning focusing strip triangulation with multiple wavelets
DE102017004429A1 (en) * 2017-05-08 2018-11-08 Universität Stuttgart Method and device for robust, deep-scanning / focusing strip triangulation
DE102017004428A1 (en) * 2017-05-08 2018-11-08 Universität Stuttgart Method and device for robust, deep-scanning focusing strip triangulation with multiple wavelets
DE102017129737A1 (en) * 2017-12-13 2019-06-13 Hauni Maschinenbau Gmbh Apparatus for non-contact, 3D optical detection of an end face of a transversely moving, rod-shaped article of the tobacco processing industry

Similar Documents

Publication Publication Date Title
DE3836564A1 (en) METHOD FOR TESTING OPTICAL ELEMENTS
DE102008023599A1 (en) Method and device for the microscopic detection of local inclinations and the three-dimensional shape of an object
CH693968A5 (en) Method and apparatus for the Topographiepruefung of surfaces.
EP2753896A2 (en) Method for capturing images of a preferably structured surface of an object and device for image capture
EP1636542B1 (en) Method and measuring device for the contactless measurement of angles or angle modifications in objects
DE112012004591T5 (en) observer
DE102011012611B4 (en) Method and device for non-contact measurement of an angle
DE10321888A1 (en) 3D optical metrology method in which a structured pattern is generated on an object surface and resultant virtual pixels measured with a white-light interferogram
DE202012004886U1 (en) Measuring device for measuring angles between optical surfaces
WO2000066972A1 (en) Method and device for scanning objects
WO2020127758A2 (en) Device and method for optical measurement of an internal contour of a spectacle frame
DE102011083421A1 (en) Method and device for measuring homogeneously reflecting surfaces
DE102005007244A1 (en) Absolute calibration free three dimensional mirror surface measurement sensor has lamp unit giving high depth of field laterally structured light pattern from microlens array
DE102007002880B4 (en) Method and device for optically measuring an object, in particular a workpiece or a tool
DE102005017233A1 (en) Sensor, has illumination unit producing deep-sharp, laterally structured light sample, where three-dimensional structure of sample remains unchanged over wide range of its dispersion in area
DE102006033779B4 (en) Method for measuring a reflective surface
DE4413758C2 (en) Device and method for checking the shape of a surface of an object to be measured
WO2016071078A2 (en) Measurement of the topography and/or the gradient and/or the curvature of a light-reflecting surface of a spectacle lens
DE102008031412A1 (en) Device i.e. line scanner, for monitoring measuring points on object surface to be measured, has focus plane displaceable parallel to object surface, where object surface is displaceable lateral to focus plane
EP0901639B1 (en) Method and device for determining the direction in which an object is located
DE102014016087B4 (en) Three-dimensional optical detection of object surfaces
DE102005018983B4 (en) Autocollimation telescope and method for imaging a measuring mark therefor
AT502614B1 (en) LASER GONIOMETER
CH675299A5 (en)
DE10321886A1 (en) Interferometric sensor for object scanning, has a beam splitter system that is configured as a triangle-shaped interferometer with a beam splitter layer system

Legal Events

Date Code Title Description
8122 Nonbinding interest in granting licenses declared
8139 Disposal/non-payment of the annual fee