DE10321888A1 - 3D optical metrology method in which a structured pattern is generated on an object surface and resultant virtual pixels measured with a white-light interferogram - Google Patents
3D optical metrology method in which a structured pattern is generated on an object surface and resultant virtual pixels measured with a white-light interferogram Download PDFInfo
- Publication number
- DE10321888A1 DE10321888A1 DE2003121888 DE10321888A DE10321888A1 DE 10321888 A1 DE10321888 A1 DE 10321888A1 DE 2003121888 DE2003121888 DE 2003121888 DE 10321888 A DE10321888 A DE 10321888A DE 10321888 A1 DE10321888 A1 DE 10321888A1
- Authority
- DE
- Germany
- Prior art keywords
- point
- focus
- beam path
- camera
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2518—Projection by scanning of the object
- G01B11/2527—Projection by scanning of the object with phase change by in-plane movement of the patern
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2518—Projection by scanning of the object
- G01B11/2522—Projection by scanning of the object the position of the object changing and being recorded
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
Die bekannten optischen Messverfahren zur dreidimensionalen optischen Erfassung des Profils einer Objektoberfläche versagen bei lateral schnell bewegten Objekten. Es gibt bisher ungelöste Probleme, wenn verfahrensbedingt für jeden bewegten Objektpunkt mehrere Signalwerte gewonnen werden müssen, um dynamische Phasenauswerte-Verfahren einsetzen zu können. Bei diesen Verfahren wird bekanntlich im Sensor ein beleuchtetes Liniengitter lateral verschoben, oder es wird ein Liquid Crystal Display (LCD) oder ein Digital Micro Mirror Device (DMD) als steuerbares Gitter und eine elektronische, pixelierte Kamera verwendet. Das Liniengitter, das LCD oder das DMD wird auf das zu untersuchende Objekt abgebildet. Das dort entstehende Streifenmuster, welches die Information über die Oberflächentopografie beinhaltet, wird über einen Beobachtungsstrahlengang abgebildet, s. a. Technisches Messen 62 (1995) 9, Seite 321 bis 327. Bei einem lateral zum Sensor bewegten Objekt, wenn zur Anwendung eines dynamischen Phasenauswerte-Verfahrens mehrere Signalwerte von jedem Objektpunkt gewonnen werden müssen, kann die Bildaufnahme des strukturiert beleuchteten Objektes in der Regel nicht schnell genug erfolgen. In diesem Fall treten wegen der Bewegungsunschärfe, besonders bei Oberflächen mit kleinen Defekten, nicht zu vernachlässigende Messfehler auf.The known optical measurement methods for three-dimensional optical Acquisition of the profile of an object surface fails with laterally fast moving ones Objects. So far there are unsolved Problems if procedural for each moving object point Several signal values must be obtained in order to use dynamic phase evaluation methods to be able to. With these methods, it is known that an illuminated one is located in the sensor Line grid shifted laterally, or it becomes a liquid crystal Display (LCD) or a digital micro mirror device (DMD) as controllable Grid and an electronic, pixelated camera are used. The Line grid, the LCD or the DMD is placed on the object to be examined displayed. The stripe pattern created there, which contains the information about the surface topography includes, is about mapped an observation beam path, see a. Technical measurement 62 (1995) 9, pages 321 to 327. With a laterally moved to the sensor Object if using a dynamic phase evaluation procedure several signal values can be obtained from each object point the image of the structured illuminated object is usually not done quickly enough. In this case, especially because of the motion blur for surfaces with small defects, not negligible measurement errors.
Dagegen ermöglichen statische Phasenauswerte-Verfahren, die zwar sehr schnell durchgeführt werden können, nur eine geringe laterale Auflösung, welche auch durch die projizierte Streifenbreite vorgegeben ist. Die Anwendung dieses Verfahrens ist in Technisches Messen 65 (1997) 9, S. 311–315 für die Messung von lateral kontinuierlich bewegten Dünnglasplatten dargestellt, wobei hier jedoch nur die langperiodische Ebenheitsabweichung der Glasplatten ausgewertet wird. Jedoch ist bei statischen Phasenauswerte-Verfahren die Erfassung des dreidimensionalen Profils beim Vorhandensein größerer Gradienten und bei Defekten beispielsweise im Submillimeterbereich nicht sehr robust, so dass dieses Messverfahren nur bei der Ebenheitsprüfung staubarmer und nahezu fehlerfreier Glasplatten uneingeschränkt funktioniert. Beim Auftreten von Oberflächenfehlern mit geringer lateraler Ausdehnung oder bei einer Textur auf der Oberfläche kann es dagegen keine oder nur fehlerhafte Informationen liefern.On the other hand enable static phase evaluation procedures that are carried out very quickly can, only a low lateral resolution, which is also determined by the projected strip width. The application this method is in technical measuring 65 (1997) 9, pp. 311-315 for the measurement represented by laterally continuously moving thin glass plates, but here only the long-period flatness deviation of the Glass plates is evaluated. However, with static phase evaluation methods the acquisition of the three-dimensional profile in the presence of larger gradients and not very bad for defects, for example in the submillimeter range robust, so that this measuring method is only dust-free for flatness testing and almost error-free glass plates works without restrictions. When it occurs of surface defects with little lateral expansion or with a texture on the surface on the other hand, it can supply no or only incorrect information.
Bei diesem Messverfahren liegt die Glasoberfläche stets in der Schärfeebene oder parallel zur Schärfeebene des auf die Glasoberfläche abgebildeten Liniengitters.at With this measuring method, the glass surface is always in the focus plane or parallel to the focus plane of the on the glass surface pictured line grid.
Beschreibung der Erfindungdescription the invention
Das Ziel besteht vor allem darin, lateral bewegte Objekte dreidimensional für die gewerbliche Anwendung zu vermessen und dies vergleichsweise kostengünstig und zuverlässig durchzuführen. Das Ziel wird erreicht mit den Merkmalen der unabhängigen Ansprüche.The The main goal is to make laterally moving objects three-dimensional for the to measure commercial application and this is comparatively inexpensive and reliable perform. The aim is achieved with the features of the independent claims.
Der Erfindung liegt die Aufgabe zugrunde, eine optische Sensor-Anordnung sowie ein optisches Messverfahren zur dreidimensionalen Vermessung von lateral bewegten Objekten derart weiterzuentwickeln, dass auch lateral bewegte Objekte, die eine größere Tiefenausdehnung als die einfache Triangulationswellenlänge bei einer bekannten Streifenprojektions-Sensor-Anordnung im Objektraum aufweisen, fehlerfrei optisch vermessen werden können. Hierbei wird die laterale Bewegung des Objektes in die dreidimensionale optische Vermessung einbezogen und dadurch ist nur ein vergleichsweise geringer apparativer Aufwand für den Sensor notwendig. Schließlich soll auch die Vermessung von Präzisionsschweißnähten mit einer Genauigkeit von mindestens 10 μm in den drei kartesischen Koordinaten möglich sein, wobei es eine laterale Relativbewegung zwischen dem optischen Sensor und der Schweißnaht gibt. Dabei soll der Tiefenmessbereich des optischen Sensors beispielsweise mindestens 600 μm betragen können.The The invention has for its object an optical sensor arrangement as well as an optical measurement method for three-dimensional measurement of to develop laterally moving objects in such a way that laterally moving objects that have a greater depth than the simple triangulation wavelength in a known fringe projection sensor arrangement have in the object space, can be optically measured without errors. in this connection the lateral movement of the object becomes three-dimensional optical measurement included and this is only a comparative low equipment expenditure for the sensor necessary. Finally should also measure precision welds with an accuracy of at least 10 μm in the three Cartesian coordinates, where there is a lateral relative movement between the optical sensor and the weld gives. The depth measurement range of the optical sensor should, for example at least 600 μm can be.
Für ein bewegtes Objekt soll bei der dreidimensionalen, optischen Erfassung des Profils oder zur Detektion von Mikrodefekten der Einfluss der Bewegungsunschärfe nur zu vergleichsweise kleinen, tolerierbaren Messfehlern führen.For a moving one Object should be in the three-dimensional, optical detection of the profile or for the detection of microdefects the influence of motion blur only lead to comparatively small, tolerable measurement errors.
Im erfinderischen optischen Messverfahren wird in einem ersten Verfahrensschritt optisch ein strukturiertes Lichtfeld mit Streifen und mit einer Schärfefläche in den Objektraum projiziert, wobei die Streifen stets zur optischen Sensor-Anordnung feststehen. Das strukturierte Lichtfeld mit einer Schärfefläche mit Streifen kann bekannterweise durch ein beleuchtetes und in den Objektraum abgebildetes Sendemuster-Array erzeugt werden. Es können als Sendemuster-Arrays beleuchtete Liniengitter, aber auch elektronische Sendemuster-Arrays wie LCDs (Liquid Crystal Displays) oder DMDs (Direct Micromirror Devices) oder elektronische, lichtemittierende Sendemuster-Arrays eingesetzt werden. Andererseits kann ein strukturiertes Lichtfeld auch durch die Überlagerung von zwei kohärenten Lichtbündeln entstehen.in the inventive optical measuring method is in a first step optically a structured light field with stripes and with a focus in the Object space projected, the stripes always to the optical sensor arrangement fixed. The structured light field with a focus area with Streak can be seen through an illuminated and in the object space shown transmission pattern array are generated. It can be used as a transmission pattern array Illuminated line grids, but also electronic transmission pattern arrays such as LCDs (Liquid Crystal Displays) or DMDs (Direct Micromirror Devices) or electronic, light-emitting transmission pattern arrays be used. On the other hand, a structured light field also through the overlay of two coherent light beams arise.
Das strukturierte Lichtfeld mit Streifen und mit einer Schärfefläche kann bekannterweise aber auch mittels Interferometer erzeugt werden. Dazu wird vorzugsweise ein Interferometer mit Lichtquellen mit Licht angepasster Kohärenzlänge oder mittels Lichtquellen mit angepasster lateraler Ausdehnung oder aber auch mittels Lichtquellen sowohl mit angepasster Kohärenzlänge als auch mit angepasster lateraler Ausdehnung eingesetzt. Die laterale Ausdehnung einer Lichtquelle bestimmt den räumlichen Kohärenzgrad der Interferenzerscheinung. Die Schärfefläche stellt bei einem Interferometer die Fläche maximalen Kohärenzgrades dar, also wo der Kontrast der Interferenzerscheinung ein Maximum wird. Es können Laserlichtquellen, Laserlichtquellen-Arrays, einzelne LEDs, LED-Arrays aber auch Weißlichtquellen mit oder ohne zugeordnetem LCD oder DMD oder auch Lichtquellen mit einem Spektralfilter eingesetzt werden. Die Lichtquellen können als Punktlichtquellen mit einem Kollimator oder auch als flächenhafte Lichtquellen mit einem Kollimator ausgebildet sein, wobei deren flächenhafte Ausdehnung rechnergesteuert sein kann. Dem Interferometer ist vorzugsweise ein fokussierendes Objektiv nachgeordnet, in dessen Fokalebene das strukturierte Lichtfeld mit einer Schärfefläche, also die Fläche maximalen Kohärenzgrades, erzeugt wird, wobei mittels Strahlteilung durch Teilung der Amplitude der Wellenfront zwei kohärente Strahlenbündel mit Lateral-Shear erzeugt werden. Das strukturierte Lichtfeld entsteht also durch Fokussierung von zwei kohärenten und vorzugsweise zueinander geneigten Strahlenbündeln. Mittels Interferometrie kann ein für das Objekt optimal angepasstes Streifenmuster erzeugt werden, da mittels eines Interferometers sowohl die Tiefe als auch die Streifenbreite der Interferenzerscheinung einstellbar sind.As is known, the structured light field with stripes and with a focus area can also be generated by means of an interferometer. To an interferometer with light sources with light adapted to coherence length or by means of light sources with adapted lateral extension or else with light sources with both adapted coherence length and with adapted lateral extension is preferably used. The lateral extent of a light source determines the degree of spatial coherence of the interference phenomenon. With an interferometer, the focus area represents the area of maximum degree of coherence, that is, where the contrast of the interference phenomenon becomes a maximum. Laser light sources, laser light source arrays, individual LEDs, LED arrays but also white light sources with or without an associated LCD or DMD or light sources with a spectral filter can be used. The light sources can be designed as point light sources with a collimator or also as area light sources with a collimator, their areal extension can be computer-controlled. The interferometer is preferably followed by a focusing lens, in the focal plane of which the structured light field is generated with a focus area, i.e. the area of maximum degree of coherence, two coherent beams with lateral shear being generated by beam splitting by dividing the amplitude of the wave front. The structured light field is thus created by focusing two coherent and preferably inclined beams. A stripe pattern that is optimally adapted to the object can be generated by means of interferometry, since both the depth and the stripe width of the interference phenomenon can be set by means of an interferometer.
Es können mittels Phasengitter in der äußeren Brennebene einer afokalen Anordnung und einer Lichtquelle mit Kollimator zwei kollimierte kohärente Bündel erzeugt werden, die über die afokale Anordnung unter Passieren eines außeraxialen Blendenbereiches in die Schärfefläche, die mit der zweiten äußeren Brennebene der afokalen Anordnung zusammenfällt, ein Streifenfeld erzeugen. Licht von Punkten der Objektoberfläche in der Umgebung der zweiten äußeren Brennebene der afokalen Anordnung gelangt über die afokalen Anordnung, unter Passieren eines zweiten außeraxialen Blendenbereiches wieder auf das Phasengitter, wobei der jeder Punkt des Phasengitters wieder auf sich selbst abgebildet wird und so ein schleifenförmiger, geschlossener Strahlengang besteht. Das Beugungsgitter beugt das auftreffende Licht. Das gebeugte Licht passiert ein weiteres Objektiv mit einem Lochblende in der Brennebene und gelangt über ein weiteres Objektiv auf den Sensor-Chip einer Kamera.It can using a phase grating in the outer focal plane an afocal arrangement and a light source with collimator two collimated coherent bundle is generated be that over the afocal arrangement while passing through an off-axis diaphragm area in the focus area, the with the second outer focal plane the afocal arrangement coincides, create a strip field. Light from points on the surface of the object Surroundings of the second outer focal plane the afocal arrangement comes across the afocal arrangement, passing through a second off-axis Aperture area back onto the phase grating, with each point of the phase grating is mapped onto itself again and so a loop-shaped, closed beam path exists. The diffraction grating bends that incident light. The diffracted light passes through another lens with a pinhole in the focal plane and enters via another lens on the sensor chip of a camera.
Es gibt erfindungsgemäß zur Projektionsrichtung des Sensors eine mit Lateralkomponente erfolgende Bewegung des Objektes oder eine mit Lateralkomponente durchgeführte Bewegung des optischen Sensors zum Objekt. In jedem Fall gibt es also eine Relativbewegung mit einer Lateralkomponente zwischen dem optischen Sensor und dem Objekt und damit zwischen dem strukturierten Lichtfeld und dem zu erfassenden Objekt. Dazu wird im optischen Sensor vorzugsweise ein fest und lagegenau eingebautes, beleuchtetes Sendemuster-Array mit mindestens einem Bereich mit mindestens einer linienhaften Struktur eingesetzt. Diese linienhafte Struktur, welche vorzugsweise durch ein Liniengitter oder ein Zylinderlinsen-Array dargestellt ist, wird mittels einer Lichtquelle über einen Beleuchtungsstrahlengang auf die Objektoberfläche abgebildet, so dass dort bei hinreichend scharfer Abbildung mehrere Streifen beobachtet werden können.It gives according to the projection direction the sensor a movement of the object with lateral component or a movement of the optical performed with a lateral component Sensors to the object. In any case, there is a relative movement with a lateral component between the optical sensor and the Object and thus between the structured light field and the to capturing object. For this purpose, a is preferably used in the optical sensor fixed and precisely installed, illuminated transmission pattern array with at least one area with at least one linear structure used. This linear structure, which is preferred by a line grid or a cylindrical lens array is shown, is via a light source an illumination beam path is mapped onto the object surface, so that there are several stripes if the image is sufficiently sharp can be observed.
Es wird im weiteren von einem Liniengitter als Sendemuster-Array, in der Anwendung der Erfindung wohl ein sehr häufiger Fall, ausgegangen. Das Liniengitter wird von einer Lichtquelle mit kollimiertem Licht beleuchtet. Vorzugsweise schließen dabei die Hauptstrahlen mit der zugehörigen optischen Achse des Beleuchtungsstrahlenganges einen Winkel von mindestens 2° ein, so dass in der Brennebene des nachgeordneten Objektivs ein dezentrierter Lichtschwerpunkt gebildet ist. Einem Beobachtungsstrahlengang, der vorteilhafterweise im optischen Sensor angeordnet ist, ist eine elektronische, pixelierte Bildaufnahme-Kamera mit einem Sensor-Chip zugeordnet, die im Erfassungsvorgang kontinuierlich Bilder aufnimmt, wobei der Erfassungsvorgang mittels Kamera so lange durchgeführt wird wie eine Relativbewegung mit Lateralkomponente zwischen Objekt und Optischen Sensors stattfindet. Die Linien des Liniengitters können auch durch sehr dicht benachbarte Punkte oder extrem feine Linien erzeugt sein, die makroskopisch als Linien erscheinen. Das Liniengitter besitzt mindestens eine einzige Periodenlänge.It is further described by a line grid as a transmission pattern array, in the application of the invention is probably a very common case. The line grid is illuminated by a light source with collimated light. Preferably conclude the main rays with the associated optical axis of the illumination beam path an angle of at least 2 °, so that a decentered in the focal plane of the downstream lens Center of gravity is formed. An observation beam path, the is advantageously arranged in the optical sensor electronic, pixelated image recording camera with a sensor chip assigned, which continuously takes pictures in the acquisition process, whereby the acquisition process is carried out for so long by means of a camera like a relative movement with a lateral component between the object and the optical Sensor takes place. The lines of the line grid can also generated by very close points or extremely fine lines that appear macroscopically as lines. The line grid has at least one period length.
Wenn es sich um ein elektronisch steuerbares Sendemuster-Array handelt, ist die laterale oder die rotatorische Position des Sendemuster-Arrays selbst oder aber die dessen Musters zum Sensor-Chip im optischen Sensor grundsätzlich oder aber zumindest für einen Zeitbereich von mindestens drei Bildaufnahmezyklen unveränderlich gemacht. Drei Intensitäten pro Pixel stellen bekannterweise das Minimum für die Anwendung eines phasenauswertenden Algorithmus' dar.If it is an electronically controllable transmission pattern array, is the lateral or the rotational position of the transmission pattern array itself or the pattern of the sensor chip in the optical sensor in principle or at least for a time range of at least three image acquisition cycles cannot be changed made. Three intensities As is known, per pixel represents the minimum for the use of a phase evaluating Algorithm '.
Wird ein elektronisches Sendemuster-Array als Liniengitter verwendet, beispielsweise ein beleuchteter LCD-Chip oder ein beleuchteter DMD-Chip oder auch ein selbstleuchtendes elektronisches Sendemuster-Array, ist zumindest für einen einzigen Zeitbereich von mindestens drei Bildaufnahmezyklen, also der Zeitbereich einer Bildaufnahmeserie, das mittels elektronischem Sendemuster-Array projizierte Lichtmuster unveränderlich gemacht. In diesem Zeitbereich bewegt sich jedoch das Objekt mit Lateralkomponente zum optischen Sensor oder aber der Sensor bewegt sich zum feststehenden Objekt. Die Bewegung, die so in jedem Fall eine relative Bewegung mit Lateralkomponente zwischen Sensor und Objekt darstellt, ist kontinuierlich oder erfolgt in diesem Zeitbereich in mindestens zwei Schritten. Bei einer Schrittbewegung erfolgen üblicherweise jedoch sehr viele feine Schritte.If an electronic transmission pattern array is used as a line grid, for example an illuminated LCD chip or an illuminated DMD chip or also a self-illuminating electronic transmission pattern array, the time range of at least three image recording cycles, i.e. the time range of an image recording series, is the minimum electronic transmission pattern array made projected light patterns unchangeable. However, the object moves in this time range with lateral component to the optical sensor or the sensor moves to the fixed object. The movement, which in any case represents a relative movement with a lateral component between the sensor and the object, is continuous or takes place in this time range in at least two steps. With a step movement, however, there are usually very many fine steps.
Vorzugsweise werden äquidistante Linienmuster mit einer vorab an die Messaufgabe optimal angepassten Periodelänge mit dem elektronischen Sendemuster-Array erzeugt.Preferably become equidistant Line pattern with an optimally adapted to the measurement task in advance period length generated with the electronic transmission pattern array.
Das strukturierte Lichtfeld besitzt durch die Größe der Pupille des Beleuchtungssystems einen begrenzten Schärfentiefebereich, so dass sich in Abhängigkeit von der Position eines Objektpunktes in bezug auf die Schärfefläche im strukturierten Lichtfeld der Kontrast der beobachteten Lichtstruktur auf diesem Objektpunkt ändert.The structured light field possesses by the size of the pupil of the lighting system a limited depth of field, so that depending from the position of an object point in relation to the focus in the structured Light field the contrast of the observed light structure on this Object point changes.
Im optischen Sensor selbst gibt es also überhaupt keine mechanisch bewegten Komponenten. Vorzugsweise wird die laterale Bewegung des Objektes benutzt, um im Messvorgang mittels dieser lateralen Bewegung ein Signal mit mehreren Intensitätswerten, mindestens jedoch drei, typischerweise jedoch um 20 bis 50 Intensitätswerte, aus jedem bewegten Objektpunkt zu gewinnen. Aus diesem Signal wird mindestens der Ort des maximalen Kontrastes bestimmt. Vorzugsweise wird aus diesem Signal mindestens ein Phasenwert errechnet. Aus dem Ort des maximalen Kontrastes und gegebenenfalls auch aus der Phaseninformation wird dann die Tiefe für jeden Objektpunkt bestimmt.in the optical sensor itself there are therefore no mechanically moved at all Components. The lateral movement of the object is preferred used to enter the measurement process by means of this lateral movement Signal with multiple intensity values, at least three, but typically around 20 to 50 intensity values, to win from every moving object point. This signal becomes at least the location of the maximum contrast is determined. Preferably at least one phase value is calculated from this signal. Out the location of the maximum contrast and possibly also from the Phase information then determines the depth for each object point.
Grundsätzlich kann sich aber auch der optische Sensor gegenüber einem feststehenden Objekt bewegen. In diesem Fall wird der optische Sensor mit einem Roboterarm oder einer Hand oder aber mit einem Bearbeitungskopf mitbewegt bewegt. Dieser letztgenannte Fall ist für die optische Zwei- oder Drei-Koordinatenmesstechnik – vor allem bei mittlerer Messgenauigkeit, also im 2 μm bis 20 μm-Bereich – von großem Interesse. Hierbei wird der optische Sensor vorteilhafterweise von der Messmaschine in zwei oder drei Koordinaten mit einer typischen Positionsgenauigkeit im 1 μm-Bereich positioniert, so dass auch die aktuelle Position des Sensor zum Werkstück mit einer Genauigkeit von etwa 1 μm bekannt ist.Basically can but the optical sensor is also moving in relation to a fixed object. In this case, the optical sensor with a robot arm or moved with one hand or with a processing head. This latter case is for optical two or three coordinate measuring technology - above all with medium measurement accuracy, i.e. in the 2 μm to 20 μm range - of great interest. Here will the optical sensor advantageously from the measuring machine in two or three coordinates with a typical position accuracy in 1 μm range positioned, so that the current position of the sensor to the workpiece with a Accuracy of around 1 μm is known.
Beispielsweise wird hier im weiteren ein Ansatz mit der Bewegung eines zu vermessenden Objektes beschrieben. Mittels einem Bewegungssystem wird also das zu untersuchende Objekt kontinuierlich bewegt, beispielsweise bei der kontinuierlichen Vermessung des dreidimensionalen Profils von Schweißnähten im kontinuierlichen Fertigungsprozess, wobei der optische Sensor dabei feststeht. Die ganz genaue Position eines Details des Objektes, beispielsweise ein kleines Loch in dessen Oberfläche, steht dabei nicht so sehr im Vordergrund, sondern vielmehr die Tatsache, dass ein Mikroloch überhaupt vorhanden ist.For example is an approach with the movement of one to be measured Property described. So with a movement system The object to be examined moves continuously, for example at the continuous measurement of the three-dimensional profile of welds in the continuous manufacturing process, with the optical sensor included fixed. The very exact position of a detail of the object, for example a small hole in its surface is not so much in the foreground, but rather the fact that a micro-hole at all is available.
Die Bewegung des Objektes sollte auf einer für die gewünschte Messgenauigkeit hinreichend präzisen Bahn b erfolgen, um nicht fälschlicherweise einen Lagefehler des Objektes als Messergebnis zu interpretieren. Die Geschwindigkeit der Bewegung des Objektes kann sehr genau gemessen und geregelt werden.The Movement of the object should be on a path that is sufficiently precise for the desired measuring accuracy b are done so as not to erroneously one To interpret the position error of the object as a measurement result. The The speed of movement of the object can be measured very accurately and be regulated.
Beim erfinderischen Verfahren gibt es entweder a priori-Kenntnisse über die Richtung und die Geschwindigkeit der Bewegung des Objektes, oder es erfolgt die in situ-Messung der Richtung und der Geschwindigkeit des zu prüfenden Objektes. Vorzugsweise können dabei auch auf dem Objekt aufgebrachte Marken oder Strukturen oder die natürliche Struktur der Oberfläche wie die Rauheit oder eine Textur verwendet werden. Letztere können beispielsweise mittels Kreuzkorrelationsverfahren ausgewertet werden, so dass stets die Bewegungsrichtung und die Geschwindigkeit des Objektes zumindest in lateraler Richtung genau bekannt sind. Für die Bestimmung der Geschwindigkeit des Objektes kann beispielsweise eine Spalte einer pixelierten Kamera, beispielsweise eine CMOS-Kamera oder auch eine CCD-Kamera dienen, die parallel zur Bewegungsrichtung angeordnet ist und welche gleichzeitig auch zur Objektbeobachtung eingesetzt wird. Aber auch außerhalb des Fertigungsprozesses kann einem zu vermessenden Objekt für die Messung ein rechnersteuerbares Bewegungssystem fest zugeordnet sein. Beispielsweise kann dies ein Linearschlitten oder ein Drehtisch sein, dessen Geschwindigkeit mit der Auslesung von Vollbildern, benutzerdefinierten Regions of Interest (ROI) oder einzelner Pixel einer elektronischen, pixelierten Kamera genau synchronisiert ist.At the inventive methods are either a priori knowledge of the Direction and speed of movement of the object, or the direction and the speed are measured in situ of the item to be checked Object. Preferably can thereby also brands or structures applied to the object or the natural structure the surface how to use the roughness or a texture. The latter can, for example are evaluated by means of cross-correlation methods, so that always the direction of movement and the speed of the object at least are known exactly in the lateral direction. For the determination of the speed The object can be, for example, a column of a pixelated camera, for example a CMOS camera or also serve a CCD camera that is parallel to the direction of movement is arranged and which at the same time also for object observation is used. But also outside The manufacturing process can be an object to be measured for measurement a computer-controlled movement system can be permanently assigned. For example this can be a linear slide or a turntable whose speed with the reading of full images, user-defined regions of Interest (ROI) or individual pixels of an electronic, pixelated Camera is precisely synchronized.
Das bewegte Objekt wird über den Beleuchtungsstrahlengang des optischen Sensors mit einem strukturierten Lichtfeld beleuchtet, welches also mindestens für einige Bildzyklen bei der Bildaufnahme in Bezug zum optischen Sensor feststeht. Da auch der Sensor bewegt werden kann, wobei dann das Objekt feststeht, ist im weiteren stets ein relativ mit Lateralkomponente zum Sensor bewegtes Objekt gemeint. Die Beleuchtung des Objektes erfolgt vorzugsweise durch ein im optischen Sensor fest angeordnetes, beleuchtetes Liniengitter, welches durch das Beleuchtungssystem des Sensors in die Schärfefläche SEO im Objektraum abgebildet wird. Die Schärfefläche SEO stellt den Bildort des Liniengitters im strukturierten Lichtfeld dar.The moving object is over the illumination beam path of the optical sensor with a structured Illuminated light field, which is at least for a few image cycles in the Image acquisition in relation to the optical sensor is fixed. Since the sensor too can be moved, and then the object is fixed, is in the further always an object that is moved relative to the sensor with a lateral component meant. The object is preferably illuminated by an illuminated line grid fixedly arranged in the optical sensor, which by the lighting system of the sensor in the focus area SEO in Object space is mapped. The focus area SEO represents the image location of the line grid in the structured light field.
Relativ zum Sensor bewegte Objektpunkte besitzen jeweils eine Bewegungsbahn. Erfindungsgemäß besteht bei der Bewegung des Objektes stets ein Winkel γ zwischen einer Tangente an die Bewegungsbahn bj eines jeden Objektpunktes Pj und einer Tangente an die Schärfefläche SEO im strukturierten Lichtfeld im Durchstoßpunkt Pjs der Bewegungsbahn bj durch die Schärfefläche SEO. Die Bewegungsbahn bj wird durch das dem Objekt zugeordnete Bewegungssystem realisiert, das die Bewegungsbahn b besitzt. Der Winkel γ ist erfindungsgemäß jeweils größer als mindestens 1°. Ist die Schärfefläche SBO plan und die Bewegung des Bewegungssystems geradlinig, besteht im Objektraum ein konstanter Winkel γ zwischen der Schärfefläche SEO und der Bewegungsbahn b. Typische Werte für den Winkel γ liegen zwischen 5° und 60°.Object points moving relative to the sensor each have a trajectory. According to the invention, when the object moves, there is always an angle γ between a tangent to the movement path bj of each object point Pj and a tangent to the focus area SEO in the structured light field in the penetration point Pjs of the movement path bj through the focus surface SEO. The movement path bj is realized by the movement system assigned to the object, which has the movement path b. According to the invention, the angle γ is in each case greater than at least 1 °. If the focus area SBO is flat and the movement of the motion system is straight, there is a constant angle γ in the object space between the focus area SEO and the movement path b. Typical values for the angle γ are between 5 ° and 60 °.
Das Sendemuster-Array und der Sensorchip der pixelierten Kamera weisen durch den jeweils zugeordneten Beleuchtungs- und Beobachtungsstrahlengang vorzugsweise eine zumindest näherungsweise gemeinsame Schärfefläche (SEO) im Objektraum auf. Die Schärfefläche SEO ist vorzugsweise plan.The Send pattern array and the sensor chip of the pixelated camera through the respectively assigned illumination and observation beam path preferably at least approximately common focus (SEO) in the object space. The focus area SEO is preferably plan.
Das Sendemuster-Array kann auch als Ronchi-Gitter ausgebildet sein. Der Beleuchtungs- und Beobachtungsstrahlengang des Sensors ist vorzugsweise durch eine afokale, zweistufige Anordnung ausgebildet, also mit im Inneren der Abbildungsstufe zusammenfallenden Brennebenen. So besteht für ein im Array-Raum von der Lichtquelle ausgehendes kollimiertes Lichtbündel auch im Objektraum Kollimation. Der Lichtschwerpunkt der Beleuchtung in der gemeinsamen Brennebene im Inneren der Abbildungsstufe ist vorzugsweise dezentriert. Dies ergibt sich durch eine Neigung des kollimierten Lichtbündels im Array-Raum zur optischen Achse. So gelangt vorzugsweise ein geneigtes, kollimiertes Lichtbündel auf die Oberfläche des zu vermessenden Objektes. Es ist vorteilhaft, wenn der Beleuchtungsstrahlengang für den Lichtdurchgang mit geneigten Lichtbündeln durch ein spezielles Design der Optik optimiert ist. Das Licht gelangt von der Oberfläche des Objektes in den Beobachtungsstrahlengang. Der Lichtfluss im Beobachtungsstrahlengang kann vorzugsweise durch eine Abschattblende in der gemeinsamen Brennebene beeinflusst werden. Diese kann vorzugsweise dezentriert sein, so dass zwischen dem Lichtschwerpunkt des Lichtbündels im Beleuchtungsstrahlengang und dem Blendenzentrum vorzugsweise ein Abstand d_nom besteht, der als Triangulationsbasis des Sensors wirkt. Der Beobachtungsstrahlengang ist ebenfalls mittels speziellem optischen Design hinsichtlich geneigter, kollimierter Lichtbündel optimiert. Es ist aber auch möglich, dass sich im Beobachtungsstrahlengang weitere optische Elemente befinden, welche die zur Kamera gelangenden Lichtstrahlen begrenzen. Vorzugsweise können im Beobachtungsstrahlengang dazu vor der Kamera Mikrolinsen angeordnet sein.The Transmitting pattern array can also be designed as a Ronchi grating. The illumination and observation beam path of the sensor is preferred formed by an afocal, two-stage arrangement, i.e. with focal planes coinciding inside the imaging stage. So exists for a Collimated light bundle emanating from the light source in the array space, too collimation in the object space. The center of gravity of the lighting is in the common focal plane inside the imaging stage preferably decentered. This results from an inclination of the collimated light beam in the array space to the optical axis. So preferably an inclined, collimated light beam the surface of the object to be measured. It is advantageous if the illuminating beam path for the Light passage with inclined light beams through a special Design of the optics is optimized. The light comes from the surface of the Object in the observation beam path. The light flow in the observation beam path can preferably by a shading in the common focal plane to be influenced. This can preferably be decentered, so that between the center of gravity of the light beam in the illuminating beam path and there is preferably a distance d_nom from the center of the aperture which acts as the triangulation base of the sensor. The observation beam path is also by means of a special optical design with regard to inclined, collimated light beam optimized. But it is also possible that there are further optical elements in the observation beam path, which limit the rays of light reaching the camera. Preferably can Microlenses are arranged in front of the camera in the observation beam path his.
Die Aufnahme des strukturiert beleuchteten Objektes erfolgt also über den Beobachtungsstrahlengang des optischen Sensors mittels einer elektronischen, pixelierten Kamera mit einem bildaufnehmenden Sensor-Chip. Es werden im Messvorgang, so lange der Bewegungsvorgang besteht, Bilder vom mit Lateralkomponente bewegten Objekt bzw. Sensor aufgenommen, so dass also auf den Sensor-Chip in jedem Fall ein bewegtes Bild erzeugt wird, wobei die Bildpunkte des Objektes im Array-Raum sich mit Lateralkomponente bewegen. Auf dieser Annahme basieren alle weiteren erfinderischen Aussagen.The The structured illuminated object is thus recorded via the Observation beam path of the optical sensor by means of an electronic, pixelated camera with an image-taking sensor chip. It will in the measuring process, as long as the moving process exists, pictures of the Lateral component moving object or sensor recorded so that in any case, a moving image is generated on the sensor chip is, the pixels of the object in the array space itself with lateral component move. All further inventive are based on this assumption Statement.
Der Beobachtungsstrahlengang kann eine Strahlteilerfläche enthalten, um den Beleuchtungsstrahlengang vom Beobachtungsstrahlengang trennen zu können. Es können aber auch zwei völlig separate Objektivsysteme für die Beleuchtung und die Aufnahme des Objektes angeordnet sein, die dann direkt nebeneinander angeordnet sind. Diese Objektive können parallel oder auch zueinander geneigt angeordnet sein. Da in diesem Fall die Pupille der Beleuchtung von der Pupille der Beobachtung getrennt ist, besteht ein Triangulationswinkel, der stets größer als der Aperturwinkel von Beleuchtung und Beobachtung ist, und so kann hierbei zweckmäßigerweise auch ein Triangulations-Messverfahren mit kombinierter Kontrast- und Phasenauswertung eingesetzt werden.The Observation beam path can contain a beam splitter surface, to separate the illumination beam path from the observation beam path to be able to. It can but also two completely separate ones Lens systems for the lighting and the inclusion of the object must be arranged then arranged directly next to each other. These lenses can be used in parallel or be arranged inclined to each other. Because in this case the pupil of illumination is separated from the pupil of observation there is a triangulation angle that is always greater than is the aperture angle of lighting and observation, and so can expediently here also a triangulation measurement method with combined contrast and phase evaluation.
Zwei Objektivsysteme dieser Art sind in der Summe meist noch deutlich kostengünstiger als ein einziges Frontobjektiv, da dieses sowohl für die Beleuchtung als auch die Aufnahme des Objektes benutzt wird und somit in der Regel eine deutlich höhere numerische Apertur aufweisen muss als jedes der beiden einzelnen Objektive. Zur besseren Trennung der beiden Strahlengänge können dabei in einem oder auch in beiden Strahlengängen Planspiegel oder Spiegelprismen eingesetzt werden, beispielsweise auch Spiegeltreppen, damit so genügend Platz für die Objektivsysteme zur Beleuchtung und Beobachtung vorhanden ist.Two Overall, lens systems of this type are usually still clear cost-effective as a single front lens as this is for both lighting as the recording of the object is used and thus in the Usually a much higher numeric Must have an aperture as each of the two individual lenses. For better separation of the two beam paths, one or more can in both beam paths Flat mirrors or mirror prisms can be used, for example also mirrored stairs, so there is enough space for the lens systems for lighting and observation.
Bei mikroskopisch kleinen Objektfeldern mit weniger als 10 mm Durchmesser muss dagegen aus Platzgründen beim Stand der Technik meist ein einziges Frontobjektiv verwendet werden. Dieses kann auch zwei getrennte Pupillenbereiche aufweisen, denen je ein eigenes Objektivsystem zugeordnet ist, so dass getrennte und meist parallele Strahlengänge für die Beleuchtung und Beobachtung bestehen. Das Leica-Stereomikroskop MZ 12 ist dafür ein Beispiel.at microscopic object fields with a diameter of less than 10 mm on the other hand, for space reasons mostly used a single front lens in the prior art become. This can also have two separate pupil areas, which are each assigned their own lens system, so that separate and mostly parallel beam paths for the Illumination and observation exist. The Leica stereo microscope MZ 12 is for that an example.
Es ist aber auch möglich, dass ein Frontobjektiv nur einen einzigen Pupillenbereich aufweist und diesem auch nur ein einziges weiteres Objektiv zugeordnet ist, welches dann gemeinsam für die Beleuchtung und Beobachtung des Objektes genutzt wird. Dann erfolgt die notwendige Trennung der Lichtbündel von Beleuchtung und Beobachtung mittels eines Strahlteilers.However, it is also possible for a front objective to have only a single pupil area and for this to be associated with only a single further objective, which is then common for the lens lighting and observation of the object is used. Then the necessary separation of the light beams from lighting and observation takes place using a beam splitter.
Es ist vorteilhaft, die Beobachtungspupille dieses Frontobjektivs so zu wählen, dass sich eine numerische Apertur von mindestens etwa 0,05 für die Beobachtung ergibt. Die Beleuchtungsapertur sollte dann ebenfalls mindestens 0,05 betragen. Der Abstand zwischen den beiden Pupillen kann etwa das Doppelte des Pupillendurchmessers betragen.It the observation pupil of this front lens is advantageous to choose, that there is a numerical aperture of at least about 0.05 for observation results. The lighting aperture should then also be at least 0.05. The distance between the two pupils can be about be twice the pupil diameter.
Unabhängig von der Gestaltung des Beleuchtungs- und Beobachtungssystems besteht also an jedem Punkt des Objektes zwischen jedem Hauptstrahl des Beleuchtungsbündels und jedem Hauptstrahl des Beobachtungsbündels vorzugsweise ein Triangulationswinkel von mindestens 2°. Typisch sind Werte im Bereich von 5° bis 30°, so dass hierbei auch mit Vorteil ein Triangulations-Messverfahren mit Kontrast und Phasenauswertung eingesetzt werden kann.Independent of the design of the lighting and observation system at every point of the object between every main ray of the illumination beam and preferably a triangulation angle for each main beam of the observation beam of at least 2 °. Values in the range of 5 ° to 30 ° are typical, so that this is also advantageous a triangulation measurement method with contrast and phase evaluation can be used.
Ohne dass Details vom Profil des Objektes bekannt sind, werden mittels der bekannten Parameter der Relativbewegung nacheinander Pixel auf dem Sensor-Chip so belichtet und ausgelesen, dass sich eine Nachverfolgung des hinsichtlich seiner Oberflächengestalt und Reflektivität weitgehend unbekannten Objektes ergibt. Die Nachverfolgung erfolgt so, als ob je ein Bild eines relativ zum Sensor-Chip bewegten Objektpunktes auf dem Bildempfänger das jeweils aktuell zugehörige Pixel selbst ausliest, also durch den sich bewegenden Hauptstrahl des Abbildungsbündels dieses Objektpunktes. Diese Betrachtung geht hierbei vom Hauptstrahl der Abbildung aus, da das Objektpunktbild ja auch völlig unscharf sein kann. In der Regel wird bei der zu vermessenden Objektoberfläche von einer zumindest näherungsweise bekannten mittleren Entfernung derselben vom optischen Sensor ausgegangen.Without that details of the profile of the object are known are made known by means of of the known parameters of the relative movement successively pixels the sensor chip exposed and read out so that there is a follow-up of its surface shape and reflectivity largely unknown object. Follow-up is done as if an image of an object point moved relative to the sensor chip on the image receiver the currently associated Pixel itself reads out, i.e. by the moving main beam of the picture bundle this object point. This consideration starts from the main beam the illustration, since the object point image is also completely out of focus can be. Usually the object surface to be measured is from one at least approximately known mean distance from the optical sensor.
Ein Winkel γ von einigen Grad wirkt sich nun wie folgt bei der Aufnahme von Bildern mit dem optischen Sensor aus, wobei hier ein Standardfall als Beispiel beschrieben wird: Zu Beginn der Detektion eines zum optischen Sensor mit Lateralkomponente bewegten Objektpunktes, also bei seinem Eintritt in den optischen Erfassungsbereich des optischen Sensors, wird dieser Objektpunkt in der Regel unscharf beleuchtet und auch unscharf abgebildet. Auf dem Objektpunkt tritt trotz lateraler Bewegung im Lichtfeld praktisch keine Änderung der Beleuchtungsstärke auf. Bei der weiteren Bewegung passiert dieser hier betrachtete Objektpunkt nach und nach mehrere Hell-Dunkel-Bereiche des Lichtfeldes, da er in den Bereich des Lichtfeldes gelangt, welches nun strukturiert ist. So verändert sich die Beleuchtung dieses bewegten Objektpunktes, also die Lichtintensität auf demselben periodisch mit der Zeit. Ist das Bild des Objektpunktes etwa im mittleren Bereich des Sensor-Chips der Kamera angelangt, der dem Erfassungsbereich des optischen Sensors entspricht, erfolgt eine scharfe Abbildung des Liniengitters auf die Objektoberfläche und somit auch auf den Objektpunkt. Vorzugsweise erfolgt jetzt auch eine scharfe Abbildung des Objektpunktes auf die pixelierte Kamera, da das Bild des Liniengitters und das Bild des Sensor-Chips der pixelierten Kamera im Objektraum vorzugsweise zusammenfallen. Im weiteren Verlauf der Bewegung des Objektes wird der betrachtete Objektpunkt in der Regel wieder unscharf beleuchtet und unscharf abgebildet, da die Bewegung des Objektes mit Lateralkomponente aufgrund des Winkels γ auch stets eine Komponente enthält, die parallel zur Normalen der Schärfeebene des strukturierten Lichtfeldes liegt. So ändert sich bei der erfindungsgemäßen Bewegung des Objektes die Entfernung dieses Objektes zur Schärfeebene ständig und damit auch der Kontrast der zu beobachtenden Streifen.On Angle γ of A few degrees now works as follows when taking pictures with the optical sensor, here a standard case as an example is described: At the beginning of the detection of an optical sensor with the lateral component of the moving object point, i.e. when it enters in the optical detection range of the optical sensor, this is Object point is usually out of focus and also out of focus. On the object point occurs despite lateral movement in the light field practically no change the illuminance on. With the further movement this happens here considered Object point gradually several light-dark areas of the light field, since it reaches the area of the light field, which is now structuring is. So changed the lighting of this moving object point, i.e. the light intensity on it periodically with time. Is the image of the object point approximately in the middle area of the sensor chip of the camera, which the Corresponds to the detection range of the optical sensor sharp image of the line grid on the object surface and thus also on the object point. Now preferably also a sharp image of the object point on the pixelated camera, because the image of the line grid and the image of the sensor chip pixelated camera preferably coincide in the object space. in the the course of the movement of the object becomes the one under consideration Object point is usually again out of focus and out of focus shown because the movement of the object is due to the lateral component of the angle γ too always contains a component the parallel to the normal of the plane of focus of the structured Light field lies. So changes yourself in the movement according to the invention of the object the distance of this object to the focus plane constantly and with it the contrast of the stripes to be observed.
Aus der vorab bekannten Bewegungsrichtung und -geschwindigkeit des Objektes mit den aus der Objektbewegung gesteuert zu belichtenden und auszulesenden Pixeln des Sensor-Chips einer pixelierten Kamera wird eine laterale Verfolgung von Objektpunkten realisiert, wobei die Signalwerte eines jeden verfolgten Objektpunktes programmgesteuert je einem virtuellen Pixel zugeordnet werden. Das Bild des Objektes bewegt sich also mit Lateralkomponente relativ zum Sensor-Chip, wobei für die Sensorfläche des Sensor-Chips so stets auch eine in-plane-Komponente der Bildbewegung gegeben ist. Dazu wird je ein zum Sensor-Chip, bewegtes, virtuelles Pixel für jedes einzelne Flächenelement der Objektoberfläche durch das Rechnerprogramm generiert, wenn das Flächenelement den Erfassungsbereich des Sensors aufgrund seiner lateralen Bewegungskomponente passiert. Das bewegte, virtuelle Pixel existiert maximal nur für die Zeitdauer ΔtP, die ein relativ zum Sensor-Chip bewegter Bildpunkt des Objektes für das Passieren der Sensor-Chip-Fläche benötigt.Out the previously known direction and speed of movement of the object with those to be exposed and read out controlled from the movement of the object Pixel of the sensor chip of a pixelated camera becomes a lateral one Tracking of object points realized, the signal values of one each tracked object point programmatically one virtual Pixels can be assigned. The image of the object is moving with lateral component relative to the sensor chip, with the sensor surface of the Sensor chips are always an in-plane component of the image movement given is. For this purpose, a virtual, moving one becomes a sensor chip Pixels for every single surface element the object surface generated by the computer program when the surface element covers the detection area happens due to its lateral movement component. The moving, virtual pixel exists for a maximum of only for the time period ΔtP Image point of the object moving relative to the sensor chip for the passage the sensor chip area needed.
Das bewegte, virtuelle Pixel wird aus einer kontinuierlichen Folge von nacheinander auszuwertenden physikalisch realen Pixeln programmgesteuert errechnet, wobei vorzugsweise genau die Signalwerte physikalisch realer Pixel verrechnet werden, die auf dem Sensor-Chip direkte Nachbarn sind. Das von einem physikalisch realen Pixel bei scharfer Abbildung detektierte Flächenelement auf der Objektoberfläche kann dabei beispielsweise eine Ausdehnung von 2 μm × 2 μm bis zu 20 μm × 20 μm je nach Abbildungsmaßstab und Pixelgröße des Sensor-Chips aufweisen, wobei die numerische Apertur der Beobachtung entsprechend groß genug gewählt werden sollte. Ein technisch optimaler Wert ist hierbei beispielsweise eine numerische Apertur von 0,1.The moving, virtual pixels is made up of a continuous sequence of program-controlled physically real pixels to be evaluated one after the other calculated, preferably exactly the signal values physically real pixels are calculated that are direct on the sensor chip Are neighbors. That from a physically real pixel at sharp Image of detected surface element on the object surface can extend, for example, from 2 μm × 2 μm to 20 μm × 20 μm depending on the imaging scale and Pixel size of the sensor chip have, the numerical aperture corresponding to the observation big enough to get voted should. A technically optimal value is, for example a numerical aperture of 0.1.
Dabei repräsentiert jedes physikalisch reale Pixel einen unveränderlichen Referenzphasenwert, der sich aus der zufälligen Lage des Liniengitters in bezug auf den Sensor-Chip und der Gitterkonstante des Liniengitters ergibt und der mittels Referenzmessung mit einer Referenzplatte hochgenau bestimmt werden kann, beispielsweise durch Tiefen-Scannen. Eine andere, besonders einfache Möglichkeit besteht darin, die Referenzplatte möglichst genau in die Schärfefläche SEO zu legen und eine statische Phasenauswertung durchzuführen. Der mit einer der beiden Methoden bestimmte Referenzphasengang φ_R als Funktion der Lateralkoordinate des Sensor-Chips in Bewegungsrichtung der Bildpunkte wird abgespeichert. Für jedes über die Sensor-Chip-Fläche programmgesteuert mit einer bekannten Geschwindigkeit bewegte virtuelle Pixel kann so der Referenzphasengang des Sensors φ_Rt im Zeitbereich aktuell errechnet werden.there represents each physically real pixel has an invariable reference phase value that out of the random Position of the line grid in relation to the sensor chip and the grid constant of the Line grid results and the reference measurement with a reference plate can be determined with high precision, for example by deep scanning. A another, particularly simple option consists of the reference plate as precisely as possible in the focus area SEO to lay and carry out a static phase evaluation. The with one of the two methods determined reference phase response φ_R as a function the lateral coordinate of the sensor chip in the direction of movement Pixels are saved. For every about the sensor chip area programmable virtual moves at a known speed The reference phase response of the sensor φ_Rt in the time domain can be pixels are currently being calculated.
Die maximale Bewegungsgeschwindigkeit des Objektes ergibt sich aus der Größe des Abstandes von zwei auf dem Objekt abgebildeten Pixeln pro minimal benötigter Auslesezeit für ein Pixel. Das Ziel besteht darin, das Bild eines jeden virtuellen Pixels genau so zu bewegen, dass es „seinem" relativ zum Sensor mit Lateralkomponente bewegten Objektpunkt vorteilhafterweise für die Zeitdauer ΔtP möglichst genau fest zugeordnet ist. Die Genauigkeit der Zuordnung eines auf dem Sensor-Chip sich mit Lateralkomponente bewegenden Objektpunktbildes und eines sich programmgesteuert dort bewegenden, virtuellen Pixels kann dabei im Bereich der Größe eines Pixels liegen.The maximum movement speed of the object results from the Size of the distance of two pixels imaged on the object per minimum read time required for a Pixel. The goal is to get the image of each virtual pixel exactly to move so that it is "his" relative to the sensor object point moved with the lateral component advantageously for the duration ΔtP if possible is exactly assigned. The accuracy of mapping one on the sensor chip with the object component image moving laterally and a virtual pixel moving there programmatically can range in size from a pixel lie.
Dieses ortsfeste Zuordnen kann modellhaft auch so verstanden werden, dass sich dabei das virtuelle Pixel wie auf einem „Laufband" – und im Modell außerdem unmittelbar vor dem bewegten und zu verfolgenden Objektpunkt – befindet. Der Objektpunkt befindet sich dabei in einem zu seiner Bewegungsbahn geneigten, strukturierten Lichtfeld. Dabei weist das „Laufband" mit dem bewegten, virtuellen Pixel zumindest näherungsweise die gleiche Geschwindigkeit wie das sich davor bewegende Objekt auf, so dass nacheinander mehrere Bilder von demselben Objektpunkt aufgenommen werden können. So ergibt sich nacheinander im Objektpunkt eine periodische Hell-Dunkel-Beleuchtung mit wechselndem Kontrast. Dabei tritt in der Regel ein Kontrastmaximum der Beleuchtung auf. Es wird erfindungsgemäß der Ort des maximalen Kontrastes im detektierten, periodischen Signal ausgewertet.This Fixed assignment can also be understood as a model that the virtual pixel looks like on a "treadmill" - and in the model as well immediately in front of the moved and tracked object point. The object point is in one of its trajectory inclined, structured light field. The "treadmill" with the moving, virtual pixels at least approximately the same speed as the object in front of it on, so that several images of the same object point in succession can be included. This results in a periodic light-dark illumination one after the other in the object point with changing contrast. As a rule, a maximum of contrast occurs the lighting on. According to the invention, it becomes the location of the maximum contrast evaluated in the detected, periodic signal.
Mittels des Beobachtungsstrahlengangs des optischen Sensors verfolgt das bewegte, virtuelle Pixel einen bestimmten Punkt eines relativ zum Sensor mit Lateralkomponente bewegten Objektes, beispielsweise den Randbereich eines Mikroloches, kontinuierlich. Dies ist möglich, da die Geschwindigkeit des Objektes vorab bekannt ist oder bei der Objektbewegung echtzeitnah gemessen wird. Mit dem relativ bewegten Objekt bewegt sich auch das Bild des virtuellen Pixels synchron mit, so dass im Schärfebereich der Abbildung des Liniengitters auf der Objektoberfläche, beispielsweise auf den Randbereich eines Mikroloches, vom Bild des virtuellen Pixels wegen der projizierten Streifen hell und weniger hell beleuchtete Bereiche durchfahren werden. Mittels diesem bewegten, virtuellen Pixel kann im zugehörigen Prozessor ein moduliertes, periodisches elektronisches Signal mit einer bestimmten Phasenlage und einer Einhüllenden erzeugt und gespeichert werden, die in der Regel ein einziges Maximum aufweist. Aus diesem Signalverlauf wird zumindest der Schwerpunkt der Einhüllenden, der zumindest näherungsweise dem Ort des Kontrastmaximums entspricht, bestimmt, um die Tiefenposition des mit dem virtuellen Pixel detektierten Objektpunktes festzustellen. Beim Vorhandensein eines effektiven Triangulationswinkels kann auch eine Phasenauswertung zur Genauigkeitssteigerung eingesetzt werden. Zur Bestimmung des Schwerpunktes der Einhüllenden des periodischen Signalverlaufs kann vorzugsweise eine digitale Lock-in Detektion mittels Rechenprogramm angewendet werden, das also einen digitalen Lock-in Detektor darstellt. Dabei ist die aktuelle Frequenz des periodischen Signals zumindest näherungsweise vorab bekannt, und der digitale Lock-in Detektor ist stets auf diese aktuelle Frequenz eingestellt. Die aktuelle Frequenz eines jeden – mittels virtuellen Pixels – detektierten periodischen Signalverlaufs ist der Geschwindigkeit der Bewegung des Bildes eines Objektes auf dem Sensor-Chip proportional. Wenn die Geschwindigkeit des Objektes nicht vorab bekannt ist, wird diese aktuelle Frequenz des periodischen Signalverlaufs echtzeitnah mittels Messung der Geschwindigkeit des Objektes und aus den bekannten Parametern der Anordnung bestimmt wird. Dabei ist zum einen der Abbildungsmaßstab der Kette: Gitter, Beleuchtungsstrahlengang, Objekt, Abbildungsstrahlengang und Kamera zu betrachten sowie die Gitterkonstante. Dabei kann es jedoch auf die aktuelle Frequenz auch noch einen geringen Einfluss durch den aktuell effektiv wirksamen Triangulationswinkel geben, so dass hier gegebenenfalls eine geringe Frequenzanpassung für die digitale Lock-in Detektion noch von Vorteil sein kann.through this follows the observation beam path of the optical sensor moved, virtual pixel a certain point relative to the Sensor with lateral component moving object, such as the Border area of a micro hole, continuous. This is possible because the speed of the object is known in advance or at Object movement is measured in real time. With the relatively moved Object also moves the image of the virtual pixel synchronously with so that in focus the image of the line grid on the object surface, for example the edge area of a micro hole, from the image of the virtual pixel because of the projected stripes lighted and less brightly lit. Areas. By means of this moving, virtual Pixel can in the associated processor a modulated, periodic electronic signal with a certain Phasing and an envelope generated and saved, which is usually a single maximum having. At least the center of gravity becomes from this signal course the envelope, of at least approximately corresponds to the location of the contrast maximum, determined to the depth position of the object point detected with the virtual pixel. At the The presence of an effective triangulation angle can also be a Phase evaluation can be used to increase accuracy. to Determination of the center of gravity of the envelope of the periodic signal curve can preferably digital lock-in detection by means of a computer program be used, which is a digital lock-in detector. The current frequency of the periodic signal is at least approximately in advance known, and the digital lock-in detector is always up to date Frequency set. The current frequency of everyone - by means of virtual pixels - detected periodic waveform is the speed of movement proportional to the image of an object on the sensor chip. If the speed of the object is not known in advance, it becomes current frequency of the periodic signal curve real-time using Measurement of the speed of the object and from the known parameters the arrangement is determined. On the one hand, the image scale is Chain: grating, illumination beam path, object, imaging beam path and camera as well as the lattice constant. It can however, it also has a minor influence on the current frequency through the currently effective triangulation angle, so that here, if necessary, a small frequency adjustment for the digital Lock-in detection can still be beneficial.
Durch die echtzeitnahe Erfassung der relativen Bewegung zwischen dem Objekt und dem Sensor und der daraus abgeleiteten Bestimmung der aktuellen Signalfrequenz kann die digitale Lock-in Detektion mit der Bestimmung des Schwerpunktes der Einhüllenden auch für einen mit Lateralkomponente zur Szene bewegten, handgeführten optischen Sensor zur dreidimensionalen Erfassung dieser Szene eingesetzt werden. Dies ist auch dann möglich, wenn es eine veränderliche laterale Bewegungsgeschwindigkeit des Sensors in Bezug zur Szene gibt.By real-time detection of the relative movement between the object and the sensor and the derived determination of the current one Signal frequency can be digital lock-in detection with the determination the focus of the envelope also for a hand-guided optical system moved to the scene with lateral components Sensor for three-dimensional detection of this scene can be used. This is also possible if it's a changeable lateral movement speed of the sensor in relation to the scene gives.
Auch zur Phasenauswertung kann eine digitale Lock-in Detektion angewendet werden. Die aktuelle Signalfrequenz kann durch eine Messung der aktuellen Bewegungsgeschwindigkeit des Objektes bestimmt und in das Auswerteprogramm, welches die digitale Lock-in Detektion durchführt, eingegeben werden. Bei der digitalen Lock-in Detektion kann mit verschiedenen Lock-in Frequenzen gearbeitet werden. Bei Vorhandensein eines Triangulationswinkels im Linienprojektor-Sensor wird der Phasengang für jeden verfolgten Objektpunkt in der Umgebung des Schwerpunktes als Objektphasengang φ_O berechnet und mit einem vorab bestimmten Referenzphasengang φ_R rechnerisch zum Schnitt gebracht. Der Schnittpunkt derselben liegt auf dem Sensor-Chip. Aus den bekannten geometrisch-optischen Parametern des Sensors kann also aus der Position dieses Schnittpunktes von Referenz- und Objektphasengang die jeweilige Tiefenposition des jeweils detektierten Objektpunktes errechnet werden, wobei sich dessen laterale Position aus der bekannten Position der virtuellen Pixel über der Zeit ergibt.Also A digital lock-in detection can be used for phase evaluation become. The current signal frequency can be determined by measuring the current movement speed of the object is determined and in the evaluation program which carries out the digital lock-in detection can be entered. With digital lock-in detection, different lock-in can be used Frequencies are worked. In the presence of a triangulation angle in the Line projector sensor becomes the phase response for each tracked object point calculated in the vicinity of the center of gravity as the object phase response φ_O and computationally with a predetermined reference phase response φ_R brought to the cut. The intersection of these lies on the sensor chip. Out the known geometric-optical parameters of the sensor that is, from the position of this intersection of the reference and object phase response the respective depth position of the object point detected in each case can be calculated, the lateral position of which is known Position of the virtual pixels above that gives time.
Durch die vorab bekannten Bewegungsparameter des Objektes werden also mittels elektronischer Programmsteuerung des Belichtungs- und Auslesevorganges der pixelierten Kamera und einem Steuerprogramm virtuell auf dem Sensor-Chip bewegte Pixel erzeugt. Dabei erfolgt die Zuordnung eines einzelnen virtuellen Pixels zu einem einzelnen Objektpunkt mit dem Eintritt dieses Objektpunktes in den Erfassungsbereich des optischen Sensors im Pixelauslesetakt, also wenn das in der Regel unscharfe Bild eines Objektpunktes das erste Mal am Rand des Sensor-Chips sichtbar wird. Das virtuelle Pixel, welches zu diesem Zeitpunkt für diesen Objektpunkt programmgesteuert erzeugt wird, kann – wie alle virtuellen Pixel – eine Identifikationsnummer erhalten. Dieses virtuelle Pixel besteht nur genau für die Durchgangszeit dieses bewegten Objektpunktes durch den Erfassungsbereich des optischen Sensors. Wenn sich das virtuelle Pixel aus seiner ersten Position, also beispielsweise ganz am Rand des Sensor-Chips, um einen Pixel-Pitch des Sensor-Chips lateral weiterbewegt hat, wird bereits ein neues, virtuelles Pixel in der Randposition des Sensor-Chips gebildet, welches dann den Nachbarn des vorherigen Objektpunktes in Bewegungsrichtung des Objektes detektiert und programmgesteuert ebenfalls verfolgt. So kann der Bewegungsunschärfebereich nicht größer als maximal ein abgebildeter Pixel-Pitch werden. Es ist aber auch möglich, dass das nächste virtuelle Pixel erst gebildet wird, wenn sich das vorherige bereits um mehrere, beispielsweise um vier Pixel-Pitches, weiterbewegt hat. Dann beträgt die elektronisch gesteuerte Shutter-Zeit nur maximal ein Viertel der Frame-Auslesezeit. Dies ist von Vorteil, wenn sich das Objekt sehr schnell bewegt und die Frame-Auslesezeit der Kamera die Begrenzung darstellt. Andererseits setzt dies wegen der kurzen Shutter-Zeit eine starke Lichtquelle voraus.By the previously known movement parameters of the object are thus by means of electronic program control of the exposure and readout process the pixelated camera and a control program virtually on the Sensor chip generates moving pixels. The assignment is made individual virtual pixels to a single object point with the Entry of this object point into the detection area of the optical Sensor in the pixel reading cycle, i.e. if the image is usually blurred of an object point is visible for the first time on the edge of the sensor chip becomes. The virtual pixel that is currently used for this Object point can be generated programmatically - like all virtual pixels - one Received identification number. This virtual pixel only exists exactly for the transit time of this moving object point through the detection area of the optical sensor. When the virtual pixel comes out of its first position, for example at the very edge of the sensor chip, has moved laterally by a pixel pitch of the sensor chip, a new, virtual pixel is already in the edge position of the Sensor chips formed, which then the neighbors of the previous one Object point in the direction of movement of the object is detected and program-controlled also pursued. So the motion blur area cannot be larger than a maximum of one pixel pitch. But it is also possible that the next virtual pixel is only formed when the previous one is already around has moved several, for example by four pixel pitches. Then it is electronic controlled shutter time only a maximum of a quarter of the frame readout time. This is an advantage if the object moves very quickly and the frame readout time of the camera represents the limitation. on the other hand this sets a strong light source due to the short shutter time ahead.
Aus den zumindest näherungsweise bekannten Bewegungsparametern des Objektes und den Kameradaten werden der Ort, die Integrationszeit und der Ausleszeitpunkt für das jeweils nachfolgende reale Pixel vorab bestimmt, so dass aus diesen reale Pixeln jeweils ein auf dem Sensor-Chip bewegtes, virtuelles Pixel programmgesteuert generiert werden kann. So erfolgt zumindest für einen Teil der Dauer der lateralen Bewegung eines jeden Schwerstrahls eines Bildes eines Objektpunktes über den Sensor-Chip eine feste Kopplung von je einem Objektpunkt mit je einem mitbewegten, virtuellen Pixel. Der Ort des aktuellen realen Pixels, welches zur Bildung des virtuellen Pixels, beispielsweise für die Dauer einer Integrationszeit des realen Pixels benutzt wird, ergibt sich zu jedem Zeitpunkt durch die Abbildung des jeweiligen Objektpunktes mittels Schwerstrahl auf die pixelierte Kamera. Auch wenn einmal an einer Stelle des Objektes kein Objektpunkt vorhanden sein sollte, beispielsweise aufgrund eines sehr tiefen Loches im Objekt, wird dennoch programmgesteuert ein bewegtes, virtuelles Pixel erzeugt.Out at least approximately known movement parameters of the object and the camera data the location, the integration time and the time of reading for each subsequent real pixels are determined in advance, so that real ones Pixels each have a virtual pixel moved on the sensor chip can be generated programmatically. So at least for one Part of the duration of the lateral movement of each heavy beam a fixed image of an object point over the sensor chip Coupling one object point each with one moving virtual one Pixel. The location of the current real pixel, which is used for formation of the virtual pixel, for example for the duration of an integration time of the real pixel is used at all times the imaging of the respective object point using a heavy beam on the pixelated camera. Even if at one point in the No object point should be present, for example due to a very deep hole in the object, it is still program controlled creates a moving, virtual pixel.
Die auf dem Sensor-Chip bewegten, virtuellen Pixel mit aufeinander folgenden Identifikationsnummern sind vorzugsweise direkt nebeneinander in einer Linie angeordnet. Die physikalisch realen Pixel der Kamera werden also zeitlich nacheinander so belichtet und ausgelesen, dass genau ein einzelner Objektpunkt pixelgenau verfolgt werden kann. Die Geschwindigkeit des Bildes eines bewegten, virtuellen Pixels auf dem Objekt muss hierbei möglichst genau der Geschwindigkeit des Objektes entsprechen.The virtual pixels with consecutive moving on the sensor chip Identification numbers are preferably next to each other in one Line arranged. The physically real pixels of the camera will be So one after the other so exposed and read out that exactly a single object point can be tracked with pixel accuracy. The speed the image of a moving, virtual pixel on the object if possible correspond exactly to the speed of the object.
Der so mittels bewegtem, virtuellen Pixel gewonnene Signalverlauf stellt in der Regel ein periodisches Signal mit einer bestimmten Phase und einer Einhüllenden mit mindestens einem Signalmaximum dar. Die Phasenlage ergibt sich aus der aktuellen Tiefenposition des Objektpunktes des optischen Sensors. Jedoch nur, wenn ein Triangulationswinkel im Objektraum besteht, der ja die effektive Triangulationswellenlänge bestimmt, trägt die Phase im detektierten Signal auch eine Information über die Tiefe des Objektpunktes. Nur dann ist es sinnvoll, auch diese Phase auszuwerten.The thus provides a waveform obtained by means of moving, virtual pixels usually a periodic signal with a certain phase and an envelope with at least one signal maximum. The phase position results from the current depth position of the object point of the optical Sensor. However, only if there is a triangulation angle in the object space which determines the effective triangulation wavelength, carries the Phase in the detected signal also provides information about the Depth of the object point. Only then does it make sense to do this phase too evaluate.
Es wird also der Phasengang in der Umgebung des Schwerpunktes der Einhüllenden für jeden verfolgten Objektpunkt Pj des periodischen Signals, welches mit einem virtuellen Pixel gewonnen wurde, bestimmt. Dies führt in der Regel zu einer höheren Genauigkeit bei der Bestimmung der Tiefenposition eines Objektpunktes als die Auswertung der Modulation des periodischen Signals.It becomes the phase response in the vicinity of the center of gravity of the envelope for everyone persecuted Object point Pj of the periodic signal, which with a virtual Pixel was determined. This usually leads to higher accuracy in determining the depth position of an object point as that Evaluation of the modulation of the periodic signal.
Die Triangulationswellenlänge im Objektraum ergibt sich in bekannter Weise aus dem Quotienten der Gitterkonstante des Bildes des Liniengitters auf der Objektoberfläche und der Summe der Tangenswerte des Winkels der Beleuchtung und des Winkels der Beobachtung. Diese beiden Winkel bilden den Triangulationswinkel, der sich bei einem optischen Sensor mit einem einzigen Frontobjektiv aus dem Abstand des Lichtschwerpunktes des Beleuchtungsschwerstrahls und des Beobachtungsschwerstrahls in dessen Pupillenebene und der Brennweite des Frontobjektivs ergibt. Dabei fällt die Pupillenebene des Frontobjektivs vorzugsweise mit dessen Brennebene aufgrund einer dort vorzugsweise angeordneten Abschattblende zusammen.The triangulation wavelength in the object dream results in a known manner from the quotient of the grating constant of the image of the line grating on the object surface and the sum of the tangent values of the angle of the illumination and the angle of the observation. These two angles form the triangulation angle which, in the case of an optical sensor with a single front lens, results from the distance between the light center of gravity of the illuminating heavy beam and the observation heavy beam in its pupil plane and the focal length of the front lens. The pupil plane of the front lens preferably coincides with its focal plane due to a shading diaphragm preferably arranged there.
Wenn die Geschwindigkeit der Objektbewegung konstant, das Liniengitter äquidistant ist und wenn das Beleuchtungsbündel im Objektraum und das Abbildungsbündel im Array-Raum kollimiert sind, ergibt sich in der Regel für das mittels virtuellem Pixel detektierte, periodische Signal eine konstante Frequenz, die jedoch in jedem Objektpunkt auch vom aktuell wirksamen Triangulationswinkel beeinflusst wird.If the speed of the object movement is constant, the line grid is equidistant is and if the bundle of lights collimated in the object space and the image bundle in the array space are usually given for the periodic signal detected by means of a virtual pixel constant frequency, which, however, in every object point also from the current effective triangulation angle is influenced.
Dabei ist durch die Wahl der numerischen Apertur von Beleuchtung und Beobachtung und des Tangens des Winkels γ, wobei der Winkel γ vorzugsweise auch 45° betragen kann, die Einhüllende des periodischen Signals vorzugsweise so bestimmt, dass nicht mehr als maximal 20 Perioden unter dieser Einhüllenden auftreten. Dies gilt insbesondere dann, wenn eine Phasenauswertung vorgenommen wird. Bei Kontrastauswertung können auch bis zu 100 Perioden unter dieser Einhüllenden noch mit einem Vorteil für die Genauigkeit ausgewertet werden. Dabei ist vorab die Soll-Frequenz des periodischen Signals für einen bestimmten Triangulationswinkel sehr genau bekannt, so dass mit Vorteil die digitalen Lock-in Verfahren eingesetzt werden können. Nach Ablage der mittels bewegtem, virtuellen Pixel gewonnenen Intensitätswerte in einem Speicherbereich ist es ja gleichgültig, ob diese Intensitätswerte in örtlicher oder zeitlicher Zuordnung gewonnen wurden, wobei es sich hier wegen der Verfolgung einzelner Objektpunkte letztlich hier immer um eine örtliche Zuordnung, jedoch zu einem bestimmten Zeitpunkt, handelt. Erst durch die Bewegung des Objektes und die programmtechnische Generierung eines virtuellen Pixels erfolgt die Transformation der Signale in den Zeitbereich.there is due to the choice of the numerical aperture of lighting and observation and the tangent of the angle γ, preferably the angle γ also be 45 ° can, the envelope of the periodic signal preferably determined so that no more appear as a maximum of 20 periods under this envelope. this applies especially if a phase evaluation is carried out. When evaluating contrast even up to 100 periods under this envelope still with an advantage for the Accuracy can be evaluated. The target frequency is in advance of the periodic signal for a certain triangulation angle is known very precisely, so that the digital lock-in procedures can be used to advantage. After filing the intensity values obtained by means of moving, virtual pixels in a memory area it doesn't matter whether these intensity values in local or temporal assignment were won, whereby it is because of The tracking of individual object points ultimately always involves a local one Assignment, but at a certain point in time. Only by the movement of the object and the generation of program technology A virtual pixel transforms the signals into the The time domain.
Weiterhin ist aber auch möglich, einen mit der menschlichen Hand oder von einem Roboterarm mit Lateralkomponente bewegten mobilen optischen Sensor – in der bereits zuvor beschriebenen Art – einzusetzen, wobei der Winkel γ hierbei sehr groß sein kann und beispielsweise 75° betragen kann. Der Beleuchtungs- und der Beobachtungsstrahlengang kann dabei völlig voneinander getrennt sein. Dabei kann im Objektraum im Schnitt senkrecht zu den Streifen das Beleuchtungsbündel vorzugsweise telezentrisch und im dazu senkrechten Schnitt mittels Zylinderoptik zentralperspektivisch sein. So entsteht ein langgezogenes, strukturiertes Lichtband, welches die Szene in einem großen Winkelbereich erfasst. Bei diesem Sensor kann aus den Bildern von der aufgenommenen Szene, die mit einer hinreichend schnellen Kamera gewonnen wurden, die Relativbewegung zwischen der Szene und dem Sensor so rekonstruiert werden, dass zumindest näherungsweise ein für jeden detektierbaren Punkt der Szene bewegtes, die Punkte der Szene jeweils nachverfolgendes, virtuelles Pixel errechnet werden kann. Dazu kann beispielsweise auch die Auswertung der Textur der Szene ausgenutzt werden. Zur Ermittlung der Relativbewegung kann auch noch ein weiterer Kamera-Chip eingesetzt werden. Gegebenenfalls kann die Szene dabei mittels einer zusätzlichen Lichtquelle beleuchtet werden, die an die Beleuchtungsaufgabe optimal angepasst ist. Mittels der bereits beschriebenen Ausweitung der Signale, die mit bewegten virtuellen Pixeln gewonnen wurden, kann so das dreidimensionale Profil der Szene mit einem Hand-held-Gerät bestimmt werden.Farther is also possible one with the human hand or from a robotic arm with a lateral component moving mobile optical sensor - in the previously described Type - use, where the angle γ here can be very large and be, for example, 75 ° can. The illumination and the observation beam path can thereby completely be separated from each other. The object space can be cut vertically to the stripes, the lighting bundle is preferably telecentric and in a vertical section using a cylinder optic with a central perspective his. This creates an elongated, structured light band, which the scene in a big one Angular range detected. With this sensor, the images of the recorded scene with a sufficiently fast camera won, the relative movement between the scene and the Sensor be reconstructed so that at least approximately one for everyone detectable point of the scene moves, the points of the scene in each case tracking, virtual pixel can be calculated. This can for example, the evaluation of the texture of the scene is also used become. Another can also be used to determine the relative movement Camera chip are used. If necessary, the scene can by means of an additional Illuminated light source that optimally adapted to the lighting task is. By means of the already described expansion of the signals that obtained with moving virtual pixels, the three-dimensional Profile of the scene can be determined with a hand held device.
Das Objekt kann auch zylindrisch geformte Oberflächen aufweisen, beispielsweise, wenn es sich um ein zylindrisches Präzisionsdrehteil handelt. Vorteilhafterweise wird dieses Präzisionsdrehteil im Messvorgang mittels Präzisionslager um seine Symmetrieachse gedreht. Die Schärfeebene des Liniengitters im Objektraum kann dann vorteilhafterweise ebenfalls eine Zylinderfläche darstellen mit einem zumindest näherungsweise gleichen Radius wie die zu vermessende Zylinderfläche. Dies ist durch die Anordnung und Abbildung eines gekrümmten Liniengitters auf die Objektoberfläche möglich, wobei die Zylinderachse desselben parallel zur Achse des zylindrischen Objektes liegt. Dabei sind die Achsen der beiden Zylinderflächen um den Betrag d separiert. Der Betrag d ist dabei so zu wählen, dass zwischen einer Tangente an die Zylinderfläche und der Tangente an die Schärfefläche SEO des Liniengitters im Durchstoßpunkt Pjs der Bewegungsbahn bj eines bewegten Objektpunktes Pj durch die Schärfefläche SEO ein Winkel von mindestens γ = 1° besteht. Eine gekrümmte Schärfefläche SEO kann aber auch durch eine spezielle Abbildung des Liniengitters, beispielsweise unter Verwendung mindestens einer zylindrischen Zerstreuungslinse, erzeugt werden. Auch dann besteht so stets ein Winkel γ von mehr als 1° zwischen den Tangenten an die Schärfefläche SEO, also der Bildfläche des Liniengitters im Objektraum, und den Tangenten der Bewegungsbahnen bj der einzelnen Objektpunkte Pj am jeweiligen Durchstoßpunkt Pjs durch diese Schärfefläche SEO. So entsteht auch bei zylindrischen Oberflächen durch das kontinuierliche Auslesen der den bewegten Objektpunkten nachgeführten realen Pixel, also beim Auslesen des durch Programmsteuerung erzeugten, mitbewegten, virtuellen Pixels, jeweils ein periodischer Signalverlauf mit einer Einhüllenden für jeden Objektpunkt. Auch hierbei kann sich bei konstanter Rotationsgeschwindigkeit des Objektes und bei einem zumindest näherungsweise äquidistanten Liniengitter jeweils eine zumindest näherungsweise konstante Signalfrequenz ergeben, wobei die Signalfrequenz auch durch die Größe des effektiven Triangulationswinkels beeinflusst wird.The object can also have cylindrically shaped surfaces, for example if it is a cylindrical precision turned part. This precision turned part is advantageously rotated about its axis of symmetry in the measuring process by means of precision bearings. The sharpness plane of the line grid in the object space can then advantageously also represent a cylinder surface with an at least approximately the same radius as the cylinder surface to be measured. This is possible by arranging and mapping a curved line grid onto the object surface, the cylinder axis of which is parallel to the axis of the cylindrical object. The axes of the two cylinder surfaces are separated by the amount d. The amount d is to be selected so that there is an angle of at least γ = 1 ° between a tangent to the cylindrical surface and the tangent to the sharpness surface SEO of the line grid in the point of intersection Pjs of the movement path bj of a moving object point Pj through the sharpness surface SEO. A curved focus surface SEO can also be generated by a special image of the line grid, for example using at least one cylindrical diverging lens. Even then there is always an angle γ of more than 1 ° between the tangents to the focus surface SEO, i.e. the image surface of the line grid in the object space, and the tangents of the movement paths bj of the individual object points Pj at the respective penetration point Pjs through this focus surface SEO. In this way, even with cylindrical surfaces, the real pixels that track the moving object points are continuously read out, i.e. when they are out reading of the virtual pixel that is moved and moved by program control, in each case a periodic signal curve with an envelope for each object point. Here, too, an at least approximately constant signal frequency can result with a constant rotational speed of the object and with an at least approximately equidistant line grating, the signal frequency also being influenced by the size of the effective triangulation angle.
Grundsätzlich ergibt sich in Abhängigkeit von der jeweiligen Entfernung eines Objektpunktes vom optischen Sensor – also von der Tiefenposition des Objektpunktes – im periodischen Signal eine bestimmte Phasenlage und auch eine bestimmte Lage des Maximums der Einhüllenden. Bei großen Abweichungen eines Objektpunktes von der mittleren Entfernung der Oberfläche, beispielsweise, wenn sich ein Objektpunkt auf einem stark hochstehenden Grat befindet, ist das Maximum der Einhüllenden deutlich verschoben. Beim Vorhandenseins eines Triangulationswinkels kann aus der Auswertung der Phasenlage in den einzelnen Signalen die Tiefenposition der Objektpunkte mit noch höherer Genauigkeit bestimmt werden. Dies gilt besonders für Anordnungen mit zwei völlig getrennten Strahlengängen für die Beleuchtung und die Beobachtung. Hierbei wird vorzugsweise am Modulationsmaximum – also am Ort der besten Schärfe – der Schnittpunkt des vorab im Zeitbereich bestimmten Referenzphasenganges des Sensors φ_Rt mit dem Phasengang φ_Otj eines im Zeitbereich bestimmten, unbekannten Objektpunktes Pj bestimmt. Ausgegangen wird dabei rechnerisch vom Referenzphasengang φ_R, der eine Funktion der lateralen Sensor-Chip-Koordinaten ist und der wie bereits beschrieben vorab bestimmt wurde. Daraus wird mittels der bekannten Bewegungsgeschwindigkeit des Objektes ein Referenzphasengang φ_Rt über der Zeit berechnet, der sich für einen zum Objektpunkt synchron bewegten Referenzpunkt in der Schärfefläche SEO ergeben würde. Die Bewegung des Referenzpunktes in der Schärfefläche SEO entspricht dem Fall des Triangulationswinkels null. Der Phasengang φ_Otj über der Zeit eines Objektpunktes Pj wird aktuell mittels virtuellem Pixel am Modulationsmaximum errechnet. Für den Fall des Triangulationswinkels null fallen die Phasengänge von Referenz φ_Rt und Objektpunkt φ_Otj Modulo 2π zusammen, so dass die Berechnung eines derartigen Schnittpunktes praktisch nicht möglich ist. Bei Vorhandensein eines Triangulationswinkels von einigen Grad ergibt dies dagegen ein sehr genaues Kriterium für die Tiefenposition eines bewegten Objektpunktes. Aus dem Ort des Schnittpunktes auf dem Sendemuster-Array kann die Tiefenposition eines jeden Objektpunktes unter Verwendung der bekannten geometrisch-optischen Parameter der Anordnung ermittelt werden.Basically results yourself in dependence on the respective distance of an object point from the optical one Sensor - so from the depth position of the object point - one in the periodic signal certain phase position and also a certain position of the maximum of Envelope. For large ones Deviations of an object point from the mean distance of the Surface, for example, when an object point is on a very high Ridge, the maximum of the envelope is clearly shifted. In the presence of a triangulation angle, the evaluation can the phase position in the individual signals the depth position of the object points with even higher ones Accuracy can be determined. This is especially true for orders with two totally separate beam paths for the Lighting and observation. Here is preferably at the maximum modulation - so on Location of the best sharpness - the intersection of the reference phase response of the sensor φ_Rt determined beforehand in the time domain the phase response φ_Otj of an unknown object point Pj determined in the time domain. The starting point is the reference phase response φ_R, the is a function of the lateral sensor chip coordinates and how has already been described. This is done using the known speed of movement of the object a reference phase response φ_Rt over the Time calculated for a reference point moved synchronously to the object point in the focus area SEO would result. The movement of the reference point in the focus area SEO corresponds to the case of the triangulation angle zero. The phase response φ_Otj over the time of an object point Pj is currently calculated using a virtual pixel at the maximum modulation. For the In the case of the triangulation angle zero, the phase changes decrease from Reference φ_Rt and object point φ_Otj Modulo 2π together, so the calculation of such an intersection is practical not possible is. In the presence of a triangulation angle of a few degrees on the other hand, this gives a very precise criterion for the depth position of a moving object point. The depth position can be determined from the location of the intersection on the transmission pattern array of each object point using the known geometrical-optical Parameters of the arrangement can be determined.
Besonders bei Sensor-Anordnungen mit einem einzigen Frontobjektiv, wenn der Triangulationswinkel zumindest näherungsweise null ist, wird nur das Auswerten des Schwerpunktes der Einhüllenden für jeden Objektpunkt durchgeführt, wobei hier stets das Signal des virtuellen Pixels ausgewertet wird. Die Auswertung der Einhüllenden genügt in der Regel dann, wenn eine große numerische Apertur für die Beleuchtung und die Beobachtung gegeben ist und der Triangulationswinkel ohnehin zum Aperturwinkel vergleichsweise klein oder sogar null ist. Wenn das Objekt mit extrem hoher Geschwindigkeit lateral zum Sensor bewegt wird – beispielsweise mit einer Geschwindigkeit von mehr als 100 mm/s – steht die Zeit für die numerisch aufwendigere Phasenauswertung ohnehin meist nicht zur Verfügung, bzw. es ist ein besonders hoher technischer Aufwand erforderlich.Especially for sensor arrangements with a single front lens, if the Triangulation angle at least approximately is zero, only evaluating the focus of the envelope for each Object point carried out the signal of the virtual pixel is always evaluated here. The evaluation of the envelope enough usually when a large numerical aperture for lighting and the observation is given and the triangulation angle anyway to the aperture angle is comparatively small or even zero. If the object is moved laterally to the sensor at extremely high speed will - for example at a speed of more than 100 mm / s - the time stands for the numerical more complex phase analysis is usually not available anyway, or a particularly high technical outlay is required.
Grundsätzlich können für die Ausweitung der Phase in den detektierten Signalen auch FFT-, Wavelet-Methoden oder andere beliebige Phasenauswerte-Algorithmen sowie auch Kreuzkorrelations-Verfahren mit vorab gewonnenen und abgespeicherten Referenzsignalverläufen eingesetzt werden.Basically, for expansion the phase in the detected signals also FFT, wavelet methods or others any phase evaluation algorithms as well as cross-correlation methods with advance obtained and stored reference waveforms used become.
Weiterhin wird vorzugsweise eine pixelierte Kamera mit einem Kamera-Chip mit einem aufgesetzten Mikrolinsen-Array eingesetzt. Dieses Mikrolinsen-Array bewirkt durch die begrenzte laterale Ausdehnung der lichtempfindlichen Fläche des Pixels stets eine Begrenzung des Aperturwinkels des Lichtbündels, welches auf das Pixel trifft. Bei Kippung der Kamera mit dem eingebauten Kamera-Chip und dem Mikrolinsen-Array um eine zur Einfallsebene der Schwerstrahlen der Lichtbündel von Beleuchtung und Beobachtung im Objektraum senkrechte Achse wird das auf die realen Pixel fallende Bündel etwas asymmetrisch beschnitten. Ohnehin ist in der Regel eine Verkippung des Kamera-Chips ja auch meist notwendig, um die benötigte Koinzidenz der Schärfefläche des Kamera-Chips mit der Schärfefläche des Gitterbildes im Objektraum zu erreichen.Farther is preferably a pixelated camera with a camera chip an attached microlens array. This microlens array caused by the limited lateral expansion of the photosensitive area of the pixel is always a limitation of the aperture angle of the light beam, which meets the pixel. When tilting the camera with the built-in Camera chip and that Microlens array around one to the plane of incidence of the heavy rays of the light beam of illumination and observation in the object space becomes a vertical axis the bundle falling on the real pixels is cropped somewhat asymmetrically. In any case, a tilt of the camera chip is usually also mostly necessary to get the needed Coincidence of the focus of the Camera chips with the focus of the grid image to reach in the object space.
Der Kamera-Chip kann aber auch senkrecht zur optischen Achse des zugehörigen Objektivs angeordnet sein, wenn die Schärfefläche des strukturierten Lichtfeldes senkrecht auf der optischen Achse des Beobachtungsstrahlenganges steht. Dann kann bei Verwendung eines gemeinsamen Frontobjektives mit zwei Pupillenbereichen auch das Sendemuster-Array senkrecht zur optischen Achse des Beleuchtungsstrahlenganges angeordnet sein. Eine derartige Anordnung ermöglicht, die Zoomfunktion eines Stereomikroskops uneingeschränkt zu verwenden, da sich die Schärfeebene SEO durch die Änderung der Vergrößerung nicht dreht, also der Winkel γ von der Zoomeinstellung des Stereomikroskops nicht beeinflusst wird.The Camera chip can also be perpendicular to the optical axis of the associated lens be arranged when the focus of the structured light field perpendicular to the optical axis of the Observation beam path stands. Then when using a common front lens with two pupil areas that too Transmitting pattern array perpendicular to the optical axis of the illumination beam path be arranged. Such an arrangement enables the zoom function of a Unrestricted stereo microscope to use because the focus level SEO through the change not the enlargement rotates, i.e. the angle γ of the zoom setting of the stereo microscope is not affected.
Andererseits kann die Beeinflussung des Winkels γ im Zusammenwirken mit der Zoomfunktion eines Stereomikroskops auch gezielt eingesetzt werden, um eine für ein Objekt bestangepasste Signalform zu finden, indem die neben der Vergrößerung des Mikroskops auch die Breite der Einhüllenden beeinflusst wird. In diesem Fall besteht im Sensor eine Verkippung des Kamera-Chips und des Liniengitters.On the other hand, influencing the Angle γ in cooperation with the zoom function of a stereomicroscope can also be used in a targeted manner in order to find a signal shape that is best adapted to an object by influencing the width of the envelope in addition to the magnification of the microscope. In this case there is a tilt in the sensor of the camera chip and the line grid.
Die asymmetrische Beschneidung des Lichtbündels ergibt sich bei einer Verkippung des Kamera-Chips mit aufgesetzten Mikrolinsen aus der lateralen Ausdehnung des Pixels, das in der Regel deutlich kleiner als der Durchmesser der Mikrolinse ist, im Zusammenwirken mit der Brennweite der vorgesetzten Mikrolinse. So besteht für das System Pixel mit Mikrolinse ein Grenzaperturwinkel von beispielsweise 10° für auftreffendes Licht. Diese asymmetrische Begrenzung des auf das Pixel treffenden Lichtbündels erfolgt durch die Kippung der Kamera mit dem Mikrolinsen-Array erfindungsgemäß so, dass dies eine laterale Verschiebung des Lichtschwerpunktes LSP_D in der Pupillenebene des Frontobjektivs zur Folge hat, so dass dieser außeraxial ist. So vergrößert sich die effektive Triangulationsbasis d_nom gegenüber dem Fall mit zur Objektivachse senkrechter Lage des Kamera-Chips deutlich. Die effektive Triangulationsbasis d_nom ist durch den Abstand des Lichtschwerpunktes der Beleuchtung LSP_L und der Beobachtung LSP_D bestimmt.The asymmetrical pruning of the light beam results in a Tilting of the camera chip with attached microlenses from the lateral extension of the pixel, which is usually significantly smaller than the diameter of the microlens is, in cooperation with the focal length of the front microlens. So there is for the system pixel with microlens a limiting aperture angle of 10 ° for example for incident Light. This asymmetrical limitation of what meets the pixel Beam of light takes place by tilting the camera with the microlens array according to the invention such that this is a lateral shift of the light center of gravity LSP_D in the pupil plane of the front lens, so that this off-axis is. So the effective one increases Triangulation basis d_nom compared to that Case with the camera chip perpendicular to the lens axis. The effective triangulation basis d_nom is given by the distance of the Center of gravity of the lighting LSP_L and the observation LSP_D certainly.
Durch diese Kippung des Kamerachips, die in der Regel gemeinsam mit der Kamera erfolgt, kann die effektive Triangulationswellenlänge beispielsweise noch etwa um die Hälfte verkleinert werden. Dies verbessert die Tiefenmess-Genauigkeit bei der Bestimmung des Profils und bei der Erkennung von Fehlern auf der Oberfläche ganz wesentlich. Außerdem kann so die numerische Apertur der Beleuchtung gleich oder sogar größer als die Beobachtungsapertur gemacht werden, was den Kontrast des unerwünschten Specklings im aufgenommenen Bild stark reduzieren kann.By this tilt of the camera chip, which is usually shared with the Camera, the effective triangulation wavelength, for example about another half be made smaller. This improves the depth measurement accuracy determining the profile and detecting errors the surface very essential. Moreover the numerical aperture of the lighting can be the same or even larger than the observation aperture can be made, which is the contrast of the unwanted Specklings can greatly reduce in the picture taken.
Erfindungsgemäß wird also vorgeschlagen, bei einem optischen Messverfahren die aperturbegrenzende Wirkung eines Mikrolinsen-Arrays einer Kamera zur lateralen, außeraxialen Verschiebung des Lichtschwerpunktes des Lichtbündels der Objektbeobachtung LSP_D in der Pupillenebene eines Frontobjektivs zu nutzen, die so zur effektiven Vergrößerung der Triangulationsbasis d_nom führt.According to the invention proposed the aperture-limiting in an optical measurement method Effect of a microlens array of a camera for lateral, off-axis Shift of the center of gravity of the light beam of the object observation LSP_D in the pupil plane of a front lens to use that for effective enlargement of the Triangulation basis d_nom leads.
Grundsätzlich kann also in jeder Triangulationsanordnung die aperturbegrenzende Wirkung eines System Mikrolinse mit detektierendem Pixel zur gezielten Beeinflussung der Schwerstrahllage im Beobachtungsstrahlengang verwendet werden.Basically can the aperture-limiting effect in every triangulation arrangement of a system microlens with a detecting pixel for targeted influencing the heavy beam position can be used in the observation beam path.
Die nachfolgenden Offenlegung wird durch die Ansprüche 9 und 10 abgedeckt. Weiterhin ist es aber auch möglich, dass ein optischer Sensor mit einem Liniengitter aufgebaut ist, welches von Lichtquelle mit Kollimator beleuchtet wird. Das kollimierte Lichtbündel gelangt auf das Liniengitter. Es entstehen gebeugte Teilbündel, wobei mindestens ein gebeugtes Teilbündel eine Kreisringblende in der gemeinsamen Fokalebene der nachfolgenden Objektive passiert, die eine afokale Abbildungsstufe bilden. Durch die Fokussierung mittels einem dem Objekt zugeordneten Prüfobjektiv entsteht auf den Flächenbereichen des entlang einer Geraden b bewegten Objekts ein hochfrequentes Streifenbild. Dabei beträgt die Tangente an die Bewegungsbahn (bj) eines bewegten Objektpunktes (Pj) des Objektes im Durchstoßpunkt (Pjs) der Bewegungsbahn (bj) durch die Schärfefläche (SEO) des Liniengitters mindestens 1°. Das am Objekt reflektierte und gestreute Licht passiert die afokale Abbildungsstufe mit dem Prüfobjektiv und die Kreisringblende und wird wieder auf das Liniengitter abgebildet. Die Ebene des Liniengitters wird anschließend scharf auf den Sensor-Chip einer Kamera abgebildet. Von Vorteil ist hier, dass die in den virtuellen Pixeln, welche das bewegte Objekt nachverfolgen, Signale generiert werden können, die in der Form den bekannten kurzkohärenten Signalen aus der Interferometrie entsprechen. Diese weisen in erster Näherung stets die gleiche Phase auf, nämlich die Phase null am Schwerpunkt der Einhüllenden des Signals. Dies vereinfacht die Signalauswertung erheblich gegenüber Signalen mit einer variablen Phase am Schwerpunkt, bzw. am Kontrastmaximum.The subsequent disclosure is covered by claims 9 and 10. Farther but it is also possible that an optical sensor is constructed with a line grating, which is illuminated by light source with collimator. The collimated light beam arrives on the line grid. Bent sub-bundles arise, whereby at least one diffracted sub-bundle an annulus in the common focal plane of the following Lenses happen that form an afocal imaging level. By focusing using a test lens assigned to the object arises on the surface areas of the object moving along a straight line b is a high-frequency one Strip layout. It is the tangent to the trajectory (bj) of a moving object point (Pj) of the object at the puncture point (Pjs) of the trajectory (bj) through the focus (SEO) of the line grid at least 1 °. The light reflected and scattered by the object passes through the afocal Mapping level with the test lens and the circular aperture and is mapped onto the line grid again. The level of the line grid is then sharply focused on the sensor chip Pictured camera. The advantage here is that the virtual Pixels, which track the moving object, generate signals can be those in the form of the well-known short-coherent signals from interferometry correspond. In a first approximation, these always have the same phase on, namely the Phase zero at the center of gravity of the envelope of the signal. This simplifies it the signal evaluation significantly compared to signals with a variable Phase at the center of gravity or at the maximum contrast.
Weiterhin ist es möglich, dass das Liniengitter als ein Phasengitter ausgebildet ist. Dies liefert Signale mit einem hohen Modulationsgrad. Das Phasengitter wird von einer quasi-monochromatischen Lichtquelle beleuchtet, die aus einem Laserdioden-Array besteht. Das kollimierte Lichtbündel gelangt auf ein Phasengitter. Es entstehen zwei gebeugte Teilbündel in den beiden ersten Beugungsordnungen. Die nullte Beugungsordnung ist fast vollständig unterdrückt. Die beiden gebeugten Teilbündel passieren eine Kreisringblende in der gemeinsamen Fokalebene der nachfolgenden Objektive, die eine afokale Abbildungsstufe bilden. Durch die Fokussierung mittels dem dem Objekt zugeordneten Prüfobjektiv entsteht auf den Flächenbereichen des entlang einer Geraden b bewegten Objekts ein hochfrequentes Interferenzbild. Dabei beträgt die Tangente an die Bewegungsbahn (bj) eines bewegten Objektpunktes (Pj) des Objektes im Durchstoßpunkt (Pjs) der Bewegungsbahn (bj) durch die Schärfefläche (SEO) des Liniengitters mindestens 1°. Das am Objekt reflektierte und gestreute Licht passiert die afokale Abbildungsstufe mit den Objektiven und die Kreisringblende und wird wieder auf das Phasengitter abgebildet. Es entstehen am Phasengitter zwei gebeugte und kollineare Teilbündel, die mittels nachfolgendem Objektiv über eine Lochblende, die der Raumfrequenzfilterung und der Sperrung der weiteren gebeugten Teilbündel dient, auf den Sensor-Chip einer Kamera gelangen werden, so dass die Ebene des Phasengitters mittels zweitem Objektiv nach der Lochblende scharf abgebildet wird. Dabei bilden die beiden Objektive um die Lochblende eine afokale Abbildungsstufe. Von Vorteil ist hier, dass die in den virtuellen Pixeln, welche das bewegte Objekt nachverfolgen, Signale generiert werden, die in der Form den kurzkohärenten Signalen entsprechen. Diese weisen in erster Näherung stets die gleiche Phase auf, nämlich die Phase null am Schwerpunkt der Einhüllenden des Signals. Dies vereinfacht die Signalauswertung erheblich gegenüber Signalen mit einer variablen Phase am Schwerpunkt, bzw. am Kontrastmaximum.It is also possible for the line grating to be designed as a phase grating. This provides signals with a high degree of modulation. The phase grating is illuminated by a quasi-monochromatic light source, which consists of a laser diode array. The collimated light beam reaches a phase grating. Two diffracted sub-beams are created in the first two diffraction orders. The zeroth diffraction order is almost completely suppressed. The two diffracted sub-bundles pass through a circular diaphragm in the common focal plane of the subsequent lenses, which form an afocal imaging level. Focusing by means of the test lens assigned to the object creates a high-frequency interference image on the surface areas of the object moving along a straight line b. The tangent to the movement path (bj) of a moving object point (Pj) of the object in the penetration point (Pjs) of the movement path (bj) through the focus area (SEO) of the line grid is at least 1 °. The light reflected and scattered on the object passes through the afocal imaging stage with the lenses and the circular ring diaphragm and is mapped onto the phase grating again. Two diffracted and collinear sub-beams are created on the phase grating, which are connected by means of a subsequent lens via a pinhole, the spatial frequency filtering and the blocking of the wide Ren diffracted sub-bundle is used to get onto the sensor chip of a camera, so that the plane of the phase grating is sharply imaged by means of a second lens after the pinhole. The two lenses form an afocal imaging stage around the pinhole. The advantage here is that the signals generated in the virtual pixels, which track the moving object, correspond in shape to the short-coherent signals. In a first approximation, these always have the same phase, namely phase zero at the center of gravity of the envelope of the signal. This considerably simplifies signal evaluation compared to signals with a variable phase at the center of gravity or at the maximum contrast.
Beschreibung der Figurendescription of the figures
Anhand
der
Das
aus dem Objektiv
Die
Abbildung des Objektes
Jedes
reale Pixel der CMOS-Kamera
Die
Die
Die
Weiterhin
ist in der
Im Gedankenexperiment ergibt sich der Phasengang φ_Rt über der Zeit, wenn das auf dem Sensor-Chip mit konstanter Geschwindigkeit bewegte, virtuelle Pixel in der Schärfefläche mit seinem zugehörigen Schwerstrahl eine teildurchlässige und gleichzeitig lichtstreuende Schicht, auf die das Liniengitter des optischen Sensors projiziert ist, abtasten würde. Der Phasengang φ_Otj über der Zeit ergibt sich aus dem vom bewegten, virtuellen Pixel j auf der Objektoberfläche detektierten Licht. Beim Vorhandensein eines Triangulationswinkels ungleich null ergibt sich φ_Rt = φ_Otj genau dann, wenn ein mit konstanter Geschwindigkeit bewegter Objektpunkt Pj die Schärfefläche SEO passiert, also im Schnittpunkt SPj der beiden Phasengänge. Dabei ist die Schärfefläche SEO mit der Sensor-Chipfläche zumindest näherungsweise optisch konjugiert.In the thought experiment, the phase response φ_Rt over time results when the virtual pixel moving on the sensor chip at constant speed in the focus area with its associated heavy beam scans a partially transparent and at the same time light-scattering layer onto which the line grating of the optical sensor is projected would. The phase response φ_Otj over time results from the light detected by the moving virtual pixel j on the object surface. If a triangulation angle other than zero is present, φ_Rt = φ_Otj results precisely when an object point Pj moving at a constant speed passes the focus surface SEO, i.e. at the intersection SPj of the two phase changes. Here is the focus area SEO with the sensor chip area at least approximately optically conjugated.
Die
etwas geneigte Kamera
Bei einem durch Reflexe auf der Oberfläche auftretenden Betrag d_nom ≠ 0, der sich sowohl durch eine kleine Frequenzveränderung im periodischen Signal als auch in der Regel in einer starken Verbreiterung der Einhüllenden im Signal bemerkbar macht, kann auch zusätzlich die Phase ausgewertet werden, so dass sich auch durch die Reflexionsverhältnisse auf der Oberfläche bestimmt, ob es sinnvoll ist, nur den Kontrast oder sowohl Kontrast als auch Phase auszuwerten. Die Phasenauswertung kann in der Regel dann die größere Genauigkeit für die Tiefenbestimmung liefern, wenn der Triangulationswinkel größer als die effektiven Aperturwinkel von Beleuchtung und Beobachtung ist. Dann liefert die Kontrastauswertung nur die Eindeutigkeit der Ordnung bei der Phasenauswertung.at an amount d_nom ≠ 0 due to reflections on the surface, which is both by a small frequency change in the periodic signal as well as usually in a widening of the envelope in the signal, the phase can also be evaluated so that it is also determined by the reflection conditions on the surface, whether it makes sense only the contrast or both contrast and phase evaluate. The phase evaluation can then usually have greater accuracy for the Provide depth determination if the triangulation angle is greater than is the effective aperture angle of lighting and observation. Then the contrast evaluation only supplies the uniqueness of the order the phase evaluation.
Die
im Sensor eingesetzte CMOS-Kamera
Das
im Sensor von der Lichtquelle
Es wird mit maximaler numerischer Apertur für Beleuchtung und Beobachtung gearbeitet. So sind etwa sechs bis acht Gitterstreifen mit gutem Kontrast in einer Fläche senkrecht zur Beobachtungsachse, also in der Tischebene, sichtbar. Der Winkel zwischen Beobachtungs- und Beleuchtungsrichtung, also der Gesamt-Triangulationswinkel, beträgt hier konstruktiv (αOL + αOD) = 30°. Die effektive Triangulationswellenlänge des Sensors ergibt sich damit aus der projizierten Streifenbreite von 55 μm in Beobachtungsrichtung zu etwa 106 μm. Für die Verfolgung einer Schweißnaht kann jedoch auch noch ein geringerer Triangulationswinkel und damit eine größere effektive Triangulationswellenlänge sinnvoll sein.It with a maximum numerical aperture for lighting and observation worked. There are about six to eight grid strips with good contrast in one area perpendicular to the observation axis, i.e. in the table plane, visible. The angle between the direction of observation and illumination, that is the total triangulation angle is constructively (αOL + αOD) = 30 °. The effective triangulation wavelength of the Sensor results from the projected strip width of 55 μm in the direction of observation to about 106 μm. For the Tracking a weld can also have a smaller triangulation angle and therefore a bigger effective Triangulationswellenlänge make sense.
Das mittels jedem virtuellen Pixel detektierte Signal besitzt hier bei konstanter Objektgeschwindigkeit eine mittlere Objekt-Signalfrequenz von etwa 40 Hz und wird hinsichtlich Phase am Kontrastmaximum bzw. am Schwerpunkt ausgewertet, so dass der Phasengang in der unmittelbaren Umgebung des Schwerpunktes für jeden Objektpunkt ermittelt werden kann. Anschließend wird der Schnittpunkt der Referenzphasenkurve φ_Rt mit dem Phasengang φ_Otj des jeweiligen Objektpunktes Pj bestimmt.The signal detected by means of each virtual pixel has here constant object speed a medium object signal frequency of about 40 Hz and is in terms of phase at the contrast maximum or evaluated at the center of gravity so that the phase response in the immediate Environment of focus for every object point can be determined. Then will the intersection of the reference phase curve φ_Rt with the phase response φ_Otj des respective object point Pj.
Die
Referenzphasenkurve φ_Rt
des Sensors ist vorab ermittelt und abgespeichert worden. Bei der Geschwindigkeit
des Objektes von 2,5 mm/s beträgt die
Referenz-Signalfrequenz hier dann etwa 44 Hz, die sich dann ergeben
würde,
wenn sich ein gedachter Referenzpunkt permanent in der Schärfeebene SEO
bewegen würde.
So ist es auch möglich,
mittels dieser Referenz-Signalfrequenz im Bereich des Schwerpunktes
der Einhüllenden
den Zeitpunkt ts, an dem die Referenz-Signalfrequenz mit der Objekt-Signalfrequenz
in Phase ist, zu bestimmen und aus der bekannten Bewegung des bewegten,
virtuellen Pixels, den zugehörigen
Ort desselben auf dem Liniengitter
Mittels digitaler Lock-in Detektion und einer CMOS-Kamera mit logarithmischer Kennlinie kann mit der Schnittpunktauswertung auch an weniger kooperativen Oberflächen mindestens 2π/32 der Triangulationswellenlänge sinnvoll aufgelöst werden, so dass mit dieser Anordnung ein Tiefen-Auflösungsinkrement von 3,4 μm gegeben ist. So kann eine Auflösung bei der Formmessung von kooperativen Oberflächen in den drei Raumkoordinaten von besser als 5 μm × 5 μm × 5 μm erreicht werden. In x-Richtung ist das Objektfeld nur durch die Länge des Schlittens begrenzt. Durch das kontinuierliche Bewegen des Sensorkopfes kann hiermit ein Volumen von 80 mm × 1,5 mm × 0,71 mm in ca. 32 Sekunden vermessen werden. Eine höhere Messgeschwindigkeit kann mit einer noch schnelleren Kamera erreicht werden.through digital lock-in detection and a CMOS camera with logarithmic Characteristic curve can also be used on the less cooperative with the intersection evaluation surfaces at least 2π / 32 the triangulation wavelength sensibly resolved so that with this arrangement a depth resolution increment of 3.4 μm given is. So can a resolution when measuring the shape of cooperative surfaces in the three spatial coordinates of better than 5 μm × 5 μm × 5 μm become. In the x direction, the object field is only by the length of the Limited sledge. By continuously moving the sensor head can hereby have a volume of 80 mm × 1.5 mm × 0.71 mm in approx. 32 seconds be measured. A higher one Measurement speed can be achieved with an even faster camera become.
Eine andere Möglichkeit noch schneller mit Lateralkomponente bewegte Objekte zu vermessen, besteht darin, den x-Tisch beispielsweise vierfach schneller zu bewegen, also nun mit 10 mm/s. Die Bildrate beträgt wieder 500 Bilder/s und die Integrationszeit eines Pixels wird dabei durch einen elektronischen Shutter auf weniger als 0,5 ms begrenzt. In diesem Fall werden anstelle von 11 Abtastungen pro Streifenperiode im Mittel nur noch 2,75 Abtastungen vorgenommen. Dies stellt eine vierfach geringere Abtastung dar. Das virtuelle Pixel wird zeitlich synchronisiert aus jedem vierten, physikalisch realen Pixel des Sensor-Chips in Bewegungsrichtung generiert. Der zwischen zwei Kamera-Frames zurück gelegte Weg des Objektes ergibt sich bei direkt aufeinander folgenden Frames zu 20 μm.A different possibility to measure objects moving even faster with the lateral component in moving the x-table four times faster, for example, so now with 10 mm / s. The frame rate is again 500 frames / s and the integration time of a pixel is determined by an electronic one Shutter limited to less than 0.5 ms. In this case, instead From 11 samples per strip period, on average only 2.75 samples were made. This represents four times less scanning. The virtual Pixel is synchronized in time from every fourth, physically real pixel of the sensor chip generated in the direction of movement. The back between two camera frames The path of the object is given in the case of directly successive ones 20 μm frames.
Da
die Signalfrequenz vorab hinreichend genau bekannt ist, kann im
dargestellten Fall mittels digitaler Lock-in Detektion mit angepassten
digitalen Signal-Prozessoren selbst bei einer achtfach geringeren
Abtastung noch der Phasengang am Schwerpunkt eindeutig bestimmt
werden, wobei das Signal-Rausch
Verhältnis
sich dann schon merklich verschlechtert und damit auch die Unsicherheit
der Tiefenmessung entsprechend zunimmt. Außerdem muss auch die Genauigkeit
der Generierung des virtuellen Pixels, also die Genauigkeit der
Nachverfolgung des bewegten Objektes
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2003121888 DE10321888A1 (en) | 2003-05-07 | 2003-05-07 | 3D optical metrology method in which a structured pattern is generated on an object surface and resultant virtual pixels measured with a white-light interferogram |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2003121888 DE10321888A1 (en) | 2003-05-07 | 2003-05-07 | 3D optical metrology method in which a structured pattern is generated on an object surface and resultant virtual pixels measured with a white-light interferogram |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10321888A1 true DE10321888A1 (en) | 2004-12-02 |
Family
ID=33394619
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE2003121888 Withdrawn DE10321888A1 (en) | 2003-05-07 | 2003-05-07 | 3D optical metrology method in which a structured pattern is generated on an object surface and resultant virtual pixels measured with a white-light interferogram |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE10321888A1 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102006007764A1 (en) * | 2006-02-20 | 2007-08-23 | Sick Ag | Optoelectronic device and method for its operation |
EP1944569A1 (en) | 2007-01-15 | 2008-07-16 | DMG Microset GmbH | Method and device for optical measurement of an object in particular of a workpiece or tool |
WO2013009677A1 (en) * | 2011-07-14 | 2013-01-17 | Faro Technologies, Inc. | Grating-based scanner with phase and pitch adjustment |
WO2013009676A1 (en) * | 2011-07-13 | 2013-01-17 | Faro Technologies, Inc. | Device and method using a spatial light modulator to find 3d coordinates of an object |
WO2013160197A3 (en) * | 2012-04-27 | 2013-12-27 | Bircher Reglomat Ag | Method for inspecting and/or monitoring the areas around reclosable building openings |
DE102005047307B4 (en) * | 2005-09-30 | 2014-10-30 | Technische Hochschule Mittelhessen | A method for improved determination of the relative velocity between a sensor and a spaced-apart surface |
EP2980527A1 (en) * | 2014-08-01 | 2016-02-03 | GOM Gesellschaft für optische Meßtechnik mbH | Measuring device for three dimensional optical object measurement with a topometric sensor and use of a multi laser chip construction element |
WO2017136011A2 (en) | 2016-02-01 | 2017-08-10 | Kla-Tencor Corporation | Method and system for optical three-dimensional topography measurement |
DE102017004428A1 (en) * | 2017-05-08 | 2018-11-08 | Universität Stuttgart | Method and device for robust, deep-scanning focusing strip triangulation with multiple wavelets |
DE102017004429A1 (en) * | 2017-05-08 | 2018-11-08 | Universität Stuttgart | Method and device for robust, deep-scanning / focusing strip triangulation |
DE102017129737A1 (en) * | 2017-12-13 | 2019-06-13 | Hauni Maschinenbau Gmbh | Apparatus for non-contact, 3D optical detection of an end face of a transversely moving, rod-shaped article of the tobacco processing industry |
-
2003
- 2003-05-07 DE DE2003121888 patent/DE10321888A1/en not_active Withdrawn
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005047307B4 (en) * | 2005-09-30 | 2014-10-30 | Technische Hochschule Mittelhessen | A method for improved determination of the relative velocity between a sensor and a spaced-apart surface |
US7656541B2 (en) | 2006-02-20 | 2010-02-02 | Sick Ag | Optoelectronic apparatus and a method for its operation |
DE102006007764A1 (en) * | 2006-02-20 | 2007-08-23 | Sick Ag | Optoelectronic device and method for its operation |
EP1944569A1 (en) | 2007-01-15 | 2008-07-16 | DMG Microset GmbH | Method and device for optical measurement of an object in particular of a workpiece or tool |
DE102007002880B4 (en) * | 2007-01-15 | 2011-08-25 | DMG Microset GmbH, 33689 | Method and device for optically measuring an object, in particular a workpiece or a tool |
GB2507020A (en) * | 2011-07-13 | 2014-04-16 | Faro Tech Inc | Device and method using a spatial light modulator to find 3D coordinates of an object |
US9170098B2 (en) | 2011-07-13 | 2015-10-27 | Faro Technologies, Inc. | Device and method using a spatial light modulator to find 3D coordinates of an object |
WO2013009676A1 (en) * | 2011-07-13 | 2013-01-17 | Faro Technologies, Inc. | Device and method using a spatial light modulator to find 3d coordinates of an object |
JP2014522982A (en) * | 2011-07-14 | 2014-09-08 | ファロ テクノロジーズ インコーポレーテッド | Grating-based scanner with phase and pitch adjustment |
CN103649678A (en) * | 2011-07-14 | 2014-03-19 | 法罗技术股份有限公司 | Grating-based scanner with phase and pitch adjustment |
US9091529B2 (en) | 2011-07-14 | 2015-07-28 | Faro Technologies, Inc. | Grating-based scanner with phase and pitch adjustment |
WO2013009677A1 (en) * | 2011-07-14 | 2013-01-17 | Faro Technologies, Inc. | Grating-based scanner with phase and pitch adjustment |
WO2013160197A3 (en) * | 2012-04-27 | 2013-12-27 | Bircher Reglomat Ag | Method for inspecting and/or monitoring the areas around reclosable building openings |
EP2980527A1 (en) * | 2014-08-01 | 2016-02-03 | GOM Gesellschaft für optische Meßtechnik mbH | Measuring device for three dimensional optical object measurement with a topometric sensor and use of a multi laser chip construction element |
WO2017136011A2 (en) | 2016-02-01 | 2017-08-10 | Kla-Tencor Corporation | Method and system for optical three-dimensional topography measurement |
CN108603848B (en) * | 2016-02-01 | 2021-08-10 | 科磊股份有限公司 | Method and system for optical three-dimensional topography measurement |
US11287248B2 (en) | 2016-02-01 | 2022-03-29 | Kla-Tencor Corporation | Method and system for optical three dimensional topography measurement |
EP3411695B1 (en) * | 2016-02-01 | 2022-01-26 | KLA-Tencor Corporation | Method and system for optical three-dimensional topography measurement |
CN108603848A (en) * | 2016-02-01 | 2018-09-28 | 科磊股份有限公司 | Method and system for optical 3-dimensional topography measurement |
CN113607088A (en) * | 2016-02-01 | 2021-11-05 | 科磊股份有限公司 | Method and system for optical three-dimensional topography measurement |
JP2019503499A (en) * | 2016-02-01 | 2019-02-07 | ケーエルエー−テンカー コーポレイション | Optical three-dimensional topography measurement method and system |
WO2018206233A1 (en) | 2017-05-08 | 2018-11-15 | Universität Stuttgart | Method and arrangement for robust, depth-scanning/focusing strip triangulation by means of a plurality of wavelets |
US10866088B2 (en) | 2017-05-08 | 2020-12-15 | Universität Stuttgart | Method and arrangement for robust, depth-scanning/focusing strip triangulation by means of a plurality of wavelets |
DE102017004429B4 (en) | 2017-05-08 | 2019-05-09 | Universität Stuttgart | Method and device for robust, deep-scanning / focusing strip triangulation |
DE102017004428B4 (en) | 2017-05-08 | 2018-11-29 | Universität Stuttgart | Method and device for robust, deep-scanning focusing strip triangulation with multiple wavelets |
DE102017004429A1 (en) * | 2017-05-08 | 2018-11-08 | Universität Stuttgart | Method and device for robust, deep-scanning / focusing strip triangulation |
DE102017004428A1 (en) * | 2017-05-08 | 2018-11-08 | Universität Stuttgart | Method and device for robust, deep-scanning focusing strip triangulation with multiple wavelets |
DE102017129737A1 (en) * | 2017-12-13 | 2019-06-13 | Hauni Maschinenbau Gmbh | Apparatus for non-contact, 3D optical detection of an end face of a transversely moving, rod-shaped article of the tobacco processing industry |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE3836564A1 (en) | METHOD FOR TESTING OPTICAL ELEMENTS | |
DE102008023599A1 (en) | Method and device for the microscopic detection of local inclinations and the three-dimensional shape of an object | |
CH693968A5 (en) | Method and apparatus for the Topographiepruefung of surfaces. | |
EP2753896A2 (en) | Method for capturing images of a preferably structured surface of an object and device for image capture | |
EP1636542B1 (en) | Method and measuring device for the contactless measurement of angles or angle modifications in objects | |
DE112012004591T5 (en) | observer | |
DE102011012611B4 (en) | Method and device for non-contact measurement of an angle | |
DE10321888A1 (en) | 3D optical metrology method in which a structured pattern is generated on an object surface and resultant virtual pixels measured with a white-light interferogram | |
DE202012004886U1 (en) | Measuring device for measuring angles between optical surfaces | |
WO2000066972A1 (en) | Method and device for scanning objects | |
WO2020127758A2 (en) | Device and method for optical measurement of an internal contour of a spectacle frame | |
DE102011083421A1 (en) | Method and device for measuring homogeneously reflecting surfaces | |
DE102005007244A1 (en) | Absolute calibration free three dimensional mirror surface measurement sensor has lamp unit giving high depth of field laterally structured light pattern from microlens array | |
DE102007002880B4 (en) | Method and device for optically measuring an object, in particular a workpiece or a tool | |
DE102005017233A1 (en) | Sensor, has illumination unit producing deep-sharp, laterally structured light sample, where three-dimensional structure of sample remains unchanged over wide range of its dispersion in area | |
DE102006033779B4 (en) | Method for measuring a reflective surface | |
DE4413758C2 (en) | Device and method for checking the shape of a surface of an object to be measured | |
WO2016071078A2 (en) | Measurement of the topography and/or the gradient and/or the curvature of a light-reflecting surface of a spectacle lens | |
DE102008031412A1 (en) | Device i.e. line scanner, for monitoring measuring points on object surface to be measured, has focus plane displaceable parallel to object surface, where object surface is displaceable lateral to focus plane | |
EP0901639B1 (en) | Method and device for determining the direction in which an object is located | |
DE102014016087B4 (en) | Three-dimensional optical detection of object surfaces | |
DE102005018983B4 (en) | Autocollimation telescope and method for imaging a measuring mark therefor | |
AT502614B1 (en) | LASER GONIOMETER | |
CH675299A5 (en) | ||
DE10321886A1 (en) | Interferometric sensor for object scanning, has a beam splitter system that is configured as a triangle-shaped interferometer with a beam splitter layer system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8122 | Nonbinding interest in granting licenses declared | ||
8139 | Disposal/non-payment of the annual fee |