DE4429578A1 - Synchronised intensity modulation in object surface evaluation - Google Patents

Synchronised intensity modulation in object surface evaluation

Info

Publication number
DE4429578A1
DE4429578A1 DE19944429578 DE4429578A DE4429578A1 DE 4429578 A1 DE4429578 A1 DE 4429578A1 DE 19944429578 DE19944429578 DE 19944429578 DE 4429578 A DE4429578 A DE 4429578A DE 4429578 A1 DE4429578 A1 DE 4429578A1
Authority
DE
Germany
Prior art keywords
pixel
modulation
records
light source
intensity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19944429578
Other languages
German (de)
Inventor
Gerd Prof Dr Haeusler
Stefan Brossey
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE19944429578 priority Critical patent/DE4429578A1/en
Publication of DE4429578A1 publication Critical patent/DE4429578A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/2441Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using interferometry

Abstract

Non-contact analysis of an object's surface conditions using a three-dimensional sensor based on the Michelson Interferometer may be very slow as each movement of the object or reference mirror changes the modulation intensity. The use of a light source which is modulated in intensity simultaneously with the movement of the test object and in conjunction with the photoreceiver allows immediate determination of the modulation depth of each interferometer signal.The photo receiver must have low band pass characteristics and sectional integration such that the signal is decoded through the bandpass and an equaliser to give the depth . This clarity of definition together with a constant speed of movement enables quick and accurate assessment of the surface condition.

Description

Es wird ein Verfahren beschrieben, mit dem berüh­ rungslos die makroskopische Topologie von vor­ zugsweise rauhen Oberflächen, sehr schnell oder sehr genau mit allen Zwischenlösungen vermessen werden kann (3D-Sensor).A method is described with which touch the macroscopic topology from before preferably rough surfaces, very fast or measured very precisely with all intermediate solutions can be (3D sensor).

Die Oberflächengestalt wird dabei entsprechend Abb. 1 in einem orthogonalen, dreiachsigen Koor­ dinatensystem (1) beschrieben, in dem die x- und y- Koordinate den lateralen und die z-Koordinate der longitudinalen Ort eines Objektpunktes festlegt. Die longitudinale Komponente entspricht dabei der Beleuchtungsrichtung (hier auch Beobachtungsrich­ tung) des Sensors. Sensoren, die eine solche Ober­ flächengestalt, meist als Funktion z(x,y) vermessen, werden 3D-Sensoren genannt.The surface shape is described according to Fig. 1 in an orthogonal, three-axis coordinate system ( 1 ) in which the x and y coordinates define the lateral and the z coordinate the longitudinal location of an object point. The longitudinal component corresponds to the direction of illumination (here also observation direction) of the sensor. Sensors that measure such a surface shape, usually as a function z (x, y), are called 3D sensors.

Es gibt nun grundsätzlich vier verschiedene Metho­ den, mit denen Objekte berührungslos vermessen werden können: die Triangulation mit all ihren verschiedenen Ausführungen, die fokussuchenden Verfahren, die die Laufzeit messenden Verfahren und schließlich die interferometrischen Verfahren. Bei den Triangulationssensoren wird aus verschiede­ nen Richtungen beleuchtet und beobachtet (Trian­ gulationswinkel). Die Höheninformation wird daher auf der Beobachtungsseite in eine laterale Informa­ tion übersetzt. Systemimmanente Probleme bei die­ sen Sensoren sind die durch die nicht koaxiale Be­ leuchtung und Beobachtung hervorgerufenen Ab­ schattungen; bei den flächenhaft beleuchtenden Sen­ soren (codierte Beleuchtung) kommen noch Schär­ fentiefeprobleme hinzu. Weiterhin ist die Beobach­ tungsapertur ein begrenzender Faktor, die bei vor­ gegebenem Arbeitsabstand nur eine begrenzte Meß­ genauigkeit zuläßt. Hinzu kommt bei (teil-)kohären­ ter Beleuchtung das Auftreten von Speckle [1], die eine statistische Meßunsicherheit nach sich ziehen [2][3].There are now basically four different methods the one with which objects are measured without contact can be: the triangulation with all its different designs that are looking for focus Procedure, the procedure measuring the transit time and finally the interferometric methods. The triangulation sensors are different directions and observed (Trian gulation angle). The height information is therefore on the observation side in a lateral informa tion translated. System-inherent problems with the sen sensors are those by the non coaxial Be Illumination and observation evoked Ab shades; with the area-illuminating sen sensors (coded lighting) are still coming added deep problems. Furthermore, the observer tion aperture is a limiting factor in the case of given working distance only a limited measurement allows accuracy. Added to this is (co) coherence ter lighting the appearance of speckle [1], the result in statistical uncertainty [2] [3].

Für die fokussuchenden Verfahren gelten die oben bezüglich der Beobachtungsapertur und der (teil-)ko­ härenten Beleuchtung getroffenen Aussagen eben­ falls [4].The above applies to the focus-seeking procedures regarding the observation aperture and the (partially) knockout statements made with the lighting if [4].

Die die Laufzeit messenden Verfahren sind für die Vermessung von Objekte mit einer Genauigkeit im Mikrometerbereich nicht geeignet, da man beispiels­ weise eine Zeitauflösung in der Größenordnung von 10-14 s benötigt, um einen Mikrometer auflösen zu können.The methods measuring the transit time are not suitable for the measurement of objects with an accuracy in the micrometer range because, for example, a time resolution of the order of 10 -14 s is required in order to be able to resolve a micrometer.

Die klassische Interferometrie kann nur bei optisch glatten Oberflächen eingesetzt werden, d. h. bei einer Oberflächenrauhigkeit, die deutlich unter der verwendeten Wellenlänge der Beleuchtung liegt. Nur dann wird die reflektierte Wellenfront nicht zerstört und eine Phasenauswertung kann durch­ geführt werden. Bei rauhen Oberflächen wird des­ halb mit heterodyner Beleuchtung [5] gearbeitet, d. h. es wird mit einer synthetischen Wellenlänge beleuchtet, die größer als die Rauhigkeit des Ob­ jektes ist. Bei den interferometrischen Verfahren treten allerdings Eindeutigkeitsprobleme auf, sobald das zu vermessende Objekt Unstetigkeitsstellen aufweist, die größer als die halbe synthetische Wel­ lenlänge sind.Classic interferometry is only possible with optical smooth surfaces are used, d. H. at a surface roughness that is clearly below the used wavelength of the lighting lies. Only then will the reflected wavefront not destroyed and a phase evaluation can by  be performed. In the case of rough surfaces, the half worked with heterodyne lighting [5], d. H. it comes with a synthetic wavelength illuminated that are larger than the roughness of the ob is jektes. With interferometric methods However, uniqueness problems arise as soon as the object to be measured has discontinuities which is larger than half the synthetic wel length.

In [6][7][8] wurde ein Sensor vorgestellt, das Kohä­ renzradar, welches auf dem Michelson Interferome­ ter Prinzip beruht. Der eine Spiegel wird dabei durch das diffus streuende, zu vermessende Objekt ersetzt. Der Aufbau ist in Abb. 1 gezeigt. Die Lichtquelle (2) wird über eine Linse (3) ins Un­ endliche abgebildet. Über den Strahlteiler (4) wird das parallele Strahlenbündel aufgeteilt und ein Teil wird vom Referenzspiegel (5) reflektiert, der andere Teil wird am rauhen Objekt (6) gestreut. Damit die Intensitäten der rücklaufenden Strahlen jeweils ungefähr gleich sind, ist in den Referenzarm noch ein Graufilter (7) eingesetzt worden. Die Glasplatte (8) im Objektstrahlengang kompensiert die durch den Graufilter eingeführte Dispersion. Der Refe­ renzspiegel (und damit auch die Teile des Objektes, deren optische Weglängen mit dem Referenzspiegel abgeglichen sind) wird über eine Abbildungsoptik (9) auf den Photoempfänger, üblicherweise eine CCD-Kamera (10) abgebildet.In [6] [7] [8] a sensor was presented, the coherence radar, which is based on the Michelson interferometer principle. One mirror is replaced by the diffusely scattering object to be measured. The structure is shown in Fig. 1. The light source ( 2 ) is imaged via a lens ( 3 ) into the finite. The parallel beam is split up via the beam splitter ( 4 ) and one part is reflected by the reference mirror ( 5 ), the other part is scattered on the rough object ( 6 ). So that the intensities of the returning rays are approximately the same, a gray filter ( 7 ) has been inserted in the reference arm. The glass plate ( 8 ) in the object beam path compensates for the dispersion introduced by the gray filter. The reference mirror (and thus also the parts of the object whose optical path lengths are matched to the reference mirror) is imaged on the photo receiver, usually a CCD camera ( 10 ), via imaging optics ( 9 ).

Aufgrund der teilkohärenten Beleuchtung und der Tatsache, daß die Beobachtungsapertur größer als die Beleuchtungsapertur ist, sieht die Kamera auf der Beobachtungsseite Speckle (optimal: jedes Ka­ merapixel wird durch gerade ein Speckle ausge­ leuchtet). Die gewählte Abbildung ordnet jedem Speckle eindeutig einen lateralen Ort (x, y) auf der Objektoberfläche zu. Bei einer rauhen Oberfläche ist die Phase in den einzelnen Speckle zufällig, d. h. es kann nicht wie bei der klassischen Interferometrie aus der Phase eine Höheninformation gewonnen werden.Because of the partially coherent lighting and the Fact that the observation aperture is larger than is the lighting aperture, the camera looks up the observation side Speckle (optimally: every Ka merapixel is just made out of a speckle shines). The chosen image arranges everyone Clearly speckle a lateral location (x, y) on the Object surface too. With a rough surface the phase in the individual speckle is random, d. H. it cannot be like classic interferometry obtained height information from the phase will.

Wird das Objekt (oder bei kleinem Meßbereich die Referenz) mit Hilfe einer Verschiebeeinheit (11) koaxial zur Beleuchtung verfahren, so zeigen dieje­ nigen Speckle eine Intensitätsmodulation, für die das Interferometer innerhalb der Kohärenzlänge der Lichtquelle abgeglichen ist.If the object (or the reference in the case of a small measuring range) is moved coaxially with the aid of a displacement unit ( 11 ), those speckles show an intensity modulation for which the interferometer is balanced within the coherence length of the light source.

Bei dieser Intensitätsmodulation handelt es sich um eine Amplitudenmodulation, wobei diese - im Ge­ gensatz zu der aus der Nachrichtentechnik bekann­ ten Version - ortsabhängig und zudem mit einem Gleichanteil behaftet ist. Abb. 2 zeigt eine solche Modulation (13), wobei die Intensität über den Ort aufgetragen ist. Die inverse örtliche (!) Trägerfre­ quenz des amplitudenmodulierten Signals entspricht der halben mittleren Wellenlänge der verwendeten Lichtquelle.This intensity modulation is an amplitude modulation, which - in contrast to the version known from communications technology - is location-dependent and also has a constant component. Fig. 2 shows such a modulation ( 13 ), the intensity being plotted over the location. The inverse local (!) Carrier frequency of the amplitude-modulated signal corresponds to half the central wavelength of the light source used.

Für die Auswertung ist nur die Einhüllende (14) von Interesse, genauer der Ort z₀ Maximums. Dort weisen nämlich der zum Speckle gehörige Objekt­ punkt (x₀, y₀) und die Referenz gleiche optische Weglängen auf. Wird nun das Objekt vollständig durch die Ebene verfahren, bei der die optische Weglänge mit der Referenz abgeglichen ist, und zeichnet man immer dann, wenn ein Speckle maxi­ mal moduliert ist, für den entsprechenden Objekt­ punkt die Position der Verschiebeeinheit auf, so erhält man ein vollständiges Höhenbild des Objek­ tes.Only the envelope ( 14 ) is of interest for the evaluation, more precisely the location z₀ maximum. There the object point (x₀, y₀) belonging to the speckle and the reference have the same optical path lengths. If the object is now moved completely through the plane at which the optical path length is aligned with the reference, and if the position of the displacement unit for the corresponding object point is always recorded when a speckle is modulated, then one obtains one complete elevation of the object.

Die Nachrichtentechnik kennt nun unter anderem die Hüllkurvendemodulation als Dekodierverfahren für ein solches amplitudenmoduliertes Signal, wie es ortsabhängig in jedem Speckle auftritt. Verfährt man das Objekt bzw. den Referenzspiegel mit einer möglichst konstanten Geschwindigkeit, so läßt sich die Hüllkurvendemodulation analog einfach realisie­ ren, wie dies in Abb. 3 gezeigt ist: Zur Dekodie­ rung muß das Signal (15) einen Bandpaß (16) eine Gleichrichtung (17) und schließlich einen Tiefpaß (18) durchlaufen. Das Maximum der Einhüllenden ergibt den Ort gleicher Weglängen. Für einen Punktsensor, der nur ein einziges Speckle auswertet, wurde dies auch realisiert [7]. Für einen Flächen­ sensor, der parallel viele Speckle auswerten muß, ist dieses Demodulationsverfahren aber nur bedingt einsetzbar. Bislang sind drei verschiedene Ansätze dafür bekannt:The communications technology now knows, among other things, envelope demodulation as a decoding method for such an amplitude-modulated signal as occurs in each speckle depending on the location. By proceeding the object or reference mirror at a constant speed as possible, so the envelope detection can be easily analog realisie reindeer, as shown in Fig. 3: To Dekodie tion signal (15) has a bandpass filter (16) rectifies ( 17 ) and finally go through a low pass ( 18 ). The maximum of the envelope results in the location of the same path lengths. This was also realized for a point sensor that only evaluates a single speckle [7]. For a surface sensor that has to evaluate a lot of speckle in parallel, this demodulation method can only be used to a limited extent. So far, three different approaches are known:

Die erste Möglichkeit [7] besteht darin, nicht die Einhüllende auszuwerten, sondern direkt die Modu­ lation. Dazu wird zunächst mit einer Verschiebein­ heit - s. Abb. 1 (11) - das Objekt verschoben. Anschließend wird der auf einem Piezo (12) ange­ brachte Referenzspiegel um k·λ/3 (k = 0,1,2) ver­ schoben und jeweils mit der CCD-Kamera ein Bild aufgenommen. Pixelweise werden dann die drei Bilder miteinander verrechnet und daraus die jewei­ lige Pixel-Specklemodulation berechnet. Wird die Modulation in einem Pixel maximal, so wird die zugehörige Position der Verschiebeeinheit abgespei­ chert. Nachteilig bei diesem Verfahren ist, daß pro Höhenstufe drei Bilder aufgenommen und verrech­ net werden müssen. Für jedes Bild muß zudem der Piezo verstellt werden und auch eingeschwungen sein. Zwischen je zwei Höhenbildern muß die Ver­ schiebeeinheit ebenfalls bewegt werden und einge­ schwungen sein. Dieses Verfahren ist also quasi­ statisch und damit sehr zeitaufwendig.The first possibility [7] is not to evaluate the envelope, but directly the modulation. To do this, first use a sliding unit - s. Fig. 1 ( 11 ) - the object moved. Then the reference mirror mounted on a piezo ( 12 ) is shifted by k · λ / 3 (k = 0.1.2) and an image is recorded with the CCD camera. The three images are then calculated pixel by pixel and the respective pixel speckle modulation is calculated. If the modulation is maximal in one pixel, the associated position of the displacement unit is stored. A disadvantage of this method is that three images have to be taken and offset per height level. The piezo must also be adjusted for each picture and must also be steady. Between two height images, the sliding unit must also be moved and swung in. So this method is quasi static and therefore very time consuming.

Ein anderer Ansatz verfolgt zwar grundsätzlich die gleiche Strategie, d. h. es wird auch nur die Modula­ tion bestimmt, allerdings wird das Objekt konti­ nuierlich verfahren. Mit einer Hochgeschwindig­ keitskamera werden bei fahrendem Objekt alle von der Kamera kommenden Bilder abgespeichert und offline ausgewertet. Die Kamera muß dabei so schnell sein, daß nicht nur die Modulation nach Nyquist vollständig abgetastet wird, sondern auch noch Intensitätsänderungen während der Integra­ tionszeit der Kamera vernachlässigt werden können. Dieses Verfahren hat zwar eine stark verkürzte Meßzeit, der Meßbereich ist aber durch die Anzahl der abspeicherbaren Bilder begrenzt (1 mm Meßbe­ reich bei 10 Abtastungen pro Modulation und einer mittleren Wellenlänge von 630 nm benötigt ca. 32.000 Bilder!).Another approach basically follows the same strategy, d. H. it just becomes the modula tion, but the object is conti  proceed neatly. With a high speed When the object is in motion, the images coming from the camera are saved and evaluated offline. The camera has to do this be quick that not only modulation after Nyquist is fully scanned, but also still changes in intensity during the integra camera can be neglected. This procedure has a greatly shortened one Measuring time, but the measuring range is by the number of the images that can be saved (1 mm measuring range rich with 10 samples per modulation and one average wavelength of 630 nm requires approx. 32,000 pictures!).

Eine dritter Ansatz verfolgt eine online Auswertung mit Hilfe von digitalen Filtern [9]. Hier wird tat­ sächlich pixelweise eine der Hüllkurvendemodula­ tion ähnliche Filterung vorgenommen, indem unter Beachtung des Nyquist-Kriteriums die Modulation vollständig abgetastet und einem digitalen Filter zugeführt wird. Dazu ist aber ebenfalls ein stati­ scher Betrieb notwendig, d. h. die Verschiebeeinheit (Piezo) muß bei der Aufnahme der Bilder stehen, oder aber es wird nur sehr langsam verfahren.A third approach follows an online evaluation with the help of digital filters [9]. Here is done one pixel of the envelope curve demodula tion similar filtering made by under Consideration of the Nyquist criterion modulation fully scanned and a digital filter is fed. But there is also a stati necessary operation, d. H. the displacement unit (Piezo) must stand when taking the pictures, or else the process is very slow.

Hier wird die Anwendung eines aus der Nachrich­ tentechnik (NT) bekannten, modifizierten Demodu­ lationsverfahrens vorgeschlagen, mit dem das Ob­ jekt kontinuierlich verfahren werden kann, mit dem online ausgewertet werden kann und die Modulation nicht vollständig abgetastet werden muß. Aufgrund der Möglichkeit des kontinuierlichen Verfahrens wird der Sensor im folgenden als dynamisches Kohärenz­ radar bezeichnet, wobei dieses Verfahren auch für ein konventionelles Weißlichinterferometer einge­ setzt werden kann, ohne dabei allerdings die Ge­ nauigkeit der phasenmessenden Verfahren erreichen zu können.Here is the application of one from the message tentechnik (NT) known, modified Demodu lation procedure proposed by which the Ob can be moved continuously with which can be evaluated online and the modulation does not need to be fully scanned. Because of the possibility of a continuous process the sensor in the following as dynamic coherence referred to radar, this method also for a conventional white light interferometer turned on can be set without losing the Ge achieve accuracy of the phase-measuring processes to be able to.

Das vorgeschlagene Verfahren ähnelt der kohären­ ten Demodulation [10] aus der NT, welches in Abb. 4 gezeigt ist. Dort wird üblicherweise im Sender (19) dem Nutzsignal (20) ein Träger (21) aufmoduliert und über die Strecke (22) geschickt. Im Empfänger (23) wird die gleiche Trägerfrequenz wiederum aufmoduliert (24), wodurch das Nutz­ signal (26) und ein Anteil bei der doppelten Träger­ frequenz gewonnen wird. Letzterer kann durch einen einfachen Tiefpaß (25) weggefiltert werden. Die verschiedenen Operationen lassen sich auch im Fourierraum darstellen (27). Da alle Operationen linear sind, können sie auch vertauscht werden, was eine Übertragung auf das Kohärenzradar ermög­ licht.The proposed method is similar to the coherent demodulation [10] from the NT, which is shown in Fig. 4. There, a carrier ( 21 ) is usually modulated onto the useful signal ( 20 ) in the transmitter ( 19 ) and sent over the route ( 22 ). In the receiver ( 23 ) the same carrier frequency is in turn modulated ( 24 ), whereby the useful signal ( 26 ) and a share in the double carrier frequency is obtained. The latter can be filtered out by a simple low-pass filter ( 25 ). The various operations can also be represented in the Fourier space ( 27 ). Since all operations are linear, they can also be interchanged, which enables transmission to the coherence radar.

Ordnet man das Kohärenzradar in eine solche Struk­ tur ein, wie dies in Abb. 5 geschehen ist, dann ist die Lichtquelle der Sender (30), die Strecke (29) wird vom Referenz- und dem Objektstrahlengang gebildet; der Empfänger (32) schließlich ist die Kamera. Hier ist es nun die Strecke, wo sowohl Nutzsignal (Einhüllende der Modulation), als auch Trägerfrequenz (28) entstehen. Anstelle der kohä­ renten Demdulation im Empfänger wird nun der Sender, also die Lichtquelle mit der erwarteten Modulationsfrequenz moduliert (31). Aufgrund des Gleichanteils des Modulationssignales erhält man noch einen Anteil bei der Trägerfrequenz (34). Als Tiefe wird die Integrationszeit der Kamera ausge­ nutzt (33).If one arranges the coherence radar in such a structure, as was done in Fig. 5, then the light source is the transmitter ( 30 ), the path ( 29 ) is formed by the reference and the object beam path; finally the receiver ( 32 ) is the camera. Here it is the path where both the useful signal (envelope of the modulation) and the carrier frequency ( 28 ) are generated. Instead of the coherent demdulation in the receiver, the transmitter, i.e. the light source, is now modulated with the expected modulation frequency ( 31 ). Due to the constant component of the modulation signal, a component is also obtained at the carrier frequency ( 34 ). The integration time of the camera is used as the depth ( 33 ).

Es handelt sich hier also nicht um eine kohärente Demodulation wie im nachrichtentechnischen Fall, sondern um eine kohärente (Licht-)Modulation.So this is not a coherent one Demodulation as in the case of communications technology, but a coherent (light) modulation.

Geht man von einer sinusförmigen zu einer digitalen (Ein/Aus) Modulation über, so läßt sich dieses Verfahren einfach veranschaulichen: Betrachtet man die Modulation aus Abb. 2 und schaltet die Licht­ quelle immer dann ein, wenn eine bezüglich des Mittelwerts positive Halbwelle in der Modulation erwartet wird und immer dann aus, wenn eine negative Halbwelle erwartet wird, so liefert eine anschließende Tiefpaßfilterung oder eine abschnitts­ weise Integration die Einhüllende der Modulation. Da die mittlere Wellenlänge der Lichtquelle als bekannt vorausgesetzt wird, kann eine Lichtmodula­ tion unmittelbar von der aktuellen Position der Ver­ schiebeeinheit des Sensors gesteuert werden. Abb. 6 zeigt zunächst eine Modulation (35), wie sie ohne modulierte Lichtquelle auf einen Photoempfänger treffen würde. Die Intensität ist dabei über den Ort der Verschiebeeinheit (entspricht der longitudinalen z-Komponente) aufgetragen. Wird die Lichtmodula­ tion eingeschaltet und eine CCD-Kamera mit einer bestimmten Integrationszeit verwendet, so liefert ein Pixel eine diskretisierte Einhüllende (36). Die dic­ ken Balken kennzeichnen dabei Beginn und Ende der Kameraintegration. Da hier alle Balken die gleiche Länge besitzen, wurde das Objekt mit einer konstanten Geschwindigkeit verfahren. Um die Nachteile der Diskretisierung auszugleichen, kann noch eine Dreipunkt-Subpixelinterpolation um das Maximum durchgeführt werden, d. h. durch das Maximum und die beiden benachbarten Punkte wird eine Gaußfunktion oder einfach eine Parabel gelegt, deren Maximum dann verwendet wird. Ändert man nach jedem Bildtakt (in der Regel 40 ms) die Phase der Lichtmodulation um 180° und addiert aufeinan­ derfolgende Bilder pixelweise, so fällt der Gleichan­ teil noch weg.If one changes from a sinusoidal to a digital (on / off) modulation, this process can be easily illustrated: If one looks at the modulation from Fig. 2 and switches on the light source whenever there is a positive half-wave in the Modulation is expected and always off when a negative half-wave is expected, a subsequent low-pass filtering or a section-wise integration provides the envelope of the modulation. Since the mean wavelength of the light source is assumed to be known, a light modulation can be controlled directly from the current position of the displacement unit of the sensor. Fig. 6 first shows a modulation ( 35 ) as it would hit a photo receiver without a modulated light source. The intensity is plotted over the location of the displacement unit (corresponds to the longitudinal z component). If the light modulation is switched on and a CCD camera with a specific integration time is used, a pixel delivers a discretized envelope ( 36 ). The thick bars mark the beginning and end of camera integration. Since all bars here have the same length, the object was moved at a constant speed. In order to compensate for the disadvantages of the discretization, a three-point subpixel interpolation can also be carried out around the maximum, ie a maximum or a parabola is put through the maximum and the two adjacent points, the maximum of which is then used. If you change the phase of the light modulation by 180 ° after each image cycle (usually 40 ms) and add pixel-by-pixel to each other, the equal proportion is still lost.

Dieses Verfahren funktioniert aber nur dann gut, wenn Lichtmodulation und Specklemodulation etwa phasengleich sind. Da jedoch die Specklephase zufällig ist und viele Speckle auf vielen Kamerapi­ xeln parallel ausgewertet werden, läßt sich keine für alle Speckle geeignete Phase für die Lichtmodula­ tion finden.This method only works well if if light modulation and speckle modulation, for example are in phase. However, since the speckle phase is random and lots of speckle on lots of camera pi  xeln are evaluated in parallel, none for all speckle suitable phase for the light modules find.

Eine weitere Ausprägung des dynamische Kohärenz­ radars basiert daher auf der modifizierten Anwen­ dung der ebenfalls aus der Nachrichtentechnik be­ kannten Quadraturamplitudenmodulation (QAM). Wie Abb. 7 zeigt, wird dort das amplitudenmodu­ lierte Signal (37) im Empfänger zunächst aufgespal­ tet (38) und dann mit zwei um 90° zueinander pha­ senverschobenen Signalen (39) (40) kohärent demo­ duliert. Beide so entstandenen Signale werden je einem Tiefpaß (41) zugeführt und anschließend quadriert (42). Die abschließende Addition (43) der beiden Signale liefert das quadrierte Nutzsignal (44).Another form of dynamic coherence radar is therefore based on the modified application of quadrature amplitude modulation (QAM), which is also known from telecommunications. As Fig. 7 shows, the amplitude-modulated signal ( 37 ) is first split in the receiver ( 38 ) and then coherently demodulated with two signals ( 39 ) ( 40 ) phase-shifted by 90 ° to each other. Both signals thus created are each fed to a low-pass filter ( 41 ) and then squared ( 42 ). The final addition ( 43 ) of the two signals provides the squared useful signal ( 44 ).

Dieses Prinzip ist nicht unmittelbar auf das Kohä­ renzradar übertragbar, da hier nur ein Tiefpaß, nämlich die Integrationszeit eines Kamerapixels, zur Verfügung steht. Schaltet man aber nach jedem Videotakt die Phase der Lichtmodulation zwischen 0° und 90° um, so kann mit Hilfe einer nachge­ schalteten Bildverarbeitung die folgende Gleichung pixelweise ausgeführt werden:This principle is not directly related to the Kohä renzradar transferable, since here only a low pass, namely the integration time of a camera pixel at Available. But you switch after each Video clock the phase of light modulation between 0 ° and 90 ° around, with the help of a switched image processing the following equation be executed pixel by pixel:

Dabei ist In bzw. In-1, die Intensität des Pixels beim n-ten bzw. (n-1)-ten Videobild und die mittlere Intensität des Pixels außerhalb des Modulations­ bereiches. Abb. 3 zeigt eine so gewonnene Ein­ hüllende: man sieht, wie nach jedem Videobild zwischen den beiden Phasen umgeschaltet wird (45) (46). (47) zeigt schließlich die nach obiger Glei­ chung gewonnene Einhüllende. Die kohärente Licht­ modulation ist damit phasenunabhängig geworden. Der entscheidende Vorteil des dynamischen Kohä­ renzradars gegenüber den bislang bekannten Ver­ fahren liegt in der Möglichkeit, das Objekt konti­ nuierlich verfahren zu können ohne dabei den Meß­ bereich einzuschränken und ohne die Modulation vollständig abtasten zu müssen. Da je nach Verfahr­ geschwindigkeit der Verschiebeeinheit ein mehr oder weniger großer Teil der Modulation integriert wird (längere oder kürzere Balken in Abb. 6/8), kann mit der Verfahrgeschwindigkeit die Genauig­ keit des Sensors beeinflußt werden. Es gilt allge­ mein, daß der Quotient aus Meßfehler und Verfahr­ geschwindigkeit konstant ist, d. h. verfährt man bei einer ersten Messung mit einer bestimmten Ge­ schwindigkeit, so kann das Maximum und damit der Ort nur bis auf einen bestimmten Meßfehler genau bestimmt werden; verdoppelt man bei einer zweiten Messung die Geschwindigkeit, so verdoppelt sich auch der Meßfehler (verwendet man allerdings zusätzlich eine Interpolation um das Maximum, so läßt sich die Genauigkeit noch steigern).In this case, I n or I n-1 , the intensity of the pixel at the nth or (n-1) th video image and the mean intensity of the pixel outside the modulation range. Fig. 3 shows an envelope obtained in this way: one can see how to switch between the two phases after each video image ( 45 ) ( 46 ). ( 47 ) finally shows the envelope obtained according to the above equation. The coherent light modulation has become phase independent. The decisive advantage of the dynamic coherence radar over the previously known processes is the possibility of being able to continuously move the object without restricting the measuring range and without having to scan the modulation completely. Since a greater or lesser part of the modulation is integrated (longer or shorter bars in Fig. 6/8) depending on the travel speed of the displacement unit, the accuracy of the sensor can be influenced with the travel speed. It is generally my opinion that the quotient of the measurement error and the travel speed is constant, ie if one moves at a certain speed for a first measurement, the maximum and thus the location can only be determined exactly down to a certain measurement error; If the speed is doubled in a second measurement, the measurement error also doubles (however, if an interpolation is also used by the maximum, the accuracy can still be increased).

Dieser konstante Quotient hängt von der Kamerain­ tegrationszeit ab. Mit einer Hochgeschwindigkeits­ kamera, die zum Beispiel 800 statt nur 25 Bilder in der Sekunde aufnimmt, kann bei gleicher Meßge­ nauigkeit mit der 32-fachen Geschwindigkeit ver­ fahren werden.This constant quotient depends on the camera integration time. With a high speed camera, for example, 800 instead of just 25 pictures in the second records, can with the same Meßge accuracy with 32 times the speed will drive.

Literaturliterature

[1] J.W. Goodman, "Statistical properties of Laser speckle patterns", in "Laser speckle and related phenomena", ed. J.C. Dainty (Springer Verlag, Berlin 1984).[1] J.W. Goodman, "Statistical Properties of Laser speckle patterns ", in" Laser speckle and related phenomena ", ed. J.C. Dainty (Springer Verlag, Berlin 1984).

[2] G. Häusler, About fundamental limits of three­ dimensional sensing or nature makes no presents", Proc. of the 15th Congress of the international Co­ mission of Optics, Garmisch-Partenkirchen, SPIE 1319, 352 (August 1990).[2] G. Häusler, About fundamental limits of three dimensional sensing or nature makes no presents ", Proc. of the 15th Congress of the international Co mission of Optics, Garmisch-Partenkirchen, SPIE 1319, 352 (August 1990).

[3] G. Häusler, J. Herrmann, "Physical Limits of 3D-Sensing", Proc. SPIE 1822: Optics, Illumination and Image Sensing for Machine Vision VII, Boston, Mass. (1992).[3] G. Häusler, J. Herrmann, "Physical Limits of 3D Sensing ", Proc. SPIE 1822: Optics, Illumination and Image Sensing for Machine Vision VII, Boston, Measure (1992).

[4] G. Häusler, J. Herrmann, "3D-sensing with a confocal optical <macroscope< ", Proc. of the 15th Congress of the international Comission of Optics, Garmisch-Partenkirchen, SPIE 1319, 352 (August 1990).[4] G. Häusler, J. Herrmann, "3D sensing with a confocal optical <macroscope <", Proc. of the 15th Congress of the international commission of optics, Garmisch-Partenkirchen, SPIE 1319, 352 (August 1990).

[5] A. F. Fercher, H. Z. Hu, U. Vry, "Rough Surface Interferometry with a Two-Wavelength Heterodyne Speckle Interferometer", Appl. Opt. 24, 2181 (1985).[5] A.F. Fercher, H.Z. Hu, U. Vry, "Rough Surface interferometry with a two-wavelength Heterodyne Speckle Interferometer ", Appl. Opt. 24, 2181 (1985).

[6] T. Dresel, G. Häusler, H. Venzke, Three­ dimensionaI sensing of rough surfaces by <coheren­ ce radar< "Appl. Opt. 31 (1992).[6] T. Dresel, G. Häusler, H. Venzke, Three dimensionaI sensing of rough surfaces by <coheren ce radar <"Appl. Opt. 31 (1992).

[7] G. Häusler, Deutsche Patentschrift DE41 08 944C2.[7] G. Häusler, German patent DE41 08 944C2.

[8] G. Häusler, J. Neumann, "Coherence radar - an accurate sensor for rough surfaces", Proc. SPIE 1822: Optics, Illumination and Image Sensing for Machine Vision VII, Boston, Mass. (1992).[8] G. Häusler, J. Neumann, "Coherence radar - an accurate sensor for rough surfaces ", Proc. SPIE 1822: Optics, Illumination and Image Sensing for Machine Vision VII, Boston, Mass. (1992).

[9] K. Cohen et al, US Patent US00513360 vom 28.07.1992.[9] K. Cohen et al, U.S. Patent US00513360 of 28/07/1992.

[10] K. D. Kammeyer, "Nachrichtenübertragung", Stuttgart 1992.[10] K. D. Kammeyer, "Messaging", Stuttgart 1992.

Claims (11)

1. Abstandssensor bestehend aus einer Lichtquelle mit einer mittleren Wellenlänge, einer interfero­ metrischen Anordnung, einer Verschiebeeinheit, die den Lichtweg in einem Interferometerarm verändert, und Photoempfängern mit zeitlichem Tiefpaßverhal­ ten, die das entstehende, helligkeitsmodulierte Inter­ ferometersignal erfassen, und aus deren Ausgangs­ signal in Verbindung mit der Position der Verschie­ beeinheit der Abstand von Objektpunkten bestimmt wird, dadurch gekennzeichnet, daß die Lichtquelle in der Intensität moduliert wird und in Verbindung mit den Photoempfängern die Modulationstiefe des Interferometersignals bestimmt wird.1.Distance sensor consisting of a light source with a medium wavelength, an interferometric arrangement, a shifting unit that changes the light path in an interferometer arm, and photo receivers with temporal low-pass behavior that detect the resulting, brightness-modulated interferometer signal, and from their output signal in Connection with the position of the displacement unit, the distance from object points is determined, characterized in that the light source is modulated in intensity and, in conjunction with the photodetectors, the modulation depth of the interferometer signal is determined. 2. Verfahren nach Anspruch 1, dadurch gekenn­ zeichnet, daß die Intensität der Lichtquelle während einer Verschiebung der Verschiebeeinheit um eine halbe mittlere Wellenlänge von hoher Intensität über niedrige Intensität wieder zu hoher Intensität, vor­ zugsweise sinusförmig, variiert wird.2. The method according to claim 1, characterized records that the intensity of the light source during a displacement of the displacement unit by one half the medium wavelength of high intensity over low intensity again to high intensity, before preferably sinusoidal, is varied. 3. Verfahren nach Anspruch 1-2 dadurch gekenn­ zeichnet, daß der Photoempfänger das Interferome­ tersignal abschnittsweise integriert und die diskreti­ sierte Einhüllende des Interferometersignals liefert.3. The method according to claim 1-2 characterized thereby records that the photoreceptor the interferome tersignal integrated in sections and the discreti provides the envelope of the interferometer signal. 4. Verfahren nach Anspruch 1-2 dadurch gekenn­ zeichnet, daß die Lichtmodulation mit einer kon­ stanten zeitlichen Frequenz f erfolgt, die sich aus der konstanten Geschwindigkeit ν der Verschiebe­ einheit und der mittleren Wellenlänge λ der verwen­ deten Lichtquelle errechnet zu f = 2·ν/λ.4. The method according to claim 1-2 characterized thereby records that the light modulation with a con constant temporal frequency f, which results from the constant speed ν of displacement unit and the average wavelength λ used The light source is calculated as f = 2 · ν / λ. 5. Verfahren nach Anspruch 1-4 dadurch gekenn­ zeichnet, daß die Lichtquelle nicht stetig moduliert wird, sondern mit der Modulationsfrequenz ein- bzw. ausgeschaltet wird.5. The method according to claim 1-4 characterized thereby records that the light source does not modulate continuously but with the modulation frequency or is switched off. 6. Verfahren nach Anspruch 1-5 dadurch gekenn­ zeichnet, daß als Empfänger pixelweise organisierte Photoempfänger, vorzugsweise CCD-Flächensenso­ ren, mit einer bestimmten Integrationszeit verwendet werden, die das entstehende Intensitätssignal ab­ schnittsweise integrieren.6. The method according to claim 1-5 characterized thereby records that as the recipient organized pixel by pixel Photo receivers, preferably CCD area sensors ren, used with a certain integration time be the resulting intensity signal integrate step by step. 7. Verfahren nach Anspruch 1-6 dadurch gekenn­ zeichnet, daß nach jeder Integrationszeit der Photo­ empfänger die Phase der Lichtmodulation verändert wird.7. The method according to claims 1-6 characterized thereby records that after each integration period of the Photo receiver changed the phase of light modulation becomes. 8. Verfahren nach Anspruch 1-7 dadurch gekenn­ zeichnet, daß die Phase der Lichtmodulation nach jeder Integrationszeit um 180° gedreht wird, und daß je zwei aufeinanderfolgende aus den Photoemp­ fängern ausgelesene Bilder pixelweise addiert wer­ den.8. The method according to claims 1-7 characterized thereby records that the phase of light modulation after every integration time is rotated by 180 °, and that two successive from the Photoemp captured images are added pixel by pixel the. 9. Verfahren nach Anspruch 1-7 dadurch gekenn­ zeichnet, daß die Phase der Lichtmodulation ab­ wechselnd nach jeder Integrationszeit des Photoemp­ fängers um +90° bzw. um -90° verschoben wird.9. The method according to claims 1-7 characterized thereby shows that the phase of light modulation alternating after each integration time of the Photoemp is shifted by + 90 ° or by -90 °. 10. Verfahren nach Anspruch 1-7 und 9 dadurch gekennzeichnet, daß von allen Pixeln nach abge­ schlossener Integrationszeit des Photoempfängers pixelweise der jeweilige Mittelwert abgezogen wird, das Ergebnis pixelweise quadriert wird und diese Quadrate zweier aufeinanderfolgender jeweils abge­ schlossener Integrationszeiten pixelweise addiert werden.10. The method according to claim 1-7 and 9 thereby characterized that abge from all pixels  closed integration time of the photoreceiver the respective mean value is subtracted pixel by pixel, the result is squared pixel by pixel and this Squares of two successive abge closed integration times added pixel by pixel will. 11. Verfahren nach Anspruch 1-10 dadurch gekenn­ zeichnet, daß zu dem Maximum des durch Integra­ tion empfangenen Signals benachbarte Werte mit aufgenommen werden und mit einer anschließenden Interpolation das Maximum genauer bestimmt wird.11. The method according to claim 1-10 characterized thereby records that to the maximum of by Integra tion received signal with neighboring values be included and with a subsequent Interpolation the maximum is determined more precisely.
DE19944429578 1994-08-19 1994-08-19 Synchronised intensity modulation in object surface evaluation Withdrawn DE4429578A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19944429578 DE4429578A1 (en) 1994-08-19 1994-08-19 Synchronised intensity modulation in object surface evaluation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19944429578 DE4429578A1 (en) 1994-08-19 1994-08-19 Synchronised intensity modulation in object surface evaluation

Publications (1)

Publication Number Publication Date
DE4429578A1 true DE4429578A1 (en) 1996-06-05

Family

ID=6526173

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19944429578 Withdrawn DE4429578A1 (en) 1994-08-19 1994-08-19 Synchronised intensity modulation in object surface evaluation

Country Status (1)

Country Link
DE (1) DE4429578A1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19814057A1 (en) * 1998-03-30 1999-10-07 Zeiss Carl Jena Gmbh Spectral interferometric optical tomography device
DE19819025A1 (en) * 1998-04-29 1999-11-18 Daimler Chrysler Ag Appliance and method for compensating the vibration of an object relative to a reference object
DE19955268A1 (en) * 1999-11-17 2001-05-31 Isis Optronics Gmbh Interferometric object analysis method e.g. for medical applications, has interference signals for two central wavelengths shifted relative to one another dependent on expected dispersion
DE102005028415A1 (en) * 2005-06-20 2006-12-21 Siemens Ag Determining radiological thickness of object involves determining geometrical object thickness for defined through radiation direction from model measurement data, determining radiological thickness using at least one absorption parameter
DE102007010389A1 (en) * 2007-03-03 2008-09-04 Polytec Gmbh Device for optical measurement of objects, has signal evaluation unit, and interferometer with light source and detectors, where light source is formed so that it generates light with coherence length smaller than one centimeter
CN106643559A (en) * 2017-03-06 2017-05-10 中国科学院光电技术研究所 White light microscopic interference morphology reconstruction method based on mixing interference fringe
CN106643558A (en) * 2017-03-06 2017-05-10 中国科学院光电技术研究所 Method for detecting interference shape of broadband spectrum based on longitudinal phase splicing

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19814057B4 (en) * 1998-03-30 2009-01-02 Carl Zeiss Meditec Ag Arrangement for optical coherence tomography and coherence topography
DE19814057A1 (en) * 1998-03-30 1999-10-07 Zeiss Carl Jena Gmbh Spectral interferometric optical tomography device
DE19819025A1 (en) * 1998-04-29 1999-11-18 Daimler Chrysler Ag Appliance and method for compensating the vibration of an object relative to a reference object
DE19819025B4 (en) * 1998-04-29 2004-07-29 Daimlerchrysler Ag Apparatus and method for vibration compensation of an object relative to a reference object
DE19955268A1 (en) * 1999-11-17 2001-05-31 Isis Optronics Gmbh Interferometric object analysis method e.g. for medical applications, has interference signals for two central wavelengths shifted relative to one another dependent on expected dispersion
DE19955268C2 (en) * 1999-11-17 2001-09-06 Isis Optronics Gmbh Method and device for the interferometric examination of scattering objects
US6611338B1 (en) 1999-11-17 2003-08-26 Isis Optronics Gmbh Method and apparatus for the interferometric examination of scattering objects
DE102005028415A1 (en) * 2005-06-20 2006-12-21 Siemens Ag Determining radiological thickness of object involves determining geometrical object thickness for defined through radiation direction from model measurement data, determining radiological thickness using at least one absorption parameter
DE102007010389A1 (en) * 2007-03-03 2008-09-04 Polytec Gmbh Device for optical measurement of objects, has signal evaluation unit, and interferometer with light source and detectors, where light source is formed so that it generates light with coherence length smaller than one centimeter
US7852487B2 (en) 2007-03-03 2010-12-14 Polytec Gmbh Heterodyne interferometer device for optically measuring an object
DE102007010389B4 (en) * 2007-03-03 2011-03-10 Polytec Gmbh Device for the optical measurement of an object
CN106643559A (en) * 2017-03-06 2017-05-10 中国科学院光电技术研究所 White light microscopic interference morphology reconstruction method based on mixing interference fringe
CN106643558A (en) * 2017-03-06 2017-05-10 中国科学院光电技术研究所 Method for detecting interference shape of broadband spectrum based on longitudinal phase splicing

Similar Documents

Publication Publication Date Title
DE19528513A1 (en) Process for non-contact, quick and precise detection of the surface shape of objects
DE4108944A1 (en) Contactless measurement of surface shape of diffusely scattering objects e.g. semiconductor wafers - using interferometric arrangement for three=dimensional measurement with minimal coherence length and illumination aperture angle less than observation aperture angle
DE10392754T5 (en) An interferometric optical system and methods providing an optical path length and a focus that are scanned simultaneously
DE19814070B4 (en) Method and arrangement for coherence tomography with increased transversal resolution
DE2812593C2 (en) Device for automatic focusing of the optical system of a microscope
DE102004037137B4 (en) Method and device for distance measurement
DE2209667C3 (en) Device for contactless measurement
DE10392828T5 (en) Interferometry methods and systems with coupled cavity geometry for use with an extended source
DE102005023212B4 (en) Method and device for fast and accurate white light interferometry
WO2015169730A1 (en) Method and sensor for determining the surface of an object by means of deflectometry
DE19832175B4 (en) Methods and arrangements for transversal optical coherence tomography
DE2210681A1 (en) DEVICE FOR CONTACTLESS MEASUREMENT
EP1065468B1 (en) Linear OCT for use as optical sensor in metrology and medical technology
EP0510137B1 (en) Opto-electrical measuring process for determining cross-sectional dimensions especially of elongated objects with reference to at least one straight line at the cross-sectional periphery touching it at at least two points, and device for implementing the process
DE4429578A1 (en) Synchronised intensity modulation in object surface evaluation
EP0776457B1 (en) Method and interference microscope for imaging an object, with the aim of achieving a resolution beyond the diffraction limit
DE102006007573B4 (en) Method and device for 3D geometry detection of object surfaces
DE3527074A1 (en) Arrangement for determining the surface contour of objects by means of the moiré technique
DE102004026193B4 (en) Measuring method for shape measurement
EP1805476B1 (en) Interferometer comprising a mirror assembly for measuring an object to be measured
EP1314953A2 (en) Interferometer and interferometric measuring procedure
DE2144487B2 (en) Device for contactless measurement
DE69722000T2 (en) Method for improving the contrast of images which are produced by adding pulsed partial images using ESPI technology
US3989378A (en) Method for no-contact measurement
DE102004045807B4 (en) Optical measuring device for measuring curved surfaces

Legal Events

Date Code Title Description
8122 Nonbinding interest in granting licenses declared
8110 Request for examination paragraph 44
8130 Withdrawal