DE4429578A1 - Synchronised intensity modulation in object surface evaluation - Google Patents
Synchronised intensity modulation in object surface evaluationInfo
- Publication number
- DE4429578A1 DE4429578A1 DE19944429578 DE4429578A DE4429578A1 DE 4429578 A1 DE4429578 A1 DE 4429578A1 DE 19944429578 DE19944429578 DE 19944429578 DE 4429578 A DE4429578 A DE 4429578A DE 4429578 A1 DE4429578 A1 DE 4429578A1
- Authority
- DE
- Germany
- Prior art keywords
- pixel
- modulation
- records
- light source
- intensity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/2441—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using interferometry
Abstract
Description
Es wird ein Verfahren beschrieben, mit dem berüh rungslos die makroskopische Topologie von vor zugsweise rauhen Oberflächen, sehr schnell oder sehr genau mit allen Zwischenlösungen vermessen werden kann (3D-Sensor).A method is described with which touch the macroscopic topology from before preferably rough surfaces, very fast or measured very precisely with all intermediate solutions can be (3D sensor).
Die Oberflächengestalt wird dabei entsprechend Abb. 1 in einem orthogonalen, dreiachsigen Koor dinatensystem (1) beschrieben, in dem die x- und y- Koordinate den lateralen und die z-Koordinate der longitudinalen Ort eines Objektpunktes festlegt. Die longitudinale Komponente entspricht dabei der Beleuchtungsrichtung (hier auch Beobachtungsrich tung) des Sensors. Sensoren, die eine solche Ober flächengestalt, meist als Funktion z(x,y) vermessen, werden 3D-Sensoren genannt.The surface shape is described according to Fig. 1 in an orthogonal, three-axis coordinate system ( 1 ) in which the x and y coordinates define the lateral and the z coordinate the longitudinal location of an object point. The longitudinal component corresponds to the direction of illumination (here also observation direction) of the sensor. Sensors that measure such a surface shape, usually as a function z (x, y), are called 3D sensors.
Es gibt nun grundsätzlich vier verschiedene Metho den, mit denen Objekte berührungslos vermessen werden können: die Triangulation mit all ihren verschiedenen Ausführungen, die fokussuchenden Verfahren, die die Laufzeit messenden Verfahren und schließlich die interferometrischen Verfahren. Bei den Triangulationssensoren wird aus verschiede nen Richtungen beleuchtet und beobachtet (Trian gulationswinkel). Die Höheninformation wird daher auf der Beobachtungsseite in eine laterale Informa tion übersetzt. Systemimmanente Probleme bei die sen Sensoren sind die durch die nicht koaxiale Be leuchtung und Beobachtung hervorgerufenen Ab schattungen; bei den flächenhaft beleuchtenden Sen soren (codierte Beleuchtung) kommen noch Schär fentiefeprobleme hinzu. Weiterhin ist die Beobach tungsapertur ein begrenzender Faktor, die bei vor gegebenem Arbeitsabstand nur eine begrenzte Meß genauigkeit zuläßt. Hinzu kommt bei (teil-)kohären ter Beleuchtung das Auftreten von Speckle [1], die eine statistische Meßunsicherheit nach sich ziehen [2][3].There are now basically four different methods the one with which objects are measured without contact can be: the triangulation with all its different designs that are looking for focus Procedure, the procedure measuring the transit time and finally the interferometric methods. The triangulation sensors are different directions and observed (Trian gulation angle). The height information is therefore on the observation side in a lateral informa tion translated. System-inherent problems with the sen sensors are those by the non coaxial Be Illumination and observation evoked Ab shades; with the area-illuminating sen sensors (coded lighting) are still coming added deep problems. Furthermore, the observer tion aperture is a limiting factor in the case of given working distance only a limited measurement allows accuracy. Added to this is (co) coherence ter lighting the appearance of speckle [1], the result in statistical uncertainty [2] [3].
Für die fokussuchenden Verfahren gelten die oben bezüglich der Beobachtungsapertur und der (teil-)ko härenten Beleuchtung getroffenen Aussagen eben falls [4].The above applies to the focus-seeking procedures regarding the observation aperture and the (partially) knockout statements made with the lighting if [4].
Die die Laufzeit messenden Verfahren sind für die Vermessung von Objekte mit einer Genauigkeit im Mikrometerbereich nicht geeignet, da man beispiels weise eine Zeitauflösung in der Größenordnung von 10-14 s benötigt, um einen Mikrometer auflösen zu können.The methods measuring the transit time are not suitable for the measurement of objects with an accuracy in the micrometer range because, for example, a time resolution of the order of 10 -14 s is required in order to be able to resolve a micrometer.
Die klassische Interferometrie kann nur bei optisch glatten Oberflächen eingesetzt werden, d. h. bei einer Oberflächenrauhigkeit, die deutlich unter der verwendeten Wellenlänge der Beleuchtung liegt. Nur dann wird die reflektierte Wellenfront nicht zerstört und eine Phasenauswertung kann durch geführt werden. Bei rauhen Oberflächen wird des halb mit heterodyner Beleuchtung [5] gearbeitet, d. h. es wird mit einer synthetischen Wellenlänge beleuchtet, die größer als die Rauhigkeit des Ob jektes ist. Bei den interferometrischen Verfahren treten allerdings Eindeutigkeitsprobleme auf, sobald das zu vermessende Objekt Unstetigkeitsstellen aufweist, die größer als die halbe synthetische Wel lenlänge sind.Classic interferometry is only possible with optical smooth surfaces are used, d. H. at a surface roughness that is clearly below the used wavelength of the lighting lies. Only then will the reflected wavefront not destroyed and a phase evaluation can by be performed. In the case of rough surfaces, the half worked with heterodyne lighting [5], d. H. it comes with a synthetic wavelength illuminated that are larger than the roughness of the ob is jektes. With interferometric methods However, uniqueness problems arise as soon as the object to be measured has discontinuities which is larger than half the synthetic wel length.
In [6][7][8] wurde ein Sensor vorgestellt, das Kohä renzradar, welches auf dem Michelson Interferome ter Prinzip beruht. Der eine Spiegel wird dabei durch das diffus streuende, zu vermessende Objekt ersetzt. Der Aufbau ist in Abb. 1 gezeigt. Die Lichtquelle (2) wird über eine Linse (3) ins Un endliche abgebildet. Über den Strahlteiler (4) wird das parallele Strahlenbündel aufgeteilt und ein Teil wird vom Referenzspiegel (5) reflektiert, der andere Teil wird am rauhen Objekt (6) gestreut. Damit die Intensitäten der rücklaufenden Strahlen jeweils ungefähr gleich sind, ist in den Referenzarm noch ein Graufilter (7) eingesetzt worden. Die Glasplatte (8) im Objektstrahlengang kompensiert die durch den Graufilter eingeführte Dispersion. Der Refe renzspiegel (und damit auch die Teile des Objektes, deren optische Weglängen mit dem Referenzspiegel abgeglichen sind) wird über eine Abbildungsoptik (9) auf den Photoempfänger, üblicherweise eine CCD-Kamera (10) abgebildet.In [6] [7] [8] a sensor was presented, the coherence radar, which is based on the Michelson interferometer principle. One mirror is replaced by the diffusely scattering object to be measured. The structure is shown in Fig. 1. The light source ( 2 ) is imaged via a lens ( 3 ) into the finite. The parallel beam is split up via the beam splitter ( 4 ) and one part is reflected by the reference mirror ( 5 ), the other part is scattered on the rough object ( 6 ). So that the intensities of the returning rays are approximately the same, a gray filter ( 7 ) has been inserted in the reference arm. The glass plate ( 8 ) in the object beam path compensates for the dispersion introduced by the gray filter. The reference mirror (and thus also the parts of the object whose optical path lengths are matched to the reference mirror) is imaged on the photo receiver, usually a CCD camera ( 10 ), via imaging optics ( 9 ).
Aufgrund der teilkohärenten Beleuchtung und der Tatsache, daß die Beobachtungsapertur größer als die Beleuchtungsapertur ist, sieht die Kamera auf der Beobachtungsseite Speckle (optimal: jedes Ka merapixel wird durch gerade ein Speckle ausge leuchtet). Die gewählte Abbildung ordnet jedem Speckle eindeutig einen lateralen Ort (x, y) auf der Objektoberfläche zu. Bei einer rauhen Oberfläche ist die Phase in den einzelnen Speckle zufällig, d. h. es kann nicht wie bei der klassischen Interferometrie aus der Phase eine Höheninformation gewonnen werden.Because of the partially coherent lighting and the Fact that the observation aperture is larger than is the lighting aperture, the camera looks up the observation side Speckle (optimally: every Ka merapixel is just made out of a speckle shines). The chosen image arranges everyone Clearly speckle a lateral location (x, y) on the Object surface too. With a rough surface the phase in the individual speckle is random, d. H. it cannot be like classic interferometry obtained height information from the phase will.
Wird das Objekt (oder bei kleinem Meßbereich die Referenz) mit Hilfe einer Verschiebeeinheit (11) koaxial zur Beleuchtung verfahren, so zeigen dieje nigen Speckle eine Intensitätsmodulation, für die das Interferometer innerhalb der Kohärenzlänge der Lichtquelle abgeglichen ist.If the object (or the reference in the case of a small measuring range) is moved coaxially with the aid of a displacement unit ( 11 ), those speckles show an intensity modulation for which the interferometer is balanced within the coherence length of the light source.
Bei dieser Intensitätsmodulation handelt es sich um eine Amplitudenmodulation, wobei diese - im Ge gensatz zu der aus der Nachrichtentechnik bekann ten Version - ortsabhängig und zudem mit einem Gleichanteil behaftet ist. Abb. 2 zeigt eine solche Modulation (13), wobei die Intensität über den Ort aufgetragen ist. Die inverse örtliche (!) Trägerfre quenz des amplitudenmodulierten Signals entspricht der halben mittleren Wellenlänge der verwendeten Lichtquelle.This intensity modulation is an amplitude modulation, which - in contrast to the version known from communications technology - is location-dependent and also has a constant component. Fig. 2 shows such a modulation ( 13 ), the intensity being plotted over the location. The inverse local (!) Carrier frequency of the amplitude-modulated signal corresponds to half the central wavelength of the light source used.
Für die Auswertung ist nur die Einhüllende (14) von Interesse, genauer der Ort z₀ Maximums. Dort weisen nämlich der zum Speckle gehörige Objekt punkt (x₀, y₀) und die Referenz gleiche optische Weglängen auf. Wird nun das Objekt vollständig durch die Ebene verfahren, bei der die optische Weglänge mit der Referenz abgeglichen ist, und zeichnet man immer dann, wenn ein Speckle maxi mal moduliert ist, für den entsprechenden Objekt punkt die Position der Verschiebeeinheit auf, so erhält man ein vollständiges Höhenbild des Objek tes.Only the envelope ( 14 ) is of interest for the evaluation, more precisely the location z₀ maximum. There the object point (x₀, y₀) belonging to the speckle and the reference have the same optical path lengths. If the object is now moved completely through the plane at which the optical path length is aligned with the reference, and if the position of the displacement unit for the corresponding object point is always recorded when a speckle is modulated, then one obtains one complete elevation of the object.
Die Nachrichtentechnik kennt nun unter anderem die Hüllkurvendemodulation als Dekodierverfahren für ein solches amplitudenmoduliertes Signal, wie es ortsabhängig in jedem Speckle auftritt. Verfährt man das Objekt bzw. den Referenzspiegel mit einer möglichst konstanten Geschwindigkeit, so läßt sich die Hüllkurvendemodulation analog einfach realisie ren, wie dies in Abb. 3 gezeigt ist: Zur Dekodie rung muß das Signal (15) einen Bandpaß (16) eine Gleichrichtung (17) und schließlich einen Tiefpaß (18) durchlaufen. Das Maximum der Einhüllenden ergibt den Ort gleicher Weglängen. Für einen Punktsensor, der nur ein einziges Speckle auswertet, wurde dies auch realisiert [7]. Für einen Flächen sensor, der parallel viele Speckle auswerten muß, ist dieses Demodulationsverfahren aber nur bedingt einsetzbar. Bislang sind drei verschiedene Ansätze dafür bekannt:The communications technology now knows, among other things, envelope demodulation as a decoding method for such an amplitude-modulated signal as occurs in each speckle depending on the location. By proceeding the object or reference mirror at a constant speed as possible, so the envelope detection can be easily analog realisie reindeer, as shown in Fig. 3: To Dekodie tion signal (15) has a bandpass filter (16) rectifies ( 17 ) and finally go through a low pass ( 18 ). The maximum of the envelope results in the location of the same path lengths. This was also realized for a point sensor that only evaluates a single speckle [7]. For a surface sensor that has to evaluate a lot of speckle in parallel, this demodulation method can only be used to a limited extent. So far, three different approaches are known:
Die erste Möglichkeit [7] besteht darin, nicht die Einhüllende auszuwerten, sondern direkt die Modu lation. Dazu wird zunächst mit einer Verschiebein heit - s. Abb. 1 (11) - das Objekt verschoben. Anschließend wird der auf einem Piezo (12) ange brachte Referenzspiegel um k·λ/3 (k = 0,1,2) ver schoben und jeweils mit der CCD-Kamera ein Bild aufgenommen. Pixelweise werden dann die drei Bilder miteinander verrechnet und daraus die jewei lige Pixel-Specklemodulation berechnet. Wird die Modulation in einem Pixel maximal, so wird die zugehörige Position der Verschiebeeinheit abgespei chert. Nachteilig bei diesem Verfahren ist, daß pro Höhenstufe drei Bilder aufgenommen und verrech net werden müssen. Für jedes Bild muß zudem der Piezo verstellt werden und auch eingeschwungen sein. Zwischen je zwei Höhenbildern muß die Ver schiebeeinheit ebenfalls bewegt werden und einge schwungen sein. Dieses Verfahren ist also quasi statisch und damit sehr zeitaufwendig.The first possibility [7] is not to evaluate the envelope, but directly the modulation. To do this, first use a sliding unit - s. Fig. 1 ( 11 ) - the object moved. Then the reference mirror mounted on a piezo ( 12 ) is shifted by k · λ / 3 (k = 0.1.2) and an image is recorded with the CCD camera. The three images are then calculated pixel by pixel and the respective pixel speckle modulation is calculated. If the modulation is maximal in one pixel, the associated position of the displacement unit is stored. A disadvantage of this method is that three images have to be taken and offset per height level. The piezo must also be adjusted for each picture and must also be steady. Between two height images, the sliding unit must also be moved and swung in. So this method is quasi static and therefore very time consuming.
Ein anderer Ansatz verfolgt zwar grundsätzlich die gleiche Strategie, d. h. es wird auch nur die Modula tion bestimmt, allerdings wird das Objekt konti nuierlich verfahren. Mit einer Hochgeschwindig keitskamera werden bei fahrendem Objekt alle von der Kamera kommenden Bilder abgespeichert und offline ausgewertet. Die Kamera muß dabei so schnell sein, daß nicht nur die Modulation nach Nyquist vollständig abgetastet wird, sondern auch noch Intensitätsänderungen während der Integra tionszeit der Kamera vernachlässigt werden können. Dieses Verfahren hat zwar eine stark verkürzte Meßzeit, der Meßbereich ist aber durch die Anzahl der abspeicherbaren Bilder begrenzt (1 mm Meßbe reich bei 10 Abtastungen pro Modulation und einer mittleren Wellenlänge von 630 nm benötigt ca. 32.000 Bilder!).Another approach basically follows the same strategy, d. H. it just becomes the modula tion, but the object is conti proceed neatly. With a high speed When the object is in motion, the images coming from the camera are saved and evaluated offline. The camera has to do this be quick that not only modulation after Nyquist is fully scanned, but also still changes in intensity during the integra camera can be neglected. This procedure has a greatly shortened one Measuring time, but the measuring range is by the number of the images that can be saved (1 mm measuring range rich with 10 samples per modulation and one average wavelength of 630 nm requires approx. 32,000 pictures!).
Eine dritter Ansatz verfolgt eine online Auswertung mit Hilfe von digitalen Filtern [9]. Hier wird tat sächlich pixelweise eine der Hüllkurvendemodula tion ähnliche Filterung vorgenommen, indem unter Beachtung des Nyquist-Kriteriums die Modulation vollständig abgetastet und einem digitalen Filter zugeführt wird. Dazu ist aber ebenfalls ein stati scher Betrieb notwendig, d. h. die Verschiebeeinheit (Piezo) muß bei der Aufnahme der Bilder stehen, oder aber es wird nur sehr langsam verfahren.A third approach follows an online evaluation with the help of digital filters [9]. Here is done one pixel of the envelope curve demodula tion similar filtering made by under Consideration of the Nyquist criterion modulation fully scanned and a digital filter is fed. But there is also a stati necessary operation, d. H. the displacement unit (Piezo) must stand when taking the pictures, or else the process is very slow.
Hier wird die Anwendung eines aus der Nachrich tentechnik (NT) bekannten, modifizierten Demodu lationsverfahrens vorgeschlagen, mit dem das Ob jekt kontinuierlich verfahren werden kann, mit dem online ausgewertet werden kann und die Modulation nicht vollständig abgetastet werden muß. Aufgrund der Möglichkeit des kontinuierlichen Verfahrens wird der Sensor im folgenden als dynamisches Kohärenz radar bezeichnet, wobei dieses Verfahren auch für ein konventionelles Weißlichinterferometer einge setzt werden kann, ohne dabei allerdings die Ge nauigkeit der phasenmessenden Verfahren erreichen zu können.Here is the application of one from the message tentechnik (NT) known, modified Demodu lation procedure proposed by which the Ob can be moved continuously with which can be evaluated online and the modulation does not need to be fully scanned. Because of the possibility of a continuous process the sensor in the following as dynamic coherence referred to radar, this method also for a conventional white light interferometer turned on can be set without losing the Ge achieve accuracy of the phase-measuring processes to be able to.
Das vorgeschlagene Verfahren ähnelt der kohären ten Demodulation [10] aus der NT, welches in Abb. 4 gezeigt ist. Dort wird üblicherweise im Sender (19) dem Nutzsignal (20) ein Träger (21) aufmoduliert und über die Strecke (22) geschickt. Im Empfänger (23) wird die gleiche Trägerfrequenz wiederum aufmoduliert (24), wodurch das Nutz signal (26) und ein Anteil bei der doppelten Träger frequenz gewonnen wird. Letzterer kann durch einen einfachen Tiefpaß (25) weggefiltert werden. Die verschiedenen Operationen lassen sich auch im Fourierraum darstellen (27). Da alle Operationen linear sind, können sie auch vertauscht werden, was eine Übertragung auf das Kohärenzradar ermög licht.The proposed method is similar to the coherent demodulation [10] from the NT, which is shown in Fig. 4. There, a carrier ( 21 ) is usually modulated onto the useful signal ( 20 ) in the transmitter ( 19 ) and sent over the route ( 22 ). In the receiver ( 23 ) the same carrier frequency is in turn modulated ( 24 ), whereby the useful signal ( 26 ) and a share in the double carrier frequency is obtained. The latter can be filtered out by a simple low-pass filter ( 25 ). The various operations can also be represented in the Fourier space ( 27 ). Since all operations are linear, they can also be interchanged, which enables transmission to the coherence radar.
Ordnet man das Kohärenzradar in eine solche Struk tur ein, wie dies in Abb. 5 geschehen ist, dann ist die Lichtquelle der Sender (30), die Strecke (29) wird vom Referenz- und dem Objektstrahlengang gebildet; der Empfänger (32) schließlich ist die Kamera. Hier ist es nun die Strecke, wo sowohl Nutzsignal (Einhüllende der Modulation), als auch Trägerfrequenz (28) entstehen. Anstelle der kohä renten Demdulation im Empfänger wird nun der Sender, also die Lichtquelle mit der erwarteten Modulationsfrequenz moduliert (31). Aufgrund des Gleichanteils des Modulationssignales erhält man noch einen Anteil bei der Trägerfrequenz (34). Als Tiefe wird die Integrationszeit der Kamera ausge nutzt (33).If one arranges the coherence radar in such a structure, as was done in Fig. 5, then the light source is the transmitter ( 30 ), the path ( 29 ) is formed by the reference and the object beam path; finally the receiver ( 32 ) is the camera. Here it is the path where both the useful signal (envelope of the modulation) and the carrier frequency ( 28 ) are generated. Instead of the coherent demdulation in the receiver, the transmitter, i.e. the light source, is now modulated with the expected modulation frequency ( 31 ). Due to the constant component of the modulation signal, a component is also obtained at the carrier frequency ( 34 ). The integration time of the camera is used as the depth ( 33 ).
Es handelt sich hier also nicht um eine kohärente Demodulation wie im nachrichtentechnischen Fall, sondern um eine kohärente (Licht-)Modulation.So this is not a coherent one Demodulation as in the case of communications technology, but a coherent (light) modulation.
Geht man von einer sinusförmigen zu einer digitalen (Ein/Aus) Modulation über, so läßt sich dieses Verfahren einfach veranschaulichen: Betrachtet man die Modulation aus Abb. 2 und schaltet die Licht quelle immer dann ein, wenn eine bezüglich des Mittelwerts positive Halbwelle in der Modulation erwartet wird und immer dann aus, wenn eine negative Halbwelle erwartet wird, so liefert eine anschließende Tiefpaßfilterung oder eine abschnitts weise Integration die Einhüllende der Modulation. Da die mittlere Wellenlänge der Lichtquelle als bekannt vorausgesetzt wird, kann eine Lichtmodula tion unmittelbar von der aktuellen Position der Ver schiebeeinheit des Sensors gesteuert werden. Abb. 6 zeigt zunächst eine Modulation (35), wie sie ohne modulierte Lichtquelle auf einen Photoempfänger treffen würde. Die Intensität ist dabei über den Ort der Verschiebeeinheit (entspricht der longitudinalen z-Komponente) aufgetragen. Wird die Lichtmodula tion eingeschaltet und eine CCD-Kamera mit einer bestimmten Integrationszeit verwendet, so liefert ein Pixel eine diskretisierte Einhüllende (36). Die dic ken Balken kennzeichnen dabei Beginn und Ende der Kameraintegration. Da hier alle Balken die gleiche Länge besitzen, wurde das Objekt mit einer konstanten Geschwindigkeit verfahren. Um die Nachteile der Diskretisierung auszugleichen, kann noch eine Dreipunkt-Subpixelinterpolation um das Maximum durchgeführt werden, d. h. durch das Maximum und die beiden benachbarten Punkte wird eine Gaußfunktion oder einfach eine Parabel gelegt, deren Maximum dann verwendet wird. Ändert man nach jedem Bildtakt (in der Regel 40 ms) die Phase der Lichtmodulation um 180° und addiert aufeinan derfolgende Bilder pixelweise, so fällt der Gleichan teil noch weg.If one changes from a sinusoidal to a digital (on / off) modulation, this process can be easily illustrated: If one looks at the modulation from Fig. 2 and switches on the light source whenever there is a positive half-wave in the Modulation is expected and always off when a negative half-wave is expected, a subsequent low-pass filtering or a section-wise integration provides the envelope of the modulation. Since the mean wavelength of the light source is assumed to be known, a light modulation can be controlled directly from the current position of the displacement unit of the sensor. Fig. 6 first shows a modulation ( 35 ) as it would hit a photo receiver without a modulated light source. The intensity is plotted over the location of the displacement unit (corresponds to the longitudinal z component). If the light modulation is switched on and a CCD camera with a specific integration time is used, a pixel delivers a discretized envelope ( 36 ). The thick bars mark the beginning and end of camera integration. Since all bars here have the same length, the object was moved at a constant speed. In order to compensate for the disadvantages of the discretization, a three-point subpixel interpolation can also be carried out around the maximum, ie a maximum or a parabola is put through the maximum and the two adjacent points, the maximum of which is then used. If you change the phase of the light modulation by 180 ° after each image cycle (usually 40 ms) and add pixel-by-pixel to each other, the equal proportion is still lost.
Dieses Verfahren funktioniert aber nur dann gut, wenn Lichtmodulation und Specklemodulation etwa phasengleich sind. Da jedoch die Specklephase zufällig ist und viele Speckle auf vielen Kamerapi xeln parallel ausgewertet werden, läßt sich keine für alle Speckle geeignete Phase für die Lichtmodula tion finden.This method only works well if if light modulation and speckle modulation, for example are in phase. However, since the speckle phase is random and lots of speckle on lots of camera pi xeln are evaluated in parallel, none for all speckle suitable phase for the light modules find.
Eine weitere Ausprägung des dynamische Kohärenz radars basiert daher auf der modifizierten Anwen dung der ebenfalls aus der Nachrichtentechnik be kannten Quadraturamplitudenmodulation (QAM). Wie Abb. 7 zeigt, wird dort das amplitudenmodu lierte Signal (37) im Empfänger zunächst aufgespal tet (38) und dann mit zwei um 90° zueinander pha senverschobenen Signalen (39) (40) kohärent demo duliert. Beide so entstandenen Signale werden je einem Tiefpaß (41) zugeführt und anschließend quadriert (42). Die abschließende Addition (43) der beiden Signale liefert das quadrierte Nutzsignal (44).Another form of dynamic coherence radar is therefore based on the modified application of quadrature amplitude modulation (QAM), which is also known from telecommunications. As Fig. 7 shows, the amplitude-modulated signal ( 37 ) is first split in the receiver ( 38 ) and then coherently demodulated with two signals ( 39 ) ( 40 ) phase-shifted by 90 ° to each other. Both signals thus created are each fed to a low-pass filter ( 41 ) and then squared ( 42 ). The final addition ( 43 ) of the two signals provides the squared useful signal ( 44 ).
Dieses Prinzip ist nicht unmittelbar auf das Kohä renzradar übertragbar, da hier nur ein Tiefpaß, nämlich die Integrationszeit eines Kamerapixels, zur Verfügung steht. Schaltet man aber nach jedem Videotakt die Phase der Lichtmodulation zwischen 0° und 90° um, so kann mit Hilfe einer nachge schalteten Bildverarbeitung die folgende Gleichung pixelweise ausgeführt werden:This principle is not directly related to the Kohä renzradar transferable, since here only a low pass, namely the integration time of a camera pixel at Available. But you switch after each Video clock the phase of light modulation between 0 ° and 90 ° around, with the help of a switched image processing the following equation be executed pixel by pixel:
Dabei ist In bzw. In-1, die Intensität des Pixels beim n-ten bzw. (n-1)-ten Videobild und die mittlere Intensität des Pixels außerhalb des Modulations bereiches. Abb. 3 zeigt eine so gewonnene Ein hüllende: man sieht, wie nach jedem Videobild zwischen den beiden Phasen umgeschaltet wird (45) (46). (47) zeigt schließlich die nach obiger Glei chung gewonnene Einhüllende. Die kohärente Licht modulation ist damit phasenunabhängig geworden. Der entscheidende Vorteil des dynamischen Kohä renzradars gegenüber den bislang bekannten Ver fahren liegt in der Möglichkeit, das Objekt konti nuierlich verfahren zu können ohne dabei den Meß bereich einzuschränken und ohne die Modulation vollständig abtasten zu müssen. Da je nach Verfahr geschwindigkeit der Verschiebeeinheit ein mehr oder weniger großer Teil der Modulation integriert wird (längere oder kürzere Balken in Abb. 6/8), kann mit der Verfahrgeschwindigkeit die Genauig keit des Sensors beeinflußt werden. Es gilt allge mein, daß der Quotient aus Meßfehler und Verfahr geschwindigkeit konstant ist, d. h. verfährt man bei einer ersten Messung mit einer bestimmten Ge schwindigkeit, so kann das Maximum und damit der Ort nur bis auf einen bestimmten Meßfehler genau bestimmt werden; verdoppelt man bei einer zweiten Messung die Geschwindigkeit, so verdoppelt sich auch der Meßfehler (verwendet man allerdings zusätzlich eine Interpolation um das Maximum, so läßt sich die Genauigkeit noch steigern).In this case, I n or I n-1 , the intensity of the pixel at the nth or (n-1) th video image and the mean intensity of the pixel outside the modulation range. Fig. 3 shows an envelope obtained in this way: one can see how to switch between the two phases after each video image ( 45 ) ( 46 ). ( 47 ) finally shows the envelope obtained according to the above equation. The coherent light modulation has become phase independent. The decisive advantage of the dynamic coherence radar over the previously known processes is the possibility of being able to continuously move the object without restricting the measuring range and without having to scan the modulation completely. Since a greater or lesser part of the modulation is integrated (longer or shorter bars in Fig. 6/8) depending on the travel speed of the displacement unit, the accuracy of the sensor can be influenced with the travel speed. It is generally my opinion that the quotient of the measurement error and the travel speed is constant, ie if one moves at a certain speed for a first measurement, the maximum and thus the location can only be determined exactly down to a certain measurement error; If the speed is doubled in a second measurement, the measurement error also doubles (however, if an interpolation is also used by the maximum, the accuracy can still be increased).
Dieser konstante Quotient hängt von der Kamerain tegrationszeit ab. Mit einer Hochgeschwindigkeits kamera, die zum Beispiel 800 statt nur 25 Bilder in der Sekunde aufnimmt, kann bei gleicher Meßge nauigkeit mit der 32-fachen Geschwindigkeit ver fahren werden.This constant quotient depends on the camera integration time. With a high speed camera, for example, 800 instead of just 25 pictures in the second records, can with the same Meßge accuracy with 32 times the speed will drive.
[1] J.W. Goodman, "Statistical properties of Laser speckle patterns", in "Laser speckle and related phenomena", ed. J.C. Dainty (Springer Verlag, Berlin 1984).[1] J.W. Goodman, "Statistical Properties of Laser speckle patterns ", in" Laser speckle and related phenomena ", ed. J.C. Dainty (Springer Verlag, Berlin 1984).
[2] G. Häusler, About fundamental limits of three dimensional sensing or nature makes no presents", Proc. of the 15th Congress of the international Co mission of Optics, Garmisch-Partenkirchen, SPIE 1319, 352 (August 1990).[2] G. Häusler, About fundamental limits of three dimensional sensing or nature makes no presents ", Proc. of the 15th Congress of the international Co mission of Optics, Garmisch-Partenkirchen, SPIE 1319, 352 (August 1990).
[3] G. Häusler, J. Herrmann, "Physical Limits of 3D-Sensing", Proc. SPIE 1822: Optics, Illumination and Image Sensing for Machine Vision VII, Boston, Mass. (1992).[3] G. Häusler, J. Herrmann, "Physical Limits of 3D Sensing ", Proc. SPIE 1822: Optics, Illumination and Image Sensing for Machine Vision VII, Boston, Measure (1992).
[4] G. Häusler, J. Herrmann, "3D-sensing with a confocal optical <macroscope< ", Proc. of the 15th Congress of the international Comission of Optics, Garmisch-Partenkirchen, SPIE 1319, 352 (August 1990).[4] G. Häusler, J. Herrmann, "3D sensing with a confocal optical <macroscope <", Proc. of the 15th Congress of the international commission of optics, Garmisch-Partenkirchen, SPIE 1319, 352 (August 1990).
[5] A. F. Fercher, H. Z. Hu, U. Vry, "Rough Surface Interferometry with a Two-Wavelength Heterodyne Speckle Interferometer", Appl. Opt. 24, 2181 (1985).[5] A.F. Fercher, H.Z. Hu, U. Vry, "Rough Surface interferometry with a two-wavelength Heterodyne Speckle Interferometer ", Appl. Opt. 24, 2181 (1985).
[6] T. Dresel, G. Häusler, H. Venzke, Three dimensionaI sensing of rough surfaces by <coheren ce radar< "Appl. Opt. 31 (1992).[6] T. Dresel, G. Häusler, H. Venzke, Three dimensionaI sensing of rough surfaces by <coheren ce radar <"Appl. Opt. 31 (1992).
[7] G. Häusler, Deutsche Patentschrift DE41 08 944C2.[7] G. Häusler, German patent DE41 08 944C2.
[8] G. Häusler, J. Neumann, "Coherence radar - an accurate sensor for rough surfaces", Proc. SPIE 1822: Optics, Illumination and Image Sensing for Machine Vision VII, Boston, Mass. (1992).[8] G. Häusler, J. Neumann, "Coherence radar - an accurate sensor for rough surfaces ", Proc. SPIE 1822: Optics, Illumination and Image Sensing for Machine Vision VII, Boston, Mass. (1992).
[9] K. Cohen et al, US Patent US00513360 vom 28.07.1992.[9] K. Cohen et al, U.S. Patent US00513360 of 28/07/1992.
[10] K. D. Kammeyer, "Nachrichtenübertragung", Stuttgart 1992.[10] K. D. Kammeyer, "Messaging", Stuttgart 1992.
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19944429578 DE4429578A1 (en) | 1994-08-19 | 1994-08-19 | Synchronised intensity modulation in object surface evaluation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19944429578 DE4429578A1 (en) | 1994-08-19 | 1994-08-19 | Synchronised intensity modulation in object surface evaluation |
Publications (1)
Publication Number | Publication Date |
---|---|
DE4429578A1 true DE4429578A1 (en) | 1996-06-05 |
Family
ID=6526173
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19944429578 Withdrawn DE4429578A1 (en) | 1994-08-19 | 1994-08-19 | Synchronised intensity modulation in object surface evaluation |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE4429578A1 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19814057A1 (en) * | 1998-03-30 | 1999-10-07 | Zeiss Carl Jena Gmbh | Spectral interferometric optical tomography device |
DE19819025A1 (en) * | 1998-04-29 | 1999-11-18 | Daimler Chrysler Ag | Appliance and method for compensating the vibration of an object relative to a reference object |
DE19955268A1 (en) * | 1999-11-17 | 2001-05-31 | Isis Optronics Gmbh | Interferometric object analysis method e.g. for medical applications, has interference signals for two central wavelengths shifted relative to one another dependent on expected dispersion |
DE102005028415A1 (en) * | 2005-06-20 | 2006-12-21 | Siemens Ag | Determining radiological thickness of object involves determining geometrical object thickness for defined through radiation direction from model measurement data, determining radiological thickness using at least one absorption parameter |
DE102007010389A1 (en) * | 2007-03-03 | 2008-09-04 | Polytec Gmbh | Device for optical measurement of objects, has signal evaluation unit, and interferometer with light source and detectors, where light source is formed so that it generates light with coherence length smaller than one centimeter |
CN106643559A (en) * | 2017-03-06 | 2017-05-10 | 中国科学院光电技术研究所 | White light microscopic interference morphology reconstruction method based on mixing interference fringe |
CN106643558A (en) * | 2017-03-06 | 2017-05-10 | 中国科学院光电技术研究所 | Method for detecting interference shape of broadband spectrum based on longitudinal phase splicing |
-
1994
- 1994-08-19 DE DE19944429578 patent/DE4429578A1/en not_active Withdrawn
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19814057B4 (en) * | 1998-03-30 | 2009-01-02 | Carl Zeiss Meditec Ag | Arrangement for optical coherence tomography and coherence topography |
DE19814057A1 (en) * | 1998-03-30 | 1999-10-07 | Zeiss Carl Jena Gmbh | Spectral interferometric optical tomography device |
DE19819025A1 (en) * | 1998-04-29 | 1999-11-18 | Daimler Chrysler Ag | Appliance and method for compensating the vibration of an object relative to a reference object |
DE19819025B4 (en) * | 1998-04-29 | 2004-07-29 | Daimlerchrysler Ag | Apparatus and method for vibration compensation of an object relative to a reference object |
DE19955268A1 (en) * | 1999-11-17 | 2001-05-31 | Isis Optronics Gmbh | Interferometric object analysis method e.g. for medical applications, has interference signals for two central wavelengths shifted relative to one another dependent on expected dispersion |
DE19955268C2 (en) * | 1999-11-17 | 2001-09-06 | Isis Optronics Gmbh | Method and device for the interferometric examination of scattering objects |
US6611338B1 (en) | 1999-11-17 | 2003-08-26 | Isis Optronics Gmbh | Method and apparatus for the interferometric examination of scattering objects |
DE102005028415A1 (en) * | 2005-06-20 | 2006-12-21 | Siemens Ag | Determining radiological thickness of object involves determining geometrical object thickness for defined through radiation direction from model measurement data, determining radiological thickness using at least one absorption parameter |
DE102007010389A1 (en) * | 2007-03-03 | 2008-09-04 | Polytec Gmbh | Device for optical measurement of objects, has signal evaluation unit, and interferometer with light source and detectors, where light source is formed so that it generates light with coherence length smaller than one centimeter |
US7852487B2 (en) | 2007-03-03 | 2010-12-14 | Polytec Gmbh | Heterodyne interferometer device for optically measuring an object |
DE102007010389B4 (en) * | 2007-03-03 | 2011-03-10 | Polytec Gmbh | Device for the optical measurement of an object |
CN106643559A (en) * | 2017-03-06 | 2017-05-10 | 中国科学院光电技术研究所 | White light microscopic interference morphology reconstruction method based on mixing interference fringe |
CN106643558A (en) * | 2017-03-06 | 2017-05-10 | 中国科学院光电技术研究所 | Method for detecting interference shape of broadband spectrum based on longitudinal phase splicing |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19528513A1 (en) | Process for non-contact, quick and precise detection of the surface shape of objects | |
DE4108944A1 (en) | Contactless measurement of surface shape of diffusely scattering objects e.g. semiconductor wafers - using interferometric arrangement for three=dimensional measurement with minimal coherence length and illumination aperture angle less than observation aperture angle | |
DE10392754T5 (en) | An interferometric optical system and methods providing an optical path length and a focus that are scanned simultaneously | |
DE19814070B4 (en) | Method and arrangement for coherence tomography with increased transversal resolution | |
DE2812593C2 (en) | Device for automatic focusing of the optical system of a microscope | |
DE102004037137B4 (en) | Method and device for distance measurement | |
DE2209667C3 (en) | Device for contactless measurement | |
DE10392828T5 (en) | Interferometry methods and systems with coupled cavity geometry for use with an extended source | |
DE102005023212B4 (en) | Method and device for fast and accurate white light interferometry | |
WO2015169730A1 (en) | Method and sensor for determining the surface of an object by means of deflectometry | |
DE19832175B4 (en) | Methods and arrangements for transversal optical coherence tomography | |
DE2210681A1 (en) | DEVICE FOR CONTACTLESS MEASUREMENT | |
EP1065468B1 (en) | Linear OCT for use as optical sensor in metrology and medical technology | |
EP0510137B1 (en) | Opto-electrical measuring process for determining cross-sectional dimensions especially of elongated objects with reference to at least one straight line at the cross-sectional periphery touching it at at least two points, and device for implementing the process | |
DE4429578A1 (en) | Synchronised intensity modulation in object surface evaluation | |
EP0776457B1 (en) | Method and interference microscope for imaging an object, with the aim of achieving a resolution beyond the diffraction limit | |
DE102006007573B4 (en) | Method and device for 3D geometry detection of object surfaces | |
DE3527074A1 (en) | Arrangement for determining the surface contour of objects by means of the moiré technique | |
DE102004026193B4 (en) | Measuring method for shape measurement | |
EP1805476B1 (en) | Interferometer comprising a mirror assembly for measuring an object to be measured | |
EP1314953A2 (en) | Interferometer and interferometric measuring procedure | |
DE2144487B2 (en) | Device for contactless measurement | |
DE69722000T2 (en) | Method for improving the contrast of images which are produced by adding pulsed partial images using ESPI technology | |
US3989378A (en) | Method for no-contact measurement | |
DE102004045807B4 (en) | Optical measuring device for measuring curved surfaces |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8122 | Nonbinding interest in granting licenses declared | ||
8110 | Request for examination paragraph 44 | ||
8130 | Withdrawal |