EP1479044A2 - Procede de mesure de la localisation d'un objet par detection de phase - Google Patents

Procede de mesure de la localisation d'un objet par detection de phase

Info

Publication number
EP1479044A2
EP1479044A2 EP03732624A EP03732624A EP1479044A2 EP 1479044 A2 EP1479044 A2 EP 1479044A2 EP 03732624 A EP03732624 A EP 03732624A EP 03732624 A EP03732624 A EP 03732624A EP 1479044 A2 EP1479044 A2 EP 1479044A2
Authority
EP
European Patent Office
Prior art keywords
image
network
pattern
periodic pattern
lines
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP03732624A
Other languages
German (de)
English (en)
Inventor
Patrick Sandoz
Philippe Gérard Lucien Humbert
Vincent Bonnans
Tijani Gharbi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of EP1479044A2 publication Critical patent/EP1479044A2/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Definitions

  • the present invention relates to a method for measuring the location of an object by phase detection.
  • the invention relates to a method for measuring the location of an object located in a space observed by a fixed observation system connected to a processing unit to generate an image composed of a matrix of pixels.
  • the latter In order to locate the object with precision, the latter is, in a manner known per se, provided with a test pattern having two periodic gratings whose representation in the pixel matrix is formed by two periodic gratings intended to constitute, after passage in the frequency domain, two bidirectional phase references able to be used by extracting phase information by means of a frequency analysis function such as Morlet wavelet transformations.
  • the phase information thus detected is then combined to determine the Cartesian coordinates of the reference point of the target as well as the orientation of the target relative to the observation system.
  • the application of this measurement method to the image of an appropriate target, obtained by a standard sensor allows a high resolution of the location of the reference point of the target.
  • This measurement method mainly consists in using a test pattern formed by a first network comprising a plurality first parallel and regularly spaced lines, and by a second network comprising a plurality second parallel lines and also regularly spaced. Furthermore, these first and second networks are arranged so that the first lines are substantially perpendicular to the second lines, the first and second networks being however physically separated from each other by a certain distance.
  • the image of this target or more exactly the image of the two arrays in the pixel matrix obtained by the observation system is then processed by a processing unit making it possible mainly to perform the following operations for each array:
  • 1 use the frequency in pixels of this network to define an analysis function which is applied to this network according to the first alignment of pixels, - extract the phase and the module associated with this network by correlation with the function of analysis to calculate the Cartesian position of the middle of at least one line of the network in the direction of the first alignment of pixels, - successively extract the phase and the module associated with this network by correlation with the analysis function according to a plurality of alignments of pixels parallel to the first alignment of pixels to independently determine the Cartesian position of each medium of said at least one line in the direction of each corresponding alignment of pixels,
  • FIG. 1 An example of a known device making it possible to implement the method described above is shown schematically in FIG. 1.
  • This device comprises an observation system 1 comprising a matrix image sensor such as a CCD camera 2 and a lens 3 making it possible to form the image of the scene observed on the matrix image sensor 2.
  • This image sensor matrix image is connected to a processing unit 4 intended to allow the phase analysis of the image formed by a matrix of pixels obtained from the matrix image sensor 2.
  • This processing unit 4 is also suitable for performing logical and arithmetic operations of the recorded images and coming from the matrix image sensor.
  • a test pattern 6 is fixed on this mobile object 5.
  • the test pattern 6 comprises a first network PI formed of NI parallel lines T1 and regularly spaced and a second network P2 formed of N2 parallel and regularly spaced lines.
  • the PI and P2 networks are, for example, etched by photolithography on a glass mask, the latter being illuminated by a lighting device making it possible to obtain from the matrix image sensor, a matrix of pixels representing the images of the PI and P2 networks.
  • the processing unit 4 ′ therefore makes it possible to calculate the equation of a line D2 of the network P2 and the equation of a median line Dl of the network PI, these median lines Dl and D2 being respectively defined by all of the environments in the central feature of each PI and P2 network in the set considered.
  • the position of the target 6 and therefore of the object 5, is given by the Cartesian coordinates ⁇ x, ⁇ y of the point of intersection P of the two median lines Dl and D2.
  • the orientation of the object 5 is, for its part, defined by the angle ⁇ formed, for example, by the middle line Dl of the network PI chosen as reference with one of the axes x, y of the Cartesian coordinate system provided, for example, by the matrix of pixels constituting the image.
  • the present invention aims in particular to overcome the aforementioned drawbacks.
  • the method of measuring the genre in question is essentially characterized in that it comprises the following steps:
  • test pattern comprising at least one two-dimensional periodic pattern formed by a plurality of substantially punctual elements arranged in parallel lines and parallel columns and substantially perpendicular to the lines, the punctual elements being regularly spaced along the lines and columns ,
  • a first image of the pattern is recorded and a digital processing of the first image of the pattern is carried out to generate, from said pattern, an image containing a first network comprising a plurality of first regularly spaced parallel lines and an image containing a second network comprising a plurality of second regularly spaced parallel lines, the second lines being substantially perpendicular to the first lines, and for each of the first and second networks,
  • the frequency in pixels of this network is calculated according to a first alignment of pixels which intersects all the lines of this network, - the frequency in pixels of this network is used to define an analysis function which is applied to this network following the first alignment of pixels,
  • phase and the module associated with this network are successively extracted by correlation with the analysis function according to a plurality of alignments of pixels parallel to the first alignment of pixels, each alignment of pixels intersecting all of the lines of this network to independently determine the Cartesian position of each medium of said at least one line in the direction of each corresponding pixel alignment,
  • a middle line is calculated for each network passing substantially through all of the media of said at least one line, the middle line of the first network being perpendicular to the middle line of the second network,
  • a second image of said at least one periodic pattern is recorded after a displacement of the object in the space observed by the fixed observation system and the Cartesian position of the point of intersection of the two median lines of the first and second is calculated networks obtained from the second recorded image to calculate the displacement of the object;
  • the digital processing of the first image of said at least one periodic pattern comprises the following steps:
  • two independent filterings are carried out to obtain, on the one hand, a first filtered Fourier spectrum, associated with the direction of the columns of the periodic pattern, and on the other hand, a second filtered Fourier spectrum , associated with the direction of the lines of the periodic pattern, and
  • the test pattern comprises a matrix of identical periodic patterns arranged along parallel lines and parallel columns and substantially perpendicular to the lines, the periodic patterns being regularly spaced along the lines and the columns, and each periodic pattern is associated with a positioning element allowing the location of the periodic pattern associated therewith within the matrix of periodic patterns;
  • each positioning element comprises a row number index and a column number index to allow the localization of the pattern associated therewith within the matrix of patterns;
  • the image in the pixel matrix of each index of row and column number is in the form of a bar code which is read by the processing unit;
  • the fixed observation system comprises first and second matrix image sensors which are contained in a plane perpendicular to a plane defined by the two dimensions of the periodic pattern of the test pattern, the first and second sensors having axes of sight each delimiting a predetermined angle with the axis perpendicular to the sight plan, and
  • the position of the intersection point is calculated from the first and second Cartesian positions of the point of intersection and of the predetermined angles, in a direction parallel to the plane defined by the two dimensions of said at least one periodic pattern and a direction perpendicular to the plane defined by the two dimensions of said at least one periodic pattern;
  • the fixed observation system comprises a first matrix image sensor having an aiming axis perpendicular to the plane defined by the two dimensions of the periodic pattern of the test pattern, and a second matrix image sensor having an aiming axis parallel to the plane defined by the two dimensions of the periodic pattern of the pattern, a light beam splitting object being, moreover, interposed between the periodic pattern and the first and second sensors, and. an image of said at least one periodic pattern is recorded for each sensor,
  • the Cartesian position of the point of intersection in a plane parallel to the plane defined by the two dimensions of the periodic pattern is calculated from the image obtained with the first sensor
  • the Cartesian position of the point of intersection in a plane perpendicular to the defined plane is calculated from the image obtained with the second sensor by the two dimensions of the periodic pattern;
  • the frequency of the periodic pattern calculated from the processing unit is compared to the real frequency of the periodic pattern to determine the position of the point of intersection in a direction as a function of the magnification index of the fixed observation system perpendicular to the plane defined by the two dimensions of said at least one periodic pattern.
  • FIG. 1 represents the device making it possible to implement the method previously described and in accordance with the prior art
  • FIG. 2 represents an example of a network of lines in accordance with the prior art for calculating position
  • FIG. 3 represents a measuring device making it possible to implement the method according to the invention
  • - Figure 4 represents a test pattern according to the invention to allow a position calculation
  • - Figure 5 shows an image of the test pattern according to the invention obtained from the observation system of the device
  • FIG. 6 represents an enlargement of a portion of the image of the test pattern in FIG. 5
  • FIG. 7 represents the Fourier spectrum of the image of the test pattern according to the invention
  • FIG. 8a and 8b show a reproduction of the Fourier spectrum respectively along the direction of columns of the target and in the direction of the target lines
  • FIGS. 9a and 9b are views of the spatial representations in pixels of two arrays obtained from the frequency processing of the image of the target
  • FIGS. 10a and 10b represent areas of interest of the networks of FIG. 9a and 9b, to allow the calculation of position
  • FIG. 11 represents the intensity of the signal emitted by the network of FIG. 10b along a column
  • FIG. 12 is a view of the Fourier spectrum of the intensity of the signal shown in FIG. 11,
  • FIG. 13 represents the module of the wavelet transform along the column C c shown in FIG. 10b
  • FIG. 14 represents the phase of the wavelet transform along the column C c shown in FIG. 10b
  • FIG. 15 shows the product of the derivative of the module shown in Figure 13 by the phase shown in Figure 14 (the peaks defining the ends of the network of lines along the column C c , shown in Figure 10b);
  • FIG. 16 represents the superposition of the unwound phase and of the intensity along the column C c of FIG. 10b
  • FIGS. 17, 18 and 19 represent the images of the networks of lines reconstituted by digital processing as well as the intersecting lines calculated from each of the networks of lines and their point of intersection representing the position of the mobile object relative to at the fixed mark formed by the frame of the pixels of the recorded image
  • FIG. 20 represents an alternative embodiment of the test pattern according to the invention
  • FIGS. 21 and 22 represent positioning elements intended to be produced on the target shown in FIG. 20,
  • FIG. 23 represents an alternative embodiment of the device allowing the implementation of the procedure according to the invention.
  • FIG. 24 represents another alternative embodiment of the device making it possible to implement the method according to the invention.
  • FIG. 25 shows yet another alternative embodiment of the device allowing the implementation of the method.
  • the same references designate identical or similar elements.
  • FIG. 3 represents an example of a measuring device necessary for implementing the method according to the invention.
  • This device comprises a matrix image sensor such as a CCD camera 2, a microscope objective 3 and an adaptation tube 7 connecting the sensor 2 to the microscope objective 3 to form the observation system 1 of said device .
  • the device can also simply comprise an imaging lens and a matrix image sensor.
  • This observation system 1 is intended to remain stationary.
  • An object 5 is placed in the field of vision of the sensor 2 and this object 5 is provided with a target 8 fixed on the support or more exactly, in the example considered, on a backlight table 13 itself fixed on object 5.
  • This object 5 is intended to move in a two-dimensional space defined by the plane [xoy].
  • the sensor 2 is also arranged so that its line of vision 2a or substantially perpendicular to the plane [xoy].
  • the test pattern 8, represented in FIG. 4, comprises, in this embodiment, a two-dimensional periodic pattern 8a formed by a plurality of punctual elements 9 arranged in parallel lines (12 in number in the example considered) and parallel columns (also 12 in number in the example considered) perpendicular to the lines ,.
  • the target 8 can for example be formed by a glass mask 8b covered with an opaque layer over its entire surface and in which the transparent point elements 9 are obtained by photolithography, so that the surface of the target 8 is opaque except at the point elements 9.
  • the number of rows and columns of the test pattern 8 can vary significantly depending on the type of test pattern used, without departing from the scope of the invention.
  • the target 8 is arranged above a lighting table 13 diffusing so that the point elements 9 produce light points distributed over the dark background of the target and detectable by the matrix image sensor.
  • a variant could consist in giving the point elements 9 a different reflectivity from the rest of the pattern so that these point elements have a different luminosity from the rest of the pattern, the whole being illuminated from above.
  • test pattern 8 is arranged so that its periodic pattern 8a is substantially arranged in the reference plane [xoy].
  • the distance dl which separates two lines of the periodic pattern 8a, as well as the distance d2 which separates two columns are constant, while the distance d2 can be equal or different from the distance dl.
  • the point elements 9 can be of substantially square shape with sides having a length of the order of 5 ⁇ m.
  • test pattern 8 can also be formed by any support on which the point elements 9 are arranged, which can also take the form of reflective elements that reflect the light of an excitation source illuminating the test pattern 8 so as to obtain an image of a periodic network at the sensor.
  • the test pattern 8 can also be formed according to an alternative embodiment, of a support on which are made a plurality of periodic through holes 9 allowing, following lighting by a backlighting table, obtaining of an image of a periodic network.
  • FIG. 5 represents an image of the test pattern 8 represented in FIG. 4, this image being taken by a CCD sensor with a pixel matrix of 578 rows of pixels for 760 columns of pixels.
  • the first step of the method consists in carrying out a preliminary digital processing of the image of this test pattern 8 in order to generate two distinct images by computer representing respectively a first network formed of a first series of parallel lines and a second network formed of a second series of lines parallel and perpendicular to the first series of lines.
  • the image of the test pattern 8 represented in FIG. 5 and obtained by the CCD sensor is recorded by means of the processing unit 4 (FIG. 3) of the device.
  • This frequency treatment consists for example into a direct Fourier transform in order to obtain, as can be seen in FIG. 7, the Fourier spectrum of the recorded image of the two-dimensional periodic pattern 8a of the test pattern 8.
  • two appropriate and independent filterings are carried out in order to obtain, on the one hand, a filtered Fourier spectrum associated with the direction of the columns of the periodic pattern of the test pattern (FIG. 8a), and on the other hand, a Fourier spectrum filtered associated with the direction of the lines of the periodic pattern of the test pattern ( Figure 8b).
  • the network RI is therefore formed by 12 lines T1 parallel to one another and substantially vertical while the network R2 is formed by 12 lines T2 also parallel to each other and substantially horizontal.
  • the phase information associated with the rows and columns of the periodic pattern 8a is preserved and the networks RI and R2 generated in this way contain all of the position information already available with the test pattern 8 or more exactly with the recorded digital image of the periodic pattern 8a of the test pattern 8.
  • the calculation of the location of the test pattern 8 in the image amounts to calculating respectively the location of the network RI in the first generated image and the location of the network R2 in the second generated image.
  • RIO, R20 of each network RI, R2. This area of interest RIO, R20 of each network RI, R2 is determined by systematically excluding the end edges of the lines T1, T2.
  • Each area of interest RIO, R20 comprises sides which are two by two parallel to the axes defined by the pixel frame of the sensor, namely the axis of the lines and the axis of the columns of the pixel matrix.
  • FIGS. 10a and 10b respectively give the pixel images of the two areas of interest RIO and R20.
  • the spatial frequency in pixels of the network R2 is determined.
  • the spatial frequency of the network R2 is determined for example by Fourier transform.
  • the frequency of the imaged line network corresponds to a maximum in the Fourier spectrum.
  • the analysis function can be a Morlet wavelet allowing, by correlation with the network R2, the extraction of the phase and of the module associated with this network.
  • Lw defines the width of the wavelet.
  • the objective of the digital processing being to reconstruct the total excursion in phase of the pictorial network R2 which is equal to 2N ⁇ where N equals the total number N2 of lines of the network R2, it is therefore necessary to extract the phase of the wavelet transform which is itself equal, except for noise, to 2N ⁇ .
  • the phase and the module are given respectively by the argument and the module of the complex number k , ⁇ .
  • the wavelet frequency being fixed at f 0 which is the pixel frequency of the network R2 according to column C c
  • the transform into wavelets of the network R2 is reduced to a convolution between the wavelet and the imaged network R2 according to a direction.
  • the processing unit allows, after calculation, the extraction of the module and of the phase of the wavelet transform along the column C c .
  • the representations of the module and of the phase of this wavelet transform along the column C c are given respectively in FIGS. 13 and 14.
  • FIG. 15 The result of this operation along the column C c is shown in FIG. 15 in which the indices ibi and ib 2 correspond respectively to the upper and lower edges of the network R2 according to column C c .
  • This least squares line allows to pass from the discrete domain of the image to a continuous space, this least squares line having for equation:
  • the test pattern 8 comprises a single periodic pattern 8a.
  • the presence of a single periodic pattern thus makes it possible to measure subpixel displacement by successively recording two images of the test pattern 8.
  • the distribution of incident light intensity on the pixels of the matrix image sensor changes, giving rise to a recorded image of the different test pattern, which leads to a different phase distribution during digital processing and therefore to the measurement of the new position of the moving target.
  • the displacement value is provided by the difference between the positions measured after and before the displacement. In other words, all of these variations therefore cause a significant modification of the phase between the two images.
  • This modification of the phase distribution is detected and measured by the method described above, which makes it possible to calculate the new Cartesian coordinates of the point of intersection P of the median lines D1 and D2 for the second recorded image of the test pattern 8.
  • the displacement measurement from two recorded images is limited by the fact that the periodic pattern 8a of the test pattern 8 must necessarily be contained in its entirety in the pixel matrix. of the matrix image sensor.
  • the periodic pattern is capable of at least partially leaving the field of vision of the fixed sensor, which then makes it impossible to determine the position of the point P and of the angular orientation of the target 8.
  • the test pattern 8 is provided with a plurality of periodic patterns 8n identical to the periodic pattern 8a.
  • the periodic patterns 8n are arranged regularly, for example periodically along parallel and regularly spaced lines and also along columns parallel and perpendicular to the lines.
  • Each periodic pattern is for example engraved by photolithography.
  • each periodic pattern 8n is associated with a positioning element lOn, which is adapted to store position information making it possible to locate the periodic pattern which is associated with it inside the matrix itself. formed by the set of periodic patterns 8n.
  • Each positioning element lOn comprises, for example, a row number index and a column number index making it possible to know with precision the position of the periodic pattern 8n which is associated with it inside the matrix of periodic patterns.
  • the spacing between two adjacent periodic patterns 8n is physically known to be chosen when designing the test pattern 8. Consequently, the displacements can be measured with two degrees of precision, namely the spacing between two patterns periodic and subpixel precision inside the image of the periodic pattern 8n being processed by the processing unit 4.
  • the displacements are calculated from two complementary values, namely the spacing between the patterns observed during recordings before and after displacement and the position of the pattern observed in the pixel matrix of the images recorded before and after displacement.
  • the processing unit can for example process the recorded image of a periodic pattern seen as a whole by the observation system.
  • This periodic pattern 8n is identified in the pattern matrix by its line index il and its line index jl.
  • the processing unit can then determine the location point P of this pattern by means of the various processing described above and this, for example, for the sixth line of its imaged networks RI and R2.
  • the field of vision of the sensor detects another periodic pattern. Thanks to its positioning element, this other periodic pattern is identified in the pattern matrix by its line index i2 and its line index j2.
  • the processing unit can then determine the location point P of this new periodic pattern by taking as reference the sixth line of its imaged networks RI and R2. From this processing, the displacement of the test pattern 8 is therefore deduced therefrom which in this example amounts to calculating the known spacing between the lines il and i2 and the columns jl and j2 and the displacement. subpixel by means of the two localization points P of the two periodic patterns.
  • FIG. 21 represents an embodiment of a positioning element 10 according to the invention.
  • the positioning element mainly comprises a reference part 11 and an information writing part 12 intended to allow the localization of the periodic pattern associated with it.
  • each positioning element is for example in the form of a succession of white and black bands in order to allow the reading of the part 12 by means of the processing unit 4.
  • This writing part information 12 includes for example a portion 12a of line number inscription i and a portion 12b of column number inscription j, the two portions 12a and 12b each being formed by five bands arranged in alignment with the bands white and black of the reference part 11.
  • each positioning element lOn makes it possible to code 10 bits of information (5 bits for the lines and 5 bits for the columns) thus making it possible to work with matrices of 32 ⁇ 32 periodic patterns 8n.
  • the bands forming the two portions 12a and 12b are also obtained during the etching of the target and black or white bands can be produced depending on the position assigned to each positioning element.
  • FIG. 22 represents a positioning element lOn obtained by photolithography and which is intended to precisely locate a periodic pattern in the matrix of patterns.
  • the use of the matrix of periodic patterns 8n associated with positioning elements offers the possibility of detecting a periodic pattern located near the center of the image of the sensor, which thus makes it possible to reduce the distortions linked to the 1 lens optic.
  • the object 5 on which is reported the target 8 is intended to move in the plane
  • the fixed observation system 1 comprises a first matrix image sensor 2 as well as a second matrix image sensor 21 which are both substantially contained in the plane (YOZ) which is perpendicular to the plane ( XOY), i.e. on the plane defined by the two dimensions of the periodic pattern of the test pattern 8.
  • the first sensor 2 has an aiming axis 2a which extends along the axis (OZ) and the second sensor 21 has an aiming axis 21a which forms an angle oc with the axis (OZ), this angle ⁇ being determined during the mounting of the two sensors 2 and 21.
  • the two sensors are arranged so that the point of intersection of the two viewing axes 2a and 21a is located in the vicinity of the test pattern 8.
  • this device it is then possible to record for each of the sensors 2 and 21 an image of the same periodic pattern of the test pattern 8. Then, it suffices to calculate the first Cartesian position (x, y) of the point of intersection P obtained at from the first sensor 2 and also calculate the second Cartesian position (x, y ') of the same point of intersection P obtained from the second sensor 21. After these calculations, and if the two sensors 2 and 21 are indeed contained in the same plane (YOZ), then the Cartesian values (x, y) and (x, y ') of the point of intersection P must have the same value x. Conversely, the value y 'given from the image obtained by the second sensor 21 is different from the value y obtained from the image of the first sensor 2. In fact, this value y' is a function of the value of the angle ⁇ as well as the position of the point of intersection P along the axis Z.
  • the sensor 2 can also have a sighting axis 2a which forms an angle ⁇ 2 with the axis (OZ), the sensor 2 remaining substantially contained in the plane (YOZ) and the sensor 21 also remaining in a position in which its line of sight 21a forms an angle ⁇ l with the axis (OZ).
  • the value yl given from the image obtained by the camera 21 is different from the value y2 obtained from the image from the camera 2, these two values yl and y2 being themselves different from the actual value .y of the point of intersection P.
  • FIG. 24 represents another variant embodiment of the device making it possible to implement the method of the invention.
  • the aiming axis 2a of the sensor 2 is arranged perpendicular to the plane (XOY) containing the periodic pattern of the test pattern 8.
  • the sensor 21, meanwhile, has an aiming axis 21a perpendicular to the viewing axis 2a of the sensor 2 and therefore parallel to the plane (XOY) containing the periodic pattern of the test pattern 8.
  • a beam splitter object secured to the test pattern 8 and which can be in the form of a cube 15 or a separating blade is interposed between the periodic pattern 8a or the patterns 8n of the test pattern 8 and the sensors 2 and 21.
  • the test pattern 8 it is possible to light the test pattern 8 by backlighting in order to allow the light beam passing through the periodic pattern of this test pattern 8 to go for a part towards the sensor 2 while another part of the light beam is directed towards the sensor 21.
  • the image of the first sensor 2 makes it possible to determine the Cartesian position (x, y) of the point of intersection P, while the image obtained from the second sensor 21 allows the calculation of the Cartesian position (x, z) of the point of intersection P.
  • these coordinates are obtained for each position of the test pattern 8.
  • the calculation of the frequency f 0 of the periodic pattern is carried out by the processing unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Procédé de mesure de la localisation d'un objet (5) dans un espace observé par un systíme fixe d'observation (1) relié à une unité de traitement (4), pour générer une image composée d'une matrice de pixels, ledit objet (5) étant pourvu d'une mire (8). La mire (8) comprend au moins un motif périodique à deux dimensions et on procíde à un traitement numérique de l'image du motif pour générer une image contenant un premier réseau et une image contenant un deuxiíme réseau qui sont analysées numériquement pour calculer la position de la mire dans la matrice de pixels.

Description

PROCEDE DE MESURE DE LA LOCALISATION D'UN OBJET PAR
DETECTION DE PHASE
La présente invention se rapporte à un procédé de mesure de la localisation d'un objet par détection de phase.
Plus particulièrement, l'invention concerne un procédé de mesure de la localisation d'un objet situé dans un espace observé par un système fixe d'observation relié à une unité de traitement pour générer une image composée d'une matrice de pixels.
Afin de localiser avec précision l'objet, ce dernier est, de manière connue en soi, muni d'une mire présentant deux réseaux périodiques dont la représentation dans la matrice de pixel est formée par deux réseaux périodiques destinés à constituer, après passage dans le domaine fréquentiel, deux références de phase bidirectionnelle aptes à être exploitées par extraction de l'information de phase au moyen d'une fonction d'analyse fréquentielle telle que des transformations en ondelettes de Morlet. Les informations de phase ainsi détectées sont ensuite combinées pour déterminer les coordonnées cartésiennes du point de référence de la mire ainsi que l'orientation de la mire par rapport au système d'observation. L'application de cette méthode de mesure à l'image d'une mire appropriée, obtenue par un capteur standard permet une haute résolution de la localisation du point de référence de la mire. Une telle méthode de mesure est décrite dans un article de la brochure "IEEE TRANSACTIONS ON INSTRUMENTATION AND MEASUREMENT" volume 49, numéro 4, pages 867 à 872. Cette méthode de mesure consiste principalement à utiliser une mire formée par un premier réseau comprenant une pluralité de premiers traits parallèles et régulièrement espacés, et par un deuxième réseau comprenant une pluralité de deuxièmes traits parallèles et également régulièrement espacés. Par ailleurs, ces premier et deuxième réseaux sont disposés de telle sorte que les premiers traits soient sensiblement perpendiculaires aux deuxièmes traits, les premier et deuxième réseaux étant toutefois séparés physiquement l'un de l'autre d'une certaine distance.
L'image de cette mire ou plus exactement l'image des deux réseaux dans la matrice de pixel obtenue par le système d'observation est ensuite traitée par une unité de traitement permettant d'effectuer principalement les opérations suivantes pour chaque réseau :
- localiser et extraire l'image du réseau de l'ensemble de la matrice de pixels,
- calculer la fréquence en pixel de ce réseau suivant un premier alignement de pixels qui coupe l'ensemble des traits de ce réseau,
1 - utiliser la fréquence en pixel de ce réseau pour définir une fonction d'analyse que l'on applique à ce réseau suivant le premier alignement de pixels, - extraire la phase et le module associés à ce réseau par corrélation avec la fonction d'analyse pour calculer la position cartésienne du milieu d'au moins un trait du réseau dans la direction du premier alignement de pixels, - extraire successivement la phase et le module associés à ce réseau par corrélation avec la fonction d'analyse suivant une pluralité d'alignements de pixels parallèles au premier alignement de pixels pour déterminer indépendamment la position cartésienne de chaque milieu dudit au moins un trait dans la direction de chaque alignement de pixels correspondant,
- calculer pour chaque réseau une droite médiane passant sensiblement par l'ensemble des milieux dudit au moins un trait correspondant, la droite médiane du premier réseau étant sensiblement perpendiculaire à la droite médiane du deuxième réseau,
- calculer la position cartésienne du point d'intersection entre les deux droites médianes, et
- calculer l'angle défini par la droite médiane ,du premier réseau et un alignement de pixels prédéterminé.
Un exemple de dispositif connu permettant de mettre en œuvre le procédé précédemment décrit est représenté de manière schématique sur la figure 1.
Ce dispositif comprend un système d'observation 1 comprenant un capteur d'image matriciel tel qu'une caméra CCD 2 et une lentille 3 permettant de former l'image de la scène observée sur le capteur d'image matriciel 2. Ce capteur d'image matriciel est relié à une unité de traitement 4 destinée à permettre l'analyse de phase de l'image formée par une matrice de pixels obtenue à partir du capteur d'image matriciel 2. Cette unité de traitement 4 est également adaptée pour effectuer des opérations logiques et arithmétiques des images enregistrées et provenant, du capteur d'image matriciel. Afin de permettre des mesures de position d'un objet 5 mobile dans le champ d'observation fixe du capteur 2, une mire 6 est fixée sur cet objet mobile 5. La mire 6 comprend un premier réseau PI formé de NI traits Tl parallèles et régulièrement espacés et un deuxième réseau P2 formé de N2 traits parallèles et régulièrement espacés. Ces deux réseaux PI, P2 sont séparés physiquement l'un de l'autre et les NI traits sont sensiblement perpendiculaires au N2 traits du deuxième réseau P2. Les réseaux PI et P2 sont, par exemple, gravés par photolithographie sur un masque de verre, ce dernier étant illuminé par un dispositif d'éclairage permettant d'obtenir à partir du capteur d'image matriciel, une matrice de pixels représentant les images des réseaux PI et P2.
Après différents traitements de l'image enregistrée de cette mire 6 au moyen de l'unité de traitement 4, ces différents traitements étant décrits plus en détail dans la suite de la description, on obtient une représentation cartésienne de la mire 6, comme on peut le voir sur la figure 2.
Dans l'exemple considéré, l'unité de traitement 4' permet donc de calculer l'équation d'une droite D2 du réseau P2 et l'équation d'une droite médiane Dl du réseau PI, ces droites médianes Dl et D2 étant respectivement définies par l'ensemble des milieux du trait central de chaque réseau PI et P2 dans l'ensemble considéré. La position de la mire 6 et donc de l'objet 5, est donnée par les coordonnées cartésiennes Δx, Δy du point d'intersection P des deux droites médianes Dl et D2.
L'orientation de l'objet 5 est, quant à elle, définie par l'angle θ formé, par exemple, par la droite médiane Dl du réseau PI choisie comme référence avec l'un des axes x, y du repère cartésien fourni, par exemple, par la matrice de pixels constituant l'image.
Avec ce type de procédé de mesure et après enregistrement et analyse de deux images consécutives de la mire 6, il est possible de détecter des déplacements de l'objet 5 avec une précision de l'ordre de 1.10"2 pixel.
Néanmoins, l'utilisation d'une mire comportant deux réseaux périodiques séparés physiquement l'un de l'autre implique, comme on peut le voir sur la figure 2, que le point d'intersection P des deux droites médianes Dl et D2 est situé à l'intérieur du deuxième réseau P2 mais à une distance relativement éloignée du premier réseau PI. Dès lors, dans le cas où il existe la moindre erreur dans le calcul de l'inclinaison de la droite médiane Dl reconstituée, on comprend que cette erreur se répercute automatiquement sur la position du point P le long de la droite médiane D2. Cette erreur de positionnement du point P le long de la droite médiane D2 sera d'autant plus importante que le réseau PI est éloigné du réseau P2.
La présente invention a notamment pour but de pallier les inconvénients précités.
A cet effet, selon l'invention, le procédé de mesure du genre en question est essentiellement caractérisé en ce qu'il comprend les étapes suivantes :
- on utilise une mire comprenant au moins un motif périodique à deux dimensions formé par une pluralité d'éléments sensiblement ponctuels disposés suivant des lignes parallèles et des colonnes parallèles et sensiblement perpendiculaires aux lignes, les éléments ponctuels étant régulièrement espacés suivant les lignes et les colonnes,
1 - on enregistre une première image du motif et on procède à un traitement numérique de la première image du motif pour générer, à partir dudit motif, une image contenant un premier réseau comprenant une pluralité de premiers traits parallèles régulièrement espacés et une image contenant un deuxième réseau comprenant une pluralité de deuxièmes traits parallèles régulièrement espacés, les deuxièmes traits étant sensiblement perpendiculaires aux premiers traits, et pour chacun des premier et deuxième réseaux,
- on calcule la fréquence en pixel de ce réseau suivant un premier alignement de pixels qui coupe l'ensemble des traits de ce réseau, - on utilise la fréquence en pixel de ce réseau pour définir une fonction d'analyse que l'on applique à ce réseau suivant le premier alignement de pixels,
- on extrait la phase et le module associés à ce réseau par corrélation avec la fonction d'analyse pour calculer la position cartésienne du milieu d'au moins un trait du réseau dans la direction du premier -alignement de pixels, - on extrait successivement la phase et le module associés à ce réseau par corrélation avec la fonction d'analyse suivant une pluralité d'alignements de pixels parallèles au premier alignement de pixels, chaque alignement de pixels coupant l'ensemble des traits de ce réseau pour déterminer indépendamment la position cartésienne de chaque milieu dudit au moins un trait dans la direction de chaque alignement de pixels correspondant,
- on calcule pour chaque réseau une droite médiane passant sensiblement par l'ensemble des milieux dudit au moins un trait, la droite médiane du premier réseau étant perpendiculaire à la droite médiane du deuxième réseau,
1 - on calcule la position cartésienne du point d'intersection entre les deux droites médianes, et
- on calcule l'angle défini par la droite médiane du premier réseau et un alignement de pixels prédéterminé.
Dans des modes de réalisation préférés de l'invention, on peut éventuellement avoir recours, en outre, à l'une et/ou à l'autre des dispositions suivantes :
- on enregistre une deuxième image dudit au moins un motif périodique après un déplacement de l'objet dans l'espace observé par le système fixe d'observation et on calcule la position cartésienne du point d'intersection des deux droites médianes des premier et deuxième réseaux obtenus à partir de la deuxième image enregistrée pour calculer le déplacement de l'objet ;
- le traitement numérique de la première image dudit au moins un motif périodique comprend les étapes suivantes:
. on applique une transformée de Fourier directe à l'image du motif pour obtenir le spectre de Fourier de l'image dudit motif périodique,
. à partir du spectre de Fourier, on procède à deux filtrages indépendants pour obtenir, d'une part, un premier spectre de Fourier filtré, associé à la direction des colonnes du motif périodique, et d'autre part, un deuxième spectre de Fourier filtré, associé à la direction des lignes du motif périodique, et
. on applique une transformée de Fourier inverse à chacun des premier et deuxième spectres de Fourier filtrés pour obtenir 1 ' image du premier réseau et 1 ' image du deuxième réseau ;
- la mire comprend une matrice de motifs périodiques identiques disposés suivant des lignes parallèles et des colonnes parallèles et sensiblement perpendiculaires aux lignes, les motifs périodiques étant régulièrement espacés suivant les lignes et les colonnes, et chaque motif périodique est associé à un élément de positionnement permettant la localisation du motif périodique qui lui est associé à l'intérieur de la matrice de motifs périodiques ;
- chaque élément de positionnement comprend un indice de numéro de ligne et un indice de numéro de colonne pour permettre la localisation du motif qui lui est associé à l'intérieur de la matrice de motifs ; - l'image dans la matrice de pixels de chaque indice de numéro de ligne et de colonne se présente sous la forme d'un code à barres qui est lu par l'unité de traitement ;
- le système fixe d'observation comprend un premier et un deuxième capteurs d'image matriciels qui sont contenus dans un plan perpendiculaire à un plan défini par les deux dimensions du motif périodique de la mire, les premier et deuxième capteurs présentant des axes de visée délimitant chacun un angle prédéterminé avec l'axe perpendiculaire au plan de la mire, et
. on enregistre avec chaque capteur une image dudit au moins un motif périodique,
. on calcule la première position cartésienne du point d'intersection obtenue à partir du premier capteur,
. on calcule la deuxième position cartésienne du point d'intersection obtenue à partir du deuxième capteur, et
. on calcule, à partir des première et deuxième positions cartésiennes du point d'intersection et des angles prédéterminés, la position du point d'intersection suivant une direction parallèle au plan défini par les deux dimensions dudit au moins un motif périodique et une direction perpendiculaire au plan défini par les deux dimensions dudit au moins un motif périodique ;
- le système fixe d'observation comprend un premier capteur d'image matriciel présentant un axe de visée perpendiculaire au plan défini par les deux dimensions du motif périodique de la mire, et un deuxième capteur d'image matriciel présentant un axe de visée parallèle au plan défini par les deux dimensions du motif périodique de la mire, un objet séparateur de faisceau lumineux étant, en outre, interposé entre le motif périodique et les premier et deuxième capteurs, et . on enregistre pour chaque capteur une image dudit au moins un motif périodique,
. on calcule, à partir de l'image obtenue avec le premier capteur, la position cartésienne du point d'intersection dans un plan parallèle au plan défini par les deux dimensions du motif périodique, et
. on calcule, à partir de l'image obtenue avec le deuxième capteur, la position cartésienne du point d'intersection dans un plan perpendiculaire au plan défini par les deux dimensions du motif périodique ;
- on compare la fréquence du motif périodique calculée à partir de l'unité de traitement à la fréquence réelle du motif périodique pour déterminer en fonction de l'indice de grossissement du système fixe d'observation la position du point d'intersection suivant une direction perpendiculaire au plan défini par les deux dimensions dudit au moins un motif périodique.
D'autres caractéristiques et avantages de l'invention apparaîtront au cours de la description qui va suivre d'une de ses formes de réalisation, donnée à titre d'exemple non limitatif, en regard des dessins joints. Sur les dessins :
- la figure 1 représente le dispositif permettant de mettre en œuvre le procédé préalablement décrit et conforme à l'art antérieur,
- la figure 2 représente un exemple de réseau de traits conforme à l'art antérieur pour le calcul de position, - la figure 3 représente un dispositif de mesure permettant de mettre en œuvre le procédé conforme à l'invention,
- la figure 4 représente une mire conforme à l'invention pour permettre un calcul de position, - la figure 5 représente une image de la mire conforme à 1 ' invention obtenue à partir du système d'observation du dispositif,
- la figure 6 représente un agrandissement d'une portion de l'image de la mire de la figure 5, - la figure 7 représente le spectre de Fourier de l'image de la mire conforme à l'invention,
- les figures 8a et 8b représentent une restitution du spectre de Fourier respectivement selon la direction des colonnes de la mire et selon la direction des lignes de la mire,
- les figures 9a et 9b sont des vues des représentations spatiales en pixels de deux réseaux obtenus à partir du traitement fréquentiel de l'image de la mire,
- les figures 10a et 10b représentent des zones d'intérêt des réseaux de la figure 9a et 9b, pour permettre le calcul de position,
- la figure 11 représente l'intensité du signal émis par le réseau de la figure 10b le long d'une colonne,
- la figure 12 est une vue du spectre de Fourier de l'intensité du signal représenté à la figure 11,
- la figure 13 représente le module de la transformée en ondelettes le long de la colonne Cc représentée sur la figure 10b,
- la figure 14 représente la phase de la transformée en ondelettes le long de la colonne Cc représentée sur la figure 10b,
- la figure 15 représente le produit de la dérivée du module représenté à la figure 13 par la phase représentée à la figure 14 (les pics définissant les extrémités du réseau de traits le long de la colonne Cc, représentée sur la figure 10b) ;
- la figure 16 représente la superposition de la phase déroulée et de l'intensité le long de la colonne Cc de la figure 10b,
- les figures 17, 18 et 19 représentent les images des réseaux de traits reconstitués par le traitement numérique ainsi que les droites sécantes calculées à partir de chacun des réseaux de traits et leur point d'intersection représentant la position de l'objet mobile par rapport au repère fixe formé par la trame des pixels de l'image enregistrée, - la figure 20 représente une variante de réalisation de la mire conforme à l'invention,
- les figures 21 et 22 représentent des éléments de positionnement destinés à être réalisés sur la mire représentée sur la figure 20,
- la figure 23 représente une variante de réalisation du dispositif permettant la mise en œuvre du procéd conforme à l'invention,
- la figure 24 représente une autre variante de réalisation du dispositif permettant de mettre en œuvre le procédé conforme à l'invention, et
- la figure 25 représente encore une autre variante de réalisation du dispositif permettant la mise en œuvre du procédé . Sur les différentes figures, les mêmes références désignent des éléments identiques ou similaires.
La figure 3 représente un exemple de dispositif de mesure nécessaire pour mettre en œuvre le procédé conforme à l'invention. Ce dispositif comprend un capteur d'image matriciel tel qu'une caméra CCD 2, un objectif de microscope 3 et un tube d'adaptation 7 reliant le capteur 2 à l'objectif de microscope 3 pour former le système d'observation 1 dudit dispositif. Bien entendu, le dispositif peut également comprendre simplement une lentille d'imagerie et un capteur d'image matriciel. Ce système d'observation 1 est destiné à rester immobile. Un objet 5 est placé dans le champ de vision du capteur 2 et cet objet 5 est pourvu d'une mire 8 fixée sur le support ou plus exactement, dans l'exemple considéré, sur une table de rétro éclairage 13 elle-même fixée sur l'objet 5. Cet objet 5 est destiné à se déplacer dans un espace à deux dimensions défini par le plan [xoy] . Par ailleurs, le capteur 2 est également disposé de telle sorte que son axe de vision 2a soit sensiblement perpendiculaire au plan [xoy] . La mire 8, représentée sur la figure 4, comprend, dans ce mode de réalisation, un motif périodique 8a à deux dimensions formé par une pluralité d'éléments ponctuels 9 disposés suivant des lignes parallèles (au nombre de 12 dans l'exemple considéré) et des colonnes parallèles (également au nombre de 12 dans l'exemple considéré) perpendiculaires aux lignes,. La mire 8 peut par exemple être formée par un masque de verre 8b recouvert d'une couche opaque sur toute sa surface et dans lequel les éléments ponctuels 9 transparents sont obtenus par photolithographie, de telle sorte que la surface de la mire 8 soit opaque hormis au niveau des éléments ponctuels 9. Bien entendu, le nombre de lignes et de colonnes de la mire 8 peut varier de manière importante suivant le type de mire utilisée et ce, sans sortir du cadre de 1 ' invention.
Afin d'obtenir une image de la mire au moyen du capteur 2, la mire 8 est disposée au-dessus d'une table d'éclairage 13 diffusant de telle sorte que les éléments ponctuels 9 produisent des points lumineux répartis sur le fond sombre de la mire et détectable par le capteur d'image matriciel. Une variante pourrait consister à donner aux éléments ponctuels 9 une réflectivité différente du reste de la mire de telle sorte que ces éléments ponctuels présentent une luminosité différente du reste de la mire, l'ensemble étant illuminé par le dessus.
De plus, la mire 8 est disposée de telle sorte que son motif périodique 8a soit sensiblement disposé dans le plan [xoy] de référence. La distance dl qui sépare deux lignes du motif périodique 8a, de même que la distance d2 qui sépare deux colonnes sont constantes, tandis que la distance d2 peut être égale ou différente de la distance dl . A titre d'exemple, les éléments ponctuels 9 peuvent être de forme sensiblement carré avec des côtés ayant une longueur de l'ordre de 5 μm.
Bien entendu, la mire 8 peut également être formée par un support quelconque sur lequel sont disposés les éléments ponctuels 9 pouvant également prendre la forme d'éléments réfléchissants qui réfléchissent la lumière d'une source d'excitation éclairant la mire 8 de manière à obtenir une image d'un réseau périodique au niveau du capteur. De même, la mire 8 peut également être formée selon une variante de réalisation, d'un support sur lequel sont réalisés une pluralité de trous traversants 9 périodiques permettant, à la suite d'un éclairage par une table de rétro éclairage, l'obtention d'une image d'un réseau périodique. La figure 5 représente une image de la mire 8 représentée sur la figure 4, cette image étant prise par un capteur CCD à matrice de pixels de 578 lignes de pixels pour 760 colonnes de pixels.
La première étape du procédé consiste à effectuer un traitement numérique préliminaire de l'image de cette mire 8 afin de générer informatiquement deux images distinctes représentant respectivement un premier réseau formé d'une première série de traits parallèles et un deuxième réseau formé d'une deuxième série de traits parallèles et perpendiculaires à la première série de traits.
A cet effet, on enregistre au moyen de l'unité de traitement 4 (figure 3) du dispositif l'image de la mire 8 représentée sur la figure 5 et obtenue par le capteur CCD.
A partir de l'image de cette mire 8 dont un agrandissement est représenté sur la figure 6, on procède tout d'abord à un traitement fréquentiel de cette image permettant un passage du domaine spatial à un domaine fréquentiel. Ce traitement fréquentiel consiste par exemple en une transformée de Fourier directe afin d'obtenir, comme on peut le voir sur la figure 7, le spectre de Fourier de l'image enregistrée du motif périodique 8a à deux dimensions de la mire 8. A partir de ce spectre de Fourier, on procède à deux filtrages appropriés et indépendants afin d'obtenir, d'une part, un spectre de Fourier filtré associé à la direction des colonnes du motif périodique de la mire (figure 8a), et d'autre part, un spectre de Fourier filtré associé à la direction des lignes du motif périodique de la mire (figure 8b) .
Ensuite, on applique une transformée de Fourier inverse à chacun des spectres de Fourier filtrés représentés sur les figures 8a et 8b afin d'obtenir, dans une représentation spatiale en pixels, les images de deux réseaux RI et R2 (figures 9a et 9b) , ces deux réseaux Ri et R2 étant représentatifs du motif 8a de la mire 8.
Dans l'exemple considéré sur les figures 9a et 9b, le réseau RI est donc formé de 12 traits Tl parallèles entre eux et sensiblement verticaux tandis que le réseau R2 est formé de 12 traits T2 également parallèles entre eux et sensiblement horizontaux.
Avantageusement, avec ce traitement fréquentiel de l'image enregistrée de la mire 8 représentée sur la figure 6, l'information de phase associée aux lignes et aux colonnes du motif périodique 8a, est préservée et les réseaux RI et R2 générés de cette manière contiennent l'ensemble des informations de position déjà disponibles avec la mire 8 ou plus exactement avec l'image numérique enregistrée du motif périodique 8a de la mire 8. Ainsi, le calcul de la localisation de la mire 8 dans 1 ' image revient à calculer respectivement la localisation du réseau RI dans la première image générée et la localisation du réseau R2 dans la deuxième image générée. Afin de permettre le calcul de localisation de chaque réseau, calcul qui revient à déterminer la position et l'orientation de chaque réseau dans son image, on définit tout d'abord une zone d'intérêt RIO, R20 de chaque réseau RI, R2. Cette zone d'intérêt RIO, R20 de chaque réseau RI, R2 est déterminée en excluant systématiquement les bords d'extrémités des traits Tl, T2.
Chaque zone d'intérêt RIO, R20 comprend des côtés qui sont deux à deux parallèles aux axes définis par la trame de pixels du capteur, à savoir l'axe des lignes et l'axe des colonnes de la matrice de pixels.
Ainsi, lorsque l'orientation des réseaux RI, R2 rend les zones RIO, R20 très étroites, une rotation préalable de l'image enregistrée de la mire est appliquée de telle sorte que les zones d'intérêt RIO, R20 aient une dimension suffisante pour assurer la précision des mesures.
Les traitements ultérieurs sont uniquement effectués dans ces zones d'intérêt RIO et R20 qui représentent les seules parties exploitables des images des réseaux RI et R2 pour le calcul de position et d'orientation.
Les figures 10a et 10b donnent respectivement les images en pixels des deux zones d'intérêt RIO et R20.
Par ailleurs, on détermine également pour chaque zone d'intérêt RIO, R20, les coordonnées en pixels du bord supérieur gauche de la zone d'intérêt ainsi que sa hauteur et sa largeur en pixels par rapport à l'image d'origine représentée sur la figure 5. On obtient ainsi dans les exemples considérés :
Pour RI Xo = 235 ; Y0 = 240 ; Hauteur = 107 pixels et largeur ≈ 205 pixels Pour R2 XQ = 205 ; Yo = 240 ; Hauteur ≈ 170 pixels et largeur = 105 pixels
Dans la suite de la description, nous allons déterminer la position et l'orientation de chaque réseau dans l'image d'origine de la mire 8 donnée à la figure 5. Etant donné que les différents traitements qui vont être décrits ci-après sont identiques pour les réseaux RI et
R2, nous étudierons ci-après uniquement le cas du réseau R2 formé de 12 traits T2 sensiblement horizontaux en référence aux lignes de pixels de l'image.
On détermine tout d'abord la fréquence spatiale en pixels du réseau R2. La fréquence spatiale du réseau R2 est déterminée par exemple par transformée de Fourier. La fréquence du réseau de traits imagé correspond à un maximum dans le spectre de Fourier.
A cet effet, on considère une colonne de pixels Cc (figure 10. ) le long de laquelle on détermine l'intensité du signal reçu par le capteur d'image matriciel. A partir de l'intensité du signal le long de la colonne Cc représentée sur la figure 11, l'unité de traitement détermine le spectre de Fourier de l'intensité du signal le long de cette colonne Cc comme indiqué sur la figure 12. Après exclusion des basses fréquences de l'image correspondant au fond continu, il est alors possible d'extraire la fréquence spatiale f© du réseau imagé R2.
Pour ne pas faire d'erreur au moment de la détermination de la fréquence du réseau, il est également possible d'utiliser toutes les connaissances a priori sur le réseau imagé R2. Ainsi, connaissant le nombre de traits sensiblement horizontaux du réseau R2, ce nombre de traits étant identiques au nombre de lignes d'éléments élémentaires 9 du motif de la mire 8, et connaissant la taille approximative de la zone d'intérêt R20 du réseau R2, à savoir sa hauteur et sa largeur, il est possible de connaître approximativement la période en pixel du réseau et donc sa fréquence f0.
Ensuite, une fonction d'analyse est construite pour cette même fréquence f0 du réseau R2, cette fréquence étant déterminée à partir de la colonne de pixels Cc en référence à la matrice de pixels du capteur d'image matriciel.
A titre d'exemple, la fonction d'analyse peut être une ondelette de Morlet permettant par corrélation avec le réseau R2 l'extraction de la phase et du module associés à ce réseau.
L' ondelette de Morlet à la fréquence fQ pour le traitement de 1 ' image est de la forme : ψ(y) = exp-(y/Lw)2. exp j (2π f0y) où Lw définit la largeur de l' ondelette. Ce paramètre Lw peut s ' avérer important car le choix de sa valeur détermine le compromis entre les résolutions spatiale et fréquentielle. Ainsi, une ondelette courte permet d'obtenir une bonne résolution spatiale, mais dans ce cas l'information sur la phase est très pauvre. Dans le cas contraire d'une ondelette longue, l'information spatiale est insuffisante tandis qu'on obtient une bonne résolution de la phase.
Bien entendu, dans le cas d'un signal discret comme celui délivré par un capteur d'image matriciel tel qu'une caméra CCD, il est nécessaire d'introduire une forme discrète de l' ondelette sous la forme : ψ(i) = exp-(i/Lw)2. exp j (2π fQi) où i est une valeur entière comprise entre -M et M. La valeur de M dans ce cas doit être adaptée à la longueur de 1 Ondelette, à savoir du paramètre Lw, pour assurer une représentation complète de l' ondelette.
Ainsi, pour chaque position k, le long d'une colonne 1 parallèle à la colonne Cc (figure 10.b), le coefficient Wk, 1 de la transformée en ondelettes est donné par l'expression suivante : où I(k,l) est l'intensité du pixel k dans la colonne 1.
L'objectif du traitement numérique étant de reconstruire l'excursion totale en phase du réseau imagé R2 qui est égale à 2Nπ où N égale le nombre N2 total de traits du réseau R2, il faut donc extraire la phase de la transformée en ondelette qui est elle-même égale, au bruit près, à 2Nπ.
La phase et le module sont donnés respectivement par l'argument et le module du nombre complexe k,ι. Toutefois, la fréquence de l' ondelette étant fixée à f0 qui est la fréquence en pixel du réseau R2 suivant la colonne Cc, la transformée en ondelettes du réseau R2 se réduit à une convolution entre l' ondelette et le réseau imagé R2 suivant une direction. Ainsi, l'unité de traitement permet, après calcul, l'extraction du module et de la phase de la transformée en ondelettes le long de la colonne Cc. Les représentations du module et de la phase de cette transformée en ondelettes le long de la colonne Cc sont données respectivement par les figures 13 et 14.
Il faut ensuite déterminer les bords du réseau R2 le long de la colonne Cc afin d'extraire la partie utile de la phase de la transformée en ondelettes. En effet, l'objectif du traitement numérique est de reconstruire l'excursion de phase 2Nπ ou N = 12 dans l'exemple considéré.
A cet effet, on peut notamment utiliser l'opération suivante en multipliant la dérivée du module par la phase de la transformée en ondelettes. Plus exactement, on peut réaliser l'opération suivante : B(i,j) = M'(i,j) x |p(i,j) - π| où M'(i,j) est la dérivée du module de la transformée en ondelettes le long de la colonne j, i est l'indice de la ligne, et P(i,j) est la phase de la transformée en ondelettes .
Le résultat de cette opération le long de la colonne Cc est représenté sur la figure 15 sur laquelle les indices ibi et ib2 correspondent respectivement aux bords supérieur et inférieur du réseau R2 suivant la colonne Cc.
Les bords ibi et ib2 étant maintenant parfaitement déterminés, il est alors possible de reconstruire l'excursion de phase de 2Nπ. Au moyen de l'unité de traitement, on procède à la superposition de la phase déroulée sur l'ensemble du réseau, à savoir entre ibi et ib2, et de la variation d'intensité le long de la colonne Cc, comme représenté sur la figure 16.
Après avoir reconstruit l'excursion de phase, on calcule ensuite la droite des moindres carrés qui passe par les points de la phase déroulée. Ce calcul est limité à une zone Zl (figure 16) où le calcul de phase est optimal pour éviter les erreurs liées aux effets de bords.
Cette droite des moindres carrés permet de passer du domaine discret de l'image à un espace continu, cette droite des moindres carrés ayant pour équation :
J = I.a + b où I et J sont des variables continues.
A partir de cette équation, on en déduit que le centre des N2 traits du réseau ainsi que le centre des bandes disposées entre deux traits du réseau R2 sont solutions des deux équations du type des suivantes :
(2k-l) . π = la + b ; pour les traits avec 1 < k < n et 2kπ = la + b ; pour les bandes avec -1 < k < n où b correspond à l'ordonnée cartésienne à l'origine et a correspond à l'inclinaison de la droite des moindres carrés.
Bien entendu, selon l'observation en clair sur fond sombre ou en sombre sur fond clair qui est fonction de la mire et de l'éclairage utilisé, les équations peuvent être différentes.
A partir de ces équations, on détermine alors la position subpixel dû milieu des traits et des bandes du réseau R2 le long de la colonne Cc.
A ce stade du traitement du réseau imagé R2, on peut par exemple retenir comme point de référence le milieu du sixième trait du réseau R2 le long de la colonne Cc. L'ensemble du traitement décrit ci-dessus est alors répété pour une pluralité de colonnes de pixels parallèles à la colonne Cc et qui passent par l'ensemble des N2 traits du réseau imagé R2. On obtient alors, après balayage du réseau imagé, une pluralité de points indépendants les uns des autres et qui représentent les coordonnées cartésiennes du milieu du sixième trait du réseau R2 le long de chaque colonne de pixel. Lorsque l'ensemble des milieux du sixième trait du réseau R2 sont calculés, il suffit alors de déterminer la droite des moindres carrés D2 définie par l'alignement de ces milieux, comme représenté sur la figure 17. Lorsque la droite des moindres carrés D2 ou droite médiane D2 est déterminée, on procède alors au traitement du réseau imagé RI formé des NI traits (figure 10a) .
Afin d'obtenir la droite des moindres carrés Dl ou droite médiane Dl passant par l'ensemble des milieux du sixième trait du réseau imagé RI, il suffit de reprendre l'ensemble des traitements décrits plus haut en balayant le réseau RI ou plus exactement la zone d'intérêt RIO suivant une pluralité de lignes de pixels. On obtient alors la droite Dl représentée sur la figure 18. A ce stade du traitement, il suffit alors de superposer virtuellement les deux images des réseaux RI et R2 ou du moins de projeter par exemple la droite médiane D2 sur le réseau imagé RI, comme on peut le voir sur la figure 19, pour obtenir l'intersection des deux droites Dl et D2 qui donne le point de mesure P associé à la mire 8.
A titre d'exemple, la droite Dl a pour équation y = 6,5221 x - 2148,6 (Dl) et la droite D2 a pour équation y = - 0,1524 x + 230,4403 Grâce à ce procédé de mesure, la position du point P est déterminée avec une précision de l'ordre du 100ème de pixel. Par ailleurs, grâce à la reconstitution de deux réseaux imagés RI et R2 à partir du motif périodique 8a de la mire 8, il est possible de superposer les réseaux imagés RI et R2 tout en conservant les informations de position de la mire 8, ce qui permet d'obtenir un point d'intersection P situé à l'intérieur des deux réseaux imagés Ri et R2. Cette localisation du point P à l'intérieur des deux réseaux imagés permet de minimiser de manière considérable l'effet de la moindre erreur dans le calcul de l'inclinaison des droites médianes Dl et D2 reconstitués par le traitement préalablement décrit. Dans l'ensemble du procédé précédemment décrit, la mire 8 comprend un seul motif périodique 8a. La présence d'un seul motif périodique rend ainsi possible la mesure de déplacement subpixel en enregistrant successivement deux images de la mire 8. Ainsi, comme on l'a vu précédemment, lorsque l'objet 5, et donc la mire 8, se déplacent de quelques nanomètres, la position des pixels éclairés dans l'image de la mire 8 n'est pas modifiée, mais leurs valeurs d'intensité changent légèrement. En effet, la répartition d'intensité lumineuse incidente sur les pixels du capteur d'image matriciel change, donnant lieu à une image enregistrée de la mire différente, laquelle conduit à une distribution de phase différente lors du traitement numérique et donc à la mesure de la nouvelle position de la cible mobile. La valeur du déplacement est fournie par la différence entre les positions mesurées après et avant le déplacement. Autrement dit, l'ensemble de ces variations entraîne donc une modification significative de la phase entre les deux images. Cette modification de la distribution de phase est détectée et mesurée par le procédé décrit ci- dessus, ce qui permet de calculer les nouvelles coordonnées cartésiennes du point d'intersection P des droites médianes Dl et D2 pour la seconde image enregistrée de la mire 8. Ainsi, grâce à l'inclinaison de l'une des droites médianes Dl ou D2 et aux coordonnées cartésiennes respectives du point d'intersection P dans la première image et dans la deuxième image enregistrée, on détermine la valeur du déplacement du point d'intersection P et donc de l'objet cible.
Toutefois, lorsqu'on utilise une mire comprenant un seul motif périodique, la mesure de déplacement à partir de deux images enregistrées est limitée par le fait que le motif périodique 8a de la mire 8 doit nécessairement être contenu dans son entier dans la matrice de pixels du capteur d'image matriciel. En fait, dans le cas où le déplacement de la mire 8 est trop important, le motif périodique est susceptible de sortir au moins partiellement du champ de vision du capteur fixe, ce qui rend alors impossible la détermination de la position du point P et de l'orientation angulaire de la mire 8.
Selon une variante de réalisation de l'invention représentée sur la figure 20, la mire 8 est pourvue d'une pluralité de motifs périodiques 8n identiques au motif périodique 8a. Les motifs périodiques 8n sont disposés régulièrement, par exemple de manière périodique suivant des lignes parallèles et régulièrement espacées et également suivant des colonnes parallèles et perpendiculaires aux lignes .
Chaque motif périodique est par exemple gravé par photolithographie. Comme on peut le voir sur la figure 20, à chaque motif périodique 8n est associé un élément de positionnement lOn, qui est adapté pour stocker des informations de position permettant de localiser le motif périodique qui lui est associé à l'intérieur même de la matrice formée par l'ensemble des motifs périodiques 8n. Chaque élément de positionnement lOn comporte, par exemple, un indice de numéro de ligne et un indice de numéro de colonne permettant de connaître avec précision la position du motif périodique 8n qui lui est associé à l'intérieur de la matrice de motifs périodiques.
Par ailleurs, l'espacement entre deux motifs périodiques 8n adjacents est physiquement connu pour être choisi lors de la conception de la mire 8. Dès lors, les déplacements peuvent être mesurés avec deux degrés de précision, à ' savoir l'espacement entre deux motifs périodiques et une précision subpixel à l'intérieur même de l'image du motif périodique 8n faisant l'objet du traitement par l'unité de traitement 4. Autrement dit, les déplacements sont calculés à partir de deux valeurs complémentaires, à savoir l'espacement entre les motifs observés lors des enregistrements avant et après déplacement et la position du motif observé dans la matrice de pixels des images enregistrées avant et après déplacement. Ainsi, lors d'une première mesure de localisation de la mire, l'unité de traitement peut par exemple traiter l'image enregistrée d'un motif périodique vu dans son ensemble par le système d'observation. Ce motif périodique 8n est repéré dans la matrice de motifs par son indice de ligne il et son indice de ligne jl. L'unité de traitement peut alors déterminer le point de localisation P de ce motif au moyen des différents traitements décrits ci-dessus et ce, par exemple, pour le sixième trait de ses réseaux imagés RI et R2.
Lors d'un déplacement relativement important de la mire 8, qui correspond à un déplacement supérieur à la taille du motif périodique préalablement traité, le champ de vision du capteur détecte alors un autre motif périodique. Grâce à son élément de positionnement, cet autre motif périodique est repéré dans la matrice de motifs par son indice de ligne i2 et son indice de ligne j2. L'unité de traitement peut alors déterminer le point de localisation P de ce nouveau motif périodique en prenant comme référence le sixième trait de ses réseaux imagés RI et R2. A partir de ce traitement, on en déduit donc le déplacement de la mire 8 qui dans cet exemple, revient à calculer l'espacement connu entre les lignes il et i2 et les colonnes jl et j2 et le déplacement . subpixel au moyen des deux points de localisation P des deux motifs périodiques.
La figure 21 représente un mode de réalisation d'un élément de positionnement lOn conforme à l'invention. Dans ce mode de réalisation, l'élément de positionnement comprend principalement une partie de référence 11 et une partie d'inscription d'informations 12 destinée à permettre la localisation du motif périodique qui lui est associé.
La partie de référence 11 de chaque élément de positionnement se présente par exemple sous la forme d'une succession de bandes blanches et noires afin de permettre la lecture de la partie 12 au moyen de l'unité de traitement 4. Cette partie d'inscription d'informations 12 comporte par exemple une portion 12a d'inscription de numéro de ligne i et une portion 12b d'inscription de numéro de colonne j, les deux portions 12a et 12b étant chacune formées de cinq bandes disposées dans l'alignement des bandes blanches et noires de la partie de référence 11. Dans cet exemple, chaque élément de positionnement lOn permet de coder 10 bits d'informations (5 bits pour les lignes et 5 bits pour les colonnes) permettant ainsi de travailler avec des matrices de 32 x 32 motifs périodiques 8n.
On comprend ainsi que l'utilisation d'une matrice de motifs périodiques permet d'augmenter les mesures de déplacements jusqu'à une distance fixée uniquement par la taille de la matrice elle-même et non plus par la taille du motif périodique pris isolément.
Les bandes formant les deux portions 12a et 12b sont également obtenues lors de la gravure de la mire et des bandes noires ou blanches peuvent être réalisées suivant la position affectée à chaque élément de positionnement. A titre d'exemple, la figure 22 représente un élément de positionnement lOn obtenu par photolithographie et qui est destiné à localiser précisément un motif périodique dans la matrice de motifs.
La partie d'inscription d'informations 12 de cet élément est par exemple lue par l'unité de traitement de haut en bas et permet d'obtenir par lecture binaire les informations suivantes : pour la ligne = 01010 ce qui correspond à la ligne i = 10 et pour la colonne = 11010 ce qui correspond à la colonne j = 26.
Par ailleurs l'utilisation de la matrice de motifs périodiques 8n associés à des éléments de positionnement offre la possibilité de détecter un motif périodique situé à proximité du centre de l'image du capteur, ce qui permet ainsi de diminuer les distorsions liées à l'optique de 1 Objectif.
Selon une variante de réalisation de l'invention représentée sur la figure 23, l'objet 5 sur lequel est rapportée la mire 8 est destiné à se déplacer dans le plan
(XOY) mais également selon la direction Z, les déplacements selon la direction Z devant également être mesurés par le procédé préalablement décrit. A cet effet, le système fixe d'observation 1 comprend un premier capteur d'image matriciel 2 ainsi qu'un deuxième capteur d'image matriciel 21 qui sont tous les deux sensiblement contenus dans le plan (YOZ) qui est perpendiculaire au plan (XOY), c'est-à-dire au plan défini par les deux dimensions du motif périodique de la mire 8.
Par ailleurs, le premier capteur 2 présente un axe de visée 2a qui s'étend selon l'axe (OZ) et le deuxième capteur 21 présente un axe de visée 21a qui forme un angle oc avec l'axe (OZ) , cet angle α étant déterminé lors du montage des deux capteurs 2 et 21.
D'autre part, les deux capteurs sont disposés de telle sorte que le point d'intersection des deux axes de visée 2a et 21a soit situé au voisinage de la mire 8.
Grâce à ce dispositif, on peut alors enregistrer pour chacun des capteurs 2 et 21 une image du même motif périodique de la mire 8. Ensuite, il suffit de calculer la première position cartésienne (x, y) du point d'intersection P obtenu à partir du premier capteur 2 et de calculer également la deuxième position cartésienne (x, y') du même point d'intersection P obtenu à partir du deuxième capteur 21. Après ces calculs, et si les deux capteurs 2 et 21 sont en effet contenus dans le même plan (YOZ), alors les valeurs cartésiennes (x, y) et (x, y') du point d'intersection P doivent présenter la même valeur x. A l'inverse, la valeur y' donnée à partir de l'image obtenue par le deuxième capteur 21 est différente de la valeur y obtenue à partir de l'image du premier capteur 2. En effet, cette valeur y' est fonction de la valeur de l'angle α ainsi que de la position du point d'intersection P suivant l'axe Z.
Plus exactement, et après de simples opérations trigonométriques, la valeur y' peut s'exprimer de la façon suivante : y' = y cosα - Z sinα D'où on en déduit la valeur de Z qui s'écrit de la manière suivante :
Z = (y cosα - y') /sinα Ainsi, en ayant simplement les positions cartésiennes du point d'intersection P à partir des deux capteurs 2 et 21 et à partir de l'angle α, il est possible de calculer la position du point d'intersection suivant l'axe Z. Ainsi, suivant cette variante de réalisation, il est possible après enregistrement d'images suite à un déplacement de l'objet 5, de calculer avec une précision subpixel le déplacement de cet objet 5 suivant les axes X, Y et Z. Selon une variante de réalisation du dispositif représenté sur la figure 25, le capteur 2 peut également avoir un axe de visée 2a qui forme un angle α2 avec l'axe (OZ) , le capteur 2 restant sensiblement contenu dans le plan (YOZ) et le capteur 21 restant également dans une position dans laquelle son axe de visée 21a forme un angle αl avec l'axe (OZ) .
Ensuite, il suffit de calculer la position cartésienne (x, yl) du point d'intersection P obtenu à partir du capteur 21 et de calculer également la deuxième position cartésienne (x, y2) du même point d'intersection P obtenu à partir du capteur 2. Après ces calculs, et si les deux capteurs 2 et 21 sont en effet contenus dans le même plan (YOZ) , alors les valeurs cartésiennes (x, yl) et (x, y2) du point d'intersection P doivent présenter la même valeur x.
A l'inverse, la valeur yl donnée à partir de l'image obtenue par la caméra 21 est différente de la valeur y2 obtenue à partir de l'image de la caméra 2, ces deux valeurs yl et y2 étant elles-mêmes différentes de la valeur réelle .y du point d'intersection P.
Ainsi, dans cette variante de réalisation représentée à la figure 25, on obtient deux équations similaires pour les deux capteurs 2 et 21, à savoir : yl = y.cosαl - z.sinαl et y2 = y.cosα2 - z.sinα2 z est alors donné par l'équation suivante : z = (y2.cosαl-yl.cosα2) / (sinαl . cosα2-sinα2. cosαl) et y est donné par l'une ou l'autre des équations suivantes : y = (yl + z.sinαl) /cosαl y = (y2 + z . sinα2) /cosα2 La figure 24 représente une autre variante de réalisation du dispositif permettant de mettre en œuvre le procédé de l'invention.
Dans cette variante de réalisation, l'axe de visée 2a du capteur 2 est disposé à la perpendiculaire du plan (XOY) contenant le motif périodique de la mire 8. Le capteur 21, quant à lui, présente un axe de visée 21a perpendiculaire à l'axe de visée 2a du capteur 2 et par conséquent parallèle au plan (XOY) contenant le motif périodique de la mire 8. De plus, un objet séparateur de faisceau solidaire de la mire 8 et qui peut se présenter sous la forme d'un cube 15 ou d'une lame séparatrice est interposé entre le motif périodique 8a ou les motifs périodiques 8n de la mire 8 et les capteurs 2 et 21. Dans cette variante de réalisation, il est possible d'éclairer la mire 8 par rétro éclairage afin de permettre au faisceau lumineux traversant le motif périodique de cette mire 8 d'aller pour une partie en direction du capteur 2 tandis qu'une autre partie du faisceau lumineux est dirigée vers le capteur 21. Dans ce cas, on comprend qu'après traitement par l'unité de traitement 4, l'image du premier capteur 2 permet de déterminer la position cartésienne (x, y) du point d'intersection P, tandis que l'image obtenue à partir du deuxième capteur 21 permet le calcul de la position cartésienne (x, z) du point d'intersection P.
Ainsi, suivant cette variante de réalisation, on obtient pour chaque position de la mire 8 ces coordonnées (x, y, z) .
Suivant une autre variante de réalisation de l'invention utilisant un dispositif conforme au dispositif représenté sur la figure 3, il est également possible de calculer le déplacement en z de la mire 8, c'est-à-dire d'un déplacement dans une direction perpendiculaire au motif périodique de la mire 8 tout en ayant un seul capteur d'image matriciel.
En effet, lors de l'enregistrement d'une première image, et comme on l'a déjà vu précédemment, le calcul de la fréquence f0 du motif périodique est réalisé par l'unité de traitement.
Dans le cas où la mire 8 est déplacée selon l'axe Z, c'est-à-dire dans le cas où le motif périodique 8a se rapproche du capteur 2, on comprend que le traitement d'une seconde image permettra d'obtenir une nouvelle fréquence f0' du motif périodique vu et enregistré par le capteur 2.
Par ailleurs, connaissant également les propriétés de grandissement de l'objectif 3, il est possible à partir d'une courbe d'étalonnage préalablement établie de connaître la position Z. Ainsi, lors d'un déplacement de la mire 8 suivant la direction Z, il suffit de faire le rapport de la fréquence f0 sur la fréquence fc', ce rapport étant uniquement fonction de Z afin d'obtenir, à partir de la courbe d'étalonnage, la valeur de la position de la mire, 8 selon l'axe z.

Claims

REVENDICATIONS
1. Procédé de mesure de la localisation d'un objet
(5) dans un espace observé par un système fixe d'observation (1) relié à une unité de traitement (4), pour générer une image composée d'une matrice de pixels, et ledit objet (5) étant pourvu d'une mire (8), caractérisé en ce que le procédé comprend les étapes suivantes :
- on utilise une mire (8) comprenant au moins un motif périodique (8a) à deux dimensions formé par une pluralité d'éléments sensiblement ponctuels (9) disposés suivant des lignes parallèles et des colonnes parallèles et sensiblement perpendiculaires aux lignes, les éléments ponctuels (9) étant régulièrement espacés suivant les lignes et les colonnes,
- on enregistre une première image du motif (8a) et on procède à un traitement numérique de la première image du motif (8a) pour générer, à partir dudit motif, une image contenant un premier réseau (RI) comprenant une pluralité de premiers traits (Tl) parallèles régulièrement espacés et une image contenant un deuxième réseau (R2) comprenant une pluralité de deuxièmes traits (T2) parallèles régulièrement espacés, les deuxièmes traits (T2) étant sensiblement perpendiculaires aux premiers traits (Tl), et pour chacun des premier et deuxième réseaux,
- on calcule la fréquence (f0) en pixel de ce réseau (R1,R2) suivant un premier alignement (Cc) de pixels qui coupe l'ensemble des traits (Tl,T2) de ce réseau (R1,R2),
- on utilise la fréquence (f0) en pixel de ce réseau (R1,R2) pour définir une fonction d'analyse que l'on applique à ce réseau (R1,R2) suivant le premier alignement (Cc) de pixels,
- on extrait la phase et le module associés à ce réseau par corrélation avec la fonction d'analyse pour calculer la position cartésienne du milieu d'au moins un trait (T1,T2) du réseau (R1,R2) dans la direction du premier alignement (Cc) de pixels,
- on extrait successivement la phase et le module associés à ce réseau (R1,R2) par corrélation avec la fonction d'analyse suivant une pluralité d'alignements de pixels parallèles au premier alignement (Cc) de pixels, chaque alignement de pixels coupant l'ensemble des traits (Tl,T2) de ce réseau (R1,R2) pour déterminer indépendamment la position cartésienne de chaque milieu dudit au moins un trait (T1,T2) dans la direction de chaque alignement de pixels correspondant,
- on calcule pour chaque réseau (R1,R2) une droite médiane (D1,D2) passant sensiblement par l'ensemble des milieux dudit au moins un trait (T1,T2), la droite médiane (Dl) du premier réseau (RI) étant perpendiculaire à la droite médiane (D2) du deuxième réseau (R2),
- on calcule la position cartésienne du point d'intersection (P) entre les deux droites médianes (D1,D2), et
- on calcule l'angle (θ) défini par la droite médiane (Dl) du premier réseau (RI) et un alignement de pixels prédéterminé.
2. Procédé selon la revendication 1, dans lequel on enregistre une deuxième image dudit au moins un motif périodique (8a) après un déplacement de l'objet (5) dans l'espace observé par le système fixe d'observation (1) et on calcule la position cartésienne du point d'intersection (P) des deux droites médianes (D1,D2) des premier et deuxième réseaux (R1,R2) obtenus à partir de la deuxième image enregistrée pour calculer le déplacement de l'objet (5).
3. Procédé selon l'une ou l'autre des revendications 1 et 2, dans lequel le traitement numérique de la première image dudit au moins un motif périodique (8a) comprend les étapes suivantes:
- on applique une transformée de Fourier directe à l'image du motif (8a) pour obtenir le spectre de Fourier de l'image dudit motif périodique (8a), - à partir du spectre de Fourier, on procède à deux filtrages indépendants pour obtenir, d'une part, un premier spectre de Fourier filtré, associé à la direction des colonnes du motif périodique (8a), et d'autre part, un deuxième spectre de Fourier filtré, associé à la direction des lignes du motif périodique, et
- on applique une transformée de Fourier inverse à chacun des premier et deuxième spectres de Fourier filtrés pour obtenir l'image du premier réseau (RI) et l'image du deuxième réseau (R2) .
4. Procédé selon l'une quelconque des revendications précédentes, dans lequel la mire (8) comprend une matrice de motifs périodiques (8n) identiques disposés suivant des lignes parallèles et des colonnes parallèles et sensiblement perpendiculaires aux lignes, les motifs périodiques (8n) étant régulièrement espacés suivant les lignes et les colonnes, et chaque motif périodique (8n) est associé à un élément de positionnement (lOn) permettant la localisation du motif périodique (8n) qui lui est associé à l'intérieur de la matrice de motifs périodiques (8n) .
5. Procédé selon la revendication 4, dans lequel chaque élément de positionnement (lOn) comprend un indice de numéro de ligne (i) et un indice de numéro de colonne (j) pour permettre la localisation du motif (8n) qui lui est associé à l'intérieur de la matrice de motifs (8n) .
6. Procédé selon la revendication 5, dans lequel
1 ' image dans la matrice de pixels de chaque indice de numéro de ligne (i) et de colonne (j) se présente sous la forme d'un code à barres (12a, 12b) qui est lu par l'unité de traitement.
7. Procédé selon l'une quelconque des revendications précédentes, dans lequel le système fixe d'observation (1) comprend un premier et un deuxième capteurs d'image matriciels (2,21) qui sont contenus sensiblement dans un plan (yoz) perpendiculaire à un plan (xoy) défini par les deux dimensions du motif périodique (8a) de la mire (8), les premier et deuxième capteurs (2,21) présentant des axes de visée (2a, 21a) délimitant chacun un angle (αl,α2) prédéterminé avec l'axe (oz) perpendiculaire au plan (xoy), et
- on enregistre avec chaque capteur (2,21) une image dudit au moins un motif périodique (8a) ,
- on calcule la première position cartésienne du point d'intersection (P) obtenue à partir du premier capteur (2),
- on calcule la deuxième position cartésienne du point d'intersection (P) obtenue à partir du deuxième capteur (21) , et
- on calcule, à partir des première et deuxième positions cartésiennes du point d'intersection (P) et des angles (αl,α2)) prédéterminés, la position du point d'intersection (P) suivant une direction parallèle au plan (xoy) défini par les deux dimensions dudit au moins un motif périodique (8a) et une direction perpendiculaire (Z) au plan (xoy) défini par les deux dimensions dudit au moins un motif périodique (8a) .
8. Procédé selon l'une quelconque des revendications 1 à 6, dans lequel le système fixe d'observation comprend un premier capteur d'image matriciel (2) présentant un axe de visée (2a) perpendiculaire au plan (xoy) défini par les deux dimensions du motif périodique (8a) de la mire, et un deuxième capteur d'image matriciel (21) présentant un axe de visée (21a) parallèle au plan (xoy) défini par les deux dimensions du motif périodique (8a) de la mire (8) , un objet séparateur de faisceau lumineux (15) étant, en outre, interposé entre le motif périodique (8a) et les premier et deuxième capteurs (2,21), et
- on enregistre pour chaque capteur (2,21) une image dudit au moins un motif périodique (8a) ,
- on calcule, à partir de l'image obtenue avec le premier capteur (2), la position cartésienne (X,Y) du point d'intersection (P) dans un plan parallèle au plan (xoy) défini par les deux dimensions du motif périodique (8a), et - on calcule, à partir de l'image obtenue avec le deuxième capteur (21), la position cartésienne (X,Z) du point d'intersection (P) dans un plan (XOZ) perpendiculaire au plan (XOY) défini par les deux dimensions du motif périodique (8a) .
9. Procédé selon l'une quelconque des revendications
1 à 6, dans lequel on compare la fréquence (fσ) du motif périodique (8a) calculée à partir de l'unité de traitement
(4) à la fréquence réelle (Fo) du motif périodique (8a) pour déterminer en fonction de l'indice de grossissement du système fixe d'observation (I), la position du point d'intersection (P) suivant une direction (Z) perpendiculaire au plan (XOY) défini par les deux dimensions dudit au moins un motif périodique (8a) .
EP03732624A 2002-02-28 2003-02-27 Procede de mesure de la localisation d'un objet par detection de phase Withdrawn EP1479044A2 (fr)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR0202547 2002-02-28
FR0202547A FR2836575B1 (fr) 2002-02-28 2002-02-28 Procede de mesure de la localisation d'un objet par detection de phase
PCT/FR2003/000636 WO2003073367A2 (fr) 2002-02-28 2003-02-27 Procédé de mesure de la localisation d'un objet par détection de phase

Publications (1)

Publication Number Publication Date
EP1479044A2 true EP1479044A2 (fr) 2004-11-24

Family

ID=27676171

Family Applications (1)

Application Number Title Priority Date Filing Date
EP03732624A Withdrawn EP1479044A2 (fr) 2002-02-28 2003-02-27 Procede de mesure de la localisation d'un objet par detection de phase

Country Status (5)

Country Link
US (1) US20050226533A1 (fr)
EP (1) EP1479044A2 (fr)
AU (1) AU2003239652A1 (fr)
FR (1) FR2836575B1 (fr)
WO (1) WO2003073367A2 (fr)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7609858B2 (en) 2004-08-31 2009-10-27 Hewlett-Packard Development Company, L.P. Displacement measurements using phase changes
IT1391829B1 (it) * 2008-11-21 2012-01-27 C N R Consiglio Naz Delle Ricerche Apparato basato sugli ultrasuoni per misurare parametri indicatori di avanzamento di un parto
CN106408553B (zh) * 2015-07-29 2019-10-22 北京空间飞行器总体设计部 斜扫的红外线阵探测器目标响应分析方法
CN107977994B (zh) * 2016-10-21 2023-02-28 上海交通大学 用于测量被测物在参考物上的平面位置的方法
CN113478068A (zh) * 2021-06-16 2021-10-08 西安理工大学 一种激光加工薄壁零件热变形实时检测方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996034307A1 (fr) * 1995-04-28 1996-10-31 Forskningscenter Risø Imagerie a contraste de phase
JPH09189519A (ja) * 1996-01-11 1997-07-22 Ushio Inc パターン検出方法およびマスクとワークの位置合わせ装置
US7043082B2 (en) * 2000-01-06 2006-05-09 Canon Kabushiki Kaisha Demodulation and phase estimation of two-dimensional patterns
US6678058B2 (en) * 2000-10-25 2004-01-13 Electro Scientific Industries, Inc. Integrated alignment and calibration of optical system
AUPR676201A0 (en) * 2001-08-01 2001-08-23 Canon Kabushiki Kaisha Video feature tracking with loss-of-track detection
BR0213324A (pt) * 2001-10-15 2004-10-13 Dsm Ip Assets Bv Aparelho e método para localizar um objeto

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO03073367A2 *

Also Published As

Publication number Publication date
WO2003073367A3 (fr) 2004-04-01
AU2003239652A8 (en) 2003-09-09
FR2836575A1 (fr) 2003-08-29
US20050226533A1 (en) 2005-10-13
AU2003239652A1 (en) 2003-09-09
WO2003073367A2 (fr) 2003-09-04
FR2836575B1 (fr) 2004-07-02

Similar Documents

Publication Publication Date Title
EP0985902B1 (fr) Dispositif interférométrique pour relever les caractéristiques de réflexion et/ou de transmission optiques en profondeur d&#39;un objet
FR2849245A1 (fr) Procede d&#39;authentification et d&#39;identification optique d&#39;objets et dispositif de mise en oeuvre
EP2877863A1 (fr) Dispositif et procede de caracterisation d&#39;un echantillon par des mesures localisees
EP2915009B1 (fr) Système d&#39;imagerie holographique auto-référencé
EP3339963B1 (fr) Appareil et procédé d&#39;imagerie holographique en ligne
BE1017316A7 (fr) Appareil pour determiner le forme d&#39;une gemme.
FR2915601A1 (fr) Dispositif de comptage de cartes dans des petites series.
EP1012549B1 (fr) Procede et dispositif d&#39;analyse optique de surface d&#39;onde
EP1157261B1 (fr) Procede et dispositif d&#39;analyse d&#39;un front d&#39;onde a grande dynamique
WO2003073367A2 (fr) Procédé de mesure de la localisation d&#39;un objet par détection de phase
FR3010182A1 (fr) Methode et dispositif de determination de la position et de l&#39;orientation d&#39;une surface speculaire formant un dioptre
CA1314619C (fr) Procede de numerisation de la surface d&#39;un objet tridimensional et appareil de releve en vue de sa mise en oeuvre
EP1430271B1 (fr) Procede et dispositif de mesure d&#39;au moins une grandeur geometrique d&#39;une surface optiquement reflechissante
WO2010072912A1 (fr) Dispositif de numerisation tridimensionnelle a reconstruction dense
EP2078184B1 (fr) Procédé de correction d&#39;un analyseur de front d&#39;onde, et analyseur implémentant ce procédé
EP1626402A1 (fr) Equipement pour la lecture optique des disques phonographiques analogiques
EP3751278A1 (fr) Système d&#39;imagerie acousto-optique
EP1371958A1 (fr) Procédé et dispositif d&#39;extraction de signature spectrale d&#39;une cible ponctuelle
EP3749919B1 (fr) Procédé et dispositif d&#39;inspection d&#39;une surface d&#39;un objet comportant des matériaux dissimilaires
WO1980002882A1 (fr) Procede et dispositif de traitement optique d&#39;objets par intercorrelation avec des anneaux
FR2692060A1 (fr) Dispositif de traitement d&#39;images du type extracteur de contour et senseur de terre comprenant un tel extracteur.
FR2918766A1 (fr) Detection et localisation d&#39;un faisceau monochromatique
FR3059453A1 (fr) Procede et dispositif de deconvolution d&#39;images numeriques
FR2950139A1 (fr) Procede de numerisation tridimensionnelle comprenant l&#39;acquisition d&#39;un quadruplet d&#39;images stereoscopique
WO2010081558A1 (fr) Détection et localisation d&#39;un faisceau monochromatique

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20040824

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LI LU MC NL PT SE SI SK TR

AX Request for extension of the european patent

Extension state: AL LT LV MK RO

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20060901