WO2016000764A1 - Chromatisch konfokale sensoranordnung - Google Patents

Chromatisch konfokale sensoranordnung Download PDF

Info

Publication number
WO2016000764A1
WO2016000764A1 PCT/EP2014/063968 EP2014063968W WO2016000764A1 WO 2016000764 A1 WO2016000764 A1 WO 2016000764A1 EP 2014063968 W EP2014063968 W EP 2014063968W WO 2016000764 A1 WO2016000764 A1 WO 2016000764A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor arrangement
illumination
sample
light
sensor
Prior art date
Application number
PCT/EP2014/063968
Other languages
English (en)
French (fr)
Inventor
Miro Taphanel
Ralf Zink
Original Assignee
Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V.
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V., Robert Bosch Gmbh filed Critical Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V.
Priority to PCT/EP2014/063968 priority Critical patent/WO2016000764A1/de
Publication of WO2016000764A1 publication Critical patent/WO2016000764A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2509Color coding
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/50Using chromatic effects to achieve wavelength-dependent depth resolution

Definitions

  • the present invention relates to a chromatic confocal sensor arrangement according to the preamble of claim 1.
  • the invention shows a variant of a chromatic confocal triangulation sensor (which is also referred to below as the CCT sensor of English "chromatic confocal triangulation sensor").
  • a chromatically confocal sensor (or a corresponding sensor arrangement) is already known from the prior art: DE 10 2011 117 523 B3.
  • the object of the present invention to provide an alternative embodiment of such a chromatic confocal sensor arrangement.
  • the sensor arrangement according to the invention should provide an improved form of wavelength-sensitive pixels, provide a favorable signal-to-noise ratio and / or solve the problem that the angle of the incident light level can be controlled to pixel-sized filter only limited.
  • the invention is intended to provide a corresponding method for determining the surface geometry of a three-dimensional sample.
  • a sensor arrangement according to the invention is described in claim 1.
  • the spectral information values can be, in particular, the intensities mapped by the n different spectra at the spatial positions and detected in the detection unit.
  • the n-dimensional color coordinate of a spatial position is therefore preferably an n-tuple of intensity values.
  • n information values recorded at one and the same spatial position can therefore also be referred to as the n-dimensional color coordinate at this spatial position x.
  • the basic structure of the sensor arrangement (according to the preamble of claim 1) of the present invention follows the structure described in DE 10 2011 117 523 B3:
  • This structure is shown in FIG. 1 and shows a chromatic confocal sensor arrangement (in DE 10 2011 117 523 B3: "device”) for optically determining the surface geometry Means of a three-dimensional sample with a polychromatic light source, preferably arranged in the beam path of the light source slit, a in the beam path (after the possibly existing slit diaphragm) arranged, dispersive and focusing optical arrangement, which is designed and / or arranged so that they the light the light source (preferably the image of the slit diaphragm) for different wavelengths in the spectrum of the light source to different, on a predefined surface (hereinafter referred to as focus line area) in space spaced lines (individual focus lines) focused, and a imaging optical arrangement, the at least portions of the focal line surface and / or a plurality, preferably
  • the present invention will be described in a three-dimensional Cartesian world coordinate system.
  • the z-axis is the height axis, thus describing the height that the optically scanned surface of the three-dimensional sample has at the location (x, y), above the xy plane.
  • the y-direction is defined as the feed direction, ie as the direction in which a relative movement between the sensor arrangement on the one hand and the sample on the other hand (for example, by movement of the sensor array in the y-direction in stationary in the world coordinate system sample) for line by line scanning of the sample surface he follows.
  • the x direction is then the direction along which the line (s) of the light detection unit or the individual pixels of the line (s) of the light detection unit are / are positioned.
  • the after moving the sample and the sensor assembly relative to each other in the y direction detected contour line is according to the invention with z y (x) or z y + ⁇ y (x) referred to, depending on whether the shift Ay or the position y in the foreground; the expert knows from the text context what is meant.
  • the light detection unit can thus be a one-line, i. one-dimensional, aligned in the x-direction line sensor with a plurality of photosensitive pixels or a multicellular, so two-dimensional, with its line direction in the x-direction aligned surface sensor whose individual lines each comprise a plurality of photosensitive pixels.
  • This light-detecting unit is preferably a single- or multi-line digital sensor (hereinafter also referred to as a camera) with a large number of individual light-sensitive sensors (also referred to below as pixels) per row.
  • the light detection unit or the sensor can work in such a way that the spectrally integrated light intensity of the light reflected at the light detection unit or on the sensor (ie, for example, from the respective filter, passing through the optical illumination arrangement of the illumination beam path, thrown back from the object surface and by the optical arrangement of the imaging beam path reaching) light spectrum is detected and detected.
  • Spectral-sensitive sensors can thus be used in the invention in a broadband manner.
  • a CCD sensor or a CMOS sensor can be used as a camera.
  • the sample may be stored stationary in the world coordinate system and the entire sensor arrangement (with the lighting unit, eventual filters, the optical illumination arrangement of the illumination beam path, the optical arrangement of the imaging beam path, etc.) are moved relative thereto along the feed direction y.
  • a stationary mounting of the sensor arrangement during a movement of the sample in the feed direction y is possible.
  • a multiplicity of individual contour lines z y (x) extending in the spatial position direction (x direction), in each case in the spatial position direction (x direction), but at different y positions can be detected successively along the sample surface.
  • successively the entire surface of the sample can be scanned by individual scanning steps according to the main claim.
  • the successive time intervals of the generation of the n individual, different illumination spectra ⁇ , ( ⁇ ) can be applied to the time intervals during which the n spectral information values (for each one switched-on light source) are detected by the light detection unit (preferably the time intervals are coincident).
  • the feed rate of the sensor arrangement (or the sample) in the feed direction y is tuned to it.
  • all n spectra are generated one after the other and irradiated onto the sample in the illumination beam path.
  • the relative position between the sensor arrangement and the sample remains constant.
  • the sample (or the sensor arrangement) is moved by one measuring position (in the feed direction in accordance with the desired resolution of the surface geometry to be scanned) in the feed direction y, and the process starts from the front to a height profile adjacent in the y direction (FIG. a contour line) of the sample surface over all individual pixels of the sensor in the x direction with all n different illumination spectra. See also the six multiplex variants Ml to M6 described below. Further advantageously realizable features are described in claim 5.
  • n-dimensional color coordinate ie in particular from the n intensity values
  • the height z of the surface of the three-dimensional sample at this spatial position x in the just examined feed position y
  • the decoding of an n-dimensional color coordinate into an underlying wavelength or into an underlying object height can take place by means of a calibration to a calibration as described below:
  • a reference object in all possible heights of the measuring range is measured in a calibration process and the observed n-dimensional Color coordinate saved.
  • a reference object is suitable for. a surface mirror.
  • this can be done by estimation theory, for example, by performing a least squares estimation, which can be realized by calculating the Euclidean distance between the actual and desired color co-ordinates best estimate then corresponds to the desired color coordinate, which has the smallest Euclidean distance to the measured actual color coordinate in the n-dimensional color space.
  • This calculation can be complex, it does not have to be carried out in real time (online), but can also beforehand once ( offline) can be carried out by checking for all possible chen actual color coordinates in each case the associated estimated target color coordinate is determined. With the correspondences thus found, a look-up table (which can be stored in a memory of the sensor arrangement according to the invention) can be set up, which assigns the associated height measurement value to each n-dimensional color coordinate.
  • Coupling of the light of each of the n light source filter arrangements onto the dispersive and focusing optical element of the illumination beam path or onto that part of the illumination arrangement which comprises a dispersive and focusing optical element or a dispersive element and a focusing element can take place, for example, via a special light guide, the n different lights at n different locations and coupled to decouple in one place, done.
  • Such light guides are commercially available under the product name gooseneck multi-arm. (See for example
  • This n-to-1 optical waveguide can direct the light of the various light sources onto a slit diaphragm which is likewise arranged in the illumination beam path and aligned in the spatial position direction (x direction) and then onto the specimen via the dispersive and focusing part of the illumination arrangement Focus line surface is imaged or focused, couple.
  • the device for changing for example, be a filter wheel, with each exactly one of the n optical filter is positioned in the illumination beam path.
  • Claim 9 describes the formation of a sensor arrangement according to a first multiplex method M 1 according to the invention: During the temporally successive detection of the different components (ie individual coordinate values) of an n-dimensional color coordinate for each spatial position x along a contour line z y (x) with the light detection unit Thus, there is no movement of the sensor arrangement and the sample relative to each other, in particular therefore no movement in the feed direction y. In this case, a single component is detected in each case simultaneously for all spatial positions x along the contour line path and under illumination with one and the same of the n illumination spectra.
  • the multiplex procedure M 1 can be carried out in particular with a single-line, x-directional light detection unit.
  • This describes the formation of a sensor arrangement according to a second multiplex method M2 according to the invention.
  • a continuous change of the relative position at a constant feed rate eg continuous movement of the sensor arrangement in the y-direction
  • a line sensor as the light detection unit, which is aligned in the x-direction
  • the detection of a single component that is, for example, the first component of the n-tuple for the first illumination spectrum Ii ( ⁇ )
  • the detection of a single component that is, for example, the first component of the n-tuple for the first illumination spectrum Ii ( ⁇ )
  • the sensor Since there is necessarily a finite integration time of the sensor for detecting the signals of this component, the sensor has moved, for example, when moving the line sensor in the feed direction y, before the next component (eg, the second component of the n-tuple for the second illumination spectrum l 2 ( ⁇ )) of the n-dimensional color coordinates is detected.
  • the next component eg, the second component of the n-tuple for the second illumination spectrum l 2 ( ⁇ )
  • These position shifts of the measuring locations for the individual spectral components or illumination spectra on the sample surface can be calculated out again by suitable interpolation methods. This is based on the assumption that the surface viewed during the uptake of the n-tuple can be described by a common height.
  • Light source for example, exactly one white light LED
  • a device for changing n different optical filters for example a filter wheel
  • n different optical filters for example a filter wheel
  • This claim describes the formation of a sensor arrangement according to the invention in accordance with a sixth multiplex procedure M6 according to the invention.
  • the relative movement between sensor arrangement and sample and the synchronization can be carried out as described in one of the procedures Ml to M5.
  • the splitting of the imaging beam path in the partial beam paths can be done by beam splitter or the like.
  • the invention thus shows a variant of a chromatic confocal triangulation sensor and thereby solves the technical problem of implementing "wavelength-sensitive pixels" or circumvents the problems associated therewith in the prior art: wavelength-sensitive pixels have already been produced. represents by different filters in the size of a pixel (typically 10 ⁇ x 10 ⁇ ) were applied to camera pixels. This technology is available for example for optical interference filters on the market, but requires the use of semiconductor technology (lithography process) associated with a high price. Furthermore, it is generally problematic to make these small optical filters flush at the boundary of two pixels. This leads to shadowing or crosstalk at the edge of a pixel, along with a loss of light or signal. The invention avoids this by a procedure that goes hand in hand with a favorable signal-to-noise ratio.
  • the prior art can not make any optical filters the size of a camera pixel, e.g.
  • the maximum number of layers is limited by technology. If the resulting interference filter layer structure is too high (in relation to the filter size), there are strong deviations from manufactured and calculated filter, i. the technical specification is not reached. This, in turn, causes the signal-to-noise ratio to be degraded.
  • the invention is a CCT sensor with an increased signal-to-noise ratio.
  • the invention solves the technical problem that the angle of the incident light cone on pixel-sized filter can be controlled only limited.
  • the only control option is the design of a sensor optics optimized for this purpose.
  • this approach is disadvantageous since other constraints such as e.g. Sensor size, optical imaging properties or total sensor size, a sole optimization of the filter angle of incidence appear to make little sense.
  • the problem with large angles of incidence is that the optical transmission in interference filters depends strongly on the angle of incidence.
  • Interference filters are an optical filtering approach that is considered to be particularly relevant to this type of sensor.
  • the invention shows a further improvement of the CCT sensor as used in the
  • Patent DE 10 2011 117 523 B3 is shown.
  • An essential technical distinguishing feature is a multiplex method, wherein the filtering is realized in the illumination beam path and not in the imaging beam path.
  • the multiplex method or methods Ml to M6 require / require (a) matched signal processing methods that form (s) another feature (s) according to the invention. With the help of the multiplex method macroscopic filters can be used in the illumination beam path.
  • Figure 2 shows a sensor arrangement according to the invention with six lighting units, each with a previously positioned optical filter.
  • FIG. 3 shows the transmission properties of the six filters in the visible spectrum used in FIG.
  • Figures 5 and 6 the multiplexing procedure M3 based on a schematic diagram.
  • FIG. 7 shows the principle of the multiplex procedure M4.
  • FIG. 8 shows the principle of the decoding or determination of the heights z of the individual intersections of the sample surface with the focus line surface at the positional positions x along a contour line path from the n-dimensional (here: 6-dimensional) color coordinates acquired with the light detection unit 8.
  • Discrete spaced individual wavelengths in the spectrum ⁇ ( ⁇ ) of the illumination unit 1 are thus shown focused on discrete, each lying on the focal line plane 5 focus lines.
  • imaging optical arrangement 6 for example, an optical arrangement arranged mirror-symmetrically with regard to the dispersive, focusing optical illumination arrangement 4 with respect to the focal line plane 5) and those in FIG.
  • Imaging beam path 2A for the same (preferably mirror-symmetrically positioned to the gap 9 with respect to the plane 5) light detection unit 8, for example in the form of a single-line, aligned in the x direction, spectrally wideband sensor, it is possible to obtain height information z for the intersection of the sample surface and the x-coordinate (thus: 6-dimensional) color coordinate obtainable by means of this sensor for the x-coordinate described above Focus line level 5 win.
  • x-coordinate thus: 6-dimensional
  • n-dimensional color coordinates Components of the n-dimensional color coordinates are recorded for all spatial positions x at the same time.
  • the entire height information along a contour line cutting path can be detected simultaneously.
  • the entire object surface of the sample P can be scanned step by step or line by line.
  • FIG. 1 The basic principle of the invention shown in FIG. 1 will be described below on the basis of exemplary embodiments with different multiplexing methods M1 to M6. In each case, identical reference numerals show identical or corresponding components of the sensor arrangements according to the invention.
  • FIG. 2 shows a first structure of a chromatic confocal sensor arrangement according to the invention.
  • the differences in the illumination spectra are thus produced solely by the six optical filters 3-1 to 3-6 formed in accordance with FIG. 3.
  • Behind each of the light sources 1, exactly one optical filter 3 is positioned, the one transmitted by the respective filter 3 Spectrum ⁇ ( ⁇ ) is coupled from a 6-to-1 optical fiber 14 and is directed by this on the aligned in the x-direction optical gap 9.
  • this illumination arrangement 4 initially comprises a dispersive and diffractive optics 10. This has a collimating lens 10a, an optical grating 10b and finally a further collimating lens 10c in this direction.
  • the collimating lens 10c focuses the image of the gap 9 on an intermediate image 11, which is from a
  • Scheimpflug optics 12 of the dispersive, focusing optical illumination arrangement 4 of the illumination beam path 2B is focused on the focus line plane 5.
  • Scheimpflug optics (see DE 10 2011 117 523 B3) also has a collimating lens (lens 12a).
  • the imaging optical arrangement 6 On the light output side of the measurement plane 5, the light reflected back from the sample P or its surface (not shown here) in the imaging beam path 2A is focused by the imaging optical arrangement 6 formed there on the light detection unit 8, which has a signal processing unit 13 for performing the decoding (for example in the form of FIG a PC) is connected downstream.
  • the imaging optical arrangement 6 is the dispersive, focusing optical illumination arrangement 4 (that is to the dispersive / diffractive optics 10 and their
  • Scheimpflug optics 12 designed mirror-symmetrically, thus has seen in the direction of the measuring plane 5 to the sensor 8, first a collimating lens
  • the sensor 8 is positioned mirror-symmetrically with respect to the gap 9 when viewed in relation to the plane 5.
  • the invention uses a sensor 8 for row-wise detection of a surface topology. That is, for each measurement cycle, one row of e.g. 2000 measuring points arranged in x-direction recorded. The individual measuring points of a line are directly adjacent without space.
  • Plane 5 is in the middle of figure 2. If an object P is in the measuring range, then the intersections of the measuring plane and the object form a surface contour (contour line), which is recorded in one measuring cycle. In order to capture the full 3D surface topology of an object, one-dimensional motion of the sensor in the y direction is necessary.
  • FIG. 2 shows six light sources and correspondingly also six different optical filters. This number represents an advantageous technical realization but can also be chosen differently.
  • An exemplary implementation of the optical filters 3-1 to 3-6 is shown in FIG. 3 and has been described in the above publication "Taphanel et al., Speed-up Chromatic Sensors by Optimized Optica! Filters "removed.
  • an embodiment variant which manages with six sequentially switched light sources.
  • the six light sources can be replaced by a light source and only the individual filters can be changed sequentially by means of a filter wheel.
  • the filter wheel other "chopper" approaches are conceivable in which the light of a light source is distributed to the individual filters
  • An optical chopper is a modulator that can, in a controlled manner, change a light beam path or block it.
  • each of the six light sources is first filtered and then coupled into the n-to-l light guide 14.
  • This light guide transports the light to the gap 9 or to the slit diaphragm and, in addition to the transport function, also has the function of homogenizing the light of the individual light sources.
  • the homogenization is carried out so that the angular distribution of the light from the view of the slit diaphragm is identical for all six different light sources.
  • the slit 9 which typically has dimensions of a few micrometers (for example 1 to 200 ⁇ m), is associated with an illumination optics 4. This can, as shown in Figure 2, a dispersive / diffractive optics 10 and a
  • Scheimpflug optics 12 include.
  • An alternative optical design can be realized by using concave gratings, also an asymmetrical optics is conceivable in which the illumination optics and the imaging optics are not of identical design (see the structures in FIGS. 4 and 5 of FIG DE 10 2011 117 523 B3).
  • the illumination optics from FIG. 2 are constructed as follows (see also FIG. 4): the slit diaphragm 9 is rendered infinite by a collimation lens 10a and then split into monochromatic wavelengths by means of a grating 10b. Each wavelength leaves the grating at a characteristic angle and the light is subsequently focused onto an intermediate image 11 by an additional lens 10c.
  • the intermediate image 11 is characterized in that it shows monochromatic images of the slit diaphragm, the slit image being shown at a different position for each wavelength.
  • This intermediate image is imaged by a Scheimpflug optics 12 in a tilted plane, which also forms the measuring plane 5.
  • the measuring range is limited in the z-direction by the minimum and maximum wavelength used.
  • the functioning of the sensor principle becomes clear.
  • the implementation of the confocal principle which is realized by the illumination beam path 2B and the imaging beam path 2A sharing a common focus point, results in light focused only on the object surface reaching the photosensitive sensor 8 (e.g., CCD sensor or CMOS sensor). Since the individual focus points, which are distributed continuously in the measurement range of the measurement plane, have a unique wavelength, the focused focal point and thus the distance sensor to object surface can be determined when the wavelength is determined at the sensor.
  • the intensity of the six different illuminations is analyzed by means of a multiplex method (a procedure from M1 to M6), which allows an unambiguous determination of the wavelength with high precision.
  • the knowledge of the wavelength can be used to deduce the previously calibrated height information of the object surface.
  • the necessary imaging optical system 6 can be chosen mirror-symmetrically and structurally the illumination optics 4. Only the slit diaphragm is no longer necessary and is replaced by a photosensitive sensor 8. Also, a variant without mirror-symmetrical structure (see
  • the sensor 8 which is preferably a line-type sensor, is connected to a signal processing unit 13.
  • the individual signal processing steps for decoding are presented after the multiplexing methods M1 to M6 have been presented. See the already described decoding.
  • the multiplexing process can be carried out in six variants M1 to M6.
  • Variants one to four (Ml to M4) switch all six light sources on and off one after the other so that only one light source is supplied with power at a time.
  • the exposure time of the camera is synchronized with the light sources so that during the period of the exposure time only one light source is always turned on.
  • the number of six light sources due to six matched optical filters is advantageous, but can alternatively be realized by more or less light sources or filters.
  • six filters are one embodiment which offers an advantageous tradeoff between the minimum number of filters required and the maximum vertical measurement resolution.
  • the fifth variant M5 is realized with only one light source.
  • the sixth variant M6 represents a hybrid form of a filtering in the illumination beam path and a filtering in the imaging beam path.
  • the first variant M1 is characterized by a non-continuous movement of the sensor 8, i.
  • the sensor is only moved around a measuring position every six (generally all n) camera shots. As a camera enough for a monochromatic camera line.
  • the second variant M2 implements the multiplexing method by using a single-line line camera, but the sensor carries out a continuous movement.
  • the measuring points that are defined by the six different light sources are located locally (on the measuring object) at different positions.
  • Subsequent interpolation can thus again (similar to the demosaicing of the RGB Bayer filter) local individual measurements are calculated. This method works well as long as the surface topography does not show any significant deviation within the
  • the third variant M3 uses a six-line (in general: n-line) row camera chip (eg realized by using only six lines of one) Area camera) and a continuous movement of the sensor.
  • n-line in general: n-line row camera chip
  • FIG. 1 The principle is shown in FIG.
  • a focal point plane identical measuring plane
  • the illumination beam path and the imaging beam path can share a focal point.
  • the slit diaphragm 9 with a certain width to choose so that enough light is available.
  • a finite slit diaphragm in turn has a blur result.
  • the dimensions of the pixel size projected onto the object are to be evaluated in relation to the actual prevailing blur of the six different measurement points.
  • the n optical filters which determine the spectrum of the n light sources, can be optimized for two functions. First, a maximum vertical (ie in the z-direction) resolution and second, a clear assignment of the n-dimensional color coordinate to the corresponding wavelength.
  • the external filters in FIG. 5 are the filters at the top 3-1 and at the bottom 3-6. Furthermore, the optics would be adjusted so that the resulting blur is lower for the middle filters, or camera pixels, than for the outer ones.
  • the actual process of optimizing interference filters can be seen in the prior art in the above publication: Taphanel et al., "Speed-up Chromatic Sensors by Optimized
  • Optical Filters can be read.
  • the sensor movement is advantageously matched to the exposure time of the camera 8, so that in the next shot five of the six lines again at identical positions of the surface of the
  • the sensor 8 After each camera shot, the sensor 8 is shifted by exactly the distance of a projected pixel in the y-direction, with each image acquisition according to the multiplexing method M3 another light source is turned on. For each location x, after six camera shots, there is a sequence of all six different illuminations at that location (ie, a 6-tuple of color information) so that the corresponding wavelength, or currently focused object height z, can be determined.
  • the fourth variant M4 essentially corresponds to the third variant M3 and extends this by a TDI approach ("time delay integration"), for which an integer multiple m of this number of lines is selected instead of six (generally: n) lines (eg twelve lines).
  • n six lines
  • the effect is that after twelve lines each measurement position was recorded twice, as shown in Figure 7.
  • both the light sources can be switched on and off two times sequentially, or always remain switched on for two camera exposure times. Further switching sequences are conceivable under the secondary condition that, after twelve or n ⁇ m camera recordings, each light source was switched on exactly twice or m times.
  • the fifth variant M5 of the multiplex method has only one light source. Again six (or n) filters are used, which are exchanged sequentially by means of a filter wheel. The camera and sensor movement can be selected as in the variants M1 to M4.
  • the sixth variant M6 combines a multiplex variant from M1 to M5 with an additional filtering in the imaging beam path 2A.
  • an additional filtering e.g. two cameras 8 (not shown) selected and arranged by means of beam splitter in the imaging beam path. In this case (two cameras) the reduced
  • the underlying sensor principle thus consists of an optical system which assigns a definite wavelength to each measurable surface height z and a multiplex method (for example Ml to M6, further variants are conceivable), comprising e.g. several light sources with different optical filters, and a photosensitive camera.
  • the multiplexing technique generates n (e.g., six) recordings for each measurement point, which can be interpreted as an n-dimensional color coordinate. Due to the optimized filters, e.g. each associated with a light source can be determined from this n-dimensional color coordinate clearly and with high precision, the associated wavelength or a previously calibrated object height.
  • a signal processing method can be used, which is presented below.
  • the signal processing chain of this signal processing method is divided into the following partial methods (see FIG.
  • the multiplex method requires signal processing for synchronization of the image acquisition of the camera, the control of the individual light sources and the sensor movement.
  • the control of the TDI approach can also be integrated.
  • the signal processing block of the multiplexing process generates synchronized image data which is processed in the subsequent signal processing block of the demultiplexer.
  • the multiplexing method also includes a facility for temporally limited buffering of the image data, so that the demultiplexer can also access data which is located in accordance with the number of read lines of time points or time intervals.
  • the demultiplexer describes a method in which the temporally ordered image data are rearranged in a manner according to which there is a local order. Then for each local measuring point is the multidimensional
  • the decoding process step has the task of decoding a six-dimensional (n-dimensional) color coordinate into one-dimensional height information z. See the previously described decoding.
  • the function can be determined in a calibration process as a mapping function from object height to color coordinate. Preferably, this function is determined with a plane mirror as the measurement object.
  • the height information thus obtained can be provided with systematic errors, which result from the multiplex method on the one hand, and from an imperfect optics, on the other hand. These errors are usually negligible. Nevertheless, it will be briefly discussed.
  • the multiplex method requires that different recording constellations prevail according to the number of optical filters.
  • the fourth variant M4 according to the chosen TDI approach an integer multiple of the above statement. This results in a systematic error which is compensated with the aid of this signal processing method.
  • the following should clarify the problem.
  • the sensor optics are calibrated so that the focus points of the illumination beam path and the imaging beam path define an (x-z plane) measurement plane that is above the third projected camera line. Then all other parallel measurement planes defined by the other projected camera lines will show a slight blur. That the focal points of the illumination beam path and the imaging beam path are not maximally sharply localized in a same local point. In this
  • the correction values in the x-direction are determined in a calibration process with a plane-parallel mirror. That without this correction, the height measurement values in the x-direction have a curvature, although an plane-parallel mirror is measured as the object.
  • the present invention has the following advantages in particular.
  • a special technical feature is the filtering in the illumination beam path. As a result, the advantage can be exploited that no filters in pixel size are necessary. These are technically complex and can only be produced to a limited extent.
  • Another technical feature is a spectrally wideband multicellular camera (e.g., multiplexing M3 and M4). This has the advantage that both a continuous sensor movement is possible, and for every local measuring point all n lighting configurations are measured.
  • a third technical feature is the use of multiple light sources, so that they can be flashed one after the other and thus a significantly higher light output is possible.
  • the uses of the invention are e.g. in inline quality monitoring, as the measuring procedure can be set up very quickly.
  • Beding by the confocal principle is a

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Chromatisch konfokale Sensoranordnung zum optischen Bestimmen der Oberflächengeometrie einer dreidimensionalen Probe (P), mit einer im Beleuchtungsstrahlengang (2B) der Sensoranordnung positionierten, dispersiven, das Licht einer polychromatischen Beleuchtungseinheit (1) auf eine Fokuslinienfläche (x,y=0,z) fokussierenden optischen Beleuchtungsanordnung (4), wobei die Probe (P) so im Raum (x,y,z) positionierbar ist oder positioniert ist, dass ihre Oberfläche z(x,y) die Fokuslinienfläche (x,y=0,z) entlang eines Höhenlinienschnittweges zy=0(x) schneidet, und einer im Abbildungsstrahlengang (2A) der Sensoranordnung positionierten, abbildenden optischen Anordnung (6), mit der von der Probe (P) zurückgeworfenes Licht so auf eine Lichterfassungseinheit (8) abbildbar ist, dass für jede Ortsposition (x) entlang des Höhenlinienschnittweges zy=0(x) lediglich diejenige Wellenlänge λz(x), die der Höhe (z) des Schnittpunkts der Probenoberfläche mit der Fokuslinienfläche an dieser Ortsposition (x) entspricht, fokussiert auf die Lichterfassungseinheit (8) abgebildet wird, dadurch gekennzeichnet, dass n unterschiedliche Beleuchtungsspektren Ii(λ) mit i=1,…,n mit der Beleuchtungseinheit (1) so erzeugbar und mittels der optischen Beleuchtungsanordnung (4) auf die Fokuslinienfläche (x,y=0,z) fokussierbar sind, dass mit der Lichterfassungseinheit (8) für jede Ortsposition (x) entlang des Höhenlinienschnittweges zy=0(x) eine der Anzahl (n) unterschiedlicher Beleuchtungsspektren gleichende Anzahl (n) an spektralen Informationswerten, nachfolgend auch als n-dimensionale Farbkoordinate bezeichnet, erfassbar ist.

Description

Chromatisch konfokale Sensoranordnung
Die vorliegende Erfindung bezieht sich auf eine chromatisch konfokale Sensoranordnung gemäß des Oberbegriffs aus Anspruch 1. Die Erfindung zeigt dabei eine Variante eines chromatisch konfokalen Triangulationssensors (der im Folgenden auch als CCT-Sensor von Englisch„chromatic confocal triangula- tion sensor" bezeichnet wird).
Aus dem Stand der Technik ist bereits ein chromatisch konfokaler Sensor (bzw. eine entsprechende Sensoranordnung) bekannt: DE 10 2011 117 523 B3.
Ausgehend von diesem Stand der Technik ist es die Aufgabe der vorliegenden Erfindung, eine alternative Ausgestaltungsform einer solchen chromatischen konfokalen Sensoranordnung zur Verfügung zu stellen. Insbesondere soll die erfindungsgemäße Sensoranordnung eine verbesserte Form wellenlängensensitiver Pixel zur Verfügung stellen, ein vorteilhaftes Signal-zu-Rausch- Verhältnis zur Verfügung stellen und/oder das Problem lösen, dass der Winkel des einfallenden Lichtpegels auf pixelgroße Filter nur eingeschränkt kontrolliert werden kann. Darüber hinaus soll die Erfindung ein entsprechendes Verfahren zum Bestimmen der Oberflächengeometrie einer dreidimensionalen Probe zur Verfügung stellen.
Diese Aufgaben werden durch eine Sensoranordnung gemäß Anspruch 1 sowie durch ein Verfahren gemäß Anspruch 15 gelöst. Vorteilhafte Ausgestaltungsvarianten lassen sich dabei jeweils den abhängigen Ansprüchen entnehmen.
Nachfolgend wird die vorliegende Erfindung zunächst allgemein, dann anhand einer Reihe verschiedener Ausführungsbeispiele, die insbesondere Sensoranordnungen zeigen, die mit unterschiedlichen Multiplex-Verfahren Ml bis M6 arbeiten, beschrieben. Dabei können Einzelmerkmale der gezeigten Ausführungsbeispiele mit anderen der gezeigten Einzelmerkmale desselben oder auch anderer Ausführungsbeispiele auch auf andere Art und Weise als in den nachfolgend aufgeführten Beispielen gezeigt kombiniert werden. Insbesondere können Einzelmerkmale auch weggelassen werden. Einzelmerkmale der Ausführungsbeispiele können auch bereits für sich eine Verbesserung des Standes der Technik darstellen.
Eine erfindungsgemäße Sensoranordnung ist im Anspruch 1 beschrieben.
Die spektralen Informationswerte können insbesondere die von den n unterschiedlichen Spektren an den Ortspositionen jeweils abgebildeten und in der Erfassungseinheit erfassten Intensitäten sein: Die n-dimensionale Farbkoordinate einer Ortsposition ist also bevorzugt ein n-Tupel von Intensitätswerten.
Für ein und dieselbe Ortsposition x wird also mittels der Lichterfassungseinheit für jedes der n erzeugten Beleuchtungsspektren jeweils genau eine spektrale Information (insbesondere: Intensität) erfasst. Die n erfassten Informationswerte an ein und derselben Ortsposition lassen sich daher auch als die n- dimensionale Farbkoordinate an dieser Ortsposition x bezeichnen.
Der grundlegende Aufbau der Sensoranordnung (entsprechend des Oberbegriffs des Anspruchs 1) der vorliegenden Erfindung folgt dabei dem in der DE 10 2011 117 523 B3 beschriebenen Aufbau: Dieser Aufbau ist in Figur 1 gezeigt und zeigt eine chromatisch konfokale Sensoranordnung (in DE 10 2011 117 523 B3:„Vorrichtung") zum optischen Bestimmen der Oberflächengeo- metrie einer dreidimensionalen Probe mit einer polychromatischen Lichtquelle, vorzugsweise einer im Strahlengang der Lichtquelle angeordneten Spaltblende, einer im Strahlengang (nach der ggfs. vorhandenen Spaltblende) angeordneten, dispersiven und fokussierenden optischen Anordnung, die so ausgebildet und/oder angeordnet ist, dass sie das Licht der Lichtquelle (vorzugsweise das Abbild der Spaltblende) für unterschiedliche Wellenlängen im Spektrum der Lichtquelle auf unterschiedliche, auf einer vordefinierten Fläche (nachfolgend als Fokuslinienfläche bezeichnet) im Raum voneinander beabstandet liegende Linien (einzelne Fokuslinien) fokussiert, und einer abbil- denden optischen Anordnung, die zumindest Abschnitte der Fokuslinienfläche und/oder mehrere, vorzugsweise alle der Fokuslinien auf ein und dieselbe, von einem ortsauflösenden Nachweiselement (nachfolgend: Lichterfassungseinheit) abtastbare oder abgetastete Linie (Abtastlinie) im Raum fokussiert. Dabei erfolgt keine Wellenlängenmessung mittels wellenlängenauflösender Pixel. Es wird die Wellenlänge bestimmt, indem die Intensitätswerte, die aus den unterschiedlichen Beleuchtungen resultieren, ausgewertet werden. Die Probe wird dabei so im Raum positioniert, dass sie die Fokuslinienfläche schneidet. Dieser grundlegende Aufbau ist insbesondere in den Figuren 1 bis 5 samt der zugehörigen Beschreibungsstellen (Absätze [0041] bis [0068] der Patentschrift DE 10 2011 117 523 B3) beschrieben, so dass die vorgenannten
Beschreibungsstellen samt der Figuren 1 bis 5 dieser Patentschrift vollständig in die Offenbarung der vorliegenden Erfindung mit einbezogen werden.
Nachfolgend wird die vorliegende Erfindung in einem dreidimensionalen, kar- tesischen Weltkoordinatensystem beschrieben. Ohne Beschränkung der Allgemeinheit ist dabei die z-Achse die Höhenachse, beschreibt somit die Höhe, die die optisch abzutastende Oberfläche der dreidimensionalen Probe am Ort (x, y), über der x-y-Ebene hat. Die y-Richtung ist dabei als Vorschubrichtung definiert, also als diejenige Richtung, in der eine Relativ-Bewegung zwischen der Sensoranordnung einerseits und der Probe andererseits (beispielsweise durch Bewegung der Sensoranordnung in y-Richtung bei im Weltkoordinatensystem ortsfester Probe) zur zeilenweisen Abtastung der Probenoberfläche erfolgt. Die x-Richtung ist dann diejenige Richtung, entlang derer die Zeile(n) der Lichterfassungseinheit bzw. die einzelnen Pixel der Zeile(n) der Lichterfas- sungseinheit positioniert ist/sind. Somit erstreckt sich die Schnittlinie zwischen der Fokuslinienfläche, also der x-y-Ebene bei der y-Koordinate 0, und der als Funktion f (x, y) beschreibbaren, abgetasteten Oberfläche der Probe entlang der x-Richtung, lässt sich somit als Höhenlinienschnittweg zy= 0(x) beschreiben. (Der nach dem Verschieben der Probe und der Sensoranordnung relativ zueinander in y-Richtung erfasste Höhenlinienschnittweg ist erfindungsgemäß mit zy(x) bzw. zy+Äy(x) bezeichnet, je nachdem ob die Verschiebung Ay oder die Position y im Vordergrund steht; der Fachmann weiß jeweils aus dem Textzusammenhang, was gemeint ist.) Die Höhe z des Schnittpunkts der Probenoberfläche mit der Fokuslinienfläche (x,y=0,z) an einer Ortsposition x entspricht also der Höhe z des Höhenlinienschnittwegs zy= 0(x) an der Ortsposition x, wobei eine der Pixelzahl der Lichterfassungseinheit in Zeilenrichtung entsprechende Zahl von Informationswerten (insbesondere: Intensitätswerten) durch eine einzeilige Lichterfassungseinheit gleichzeitig erfasst werden kann. (Weist die Lichterfassungseinheit in y-Richtung gesehen hintereinander n einzelne, parallele und jeweils in x-Richtung ausgerichtete Pixelzeilen auf, so wird das n-fache dieser Zahl an spektralen Informationswerten gleichzeitig erfasst.)
Die Lichterfassungseinheit kann somit ein einzeiliger, d.h. eindimensionaler, in x-Richtung ausgerichteter Zeilensensor mit einer Vielzahl lichtempfindlicher Pixel oder ein mehrzelliger, also zweidimensionaler, mit seiner Zeilenrichtung jeweils in x-Richtung ausgerichteter Flächensensor sein, dessen einzelne Zeilen jeweils eine Vielzahl lichtempfindlicher Pixel umfassen. Bei dieser Lichterfassungseinheit handelt es sich vorzugsweise um einen ein- oder mehrzeiligen Digitalsensor (nachfolgend auch als Kamera bezeichnet) mit einer Vielzahl von lichtempfindlichen Einzelsensoren (nachfolgend auch als Pixel bezeichnet) je Zeile. Die Lichterfassungseinheit bzw. der Sensor kann so arbeiten, dass die spektral integrierte Lichtintensität des an der Lichterfassungseinheit bzw. am Sensor ankommenden (also zum Beispiel vom jeweiligen Filter transmittier- ten, durch die optische Beleuchtungsanordnung des Beleuchtungsstrahlengangs gelangenden, von der Objektoberfläche zurückgeworfenen und durch die optische Anordnung des Abbildungsstrahlengangs gelangenden) Lichtspektrums erfasst und nachgewiesen wird. Bei der Erfindung können also breitbandig spektral empfindliche Sensoren eingesetzt werden..Insbesondere kann ein CCD-Sensor oder ein CMOS-Sensor als Kamera eingesetzt werden.
Erste vorteilhafterweise realisierbare Merkmale beschreibt der abhängige Anspruch 2.
Weitere, vorteilhafterweise realisierbare Merkmale beschreibt Anspruch 3. Dabei können (dies gilt dann auch für sämtliche weiteren abhängigen Ansprüche im Rahmen der Anspruchsstruktur) die Merkmale des Anspruchs 2 unabhängig von denen des Anspruchs 3, jedoch auch in Kombination mit denen des Anspruchs 3 realisiert werden.
Gemäß Anspruch 3 kann die Probe im Weltkoordinatensystem ortsfest gelagert sein und die gesamte Sensoranordnung (mit der Beleuchtungseinheit, eventuellen Filtern, der optischen Beleuchtungsanordnung des Beleuchtungsstrahlengangs, der optischen Anordnung des Abbildungsstrahlengangs usw.) relativ dazu entlang der Vorschubrichtung y bewegt werden. Ebenso ist jedoch auch eine ortsfeste Lagerung der Sensoranordnung bei einer Bewegung der Probe in Vorschubrichtung y möglich. Durch eine solche Relativverschie- bung in Vorschubrichtung y ist auch bei einzeiligen Sensoren nacheinander eine Vielzahl einzelner, jeweils in Ortspositionsrichtung (x-Richtung) verlaufender, jedoch an unterschiedlichen y-Positionen liegender Höhenlinien- schnittwege zy(x) entlang der Probenoberfläche erfassbar. Somit kann sukzessive die gesamte Oberfläche der Probe durch einzelne Abtastschritte gemäß des Hauptanspruchs abgetastet werden.
Weitere vorteilhafterweise realisierbare Merkmale lassen sich dem abhängigen Anspruch 4 entnehmen. Dabei können insbesondere die aufeinanderfolgenden Zeitintervalle der Erzeugung der n einzelnen, unterschiedlichen Beleuchtungsspektren Ι,(λ) (also z.B. die Zeitdauer, während der eine einzelne von z.B. n Lichtquellen, die jeweils mit einem zugehörigen optischen Filter versehen sind, eingeschaltet ist) auf die Zeitintervalle, während derer die n spektralen Informationswerte (für jeweils eine einzelne eingeschaltete Lichtquelle) durch die Lichterfassungseinheit erfasst werden, abgestimmt sein (vorzugsweise sind die Zeitintervalle übereinstimmend). Vorzugsweise ist zusätzlich auch die Vorschubgeschwindigkeit der Sensoranordnung (oder der Probe) in Vorschubrichtung y darauf abgestimmt. Im einfachsten Fall (entspricht dem nachfolgend noch näher be- schriebenen Multiplex-Vorgehen Ml) werden alle n Spektren nacheinander erzeugt und im Beleuchtungsstrahlengang auf die Probe eingestrahlt. Das heißt, dass während eines definierten Zeitintervalls jeweils genau eines der Beleuchtungsspektren erzeugt und abgebildet wird und dass das (von der Probe zurückgeworfene) Licht dieses einen Beleuchtungsspektrums von einer beispielsweise als breitbandiger Einzeilensensor ausgebildeten Lichterfassungseinheit erfasst wird (also z.B. die diesem Beleuchtungsspektrum entsprechenden Intensitätswerte durch den Zeilensensor erfasst werden). Dabei bleibt die Relativposition zwischen der Sensoranordnung und der Probe konstant. Erst nachdem alle n Beleuchtungsspektren genau einmal erzeugt, abge- bildet und erfasst wurden, wird die Probe (oder die Sensoranordnung) um eine Messposition (gemäß der gewünschten Auflösung der abzutastenden Oberflächengeometrie in Vorschubrichtung) in die Vorschubrichtung y weiterbewegt und der Prozess beginnt von vorne, um ein in y-Richtung benach- bartes Höhenprofil (eines Höhenlinienschnittwegs) der Probenoberfläche über alle einzelnen Pixel des Sensors in x-Richtung mit allen n unterschiedlichen Beleuchtungsspektren aufzunehmen. Siehe dazu auch die nachfolgend noch beschriebenen sechs Multiplex-Varianten Ml bis M6. Weitere vorteilhafterweise realisierbare Merkmale sind in Anspruch 5 beschrieben.
Demgemäß kann aus der n-dimensionalen Farbkoordinate (also insbesondere aus den n Intensitätswerten) erfindungsgemäß für jede Ortsposition diejenige Wellenlänge, die an der entsprechenden Ortsposition fokussiert abgebildet worden ist, und somit die Höhe z der Oberfläche der dreidimensionalen Probe an dieser Ortsposition x (bei der gerade untersuchten Vorschubposition y) mit hoher Genauigkeit bestimmt werden. Die Decodierung einer n-dimensionalen Farbkoordinate in eine zugrundeliegende Wellenlänge bzw. in eine zugrundeliegende Objekthöhe kann mittels eines Abgleichs zu einer Kalibrierung wie nachfolgend beschrieben erfolgen: Dazu wird in einem Kalibriervorgang ein Referenzobjekt in allen möglichen Höhen des Messbereichs gemessen und die dabei beobachtete n- dimensionale Farbkoordinate gespeichert. Als Referenzobjekt eignet sich dazu z.B. ein Oberflächenspiegel. Um den Einfluss von Kamerarauschen zu vermindern, empfiehlt es sich mehrere Messungen pro Oberflächenhöhe durchzuführen und anschließend zu mittein. Das Ergebnis dieser Kalibrierung sind Soll- Farbkoordinaten, deren zugrundeliegende Objekthöhen bekannt sind. Wäh- rend des Messvorgangs wird eine Ist-Farbkoordinate gemessen und durch den
Signalverarbeitungsprozess„Decodierung" einer Soll-Farbkoordinate zugeordnet. Methodisch kann dies durch die Schätztheorie erfolgen, z.B. indem eine Least-Square Schätzung durchgeführt wird. Diese kann realisiert werden, indem der euklidische Abstand zwischen Ist- und Soll-Farbkoordinate berech- net wird. Die beste Schätzung entspricht dann derjenigen Soll-Farbkoordinate, die im n-dimensionalen Farbraum den geringsten euklidischen Abstand zur gemessenen Ist-Farbkoordinate aufweist. Da diese Berechnung aufwendig sein kann, muss sie nicht in Echtzeit (online) durchgeführt werden, sondern kann auch vorab einmalig (offline) durchgeführt werden, indem für alle mögli- chen Ist-Farbkoordinaten jeweils die zugehörige geschätzte Soll- Farbkoordinate ermittelt wird. Mit den so gefunden Korrespondenzen kann eine Lookup-Tabelle (die in einem Speicher der erfindungsgemäßen Sensoranordnung abgespeichert werden kann) aufgebaut werden, die jeder n- dimensionalen Farbkoordinate den zugehörigen Höhenmesswert zuordnet.
Weitere vorteilhafterweise realisierbare Merkmale lassen sich dem abhängigen Anspruch 6 entnehmen.
Erfindungsgemäß lassen sich dabei vorzugsweise die sechs optischen Filter, die in TAPHANEL, Miro; HOVESTREYDT, Bastiaan; BEYERER, Jürgen. Speed-up chromatic sensors by optimized optical filters. In: SPIE Optical Metrology 2013. International Society for Optics and Photonics, 2013. S. 87880S-87880S- 10, beschrieben sind, verwenden. Dieses Dokument wird daher mit seiner vollständigen Offenbarung in die Offenbarung der vorliegenden Erfindung einbezogen.
Weitere vorteilhafterweise realisierbare Merkmale lassen sich dem abhängigen Anspruch 7 entnehmen.
Es ist also möglich, eine der Anzahl der Filter entsprechende Anzahl an Beleuchtungsquellen (beispielsweise: Weißlicht-Leuchtdioden) in der Beleuchtungseinheit der vorliegenden Erfindung einzusetzen, vor jede dieser Beleuchtungsquellen jeweils genau einen der Filter zu setzen und die Beleuchtungsquellen dann zeitlich nacheinander, also sequentiell an- und wieder abzuschalten. Zu einem beliebigen Messzeitpunkt wird somit jeweils nur genau eine der Beleuchtungsquellen (durch ihren Filter, über die weiteren optischen Elemente der optischen Anordnung im Beleuchtungsstrahlengang, die Probe und die optische Anordnung im Abbildungsstrahlengang) auf die Lichterfassungseinheit abgebildet). Ein Einkoppeln des Lichts jeder der n Lichtquellen- Filter-Anordnungen auf das dispersive und fokussierende optische Element des Beleuchtungsstrahlengangs bzw. auf denjenigen Teil der Beleuchtungsanordnung, der ein dispersives und fokussierendes optisches Element oder ein dispersives Element und ein fokussierendes Element umfasst, kann beispielsweise über einen speziellen Lichtleiter, der n verschiedene Beleuchtungen an n verschiedenen Orten einzukoppeln und an einem Ort wieder auszukoppeln vermag, erfolgen. Solche Lichtleiter sind kommerziell unter dem Produktnamen Schwanenhals mehrarmig zu finden. (Siehe zum Beispiel
www.polytec.com/de/produkte/beleuchtungssysteme/faseroptische- beleuchtungssysteme/lichtleiter-fuer-die-bildverarbeitung/). Dieser n-zu-1- Lichtleiter kann das Licht der verschiedenen Lichtquellen auf eine ebenfalls im Beleuchtungsstrahlengang angeordnete und in Ortspositionsrichtung (x- Richtung) ausgerichtete Spaltblende, die dann über den dispersiven und fo- kussierenden Teil der Beleuchtungsanordnung auf die Probe bzw. auf die Fokuslinienfläche abgebildet bzw. fokussiert wird, einkoppeln.
Weitere vorteilhafterweise realisierbare Merkmale lassen sich dem abhängigen Anspruch 8 entnehmen.
Die Einrichtung zum Wechseln kann beispielsweise ein Filterrad sein, mit dem jeweils genau einer der n optischen Filter im Beleuchtungsstrahlengang positionierbar ist.
Weitere vorteilhafterweise realisierbare Merkmale lassen sich dem abhängigen Anspruch 9 entnehmen.
Anspruch 9 beschreibt das Ausbilden einer Sensoranordnung gemäß eines ersten erfindungsgemäßen Multiplex-Vorgehens Ml: Während des zeitlich gesehen aufeinanderfolgenden Erfassens der unterschiedlichen Komponenten (also einzelnen Koordinatenwerte) einer n-dimensionalen Farbkoordinate für jede Ortsposition x entlang eines Höhenlinienschnittweges zy(x) mit der Lichterfassungseinheit erfolgt somit keine Bewegung der Sensoranordnung und der Probe relativ zueinander, insbesondere also auch keine Bewegung in Vorschubrichtung y. Dabei wird eine einzelne Komponente jeweils gleichzeitig für alle Ortspositionen x entlang des Höhenlinienschnittweges und unter Beleuchtung mit ein und demselben der n Beleuchtungsspektren erfasst. Erst nach Erfassen aller n Komponenten erfolgt eine Relativbewegung, insbesondere eine Weiterbewegung der Sensoranordnung bei ortsfester Probe, um eine Messposition Ay (gemäß der gewünschten Auflösung der zu bestimmenden Oberflächengeometrie in y-Richtung) in die Vorschubrichtung, bevor dann wieder, wie vorstehend beschrieben, die n-dimensionalen Farbkoordinaten für alle Ortspositionen x entlang des nächsten Höhenlinienschnittweges zy+ Äy (x) erfasst werden. Das Multiplex-Vorgehen Ml kann insbesondere mit einer einzeiligen, in x-Richtung ausgerichteten Lichterfassungseinheit durchgeführt werden.
Weitere vorteilhafterweise realisierbare Merkmale lassen sich dem abhängigen Anspruch 10 entnehmen. Dieser beschreibt die Ausbildung einer Sensoranordnung gemäß eines zweiten erfindungsgemäßen Multiplex-Vorgehens M2. Vorzugsweise erfolgt dabei während des gesamten Erfassungszeitraumes eine kontinuierliche Veränderung der Relativposition mit konstanter Vorschubgeschwindigkeit (z.B. kontinuierliche Bewegung der Sensoranordnung in y-Richtung). Durch Verwenden eines Zeilensensors als Lichterfassungseinheit, der in x-Richtung ausgerichtet ist, erfolgt für alle Ortspositionen x entlang einer Zeile des Zeilensensors das Erfassen einer einzelnen Komponente (also z.B. der ersten Komponente des n- Tupels für das erste Beleuchtungsspektrum Ii (λ)) der n-dimensionalen Farbkoordinaten gleichzeitig. Da notwendigerweise eine endliche Integrationszeit des Sensors für das Erfassen der Signale dieser Komponente gegeben ist, hat sich beispielsweise bei Bewegung des Zeilensensors in Vorschubrichtung y der Sensor weiterbewegt, bevor die nächste Komponente (also z.B. die zweite Komponente des n-Tupels für das zweite Beleuchtungsspektrum l2 (λ)) der n- dimensionalen Farbkoordinaten erfasst wird. Diese Positionsverschiebungen der Messorte für die einzelnen spektralen Komponenten bzw. Beleuchtungsspektren auf der Probenoberfläche können durch geeignete Interpolationsverfahren wieder herausgerechnet werden. Dabei wird eine Annahme zugrunde gelegt, dass sich die Oberfläche, welche während der Aufnahme des n- Tupels betrachtet wurde, durch eine gemeinsame Höhe beschrieben werden kann. In diesem Fall ist es also äquivalent, an einem Ort alle n-Tupel Aufnahmen durchzuführen (ohne Sensorbewegung) oder, wie hier beschrieben, den Sensor während der Aufnahme zu bewegen. Bei der Durchführung der Interpolation wird für jede Messposition, an welcher nur mit einem Spektrum beleuchtet wurde, eine maximal symmetrische Nachbarschaft betrachtet und die dort gemessenen Farbwerte werden mit anderer spektraler Beleuchtung für diese Position übernommen. Durch dieses Vorgehen wird für jeden Messpunkt ein n-dimensionaler Farbwert interpoliert. Ein analoges Vorgehen stellt das sogenannte„Demosaicking" eines handelsüblichen RGB-Sensors dar (vgl. http://de.wikipedia.org/wiki/Demosaicing).
Weitere vorteilhafterweise realisierbare Merkmale lassen sich dem abhängigen Anspruch 11 entnehmen.
Dieser beschreibt die Grundlage des Ausbildens einer erfindungsgemäßen Sensoranordnung gemäß eines erfindungsgemäßen dritten Multiplex- Vorgehens M3 und eines erfindungsgemäßen vierten Multiplex-Vorgehens M4. Unter der kontinuierlichen Veränderung ist dabei insbesondere eine Rela- tivbewegung mit konstanter Vorschubgeschwindigkeit (von Probe und Sensoranordnung) in y-Richtung zu verstehen.
Weitere vorteilhafterweise realisierbare Merkmale beschreibt Anspruch 12.
Dieser Anspruch beschreibt das erfindungsgemäße Ausbilden einer erfindungsgemäßen Sensoranordnung gemäß des dritten Multiplex-Vorgehens M3 genauer. Weitere vorteilhafterweise realisierbare Merkmale beschreibt Anspruch 13.
Dieser Anspruch beschreibt das erfindungsgemäße Ausbilden einer erfindungsgemäßen Sensoranordnung gemäß des vierten erfindungsgemäßen Multiplex-Vorgehens M4 genauer, m ist eine positive, natürliche Zahl größer als 1, bevorzugt gilt m = 2. Wird, wie bereits beschrieben, nur genau eine
Lichtquelle (z.B. genau eine Weißlicht-Leuchtdiode) im Beleuchtungsstrahlengang eingesetzt, wobei im Beleuchtungsstrahlengang hinter dieser Lichtquelle eine Einrichtung zum Wechseln von n unterschiedlichen optischen Filtern (z.B. ein Filterrad) positioniert ist, so liegt ein fünftes erfindungsgemäßes Multi- plex-Vorgehen M5 vor. Beim Vorgehen M5 kann die Relativbewegung zwischen Sensoranordnung und Probe sowie die Synchronisierung wie bei einem der Vorgehensweisen Ml bis M4 beschrieben erfolgen (siehe auch nachfolgende Ausführungsbeispiele). Weitere vorteilhafterweise realisierbare Merkmale beschreibt Anspruch 14.
Dieser Anspruch beschreibt das Ausbilden einer erfindungsgemäßen Sensoranordnung gemäß eines sechsten erfindungsgemäßen Multiplex-Vorgehens M6. Die Relativbewegung zwischen Sensoranordnung und Probe sowie die Synchronisierung kann wie bei einem der Vorgehensweisen Ml bis M5 beschrieben erfolgen. Das Aufspalten des Abbildungsstrahlengangs in die Teilstrahlengänge kann durch Strahlteiler oder dergleichen erfolgen.
Ein erfindungsgemäßes Verfahren beschreibt Anspruch 15.
Die Erfindung zeigt somit eine Variante eines chromatischen konfokalen Triangulationssensors und löst dabei das technische Problem der Umsetzung „Wellenlängen sensitiver Pixel" bzw. umgeht die damit im Stand der Technik verbundenen Probleme: Wellenlängen sensitive Pixel wurden bereits herge- stellt, indem unterschiedliche Filter in der Größe eines Pixel (typischerweise 10 μιη x 10 μιη) auf Kamerapixeln aufgebracht wurden. Diese Technologie ist z.B. für optische Interferenzfilter am Markt verfügbar, bedingt jedoch den Einsatz von Halbleitertechnologie (Lithographie-Verfahren) einhergehend mit einem hohen Preis. Des Weiteren ist es generell problematisch, diese kleinen optischen Filter bündig an der Grenze zweier Pixel herzustellen. Dadurch kommt es am Rand eines Pixels zu Abschattungen, bzw. zum Übersprechen, einhergehend mit einem Licht- bzw. Signal-Verlust. Die Erfindung umgeht dies durch ein Vorgehen, das mit einem vorteilhaften Signal-zu-Rausch-Verhältnis einhergeht.
Des Weiteren können nach dem Stand der Technik nicht beliebige optische Filter in der Größe eines Kamerapixels hergestellt werden, z.B. ist im Falle von Interferenzfiltern die maximale Anzahl an Schichten technologiebedingt be- grenzt. Ist der resultierende Interferenzfilter Schichtaufbau zu hoch (im Verhältnis zur Filtergröße), kommt es zu starken Abweichungen von gefertigtem und berechnetem Filter, d.h. die technische Spezifikation wird nicht erreicht. Dies hat wiederum zu Folge, dass das Signal-zu-Rausch-Verhältnis verschlechtert wird. Demgegenüber handelt es sich bei der Erfindung um einen CCT- Sensor mit erhöhtem Signal-zu-Rausch-Verhältnis.
Abschließend löst die Erfindung das technische Problem, dass der Winkel des einfallenden Lichtkegels auf pixelgroße Filter nur eingeschränkt kontrolliert werden kann. Die einzige Kontrollmöglichkeit ist die Auslegung einer darauf hin optimierten Sensoroptik. Jedoch ist diese Vorgehensweise nachteilhaft, da weitere Randbedingungen wie z.B. Sensorgröße, optische Abbildungseigenschaften oder Sensorgesamtgröße eine alleinige Optimierung des Filter- Einfallswinkel als wenig sinnvoll erscheinen lassen. Die Problematik von großen Einfallswinkeln ist, dass die optische Transmission bei Interferenzfiltern stark vom Einfallswinkel abhängt. Bei Interferenzfiltern handelt es sich um einen optischen Filteransatz, der als besonders relevant für diesen Sensortyp angesehen wird. Bei einem alternativen Filteransatz unter Ausnutzung des Plasmonen-Resonanz-Effekts, kommt es zu einer vergleichbaren Problematik. Die Erfindung zeigt eine weitere Verbesserung des CCT-Sensors, wie er im
Patent DE 10 2011 117 523 B3 dargestellt ist. Ein wesentliches technisches Unterscheidungsmerkmal ist ein Multiplexverfahren, wobei die Filterung im Beleuchtungsstrahlengang realisiert wird und nicht im Abbildungsstrahlengang. Das bzw. die Multiplexverfahren Ml bis M6 bedingt/bedingen (ein) an- gepasste(s) Signalverarbeitungsverfahren, welche(s) (ein) weitere(s) erfin- dungsgemäße(s) Merkmal(e) bildet/bilden. Mit Hilfe des Multiplexverfahrens können makroskopische Filter im Beleuchtungsstrahlengang eingesetzt werden.
Im Folgenden werden Varianten der Erfindung anhand von Ausführungsbeispielen erläutert.
Dabei zeigen:
Figur 1 das Grundprinzip der Erfindung gemäß des Oberbegriffs aus Anspruch 1.
Figur 2 eine erfindungsgemäße Sensoranordnung mit sechs Beleuchtungseinheiten mit jeweils einem davor positionierten optischen Filter.
Figur 3 die Transmissionseigenschaften der sechs in Figur 2 verwendeten Filter im sichtbaren Spektrum.
Figur 4 den Verlauf der Strahlengänge unterschiedlicher Wellenlängen vor und hinter der Fokuslinienfläche (x,y=0,z) gemäß Figur 2 etwas detaillierter.
Figuren 5 und 6 das Multiplex-Vorgehen M3 anhand einer Prinzipskizze.
Figur 7 das Prinzip des Multiplex-Vorgehens M4.
Figur 8 das Prinzip der Decodierung bzw. der Bestimmung der Höhen z der einzelnen Schnittpunkte der Probenoberfläche mit der Fokuslinienfläche an den Ortspositionen x entlang eines Höhenlinienschnittweges aus den mit der Lichterfassungseinheit 8 erfassten n-dimensionalen (hier: 6-dimensionalen) Farbkoordinaten.
Gemäß Figur 1 ist im Beleuchtungsstrahlengang 2B nach der Beleuchtungseinheit 1 (vgl. Figur 2) eine hier nicht sichtbare, in x-Richtung ausgerichtete Spaltblende 9 (vgl. Figur 2) mit einer Spaltbreite zwischen 10 und 300 μιη angeordnet. Hinter der Spaltblende 9 befindet sich im Beleuchtungsstrahlengang 2B eine dispersive, das Licht der Beleuchtungseinheit 1 bzw. der Spaltblende 9 auf die Fokuslinienfläche 5, hier die (x,y=0,z) Ebene, fokussierende optische Beleuchtungsanordnung 4. Diese ist so ausgebildet und angeordnet, dass sie das Spaltblendenabbild für die unterschiedlichen Wellenlängen in den (je nach gewähltem Filter 3, vgl. Figur 2) n = 6 sichtbaren Emissionsspektren der Beleuchtungseinheit 1 auf jeweils unterschiedliche, auf der Fokuslinienebene 5 bzw. (x,y=0,z) in z-Richtung voneinander beabstandet liegende Linien, die Fo- kuslinien, fokussiert. Diskret voneinander beabstandete einzelne Wellenlängen im Spektrum Ι(λ) der Beleuchtungseinheit 1 werden somit auf diskrete, jeweils auf der Fokuslinienebene 5 liegende Fokuslinien fokussiert abgebildet. Beispielsweise wird die Wellenlänge λι = 380 nm von der dispersiven, fokus- sierenden optischen Beleuchtungsanordnung 4 auf die Fokuslinie Ii fokussiert, die Wellenlänge λ2 = 510 nm in -z-Richtung beabstandet davon auf die Fokuslinie l2 usw. Alle Fokuslinien \lt l2, ... verlaufen parallel zur Richtung des optischen Spaltes 9, also in x-Richtung.
Diese ortsvariable, fokussierte Abbildung der Fokuslinien I unterschiedlicher Wellenlängen λ auf unterschiedliche z-Positionen der Fokuslinienebene 5 wird nun erfindungsgemäß dazu verwendet, die dreidimensionale Oberflächengeometrie eines beliebig geformten Objekts (Probe P, hier ist lediglich die Schnittlinie der Oberfläche der Probe mit der Zeichnungsebene sichtbar) zu erfassen. Bringt man diese Oberfläche bzw. die Probe P in den Bereich der Fokuslinienebene 5 ein, also so, dass diese Oberfläche die Ebene 5 schneidet, so wird, an einer definierten x-Koordinate gesehen, lediglich Licht genau einer Wellenlänge im gerade von der Beleuchtungseinheit 1 ausgestrahlten Beleuchtungsspektrum 1, (λ) (mit i = 1 n), in Figur 1 Licht der Wellenlänge λ mit λ3 < λ < λ4, fokussiert auf den Schnittpunkt am Ort x auf der Schnittlinie zwischen der Oberfläche der Probe P und der Fokuslinienebene 5 (also auf dem Höhenlinienschnittweg zy=0(x)) abgebildet. Alle anderen Wellenlängen werden, da deren Fokuslinien oberhalb oder unterhalb des Schnittpunktes am Ort x auf dem Höhenlinienschnittweg liegen, an der entsprechenden x- Koordinate lediglich unscharf und benachbart auf die Oberfläche der Probe P abgebildet.
Verwendet man eine geeignete abbildende optische Anordnung 6 im Abbildungsstrahlengang 2A (beispielsweise eine hinsichtlich der dispersiven, fokus- sierenden optischen Beleuchtungsanordnung 4 in Bezug auf die Fokuslinien- ebene 5 spiegelsymmetrisch angeordnete optische Anordnung) und die im
Abbildungsstrahlengang 2A nach derselben (vorzugsweise zum Spalt 9 in Bezug auf die Ebene 5 spiegelsymmetrisch positionierte) Lichterfassungseinheit 8 beispielsweise in Form eines einzeiligen, in x-Richtung ausgerichteten, spektral breitbandig arbeitenden Sensors, so lässt sich anhand der für die vorbeschriebene x-Koordinate mittels dieses Sensors gewinnbaren, n- dimensionalen (also hier: 6-dimensionalen) Farbkoordinate für diese x- Koordinate eine Höheninformation z für den Schnittpunkt der Probenoberflä- che mit der Fokuslinienebene 5 gewinnen. Dabei können die n einzelnen
Komponenten der n-dimensionalen Farbkoordinaten jeweils für alle Ortspositionen x gleichzeitig erfasst werden. Somit kann, in einer Farbcodierung von n- dimensionalen Farbkoordinaten, die gesamte Höheninformation entlang eines Höhenlinienschnittweges gleichzeitig erfasst werden. Auf Basis einer Relativ- Bewegung zwischen Probe P und Sensoranordnung in y-Richtung kann so die gesamte Objektoberfläche der Probe P schrittweise bzw. zeilenweise abgetastet werden.
Nachfolgend wird das in Figur 1 gezeigte Grundprinzip der Erfindung anhand von Ausführungsbeispielen mit unterschiedlichen Multiplex-Vorgehen Ml bis M6 beschrieben. Dabei zeigen jeweils identische Bezugszeichen identische bzw. sich entsprechende Bauelemente der erfindungsgemäßen Sensoranordnungen.
Figur 2 zeigt einen ersten Aufbau einer erfindungsgemäßen chromatisch konfokalen Sensoranordnung. Die Beleuchtungseinheit 1 des Beleuchtungsstrahlengangs 2B umfasst n = 6 einzelne Lichtquellen in Form von Weißlicht- Leuchtdioden 1-1 bis 1-6, die jeweils identische Spektren Ii (λ) bis l6 (λ) erzeugen. Gemäß Figur 2 werden die Unterschiede in den Beleuchtungsspektren somit alleine durch die sechs gemäß Figur 3 ausgebildeten optischen Filter 3-1 bis 3-6 erzeugt: Hinter jeder der Lichtquellen 1 ist genau ein optischer Filter 3 positioniert, wobei das durch den jeweiligen Filter 3 transmittierte Spektrum Ι(λ) von einer 6-zu-l-Lichtleitfaser 14 eingekoppelt und von dieser auf den in x-Richtung ausgerichteten optischen Spalt 9 gerichtet wird. Auf der der Beleuchtungseinheit 1 gegenüberliegenden Lichtausgangsseite des Spaltes 9 ist im Beleuchtungsstrahlengang 2B eine dispersive, das den Spalt 9 verlassende Licht auf die Fokuslinienfläche (x,y=0,z) bzw. 5 fokussierende optische Beleuchtungsanordnung 4 positioniert. Diese Beleuchtungsanordnung 4 umfasst in Richtung von der Beleuchtungseinheit 1 zur Fokuslinien- bzw. Messebene 5 zunächst eine dispersive und diffraktive Optik 10. Diese weist in dieser Richtung gesehen eine Kollimationslinse 10a, ein optisches Gitter 10b und schließlich eine weitere Kollimationslinse 10c auf. Die Kollimationslinse 10c fokussiert das Abbild des Spaltes 9 auf ein Zwischenbild 11, das von einer
Scheimpflugoptik 12 der dispersiven, fokussierenden optischen Beleuchtungs- anordnung 4 des Beleuchtungsstrahlenganges 2B auf die Fokuslinienebene 5 fokussiert wird. Hierzu weist die dem Fachmann an sich bekannte
Scheimpflugoptik (siehe DE 10 2011 117 523 B3) ebenfalls eine Kollimations- linse (Linse 12a) auf.
Lichtausgangsseitig der Messebene 5 wird das von der Probe P bzw. deren Oberfläche (hier nicht gezeigt) zurückgeworfene Licht im Abbildungsstrahlengang 2A durch die dort ausgebildete abbildende optische Anordnung 6 auf die Lichterfassungseinheit 8 fokussiert, der eine Signalverarbeitungseinheit 13 zum Durchführen der Decodierung (beispielsweise in Form eines PC) nachgeschaltet ist. In Bezug auf die Messebene 5 gesehen ist die abbildende optische Anordnung 6 zur dispersiven, fokussierenden optischen Beleuchtungsanordnung 4 (also zu deren dispersiven/diffraktiven Optik 10 und deren
Scheimpflugoptik 12) spiegelsymmetrisch ausgebildet, weist also in Richtung von der Messebene 5 zum Sensor 8 gesehen zunächst eine Kollimationslinse
15a entsprechend der Linse 12a, sodann eine weitere Kollimationslinse 16c entsprechend der Linse 10c, ein optisches Gitter 16b entsprechend dem Gitter 10b und eine auf den Sensor 8 fokussierende Kollimationslinse 16a (entsprechend der Linse 10a) auf. Der Sensor 8 ist in Bezug auf die Ebene 5 gesehen spiegelsymmetrisch zum Spalt 9 positioniert.
Die Erfindung nutzt einen Sensor 8 zur zeilenweisen Erfassung einer Oberflä- chentopologie. Das heißt pro Messzyklus wird eine Zeile von z.B. 2000 Messpunkten angeordnet in x-Richtung aufgenommen. Die einzelnen Messpunkte einer Zeile sind ohne Zwischenraum direkt benachbart. Die Messebene (x-z
Ebene) 5 befindet sich in der Mitte von Figur 2. Befindet sich ein Objekt P im Messbereich, dann bilden die Schnittpunkte der Messebene und des Objektes eine Oberflächenkontur (Höhenlinienschnittweg), die in einem Messzyklus aufgenommen wird. Um die volle 3D-Oberflächentopologie eines Objekts zu erfassen ist eine eindimensionale Bewegung des Sensors in y-Richtung notwendig.
Mehrere polychromatische (breitbandige) Lichtquellen 1-1 bis 1-6 werden sequenziell nacheinander ein- und ausgeschaltet, wobei die Schaltvorgänge gemäß eines der Multiplexverfahren Ml bis M6 mit der Kamera 8 synchronisiert sind. Jede dieser Lichtquellen, die hier als Weißlicht LEDs ausgeführt sind, ist mit einem charakteristisches Filter 3 bestimmt. In Figur 2 handelt es sich um sechs Lichtquellen und entsprechend auch um sechs verschiedene optische Filter. Diese Anzahl stellt eine vorteilhafte technische Realisierung dar kann jedoch auch anders gewählt werden. Eine beispielhafte Realisierung der optischen Filter 3-1 bis 3-6 ist in Figur 3 dargestellt und wurde der vorbeschriebenen Veröffentlichung„Taphanel et al., Speed-up Chromatic Sensors by Optimized Optica! Filters" entnommen.
Die Kombination der einzelnen Lichtquellen 1-i mit diesen Filtern 3-i ergibt für jede Beleuchtung i ein charakteristisches Lichtspektrum Ι,(λ) , welches in Verbindung mit der Sensoroptik 8 eine eindeutige und genaue Bestimmung der Oberflächentopologie ermöglicht.
Vorangehend wurde eine Ausführungsvariante vorgestellt, welche mit sechs sequenziell beschalteten Lichtquellen auskommt. Alternativ können die sechs Lichtquellen durch eine Lichtquelle ersetzt werden und nur die einzelnen Filter sequenziell mittels eines Filterrads gewechselt werden. Dies stellt dann eine vorteilhafte Ausführung dar, wenn Lichtquellen eingesetzt werden, welche sich nicht für schnelle Schaltvorgänge eignen, z.B. Xenon- Hochdrucklampen. Alternativ zum Filterrad sind auch andere„Chopper"- Ansätze denkbar, bei denen das Licht einer Lichtquelle auf die einzelnen Filter verteilt wird. Ein optischer Chopper ist ein Modulator, der auf gesteuerte Weise einen Licht-Strahlengang verändern kann, bzw. blockieren kann.
Im vorangehend beschriebenen Ausführungsbeispiel wird jede der sechs Lichtquellen erst gefiltert und dann in den n-zu-l-Lichtleiter 14 eingekoppelt. Dieser Lichtleiter transportiert das Licht zum Spalt 9 bzw. zur Schlitzblende und hat neben der Transportfunktion auch die Funktion das Licht der einzelnen Lichtquellen zu homogenisieren. Dabei handelt es sich nur um eine mögliche technische Realisierung, weitere sind dem Fachmann bekannt (z.B. durch den Einsatz von homogenisierenden Lichtleiterstäben oder Streuscheiben kann dieses Problem alternativ gelöst werden). Die Homogenisierung ist so ausgeführt, dass die Winkelverteilung des Lichtes aus Sicht der Spaltblende identisch ist für alle sechs unterschiedlichen Lichtquellen.
Der Spaltblende 9, die typischerweise Abmessungen von einigen Mikrometern besitzt (z.B. 1 bis 200 μιη), ist eine Beleuchtungsoptik 4 angegliedert. Diese kann wie in Figur 2 dargestellt eine dispersive/diffraktive Optik 10 und eine
Scheimpflugoptik 12 umfassen. Eine alternative Optikausführung kann unter Einsatz von konkaven Gittern realisiert sein, auch ist eine unsymmetrische Optik denkbar, bei der die Beleuchtungsoptik und die abbildende Optik nicht baugleich ausgeführt sind (siehe hierzu die Aufbauten in Figuren 4 und 5 der DE 10 2011 117 523 B3).
Im Detail ist die Beleuchtungsoptik aus Figur 2 wie folgt aufgebaut (siehe auch Figur 4): Die Spaltblende 9 wird durch eine Kollimations-Linse 10a nach un- endlich abgebildet und anschließend mittels einem Gitter 10b in monochromatische Wellenlängen aufgespalten. Dabei verlässt jede Wellenlänge das Gitter unter einem charakteristischen Winkel und das Licht wird anschließend durch eine zusätzliche Linse 10c auf ein Zwischenbild 11 fokussiert. Das Zwischenbild 11 ist dadurch gekennzeichnet, dass es monochromatische Abbil- düngen der Spaltblende zeigt, wobei das Spaltbild für jede Wellenlänge an einer anderen Position gezeigt wird. Dieses Zwischenbild wird von einer Scheimpflugoptik 12 in eine verkippte Ebene abgebildet, die gleichzeitig die Messebene 5 bildet. Der Messbereich ist in z-Richtung durch die minimale und maximale benutzte Wellenlänge begrenzt.
Bei Betrachtung der Wechselwirkung eines Messobjektes P innerhalb des Messbereichs mit dieser Optik wird die Funktionsweise des Sensorprinzips klar. Die Umsetzung des konfokalen Prinzips, welches dadurch realisiert ist, dass sich Beleuchtungsstrahlengang 2B und Abbildungsstrahlengang 2A einen gemeinsamen Fokuspunkt teilen, hat zur Folge, dass nur auf der Objektoberfläche fokussiertes Licht den lichtempfindlichen Sensor 8 (z.B. CCD Sensor oder CMOS Sensor) erreicht. Da die einzelnen Fokuspunkte, die kontinuierlich im Messbereich der Messebene verteilt sind, eine eindeutige Wellenlänge besitzen, kann der fokussierte Fokuspunkt und damit der Abstand Sensor zu Objektoberfläche bestimmt werden, wenn die Wellenlänge am Sensor bestimmt wird. Dazu wird mittels eines Multiplexverfahrens (ein Vorgehen aus Ml bis M6) die Intensität der sechs unterschiedlichen Beleuchtungen analysiert, welche eine eindeutige Bestimmung der Wellenlänge mit hoher Präzision erlaubt. Von der Kenntnis der Wellenlänge kann auf die zuvor kalibrierte Höheninformation der Objektoberfläche zurückgeschlossen werden.
Die dafür notwendige abbildende Optik 6 kann spiegelsymmetrisch und baugleich der Beleuchtungsoptik 4 gewählt werden. Lediglich die Spaltblende ist nicht mehr notwendig und wird durch einen lichtempfindlichen Sensor 8 er- setzt. Auch eine Variante ohne spiegelsymmetrischem Aufbau (vgl. hierzu die
DE 10 2011 117 523 B3) ist mit dem Multiplexverfahren (also einem aus Ml bis M6) verträglich und somit als Realisierung der Optik für diese Erfindung denkbar. Der Sensor 8, bei dem es sich vorzugsweise um einen zeilenartigen Sensor handelt, ist an eine Signalverarbeitungseinheit 13 angeschlossen. Die einzelnen Signalverarbeitungsschritte zum Decodieren werden vorgestellt, nachdem die Multiplexverfahren Ml bis M6 vorgestellt wurden. Siehe dazu die bereits vorangehend beschriebene Decodierung.
Das Multiplexverfahren kann in sechs Varianten Ml bis M6 durchgeführt werden. Varianten eins bis vier (Ml bis M4) schalten alle sechs Lichtquellen nacheinander ein und aus, sodass immer nur eine Lichtquelle mit Strom versorgt wird. Des Weiteren wird die Belichtungszeit der Kamera so mit den Lichtquellen synchronisiert, dass während des Zeitraums der Belichtungszeit immer nur genau eine Lichtquelle angeschaltet ist. Die Anzahl von sechs Lichtquellen bedingt durch sechs aufeinander abgestimmte optische Filter, ist vorteilhaft, kann aber auch alternativ durch mehr oder weniger Lichtquellen bzw. Filter realisiert werden. Jedoch handelt es sich bei sechs Filter um eine Ausführungsvariante die eine vorteilhafte Abwägung zwischen minimaler Anzahl benötigter Filter und maximaler vertikaler Messauflösung bietet. Die fünfte Variante M5 wird mit nur einer Lichtquelle realisiert. Die sechste Variante M6 stellt eine Mischform aus einer Filterung im Beleuchtungsstrahlengang und einer Filterung im Abbildungsstrahlengang dar.
Die erste Variante Ml ist charakterisiert durch eine nicht kontinuierliche Bewegung des Sensors 8, d.h. der Sensor wird nur alle sechs (allgemein: alle n) Kameraaufnahmen um eine Messposition weiter bewegt. Als Kamera reicht dazu eine monochromatische Kamerazeile aus.
Die zweite Variante M2 setzt das Multiplexverfahren dadurch um, dass eine einzeilige Zeilenkamera zum Einsatz kommt, aber der Sensor eine kontinuierliche Bewegung ausführt. Dadurch liegen die Messpunkte die durch die sechs unterschiedlichen Lichtquellen definiert werden örtlich (auf dem Messobjekt) an unterschiedlichen Positionen. Durch eine anschließende Interpolation (siehe dazu die vorangehend zu Anspruch 10 beschriebene Interpolation) können somit wieder (ähnlich dem Demosaicking des RGB-Bayer-Filters) örtliche Einzelmessungen berechnet werden. Dieses Verfahren funktioniert solange gut, wie die Oberflächentopographie keine signifikante Abweichung innerhalb der
Scanbewegung von sechs (allgemein: n) Aufnahmen enthält.
Die dritte Variante M3 benutzt einen sechszeiligen (allgemein: n-zeiligen) Zei- lenkamerachip (z.B. realisiert durch das Verwenden von nur sechs Zeilen einer Flächenkamera) und eine kontinuierliche Bewegung des Sensors. Das Prinzip ist in Figur 5 dargestellt.
Durch den Einsatz von sechs (allgemein: von n) Zeilen wird nicht mehr nur in einer Messebene (x, y = konstant, z) gemessen, sondern in sechs verschiedenen Messebenen (x-z-Ebenen) gleichzeitig. Streng genommen ist somit das konfokale Prinzip nicht mehr umgesetzt, da nur in einer Fokuspunkte-Ebene (identisch Messebene) sich der Beleuchtungsstrahlengang und der Abbildungsstrahlengang einen Fokuspunkt teilen können. Da jedoch aus physikali- scher Sicht kein perfekter Fokus existiert und somit immer mit einer gewissen
Unschärfe zu rechnen ist, stellt dies nur begrenzt einen Nachteil dar. Des Weiteren ist aus Gründen des Signal-zu-Rasch-Verhältnisses die Spaltblende 9 mit einer gewissen Breite zu wählen, damit genügend Licht zur Verfügung steht. Eine endliche Spaltblende hat ihrerseits wiederum eine Unschärfe zu Folge. Abschließend ist bei dieser Diskussion zu beachten, dass die Abmessungen der auf das Objekt projizierten Pixelgröße im Verhältnis der tatsächlich vorherrschenden Unschärfe der sechs unterschiedlichen Messpunkte zu bewerten ist. Abschließend sei noch erwähnt, dass die n optischen Filter, welche das Spektrum der n Lichtquellen bestimmen auf zwei Funktionen hin optimiert werden können. Erstens, einer maximalen vertikalen (also in z-Richtung) Auflösung und zweitens, einer eindeutigen Zuordnung der n-dimensionalen Farbkoordinate zur korrespondierenden Wellenlänge. Es besteht somit ein Freiheitsgrad, die mittleren Filter vermehrt dazu zu nutzen, die vertikale Messauflösung zu erhöhen und die äußeren Filter eher dazu zu benutzen, dass die Eindeutigkeit gewährleistet ist. Als äußere Filter sind in Figur 5 die Filter ganz oben 3-1 und unten 3-6 gemeint. Des Weiteren würde die Optik so eingestellt werden, dass die sich ergebende Unschärfe für die mittleren Filter, bzw. Kamerapixel, geringer ist, als für die äußeren. Der eigentliche Vorgang der Optimierung von Interferenzfilter kann nach dem Stand der Technik in der vorbeschriebenen Veröffentlichung: Taphanel et al., „Speed-up Chromatic Sensors by Optimized
Optical Filters", nachgelesen werden.
Bei dieser Variante M3 ist die Sensorbewegung vorteilhafterweise auf die Belichtungszeit der Kamera 8 abgestimmt, sodass bei der nächsten Aufnahme fünf der sechs Zeilen wieder an identischen Positionen der Oberfläche der
Probe messen. Diese Vorgehensweise ist in Figur 6 dargestellt.
Nach jeder Kameraaufnahme ist der Sensor 8 um genau den Abstand eines projizierten Pixels in y-Richtung verschoben, wobei bei jeder Bildaufnahme gemäß des Multiplexverfahrens M3 eine andere Lichtquelle eingeschaltet ist. Für jeden Ort x liegt nach sechs Kameraaufnahmen eine Sequenz aller sechs unterschiedlichen Beleuchtungen an diesem Ort (also ein 6-Tupel an Farbinformationen) vor, sodass die korrespondierende Wellenlänge, bzw. die derzeit fokussierte Objekthöhe z bestimmt werden kann. Diese Variante M3 des
Multiplexverfahrens stellt eine vorteilhafte Variante dar, da sowohl eine kontinuierliche Bewegung des Sensors möglich ist, als auch an jedem Ort alle sechs Beleuchtungen gemessen werden können und keine anschließende Interpolation notwendig ist.
Die vierte Variante M4 entspricht im Wesentlichen der dritten Variante M3 und erweitert diese um einen TDI-Ansatz („time delay Integration"). Dazu wird anstatt sechs (allgemein: n) Zeilen ein ganzzahliges Vielfaches m dieser Anzahl an Zeilen gewählt (z.B. zwölf Zeilen). Der Effekt besteht darin, dass nun nach zwölf Zeilen jede Messposition zwei Mal aufgenommen wurde. Dargestellt in Figur 7.
Das mehrfache Aufnehmen des gleichen Messpunktes mit einer identischen Beleuchtung hat zur Folge, dass jeweils zwei Aufnahmen gemittelt werden können. Dadurch verringert sich das Rauschen und somit verbessert sich das
Signal-zu-Rausch-Verhältnis. Als Umsetzung können sowohl die Lichtquellen zwei Mal sequenziell an und aus geschalten werden oder auch immer für zwei Kamerabelichtungszeiten angeschaltet bleiben. Weitere Schaltsequenzen sind denkbar unter der Nebenbedingung, dass nach zwölf bzw. n · m Kameraauf- nahmen jede Lichtquelle genau zwei Mal bzw. m Mal eingeschaltet war.
Die fünfte Variante M5 des Multiplexverfahrens hat nur eine Lichtquelle. Wieder kommen sechs (bzw. n) Filter zum Einsatz, die mittels eines Filterrades sequenziell ausgetauscht werden. Die Kamera und Sensorbewegung kann wie in den Varianten Ml bis M4 gewählt werden.
Die sechste Variante M6 kombiniert eine Multiplexvariante aus Ml bis M5 mit einer zusätzlichen Filterung im Abbildungsstrahlengang 2A. Dazu werden z.B. zwei Kameras 8 (nicht gezeigt) gewählt und mittels Strahlteiler im Abbildungs- strahlengang angeordnet. In diesem Fall (zwei Kameras) reduziert sich die
Anzahl notwendiger Kamerazeilen um die Hälfte. Vor jede Kamera kann wiederum ein makroskopischer Filter angeordnet werden. Im Besonderen stellt diese Variante einen Vorteil dar, wenn die angesprochene Problematik, hervorgerufen durch mehrere projizierte Kamerazeilen und einer teilweisen un- scharfen Umsetzung der Konfokal-Bedingung in der Messebene (vgl. M3), sich nachteilig auf das Messergebnis auswirkt. In diesem Fall kann wie bereits dargelegt die Anzahl notwendiger Kamerazeilen auf die Anzahl eingesetzter Kameras verteilt werden.
Das zugrundeliegende Sensorprinzip besteht somit aus einer Optik, welche jeder messbaren Oberflächenhöhe z eine eindeutige Wellenlänge zuordnet sowie einem Multiplexverfahren (z.B. Ml bis M6, weitere Varianten sind denkbar), aufweisend z.B. mehrere Lichtquellen mit unterschiedlichen opti- sehen Filtern, und einer lichtempfindlichen Kamera. Das Multiplexverfahren erzeugt für jeden Messpunkt n (z.B. sechs) Aufnahmen, welche als eine n- dimensionale Farbkoordinate interpretiert werden können. Durch die optimierten Filter, von denen z.B. jeder einer Lichtquelle zugeordnet ist, kann aus dieser n-dimensionalen Farbkoordinate eindeutig und mit hoher Präzision die zugehörige Wellenlänge bzw. eine zuvor kalibrierte Objekthöhe bestimmt werden. Dazu kann ein Signalverarbeitungsverfahren benutzt werden, welches im Folgenden vorgestellt wird.
Die Signalverarbeitungskette dieses Signalverarbeitungsverfahrens gliedert sich in die folgenden Teilverfahren (vgl. Figur 8).
Das Multiplexverfahren bedingt eine Signalverarbeitung zur Synchronisation der Bildaufnahme der Kamera, der Ansteuerung der einzelnen Lichtquellen und der Sensorbewegung. Entsprechend der vierten Variante M4 des Multiplexverfahrens kann auch die Steuerung des TDI-Ansatzes mit integriert werden. Der Signalverarbeitungsblock des Multiplexverfahrens erzeugt synchronisierte Bilddaten, die im nachfolgenden Signalverarbeitungsblock des Demultiplexers aufbereitet werden. Das Multiplexverfahren beinhaltet auch eine Möglichkeit zur zeitlich begrenzten Zwischenspeicherung der Bilddaten, sodass der Demultiplexer auch auf Daten zugreifen kann, die entsprechend der Anzahl ausgelesener Zeilen Zeitpunkte bzw. Zeitintervalle zurückliegen.
Der Demultiplexer beschreibt ein Verfahren, bei dem die zeitlich geordneten Bilddaten auf eine Weise umgeordnet werden, nach der eine örtliche Ord- nung vorliegt. Dann ist für jeden örtlichen Messpunkt die mehrdimensionale
Farbkoordinate gegeben. Im Falle eines Multiplexverfahrens Ml nach Variante eins ist dieses Verfahren überflüssig, da die zeitliche Ordnung der örtlichen Ordnung entspricht. Im Falle der zweiten Multiplexvariante M2 beinhaltet dieser Verfahrensschritt auch die Interpolation. Im Falle der vierten Multiplexvariante M4 beinhaltet dieser Verfahrensschritt auch die Umsetzung des TDI-Ansatzes zur Mittelung von Bilddaten gleichen Ortes und gleicher Lichtquelle. Der Verfahrensschritt der Dekodierung hat zur Aufgabe, eine sechsdimensio- nale (n-dimensionale) Farbkoordinate in eine eindimensionale Höheninformation z zu dekodieren. Siehe hierzu die vorangehend bereits beschriebene De- codierung. Die Funktion kann in einem Kalibriervorgang als Zuordnungsfunktion von Objekthöhe zu Farbkoordinate bestimmt werden. Vorzugsweise wird mit einem Planspiegel als Messobjekt diese Funktion bestimmt.
Die so erhaltene Höheninformation kann mit systematischen Fehlern versehen sein, die zum Einen aus dem Multiplexverfahren resultieren, zum Anderen aus einer nicht perfekten Optik. Diese Fehler sind aber in der Regel vernachlässigbar. Dennoch wird kurz auf sie eingegangen.
Das Multiplexverfahren (Variante M2 bis M6) bedingt, dass gemäß der Anzahl an optischen Filtern unterschiedliche Aufnahmekonstellationen vorherrschen. Im Falle der vierten Variante M4 entsprechend des gewählten TDI-Ansatzes ein ganzzahliges Vielfaches der obigen Aussage. Daraus resultiert ein systematischer Fehler, der mit Hilfe dieses Signalverarbeitungsverfahrens kompensiert wird. Das Folgende soll die Problematik verdeutlichen. Angenommen die Sensoroptik wird so kalibriert, dass die Fokuspunkte des Beleuchtungsstrahlengangs und des Abbildungsstrahlengangs eine (x-z-Ebene) Messebene definieren, welche über der dritten projizierten Kamerazeile liegt. Dann weisen alle anderen parallelen Messebenen, die durch die anderen projizierten Kamerazeilen definiert werden, eine leichte Unschärfe auf. D.h. die Fokuspunkte des Beleuchtungsstrahlengangs und des Abbildungsstrahlengangs sind nicht maximal scharf in einem gleichen örtlichen Punkt lokalisiert. In dieser
Optikkonstellation soll nun das Multiplexverfahren M3 nach Variante drei betrachtet werden. Des Weiteren wird die Aufnahmekonstellation zweier benachbarter Messpunkte betrachtet. Gemäß dem Fall Messpunkt eins sei durch eine zeitliche Multiplexsequenz (L2,L3,L4,L5,L6,L1) beleuchtet worden und der nächste benachbarte Messpunkt somit durch die Sequenz (L3,L4,L5,L6,L1,L2) („L" steht für die n = 6 verschiedenen Lichtspektren). Dann werden zwei unterschiedliche Aufnahmekonstellationen augenscheinlich, da im ersten Messpunkt Lichtquelle vier angeschaltet war, als die dritte Kamerazeile diesen Messpunkt aufgenommen hat. Für den zweiten Messpunkt war hingegen Lichtquelle fünf eingeschaltet, als die dritte Kamerazeile diesen Messpunkt aufgenommen hat. Da es sich bei der dritten Zeile um die Aufnahmekonstellation handelt, welche die maximale Schärfe besitzt, wurden die gleichen Lichtquellen in unterschiedlichen Aufnahmekonstellationen betrachtet. D.h. für den ersten Messpunkt wurde Lichtquelle fünf von Zeile vier aufgenommen und im zweiten Messpunkt von Zeile drei, welche wie dargelegt eine höhere
Schärfe besitzt. Zur Veranschaulichung dieses Beispiels sei auf Figuren 5 und 6 verwiesen.
Unterschiedliche Aufnahmekonstellationen haben zur Folge, dass das charak- teristische spektrale Signal in seiner FWHM (Füll Width at Half Maximum) variiert und somit der Energieeintrag auf den lichtempfindlichen Kamerasensor. (Ein spektral breiteres Signal beinhaltet bei gleicher Intensität mehr Photonen.) Dies führt zu einem höheren gemessenen Grauwert der Kamera und die sechsdimensionale Farbkoordinate, bestehend aus sechs Grauwerten unter- schiedlicher Beleuchtungen, ist je nach Aufnahmekonstellation leicht verschoben. Da es sich dabei um eine systematische Messabweichung handelt, kann diese entsprechend kompensiert werden. Die Kompensationsfunktion kann durch einen Kalibriervorgang gewonnen werden, indem z.B. ein planparalleler Spiegel vermessen wird und die resultierenden, nicht parallelen sechs Höhenmessungen entsprechend kompensiert werden. Zusammenfassend müssen somit entsprechend der Anzahl an Kamerazeilen Korrekturfunktionen bestimmt werden. Die Fehlerkompensation wird in Vorschubrichtung y-Achse angewandt. Ein weiterer systematischer Fehler resultiert aus einer nicht perfekten Optik.
Diese hat unter anderem zur Folge, dass die Fokuspunkte gleicher Wellenlänge nicht parallel zur x-Achse ausgerichtet sind. Z.B. beschreiben diese Fokuspunkte einen Bogen. Da es sich um einen systematischen Messfehler handelt, kann dieser kompensiert werden. Dazu werden in einem Kalibriervorgang mit einem planparallelen Spiegel die Korrekturwerte in x-Richtung bestimmt. D.h. ohne diese Korrektur weisen die Höhenmesswerte in x-Richtung eine Wölbung auf, obwohl als Objekt ein planparalleler Spiegel vermessen wird.
Werden die obigen Signalverarbeitungsschritte durchlaufen, dann resultiert eine gemessene und korrigierte Höheninformation, die den eigentlichen Messwert darstellt.
Die vorliegende Erfindung hat insbesondere folgende Vorteile. Ein besonderes technisches Merkmal stellt die Filterung im Beleuchtungsstrahlengang dar. Dadurch kann der Vorteil ausgenutzt werden, dass keine Filter in Pixel-Größe notwendig werden. Diese sind technisch aufwendig und nur eingeschränkt herstellbar.
Ein weiteres technisches Merkmal stellt eine spektral breitbandige mehrzellige Kamera dar (z.B. Multiplexverfahren M3 und M4). Dies hat den Vorteil, dass sowohl eine kontinuierliche Sensorbewegung möglich ist, als auch für jeden örtlichen Messpunkt alle n Beleuchtungskonfigurationen vermessen werden.
Ein drittes technisches Merkmal stellt die Verwendung mehrerer Lichtquellen dar, sodass diese nacheinander geblitzt werden können und somit eine deutlich höhere Lichtausbeute möglich wird.
Ein viertes technisches Merkmal stellt die Kombination mit dem TDI Ansatz dar, da hier durch Mittelung das Signal-zu-Rauschverhältnis gesteigert werden kann, bei minimalem apparativen Aufwand (z.B. m · n = 12 Zeilen anstatt n = 6 Zeilen auslesen).
Die Verwendungsmöglichkeiten der Erfindung liegen z.B. in der Inline Quali- tätsüberwachung, da das Messverfahren im Besonderen sehr schnell aufgebaut werden kann. Beding durch das konfokale Prinzip ist ein
mikroskopartiger Aufbau möglich, wodurch sich das Anwendungsgebiet auf Oberflächeneigenschaften im μιη-Bereich beschränkt. In dieser Größenordnung sind Oberflächeneigenschaften wie Rauigkeit und Welligkeit von Interesse, sowie Kratzer und sonstige kleine Defekte. Möglich ist somit ein Messprodukt zur schnellen Oualitätsüberwachung dieser Oberflächeneigenschaften.

Claims

Patentansprüche
1. Chromatisch konfokale Sensoranordnung zum optischen Bestimmen der Oberflächengeometrie einer dreidimensionalen Probe (P), mit einer im Beleuchtungsstrahlengang (2B) der Sensoranordnung positionierten, dispersiven, das Licht einer polychromatischen Beleuchtungseinheit (1) auf eine Fokuslinienfläche (x,y=0,z) fokussierenden optischen Beleuchtungsanordnung (4), wobei die Probe (P) so im Raum (x,y,z) positionierbar ist oder positioniert ist, dass ihre Oberfläche z(x,y) die Fokuslinienfläche (x,y=0,z) entlang eines Höhenlinienschnittweges zy=0(x) schneidet, und einer im Abbildungsstrahlengang (2A) der Sensoranordnung positionierten, abbildenden optischen Anordnung (6), mit der von der Probe (P) zurückgeworfenes Licht so auf eine Lichterfassungseinheit (8) abbildbar ist, dass für jede Ortsposition (x) entlang des Höhenlinienschnittweges zy=0(x) lediglich diejenige Wellenlänge λζ(χ), die der Höhe (z) des Schnittpunkts der Probenoberfläche mit der Fokuslinienfläche an dieser Ortsposition (x) entspricht, fokussiert auf die Lichterfassungseinheit (8) abgebildet wird, dadurch gekennzeichnet, dass n unterschiedliche Beleuchtungsspektren Ι,(λ) mit i=l,...,n mit der Beleuchtungseinheit (1) so erzeugbar und mittels der optischen Beleuchtungsanordnung (4) auf die Fokuslinienfläche (x,y=0,z) fokussierbar sind, dass mit der Lichterfassungseinheit (8) für jede Ortsposition (x) entlang des Höhenlinienschnittweges zy=0(x) eine der Anzahl n unterschiedlicher Beleuchtungsspektren gleichende Anzahl n an spektralen Informationswerten, nachfolgend auch als π-dimensionale Farbkoordinate bezeichnet, erfassbar ist.
2. Sensoranordnung nach dem vorhergehenden Anspruch dadurch gekennzeichnet, dass die n unterschiedlichen Beleuchtungsspektren Ι,(λ) mit i=l,...,n zeitlich nacheinander mit der Beleuchtungseinheit (1) erzeugbar und mittels der optischen Beleuchtungsanordnung (4) auf die Fokuslinienfläche (x,y=0,z) fokussierbar sind.
Sensoranordnung nach einem der vorhergehenden Ansprüche dadurch gekennzeichnet, dass die Sensoranordnung und die Probe (P) relativ zueinander in eine Vorschubrichtung (y) senkrecht zu den Ortspositionen (x) entlang des Höhenlinienschnittweges zy=0(x) und senkrecht zur Höhenrichtung (z) bewegbar sind, um entlang der Vorschubrichtung (y) gesehen für eine Vielzahl unterschiedlicher Höhenlinienschnittwege zy(x) auf der Oberfläche z(x,y) der Probe (P) jeweils mit der Lichterfassungseinheit (8) für jede Ortsposition (x) entlang des jeweiligen Höhenlinienschnittweges zy(x) eine π-dimensionale Farbkoordinate zu erfassen.
Sensoranordnung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Erzeugen dem unterschiedlichen Beleuchtungsspektren Ι,(λ) mit i=l,...,n durch die Beleuchtungseinheit (1) und das Erfassen von spektralen Informationswerten durch die Lichterfassungseinheit (8) sowie, bei Rückbezug auf den vorhergehenden Anspruch, vorzugsweise auch die Relativbewegung der Sensoranordnung und der Probe (P) in die Vorschubrichtung (y) miteinander synchronisierbar sind oder synchronisiert sind.
Sensoranordnung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass aus der mit der Lichterfassungseinheit (8) für jede Ortsposition (x) entlang des Höhenlinienschnittweges zy=0(x) erfassten, n-dimensionalen Farbkoordinate die Höhe (z) des Schnittpunkts der Probenoberfläche mit der Fokuslinienfläche an dieser Ortsposition (x) bestimmbar ist.
Sensoranordnung nach einem der vorhergehenden Ansprüche dadurch gekennzeichnet, dass die Beleuchtungseinheit (1) zum Erzeugen der n unterschiedlichen Beleuchtungsspektren n unterschiedliche optische Filter (3-l,...,3-n) aufweist, insbesondere n über den Wellenlängenbereich von 380 nm bis 1000 nm, insbesondere von 380 nm bis 790 nm, unterschiedlich transmittierende optische Filter.
Sensoranordnung nach einem der vorhergehenden Ansprüche dadurch gekennzeichnet, dass die Beleuchtungseinheit (1) n Lichtquellen
(l-l,...,l-n) aufweist, wobei die n Lichtquellen entweder jeweils unterschiedliche Emissionsspektren haben, oder n in ihren spektralen Emissionseigenschaften identische Lichtquellen, bevorzugt n Weißlicht-Leuchtdioden, sind, wobei im Beleuchtungsstrahlengang (2B) hinter jeder dieser identischen Lichtquellen (1-1,...,1- n) jeweils genau einer der optischen Filter (3-l,...,3-n) gemäß des vorhergehenden Anspruchs positioniert ist.
Sensoranordnung nach dem vorvorhergehenden Anspruch dadurch gekennzeichnet, dass die Beleuchtungseinheit (1) genau eine Lichtquelle, bevorzugt eine Weißlicht-Leuchtdiode, aufweist, wobei im Beleuchtungsstrahlengang (2B) hinter dieser Lichtquelle eine Einrichtung zum Wechseln der n unterschiedlichen optischen Filter (3-1,..., 3-n) im Beleuchtungsstrahlengang (2B) positioniert ist.
Sensoranordnung nach einem der vorhergehenden Ansprüche bei Rückbezug auf die beiden Ansprüche 3 und 4 dadurch gekennzeichnet, dass über die Zeitdauer des Erfassens aller n Komponenten der n- dimensionalen Farbkoordinaten für die Ortspositionen (x) entlang ei- nes Höhenlinienschnittweges zy(x) durch die Lichterfassungseinheit (8) die Relativposition zwischen Sensoranordnung und Probe (P) unverändert bleibt, bevor eine Veränderung (Ay) der Relativposition zwischen Sensoranordnung und Probe (P) in Vorschubrichtung (y) ermöglicht ist zum Erfassen, nach Abschluss besagter Veränderung (Ay) und unter erneutem unverändert Halten der Relativposition zwischen Sensoranordnung und Probe (P) während dieses Erfassens, aller n Komponenten der π-dimensionalen Farbkoordinaten für die Ortspositionen (x) entlang eines weiteren, gemäß besagter Veränderung (Ay) in Vorschubrichtung (y) versetzt liegenden Höhenlinienschnittweges zy+Äy(x).
Sensoranordnung nach einem der vorhergehenden Ansprüche bei Rückbezug auf die beiden Ansprüche 3 und 4 dadurch gekennzeichnet, dass über die Zeitdauer des Erfassens aller n Komponenten der n- dimensionalen Farbkoordinaten für die Ortspositionen (x) entlang eines Höhenlinienschnittweges zy(x) durch die Lichterfassungseinheit (8) kontinuierlich eine Veränderung (Ay) der Relativposition zwischen Sensoranordnung und Probe (P) in Vorschubrichtung (y) erfolgt.
Sensoranordnung nach einem der vorhergehenden Ansprüche bei Rückbezug auf die beiden Ansprüche 3 und 4 dadurch gekennzeichnet, dass die Lichterfassungseinheit (8) ein Flächensensor ist, der mehrere nebeneinanderliegende, jeweils senkrecht zur Vorschubrichtung (y) und zur Höhenrichtung (z) ausgerichtete Zeilen (8-1,8-2,...) umfasst, die jeweils eine Vielzahl lichtempfindlicher Pixel aufweisen, dass mit den mehreren Zeilen (8-1,8-2,...) für eine der Anzahl der Zeilen (8-1,8-2,...) gleiche Anzahl von in Vorschubrichtung (y)
nebeneinanderliegenden Höhenlinienschnittwegen eine einzelne Komponente der π-dimensionalen Farbkoordinaten für alle Ortspositionen (x) entlang dieser mehreren Höhenlinienschnittwege gleichzeitig durch die Lichterfassungseinheit (8) erfassbar ist, und dass über die Zeitdauer des zeitlich aufeinanderfolgenden Erfassens der n unterschiedlichen Komponenten der π-dimensionalen Farbkoordinaten für alle Ortspositionen (x) entlang dieser mehreren Höhenli- nienschnittwege durch die Lichterfassungseinheit (8) eine kontinuierliche Veränderung (Ay) der Relativposition zwischen Sensoranordnung und Probe (P) in Vorschubrichtung (y) erfolgt.
Sensoranordnung nach dem vorhergehenden Anspruch dadurch gekennzeichnet, dass die Lichterfassungseinheit (8) ein Flächensensor mit genau n nebeneinanderliegenden, jeweils senkrecht zur Vorschubrichtung (y) und zur Höhenrichtung (z) ausgerichteten Zeilen (8-l,...,8-n), die jeweils eine Vielzahl lichtempfindlicher Pixel aufweisen, ist und/oder dass genau n solcher Zeilen eines Flächensensors als Lichterfassungseinheit (8) zum Betrieb gemäß des vorhergehenden Anspruchs einsetzbar sind.
Sensoranordnung nach dem vorvorhergehenden Anspruch dadurch gekennzeichnet, dass die Lichterfassungseinheit (8) ein Flächensensor mit genau m-n nebeneinanderliegenden, jeweils senkrecht zur Vorschubrichtung (y) und zur Höhenrichtung (z) ausgerichteten Zeilen, die jeweils eine Vielzahl lichtempfindlicher Pixel aufweisen, ist und/oder dass genau m-n solcher Zeilen eines Flächensensors als Lichterfassungseinheit (8) zum Betrieb gemäß des vorvorhergehenden Anspruchs einsetzbar sind.
Sensoranordnung nach einem der vorhergehenden Ansprüche dadurch gekennzeichnet, dass der Abbildungsstrahlengang (2A) der Sensoranordnung in / Teilstrahlengänge mit 1=2,3,... aufspaltbar ist, wobei in mindestens 1-1 Teilstrahlengängen jeweils ein optischer Filter positioniert ist, wobei das von der Probe (P) zurückgeworfene Lichtspektrum von unterschiedlichen dieser optischen Filter jeweils unterschiedlich transmittiert wird, und wobei in jedem der Teilstrahlengänge, sofern vorhanden jeweils nach dem optischen Filter des Teilstrahlengangs, eine Lichterfassungseinheit zum Erfassen des von der Probe (P) zurückgeworfenen und gegebenenfalls gefilterten Lichtspektrums positioniert ist.
Verfahren zum optischen Bestimmen der Oberflächengeometrie einer dreidimensionalen Probe (P) dadurch gekennzeichnet, dass das Verfahren mit einer chromatisch konfokalen Sensoranordnung nach einem der vorhergehenden Ansprüche durchgeführt wird.
PCT/EP2014/063968 2014-07-01 2014-07-01 Chromatisch konfokale sensoranordnung WO2016000764A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/EP2014/063968 WO2016000764A1 (de) 2014-07-01 2014-07-01 Chromatisch konfokale sensoranordnung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2014/063968 WO2016000764A1 (de) 2014-07-01 2014-07-01 Chromatisch konfokale sensoranordnung

Publications (1)

Publication Number Publication Date
WO2016000764A1 true WO2016000764A1 (de) 2016-01-07

Family

ID=51062818

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2014/063968 WO2016000764A1 (de) 2014-07-01 2014-07-01 Chromatisch konfokale sensoranordnung

Country Status (1)

Country Link
WO (1) WO2016000764A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022069801A1 (en) * 2020-09-29 2022-04-07 Lmi Technologies Inc. Device for determining a distance, surface thickness and optical properties of an object and related method
EP3985141A1 (de) * 2020-10-13 2022-04-20 ThyssenKrupp Steel Europe AG Verfahren zur ermittlung von kenngrössen an einer oberfläche eines bewegten metallbands
WO2022099929A1 (zh) * 2020-11-16 2022-05-19 海伯森技术(深圳)有限公司 一种线光谱共焦传感器
WO2023011854A1 (de) * 2021-08-03 2023-02-09 Sms Group Gmbh Anordnung zur optischen vermessung eines gewindes an einem ende eines metallrohres oder an einer muffe sowie verfahren zur vermessung
DE102022132162A1 (de) 2022-12-05 2024-06-06 Witrins S.R.O. Verfahren zur Fehleranalyse und Inspektionssystem

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008046966A1 (en) * 2006-10-18 2008-04-24 Valtion Teknillinen Tutkimuskeskus Determining surface and thickness
DE102011117523B3 (de) 2011-11-03 2013-04-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur optischen Bestimmung der Oberflächengeometrie einer dreidimensionalen Probe

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008046966A1 (en) * 2006-10-18 2008-04-24 Valtion Teknillinen Tutkimuskeskus Determining surface and thickness
DE102011117523B3 (de) 2011-11-03 2013-04-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur optischen Bestimmung der Oberflächengeometrie einer dreidimensionalen Probe

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
INTERNATIONAL SOCIETY FOR OPTICS AND PHOTONICS, 2013, pages 87880S - 87880S,10
SPIE OPTICAL METROLOGY, 2013
TAPHANEL ET AL., SPEED-UP CHROMATIC SENSORS BY OPTIMIZED OPTICAL FILTERS

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022069801A1 (en) * 2020-09-29 2022-04-07 Lmi Technologies Inc. Device for determining a distance, surface thickness and optical properties of an object and related method
EP3985141A1 (de) * 2020-10-13 2022-04-20 ThyssenKrupp Steel Europe AG Verfahren zur ermittlung von kenngrössen an einer oberfläche eines bewegten metallbands
WO2022099929A1 (zh) * 2020-11-16 2022-05-19 海伯森技术(深圳)有限公司 一种线光谱共焦传感器
WO2023011854A1 (de) * 2021-08-03 2023-02-09 Sms Group Gmbh Anordnung zur optischen vermessung eines gewindes an einem ende eines metallrohres oder an einer muffe sowie verfahren zur vermessung
DE102022132162A1 (de) 2022-12-05 2024-06-06 Witrins S.R.O. Verfahren zur Fehleranalyse und Inspektionssystem

Similar Documents

Publication Publication Date Title
DE102013008273B4 (de) Dreidimensionale Bilderfassungsvorrichtung
DE112011103090B4 (de) Berührungsloses Messsystem und Sensorgerät mit einer auf einem mikro-elektro-mechanischen System basierenden Lichtquelle
EP2137488B1 (de) Verfahren und anordnung zur optischen abbildung mit tiefendiskriminierung
DE69207176T2 (de) Optischer Sensor
DE102010049672B3 (de) Laser-Doppler-Linien-Distanzsensor zur dreidimensionalen Formvermessung bewegter Festkörper
DE102009009372A1 (de) Monitoring von kippbaren Spiegeln
WO2016000764A1 (de) Chromatisch konfokale sensoranordnung
EP2753896A2 (de) Verfahren zur bilderfassung einer vorzugsweise strukturierten oberfläche eines objekts und vorrichtung zur bilderfassung
DE10063293A1 (de) Verfahren und Vorrichtung zur mehrkanaligen Inspektion von Oberflächen im Durchlauf
DE102004053730A1 (de) Verfahren und Anordnung zur Unterdrückung von Falschlicht
DE102011083718A1 (de) Konfokales Spektrometer und Verfahren zur Bildgebung in einem konfokalen Spektrometer
DE102017107343A1 (de) Verfahren und Vorrichtung zum Betreiben eines optischen Abstandssensors
DE102017116758A1 (de) Verfahren und Vorrichtung zum Abtasten von Oberflächen mit einer Stereokamera
DE102019208114B4 (de) Vorrichtung und Verfahren zur 3D Vermessung von Objektkoordinaten
DE102019201272B4 (de) Vorrichtung, Vermessungssystem und Verfahren zur Erfassung einer zumindest teilweise spiegelnden Oberfläche unter Verwendung zweier Spiegelungsmuster
DE10056329B4 (de) Optisches Abstandsmeßverfahren und Abstandssensor
EP3101385A1 (de) Vorrichtung und verfahren zur erfassung von oberflächentopographien
DE102012102580A1 (de) Verfahren zum Messen eines Objektes sowie Intraoral-Scanner
WO2020254445A1 (de) Stereokamerasystem
DE102013105102A1 (de) Verfahren und Vorrichtung zur Bestimmung von Merkmalen an Messobjekten
DE102022202778B4 (de) System und Verfahren zur konfokal-chromatischen Linienabstandsmessung
EP3899423B1 (de) Vorrichtung, vermessungssystem und verfahren zur erfassung einer zumindest teilweise spiegelnden oberfläche unter verwendung zweier spiegelungsmuster
DE102016109131B4 (de) Verfahren zur dreidimensionalen Erfassung eines Objekts
EP2767797B1 (de) Niedrigkohärenzinterferometer und Verfahren zur ortsaufgelösten optischen Vermessung des Oberflächenprofils eines Objekts
DE10301094B4 (de) Vorrichtung zur Messung des Abstandes von Entfernungspunkten zu einer Kamera

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14734811

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14734811

Country of ref document: EP

Kind code of ref document: A1