WO2017138281A1 - 形状測定装置および被塗布対象物の製造方法 - Google Patents

形状測定装置および被塗布対象物の製造方法 Download PDF

Info

Publication number
WO2017138281A1
WO2017138281A1 PCT/JP2017/000463 JP2017000463W WO2017138281A1 WO 2017138281 A1 WO2017138281 A1 WO 2017138281A1 JP 2017000463 W JP2017000463 W JP 2017000463W WO 2017138281 A1 WO2017138281 A1 WO 2017138281A1
Authority
WO
WIPO (PCT)
Prior art keywords
luminance
value
light
objective lens
images
Prior art date
Application number
PCT/JP2017/000463
Other languages
English (en)
French (fr)
Inventor
博明 大庭
Original Assignee
Ntn株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ntn株式会社 filed Critical Ntn株式会社
Priority to US16/076,311 priority Critical patent/US10704898B2/en
Priority to CN201780010383.2A priority patent/CN108603751B/zh
Priority to EP17750006.3A priority patent/EP3415864B1/en
Publication of WO2017138281A1 publication Critical patent/WO2017138281A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/2441Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using interferometry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02015Interferometers characterised by the beam path configuration
    • G01B9/02029Combination with non-interferometric systems, i.e. for measuring the object
    • G01B9/0203With imaging systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/0209Low-coherence interferometers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/12Beam splitting or combining systems operating by refraction only
    • G02B27/123The splitting element being a lens or a system of lenses, including arrays and surfaces with refractive power
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/38Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals measured at different points on the optical axis, e.g. focussing on two or more planes and comparing image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection

Definitions

  • the present invention relates to a shape measuring device and a method for manufacturing an object to be coated using the shape measuring device. More specifically, the present invention measures the shape of the surface of a substrate such as a semiconductor substrate, a printed board, and a flat panel display, or a shape measuring device that measures the surface shape of metals, resins, and their processed products.
  • a shape measuring device for manufacturing the same, and a method for manufacturing an object to be coated using the shape measuring device.
  • Patent Document 1 After positioning a two-beam interference objective lens above an ink application portion made of ink applied to the surface of a substrate, an image of interference light is moved while moving the Z stage.
  • a coating apparatus that obtains the height of the ink coating unit by using the position of the Z stage at which the contrast value peaks for each of a plurality of pixels constituting the image as the focus position of the pixel.
  • the two-beam interference objective lens obtains interference light by causing interference between the reflected light of the object surface and the reference light.
  • the reflected light is specularly reflected and the contrast of the interference light is large.
  • the reflected light returning to the aperture of the objective lens is reduced, and the intensity of the reflected light is reduced. Thereby, the contrast of interference light also falls.
  • the main object of the present invention is to provide a shape measuring apparatus capable of accurately measuring the shape of an object.
  • the shape measuring apparatus irradiates an object with white light and measures the shape of the object using reflected light from the object.
  • the shape measuring device includes a light source, a two-beam interference objective lens, an imaging device, an observation optical system, a positioning device, and a control device.
  • the light source outputs white light.
  • the two-beam interference objective lens separates the white light output from the light source into two light beams, irradiates one light beam on the object and irradiates the other light beam on the reference surface, and reflects the reflected light from the object and the reference surface. It is configured to output interference light by causing interference with reflected light from the light.
  • the imaging device is configured to acquire an image of interference light output from the two-beam interference objective lens.
  • the observation optical system guides white light output from the light source to the surface of the object via the two-beam interference objective lens, and guides reflected light from the surface to the imaging device via the two-beam interference objective lens.
  • the positioning device is configured to move the two-beam interference objective lens relative to the object.
  • the control device acquires a plurality of images while changing the distance between the object and the two-beam interference objective lens in the optical axis direction of the two-beam interference objective lens, and measures the shape of the object using the plurality of images. Configured. For each unit region in the plurality of images, the control device calculates the position of the two-beam interference objective lens that has the maximum evaluation value based on the luminance over the plurality of images as the in-focus position of the unit region.
  • the shape of the object is measured based on the focus position of the unit area.
  • the control device uses, as the evaluation value, a value correlated to the luminance of each unit region in the plurality of images and the difference between the luminance of the unit region and the luminance of the plurality of unit regions adjacent to the unit region. Composed.
  • the shape measuring apparatus as an evaluation value, in addition to the luminance of each unit region in a plurality of images, the difference between the luminance of the unit region and the luminance of a plurality of unit regions adjacent to the unit region is calculated.
  • the in-focus position of each unit area can be calculated with high accuracy. As a result, the shape of the object can be accurately measured.
  • FIG. 1 It is a figure which shows the structure of the shape measuring apparatus by one embodiment of this invention. It is a functional block diagram for demonstrating the function of the control apparatus shown in FIG. It is a figure which shows the structure of the two-beam interference objective lens shown in FIG. It is a figure which shows the structure of the observation optical system shown in FIG. It is a figure which shows the change of the intensity
  • FIG. 1 is a diagram showing a configuration of a shape measuring apparatus 1 according to an embodiment of the present invention.
  • the shape measuring apparatus 1 includes a light source 2, a light source controller 3, a two-beam interference objective lens 4, an observation optical system 5, an imaging device 6, a Z stage 7, a Z stage controller 8, a support member 9, and a base.
  • a board 10, a control device 11, a keyboard 12, a mouse 13, and a monitor 14 are provided.
  • the observation optical system 5 is attached to the base plate 10 via a support member 9.
  • the flat plate-like component 15 is placed on the surface of the base plate 10.
  • the shape measuring apparatus 1 measures the shape of the surface of the part 15 to be measured.
  • the light source 2 is provided on the side surface of the observation optical system 5 and emits white light.
  • the light source controller 3 is connected to the light source 2 and controls the brightness of white light in accordance with an instruction from the control device 11.
  • the light source controller 3 can control the brightness of white light by controlling the power supplied to the light source 2, for example.
  • White light emitted from the light source 2 enters the two-beam interference objective lens 4 via the observation optical system 5.
  • the brightness in the image of the interference light acquired by the imaging device 6 is generally a two-beam interference objective lens, unlike light of a single wavelength such as a laser. Maximum at 4 in-focus position. Therefore, white light is suitable for measuring the shape of the part 15 to be measured based on the focus position.
  • the two-beam interference objective lens 4 is provided at the lower end of the observation optical system 5 through the Z stage 7.
  • the two-beam interference objective lens 4 separates white light from the light source 2 into two light beams.
  • the two-beam interference objective lens 4 irradiates the surface of the part 15 to be measured with one light beam and irradiates the reference surface with the other light beam.
  • the two-beam interference objective lens 4 generates interference light by causing interference between the reflected light from the surface of the part 15 to be measured and the reflected light from the reference surface.
  • a Mirau interference objective lens is used as the two-beam interference objective lens 4 will be described.
  • the two-beam interference objective lens 4 may be a Michelson type or a linique type interference objective lens.
  • the observation optical system 5 is provided for observing the interference light generated by the two-beam interference objective lens 4.
  • the imaging device 6 is controlled by the control device 11 and acquires an image of the interference light at regular intervals via the observation optical system 5.
  • the imaging device 6 outputs the acquired image to the control device 11.
  • the Z stage 7 is provided at the lower end of the observation optical system 5 and moves the two-beam interference objective lens 4 in the optical axis direction.
  • the Z stage controller 8 moves the Z stage 7 in the optical axis direction of the two-beam interference objective lens 4 in accordance with an instruction from the control device 11.
  • the part 15 to be measured may be moved up and down on the table.
  • the position of the two-beam interference objective lens 4 in the optical axis direction may be adjusted by attaching a table or the like to the connecting portion between the two-beam interference objective lens 4 and the observation optical system 5.
  • piezoelectric tables that perform positioning with piezoelectric elements may be used.
  • the control device 11 is constituted by a personal computer, for example.
  • a keyboard 12, a mouse 13, and a monitor 14 are connected to the control device 11.
  • the user of the shape measuring apparatus 1 uses the keyboard 12 and the mouse 13 to instruct the control device 11 to start and end the shape measurement, and confirms the shape of the measured part 15 to be measured on the monitor 14.
  • the control device 11 controls the shape measuring device 1 as a whole in accordance with signals from the keyboard 12, mouse 13, etc., and measures the shape of the part 15 to be measured.
  • FIG. 2 is a functional block diagram for explaining the functions of the control device 11 shown in FIG. As shown in FIG. 2, the control device 11 includes an arithmetic processing unit 41, an image input unit 42, a data storage unit 43, a position control value output unit 44, and an illumination control value output unit 45.
  • the control device 11 includes an arithmetic processing unit 41, an image input unit 42, a data storage unit 43, a position control value output unit 44, and an illumination control value output unit 45.
  • the arithmetic processing unit 41 is a position command value array that stores values corresponding to voltage values corresponding to the height of the Z stage 7 based on information given using the keyboard 12, the mouse 13, and the like, and the Z stage 7.
  • An illumination command value array that stores a value corresponding to the brightness of the light source 2 corresponding to the height of the light source 2 is generated.
  • the position command value array is used to control the position of the Z stage 7 (height from the component 15 to be measured).
  • the illumination command value array is used to control the brightness of the light source 2 in accordance with the position of the Z stage 7.
  • the arithmetic processing unit 41 writes the position command value array and the illumination command value array in the data storage unit 43. In the embodiment, in order to keep the brightness of the light source 2 substantially constant, the value of the illumination command value array is constant.
  • the position control value output unit 44 reads the position command value array from the data storage unit 43.
  • the position control value output unit 44 outputs a control voltage EZ according to the position command value array.
  • the Z stage controller 8 moves the Z stage 7 to a position according to the control voltage EZ output from the position control value output unit 44.
  • the illumination control value output unit 45 reads the illumination command value array from the data storage unit 43.
  • the illumination control value output unit 45 outputs a control voltage EL according to the illumination command value array.
  • the control voltage EL is substantially constant.
  • the light source controller 3 can change the brightness of the light source 2 according to the control voltage EL output from the illumination control value output unit 45.
  • the image input unit 42 operates in synchronization with the reading of the position command value array from the data storage unit 43 by the position control value output unit 44.
  • the image input unit 42 acquires images taken by the imaging device 6 at a constant period.
  • the image input unit 42 stores the acquired image in the data storage unit 43.
  • FIG. 3 is a diagram showing a configuration of the two-beam interference objective lens 4 shown in FIG.
  • the two-beam interference objective lens 4 includes a lens 21, a reference mirror 22, and a beam splitter 23.
  • the reference mirror 22 is provided at the center of the lens 21 on the side facing the component to be measured 15.
  • the beam splitter 23 is provided between the lens 21 and the component 15 to be measured.
  • the light incident on the lens 21 is divided by the beam splitter 23 into light that passes in the direction of the component 15 to be measured and two light that reflects in the direction of the reference mirror 22.
  • the light L1 reflected from the surface of the component 15 to be measured and the light L2 reflected from the surface of the reference mirror 22 are merged again by the beam splitter 23 and collected by the lens 21.
  • FIG. 4 is a diagram showing a configuration of the observation optical system 5 shown in FIG.
  • the observation optical system 5 includes a condenser lens 31, a half mirror 32, and an imaging lens 33.
  • the optical axis of the two-beam interference objective lens 4 and the optical axis of the imaging lens 33 substantially coincide with each other, and both pass through the center of the imaging surface 6A of the imaging device 6.
  • the optical axis of the light source 2 and the optical axis of the condensing lens 31 are substantially coincident, and both are substantially orthogonal to the optical axis of the two-beam interference objective lens 4.
  • a filter 34 is provided between the light source 2 and the condenser lens 31 for removing light having an unnecessary wavelength.
  • the half mirror 32 is provided at the intersection of the optical axis of the light source 2 and the optical axis of the two-beam interference objective lens 4.
  • the half mirror 32 is arranged at an angle of approximately 45 degrees with respect to each of the optical axis of the light source 2 and the optical axis of the two-beam interference objective lens 4.
  • the light emitted from the light source 2 and passing through the filter 34 is reflected by the half mirror 32 toward the lens 21.
  • the light that has entered the lens 21 is divided by the beam splitter 23 into light that passes in the direction of the component 15 to be measured and two light that reflects in the direction of the reference mirror 22.
  • the light reflected by the surface of the part 15 to be measured and the reference mirror 22 is merged again by the beam splitter 23 and is collected by the lens 21.
  • the light emitted from the lens 21 passes through the half mirror 32, enters the imaging surface 6 ⁇ / b> A of the imaging device 6 through the imaging lens 33.
  • an image of interference light between the light L1 reflected from the surface of the part 15 to be measured and the light L2 reflected from the surface of the reference mirror 22 is acquired.
  • the intensity of the interference light changes according to the difference between the optical path length of the light L1 and the optical path length of the light L2.
  • FIG. 5 is a diagram showing a change in the intensity of the interference light when the two-beam interference objective lens 4 is moved in the optical axis direction.
  • the horizontal axis in FIG. 5 represents the coordinates in the optical axis direction (position of the Z stage 7).
  • the vertical axis in FIG. 5 indicates the intensity of the interference light in the image acquired on the imaging surface 6A.
  • the two-beam interference objective lens 4 obtains interference light by causing interference between the reflected light from the object surface and the reference light.
  • the intensity of the interference light oscillates at a constant period around a certain value according to the position of the Z stage 7, and the amplitude corresponds to the contrast.
  • P1 having the maximum amplitude is the in-focus position of the lens 21.
  • the part 15 to be measured is a flat surface and the part 15 to be measured is arranged perpendicular to the optical axis of the objective lens, the reflected light is specularly reflected and the contrast of the interference light is large.
  • the light L1 returning to the opening of the objective lens 21 is reduced, and the intensity of the reflected light is reduced. Thereby, the contrast of interference light also falls.
  • the difference in the amount of reflected light due to the unevenness of the surface of the part 15 to be measured may be confirmed as a difference in brightness between pixels in an image acquired by the imaging device 6.
  • a plurality of unit regions close to the target pixel brightness and the target pixel The in-focus position of each pixel is calculated using a variance value of the luminance of the pixel of interest and the luminance of the pixels included in the adjacent region close to the pixel of interest as an evaluation value having a correlation with the difference between the luminance of the pixel.
  • FIG. 6 is a diagram showing a change in the dispersion value of the intensity of the interference light when the two-beam interference objective lens 4 is moved in the optical axis direction.
  • the horizontal axis in FIG. 6 indicates the coordinates in the optical axis direction (position of the Z stage 7).
  • the vertical axis in FIG. 6 indicates the dispersion value of the intensity of the interference light.
  • a clear peak P2 occurs with respect to the dispersion value.
  • a position FP2 corresponding to the peak P2 substantially matches the in-focus position. Therefore, the focus position of the target pixel can be accurately calculated by using the variance value. As a result, the shape of the part 15 to be measured can be accurately measured.
  • FIG. 7 is a diagram schematically illustrating a plurality of pixels constituting an image acquired by the imaging device 6.
  • Each pixel constituting the image acquired by the imaging device 6 is specified by the position (x, y).
  • the coordinate value x of the pixel takes any value from 0 to M x .
  • Coordinate value y of the pixel takes any value from 0 to M y.
  • the position on the image (x, y) variance V in the pixel C xy is (x, y), a pixel included in the adjacent region R AB of A ⁇ B around the pixel C xy Is expressed by the following equation (1).
  • G ave is an average value of the luminance of the adjacent region R AB and is expressed by the following Expression (2).
  • a primary differential value or a secondary differential value relating to luminance used for edge detection of an image can be given.
  • Examples of the primary differential value related to luminance include a gradient D1a represented by the following formula (3).
  • the gradient D1a is the absolute value of the luminance gradient between the pixels facing the x-axis direction of the coordinate axis that defines the pixel position and the luminance gradient between the pixels facing the y-axis direction among the pixels adjacent to the target pixel. It is the sum of values. Note that the luminance gradient between pixels is a luminance difference between pixels.
  • FIG. 8 is a diagram illustrating a pixel adjacent to the target pixel Cxy .
  • the target pixel C xy includes the pixels C x ⁇ 1, y , C x, y + 1 , C x + 1, y + 1 , C x + 1, y , C x + 1, y ⁇ 1 , C x, y ⁇ 1. , C x ⁇ 1, y ⁇ 1 , C x ⁇ 1, y .
  • the gradient D1 is the absolute value of the gradient of luminance between the pixels C x + 1, y-1 and C x-1, y-1 facing in the x-axis direction (
  • Gradient D1b represented by the following formula (4) can also be used as the primary differential value related to luminance.
  • D1b (x, y) D1a (x, y) +
  • the gradient D1b is obtained by adding, to the gradient D1a, the absolute value of the luminance gradient between the pixels facing the diagonal direction of the coordinate axis that defines the pixel position among the pixels adjacent to the target pixel.
  • the gradient D1b is the absolute value of the gradient of the luminance between the gradient D1a and the diagonally facing pixels C x + 1, y + 1 and C x ⁇ 1, y ⁇ 1 (
  • Laplacian D2a represented by the following equation (5) can be used.
  • the Laplacian D2a is a luminance gradient difference between a pixel adjacent to the pixel of interest in the x-axis direction of the coordinate axis that defines the position of the pixel and the pixel adjacent to the pixel of interest in the y-axis direction. It is the sum of the difference in slope.
  • the Laplacian D2a is the slope between the pixel C x-1, y adjacent to the target pixel C xy to the pixel of interest C xy and x-axis direction (G (x, y) -G (x-1, y) ) and the slope between pixel C x + 1, y adjacent to the target pixel C xy to the pixel of interest C xy and x-axis direction (G (x + 1, y ) -G (x, y absolute value of the difference between)), and the target pixel C xy and the y-axis direction in the pixel of interest C pixel C x adjacent to the xy, slope between y-1 (G (x, y) -G (x, y -1)), the pixel of interest C xy and x-axis direction in the pixel of interest C pixel C x adjacent to the xy, slope between y + 1 (G (x, x, y -1)), the pixel
  • Laplacian D2b represented by the following formula (6) can also be used.
  • Laplacian D2b is obtained by adding a difference in luminance gradient between a pixel adjacent to the pixel of interest and a pixel of interest in the diagonal direction of the coordinate axis that defines the position of the pixel to Laplacian D2a.
  • Laplacian D2b is Laplacian D2a, slope between pixels C x-1, y-1 adjacent to the target pixel C xy to the pixel of interest C xy and diagonal (G ( x, y) -G (x- 1, y-1)) and the slope between pixel C x + 1, y + 1 adjacent to the target pixel C xy to the pixel of interest C xy and diagonal (G (x + 1, y + 1) - G (x, y) the absolute value of the difference between), and the target pixel C xy and pixel C x-1 adjacent to the target pixel C xy diagonally, y + 1 of the slope between (G (x, y) -G (x-1, y + 1 )) and the slope between pixel C x + 1, y-1 adjacent to the target pixel C xy to the pixel of interest C xy and diagonal (G (x + 1, y -1) -G
  • FIG. 9 is a flowchart showing the shape measurement process performed by the arithmetic processing unit 41 of the control device 11. As shown in FIG. 9, the arithmetic processing unit 41 creates a position command value array and an illumination command value array in step S ⁇ b> 1 (hereinafter, step is simply referred to as S), and advances the process to S ⁇ b> 2.
  • the arithmetic processing unit 41 sets the luminance of the light source 2 to the luminance determined by the illumination command value array and irradiates the measured component 15 with white light, and is determined by each value of the set position command value array.
  • the Z stage 7 is moved to a position where the interference light image is acquired at each position, and the evaluation value of each pixel constituting the image is calculated for each acquired image, and the process proceeds to S3. .
  • the arithmetic processing unit 41 detects the position of the Z stage 7 where the evaluation value of each pixel is maximum as the in-focus position of the pixel, and advances the process to S4.
  • the arithmetic processing unit 41 displays the shape of the part 15 to be measured on the monitor 14 based on the focus position of each pixel, and ends the process.
  • the arithmetic processing unit 41 creates a position command value array and an illumination command value array, and stores them in the data storage unit 43.
  • the illumination command value array is a constant value. A method for creating the position command value array will be described below.
  • EZ [i] which is the i-th value of the position command value array is the coordinate value Z [i] of the Z stage 7 corresponding to EZ [i], the maximum height Z max of the Z stage 7, and the minimum of the Z stage 7 Using the control voltage EZ max corresponding to the height Z min , the maximum height Z max , and the control voltage EZ min corresponding to the minimum height Z min , it is expressed by the following equation (7).
  • EZ [i] Z [i ] (EZ max -EZ min) / (Z max -Z min) ... (7)
  • the Z stage 7 moves at a constant speed W ( ⁇ m / second) while acquiring an image, and does not stop halfway.
  • W ⁇ m / second
  • the coordinate value Z [i] is expressed by the following equation (8).
  • EZ [i] (i ⁇ ⁇ T1 ⁇ W) (EZmax ⁇ EZmin) / (Zmax ⁇ Zmin) (9)
  • EZmax 10 (V)
  • EZmin 0 (V)
  • Zmax 100 ( ⁇ m)
  • Zmin 0 ( ⁇ m).
  • the i-th position command value EZ [i] is expressed by the following equation (10).
  • FIG. 10 is a graph illustrating the relationship between the position command value array and the array number i indicating the order of the array.
  • the horizontal axis indicates the array element number i
  • the vertical axis indicates the position command value EZ [i].
  • the position command value EZ [i] increases in proportion to the array element number i.
  • control device 11 acquires an image of interference light while controlling the position of the Z stage 7 and the brightness of the light source 2 based on the position command value array and the illumination command value array created in S1.
  • the position control value output unit 44 and the illumination control value output unit 45 start outputting the control voltages EZ and EL, respectively.
  • the position control value output unit 44 sequentially refers to the position command value array from the top, and changes the control voltage EZ at a constant time interval ⁇ T1 (seconds). When the last number in the position command value array is reached, the position control value output unit 44 ends the output of the control voltage EZ.
  • the image input unit 42 starts capturing an image from the imaging device 6 in response to the start trigger from the arithmetic processing unit 41.
  • the image input unit 42 captures an image output from the imaging device 6 at a constant period ⁇ T2.
  • the image input unit 42 transfers the captured image to the data storage unit 43 using a DMA (Direct Memory Access) transfer method.
  • the DMA transfer is completed in a short time compared with the period ⁇ T2.
  • (x, y) represents the position of a pixel on an image acquired by the imaging device 6.
  • G [k] (x, y) represents the luminance of the pixel at the position (x, y) of the k-th acquired image among the plurality of images acquired by the imaging device 6.
  • Gmax (x, y) represents the maximum value of the luminance of the pixel at the position (x, y) in a plurality of captured images.
  • IDGmax (x, y) represents the number of an image in which the luminance of the pixel at the position (x, y) is maximized.
  • V [k] (x, y) represents a dispersion value in the pixel at the position (x, y) of the k-th acquired image among the plurality of images acquired by the imaging device 6.
  • Vmax (x, y) represents the maximum value in the plurality of images acquired by the imaging device 6 of the variance value in the pixel at the position (x, y).
  • IDVmax (x, y) represents the number of the image having the maximum variance value at the position (x, y).
  • the arithmetic processing unit 41 sets the kth image acquired by the imaging device 6 as a processing target while changing the image number k.
  • the arithmetic processing unit 41 calculates a variance value V [k] (x, y) for each pixel constituting the image while changing x and y for the kth acquired image.
  • the arithmetic processing unit 41 has a maximum luminance G max (x, y), a maximum variance value V max (x, y), and a maximum luminance number IDG max (x, y). ),
  • the maximum variance value IDV max (x, y) is calculated. Below, the process of deriving each value will be described in detail.
  • FIG. 11 is a flowchart for explaining processing in which the arithmetic processing unit 41 calculates the variance value, maximum luminance, maximum variance value, maximum luminance number, and maximum variance value number of each image.
  • the arithmetic processing unit 41 performs an initialization process in S20.
  • the arithmetic processing unit 41 initializes the maximum luminance G max (x, y) and the maximum variance value V max (x, y) to 0 in the initialization process.
  • the arithmetic processing unit 41 initializes the maximum luminance number IDG max (x, y) and the maximum variance value IDV max (x, y) to -1. This initialization process is performed, for example, immediately before the arithmetic processing unit 41 issues a start trigger.
  • Processing unit 41 the k-th captured image by the imaging device 6, with varying x from 0 to M x, while changing the y from 0 to M y, performs processing up to S21 ⁇ S28.
  • the arithmetic processing unit 41 calculates a luminance difference G [k] (x, y) ⁇ G [k ⁇ 1] (x, y) for the pixel at the position (x, y), and performs the process in S22. Proceed to In S22, the arithmetic processing unit 41 determines whether or not the luminance difference is equal to or greater than a lower limit value TG (whether or not the following expression (11) is satisfied).
  • the difference in luminance is regarded as the amplitude of the interference light in FIG. 5, and the image of the image number k having a small amplitude is excluded from the detection target by comparing with the lower limit value TG.
  • the arithmetic processing unit 41 updates the maximum luminance G max (x, y) to the luminance G [k] (x, y) and updates the maximum luminance number IDG max (x, y) to the image number k. Then, the process proceeds to S25.
  • the arithmetic processing unit 41 calculates the variance value V [k] (x, y) for the pixel at the position (x, y) using the equation (1), and advances the processing to S26.
  • the arithmetic processing unit 41 determines whether or not the variance value V [k] (x, y) is greater than or equal to the lower limit value TV.
  • variance value V [k] (x, y) is greater than or equal to lower limit value TV (YES in S26)
  • operation processing unit 41 advances the process to S27, where variance value V (x, y) and maximum variance value V are reached. Compare with max (x, y).
  • operation processing unit 41 uses maximum variance value V max (x, y) as a variance value. While updating to V [k] (x, y), the maximum variance value IDV max (x, y) is updated to image number k.
  • variance value V [k] (x, y) is less than lower limit TV (NO in S26), or variance value V [k] (x, y) is equal to or less than maximum variance value V max (x, y). If there is any (NO in S27), the arithmetic processing unit 41 advances the process to S29.
  • the arithmetic processing unit 41 determines whether or not the processing has been completed for all the pixels included in the number k image. When the process has not been completed for all the pixels included in the image of number k (NO in S29), the arithmetic processing unit 41 updates the pixel position (x, y) to the next pixel position and performs the process in S21. Return to. When the process has been completed for all the pixels included in the image of number k (YES in S29), operation processing unit 41 advances the process to S30.
  • the arithmetic processing unit 41 determines whether or not the processing has been completed for all the images acquired by the imaging device 6 in S30. If the processing has not been completed for all images (NO in S30), the arithmetic processing unit 41 updates the image number k to the next image number and returns the processing to S21. If the processing has been completed for all images (YES in S30), the processing ends.
  • the maximum luminance G max (x, y) has the maximum value of the luminance of the pixel at the position (x, y) for a plurality of images with image numbers 0 to k max acquired by the imaging device 6. Is stored.
  • the maximum luminance number IDG max (x, y) stores an image number k that maximizes the luminance G [k] (x, y) of the pixel at the position (x, y).
  • the maximum variance value V max (x, y) stores the maximum value of the luminance variance value V [k] (x, y) at the position (x, y).
  • the maximum variance value number IDV max (x, y) stores an image number k that maximizes the luminance variance value V [k] (x, y) at the position (x, y).
  • FIG. 12 is a flowchart showing more specifically the process of detecting the focus position (S3 in FIG. 9).
  • the maximum luminance number IDG max (x, y) is represented as the maximum luminance number M xy for the sake of simplicity.
  • the arithmetic processing unit 41 determines whether or not the maximum luminance number M xy has been updated to a value other than ⁇ 1 in S31.
  • the arithmetic processing unit 41 proceeds to S32 and is based on the position of the Z stage 7 where the luminance of the interference light is maximum. To detect the in-focus position. If the maximum luminance number M xy has not been updated to a value other than ⁇ 1 (NO in S31), the arithmetic processing unit 41 proceeds to S33, and the Z stage 7 in which the dispersion value of the luminance of the interference light is maximized. A focus position is detected based on the position. Below, the detail of S32 and S33 is demonstrated.
  • S32 is performed when the maximum luminance number M xy is updated to a value other than ⁇ 1 (YES in S31).
  • the fact that the maximum luminance number M xy is a value other than ⁇ 1 means that the expression (11) regarding the luminance of the pixel at the position (x, y) may be satisfied in S2. In such a case, it is assumed that a clear peak is obtained for the luminance of the pixel at the position (x, y), and the in-focus position is detected based on the luminance of the interference light.
  • the envelope value M [k] (x, y) represented by the following equation (12) is used as the image number. Calculate for each pixel (x, y) on k images.
  • the integer L is a positive integer, for example, 5.
  • FIG. 13 is a diagram showing a curve C indicating the relationship between the coordinate value Z in the optical axis direction of the Z stage 7 and the intensity of the interference light, and a curve E of the curve C.
  • the relationship between the coordinate value Z in the optical axis direction of the Z stage 7 corresponding to the image number k and the envelope value M [k] (x, y) is represented as a curve E in FIG.
  • the in-focus position f (x, y) of each pixel is calculated using the envelope value M [k] (x, y) calculated by equation (12).
  • Formula (13) is a calculation formula for obtaining the center of gravity of the curve E shown in FIG.
  • the envelope value M [k] (x, y) is bilaterally symmetric data with the vertex of the curve E as shown in FIG. 13 as the center
  • the center of gravity indicates a peak P3 that is the center position.
  • the in-focus position f (x, y) is a position FP3 corresponding to the peak P3 in FIG.
  • S33 is performed when maximum luminance number M xy remains at the initial value of ⁇ 1 (NO in S31).
  • the fact that the maximum luminance number M xy remains at the initial value means that the expression (11) relating to the luminance of the pixel at the position (x, y) has not been satisfied in S2.
  • the in-focus position is detected using the variance value calculated by the equation (1).
  • the in-focus position array F (x, y) at the in-focus position f (x, y) is Is represented by the following equation (15).
  • the control device 11 can display the three-dimensional shape of the part 15 to be measured by displaying the in-focus position array F (x, y) represented by Expression (15) on the monitor 14 in a three-dimensional manner.
  • the evaluation value necessary for obtaining the in-focus position in addition to the intensity of the target pixel for which the in-focus position is calculated, a plurality of units adjacent to the target pixel brightness and the target pixel
  • a variance value of the luminance of the pixel of interest and the luminance of the pixels included in the adjacent region close to the pixel of interest as an evaluation value that has a correlation with the difference between the luminance of the region, a plurality of pixels included in the image
  • the in-focus position can be calculated with high accuracy. As a result, the shape of the part 15 to be measured can be accurately measured.
  • FIG. 14 is a schematic perspective view of coating apparatus 100 including the shape measuring apparatus according to the embodiment of the present invention.
  • the coating apparatus 100 includes a shape measuring device 1 ⁇ / b> A and a coating mechanism 50.
  • the shape measuring apparatus 1A measures the shape of the substrate 15A that is the object to be coated.
  • the coating mechanism 50 applies a coating material to the surface to be coated (upper surface side) of the substrate 15A using a coating needle provided on the coating mechanism 50, and draws a circuit pattern.
  • FIG. 15 is a flowchart showing a manufacturing process of the substrate 15A.
  • a coating process is performed.
  • a circuit pattern is drawn on the coated surface of the substrate 15A.
  • a shape measuring step is performed in S52.
  • the shape of the coated surface of the substrate 15A is measured using the shape measuring apparatus 1A.
  • an inspection process is performed in S53.
  • the inspection step the shape of the coated surface on which the circuit pattern is drawn is inspected in S51. By the end of S53, the manufacturing process of the substrate 15A is completed.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

対象物の形状を正確に測定することができる形状測定装置、および当該形状測定装置を用いた被塗布対象物の製造方法を提供する。この発明に係る形状測定装置は、対象物に白色光を照射して、対象物からの反射光を用いて対象物の形状を測定する。形状測定装置は、光源と、二光束干渉対物レンズと、撮像装置と、観察光学系と、位置決め装置と、制御装置とを備える。制御装置は、撮像装置によって取得された複数の画像の各単位領域について、複数の画像にわたって輝度に基づく評価値が最大となる二光束干渉対物レンズの位置を当該単位領域の合焦位置として算出し、複数の画像における各単位領域の合焦位置に基づいて対象物の形状を測定するように構成される。制御装置は、評価値として、複数の画像における各単位領域の輝度、および当該単位領域の輝度と当該単位領域に近接する複数の単位領域の輝度との差に相関関係のある値を用いるように構成される。

Description

形状測定装置および被塗布対象物の製造方法
 この発明は形状測定装置および当該形状測定装置を用いた被塗布対象物の製造方法に関する。より特定的には、この発明は、金属、樹脂、およびそれらの加工品の表面形状を測定する形状測定装置、あるいは半導体基板、プリント基板、およびフラットパネルディスプレイなどの基板の表面の形状を測定するための形状測定装置、および当該形状測定装置を用いた被塗布対象物の製造方法に関する。
 特開2015-7564(特許文献1)には、基板の表面に塗布されたインクからなるインク塗布部の上方に二光束干渉対物レンズを位置決めした後、Zステージを移動させながら干渉光の画像を取得し、当該画像を構成する複数の画素の各々についてコントラスト値がピークとなるZステージの位置を当該画素の合焦位置として、インク塗布部の高さを求める塗布装置が開示されている。
特開2015-7564号公報
 二光束干渉対物レンズは、対象物表面の反射光と参照光を干渉させることにより干渉光を得る。たとえば対象物が平面で、対象物が対物レンズの光軸に対して垂直に配置される場合、反射光は正反射光となり、干渉光のコントラストは大きい。しかしながら、対象物が傾斜した状態では、対物レンズの開口に戻る反射光が減少し、反射光の強度が低下する。これにより、干渉光のコントラストも低下する。
 干渉光のコントラストが低下すると、対象物と対物レンズとの距離を変化させた場合に、コントラストの明確なピークが生じにくくなり、ピークの検出が困難となる。ピークを検出できない場所の高さは不定となり、対象物の形状を正確に測定することは困難になる。
 この発明の主たる目的は、対象物の形状を正確に測定することができる形状測定装置を提供することである。
 この発明に係る形状測定装置は、対象物に白色光を照射して、対象物からの反射光を用いて対象物の形状を測定する。形状測定装置は、光源と、二光束干渉対物レンズと、撮像装置と、観察光学系と、位置決め装置と、制御装置とを備える。光源は、白色光を出力する。二光束干渉対物レンズは、光源から出力された白色光を二光束に分離し、一方の光束を対象物に照射するとともに他方の光束を参照面に照射し、対象物からの反射光と参照面からの反射光とを干渉させて干渉光を出力するように構成される。撮像装置は、二光束干渉対物レンズから出力される干渉光の画像を取得するように構成される。観察光学系は、光源から出力された白色光を、二光束干渉対物レンズを介して対象物の表面に導き、表面からの反射光を二光束干渉対物レンズを介して撮像装置に導く。位置決め装置は、二光束干渉対物レンズを対象物に対して相対的に移動させるように構成される。制御装置は、対象物と二光束干渉対物レンズとの距離を二光束干渉対物レンズの光軸方向に変化させながら複数の画像を取得し、複数の画像を用いて対象物の形状を測定するように構成される。制御装置は、複数の画像における各単位領域について、複数の画像にわたって輝度に基づく評価値が最大となる二光束干渉対物レンズの位置を当該単位領域の合焦位置として算出し、複数の画像における各単位領域の合焦位置に基づいて対象物の形状を測定するように構成される。制御装置は、評価値として、複数の画像における各単位領域の輝度、および当該単位領域の輝度と当該単位領域に近接する複数の単位領域の輝度との差に相関関係のある値を用いるように構成される。
 この発明に係る形状測定装置によれば、評価値として、複数の画像における各単位領域の輝度に加えて、当該単位領域の輝度と当該単位領域に近接する複数の単位領域の輝度との差に相関関係のある値を用いることにより、各単位領域の合焦位置を精度よく算出することができる。その結果、対象物の形状を正確に測定することができる。
この発明の一実施の形態による形状測定装置の構成を示す図である。 図1に示した制御装置の機能を説明するための機能ブロック図である。 図1に示した二光束干渉対物レンズの構成を示す図である。 図1に示した観察光学系の構成を示す図である。 図1に示した二光束干渉対物レンズを光軸方向に移動させた場合の干渉光の強度の変化を示す図である。 二光束干渉対物レンズを光軸方向に移動させた場合の干渉光の強度の分散値の変化を示す図である。 注目画素に隣接する画素を示す図である。 撮像装置によって取得される画像を構成する画素を模式的に示す図である。 制御装置の演算処理部によって行なわれる形状測定処理を示すフローチャートである。 位置指令値配列と、配列の順番を示す配列番号との関係を例示するグラフである。 演算処理部が各画像の各画素の輝度および分散値を算出する処理を説明するためのフローチャートである。 合焦位置を検出する処理を具体的に示すフローチャートである。 Zステージの光軸方向の座標値と干渉光の強度との関係を示す曲線と、当該曲線の包絡線を示す図である。 本発明の実施の形態に従う形状測定装置を備える塗布装置の模式的な斜視図である。 図14の塗布装置において行なわれる基板の製造工程を示すフローチャートである。
 [形状測定装置の構成]
 図1は、この発明の一実施の形態による形状測定装置1の構成を示す図である。図1において、この形状測定装置1は、光源2、光源制御器3、二光束干渉対物レンズ4、観察光学系5、撮像装置6、Zステージ7、Zステージ制御器8、支持部材9、ベース板10、制御装置11、キーボード12、マウス13、およびモニタ14を備える。観察光学系5は、支持部材9を介してベース板10に取り付けられる。平板状の被測定部品15は、ベース板10の表面に置かれる。形状測定装置1は、被測定部品15表面の形状を測定する。
 光源2は、観察光学系5の側面に設けられ、白色光を出射する。光源制御器3は、光源2に接続され、制御装置11からの指示に従って白色光の明るさを制御する。光源制御器3は、たとえば光源2に供給される電力を制御することにより、白色光の明るさを制御することができる。光源2から出射された白色光は、観察光学系5を介して二光束干渉対物レンズ4に入射される。被測定部品15に照射される光が白色光である場合、レーザなどの単一波長の光と異なり、撮像装置6で取得される干渉光の画像における輝度は、一般的に二光束干渉対物レンズ4の合焦位置で最大になる。そのため、合焦位置に基づいて被測定部品15の形状を測定するには、白色光が適している。
 二光束干渉対物レンズ4は、Zステージ7を介して観察光学系5の下端に設けられる。二光束干渉対物レンズ4は、光源2からの白色光を二光束に分離する。二光束干渉対物レンズ4は、一方の光束を被測定部品15の表面に照射するとともに他方の光束を参照面に照射する。二光束干渉対物レンズ4は、被測定部品15の表面からの反射光と参照面からの反射光とを干渉させて干渉光を生成する。実施の形態では、二光束干渉対物レンズ4としてミラウ型干渉対物レンズを用いる場合について説明する。二光束干渉対物レンズ4は、マイケルソン型やリニーク型の干渉対物レンズを用いてもよい。
 観察光学系5は、二光束干渉対物レンズ4によって生成された干渉光を観察するために設けられている。
 撮像装置6は、制御装置11によって制御され、観察光学系5を介して干渉光の画像を一定周期で取得する。撮像装置6は、取得した画像を制御装置11に出力する。
 Zステージ7は、観察光学系5の下端に設けられ、二光束干渉対物レンズ4をその光軸方向に移動させる。
 Zステージ制御器8は、制御装置11からの指示に従ってZステージ7を二光束干渉対物レンズ4の光軸方向に移動させる。
 Zステージ7によって二光束干渉対物レンズ4を移動させる代わりに、被測定部品15をテーブルで上下させてもよい。あるいは、二光束干渉対物レンズ4と観察光学系5の連結部にテーブルなどを取り付けて二光束干渉対物レンズ4の光軸方向の位置を調整してもよい。あるいは、これらのテーブルとして、位置決めを圧電素子で行うピエゾテーブルを用いてもよい。
 制御装置11は、たとえばパーソナルコンピュータによって構成されている。制御装置11には、キーボード12、マウス13、およびモニタ14が接続されている。形状測定装置1の使用者は、キーボード12およびマウス13を用いて、形状測定の開始、終了などを制御装置11に指令し、測定された被測定部品15の形状をモニタ14で確認する。制御装置11は、キーボード12、マウス13などからの信号に従って、形状測定装置1全体を制御し、被測定部品15の形状を測定する。
 [制御装置の構成]
 図2は、図1に示した制御装置11の機能を説明するための機能ブロック図である。図2に示されるように、制御装置11は、演算処理部41、画像入力部42、データ記憶部43、位置制御値出力部44、および照明制御値出力部45を含む。
 演算処理部41は、キーボード12、マウス13などを用いて与えられた情報に基づいて、Zステージ7の高さに応じた電圧値に対応する値を格納する位置指令値配列、およびZステージ7の高さに応じた光源2の明るさに対応する値を格納する照明指令値配列を生成する。位置指令値配列は、Zステージ7の位置(被測定部品15からの高さ)を制御するために用いられる。照明指令値配列は、Zステージ7の位置に応じて光源2の明るさを制御するために用いられる。演算処理部41は、位置指令値配列および照明指令値配列をデータ記憶部43に書き込む。実施の形態においては、光源2の明るさをほぼ一定に保つため、照明指令値配列の値は一定である。
 位置制御値出力部44は、データ記憶部43から位置指令値配列を読み出す。位置制御値出力部44は、位置指令値配列に従って制御電圧EZを出力する。
 Zステージ制御器8は、位置制御値出力部44から出力される制御電圧EZに応じて位置にZステージ7を移動させる。
 照明制御値出力部45は、データ記憶部43から照明指令値配列を読み出す。照明制御値出力部45は、照明指令値配列に従って制御電圧ELを出力する。実施の形態においては、照明指令値配列はほぼ一定であるため、制御電圧ELはほぼ一定である。
 光源制御器3は、照明制御値出力部45から出力される制御電圧ELに応じて、光源2の明るさを変化させることができる。
 画像入力部42は、位置制御値出力部44によるデータ記憶部43からの位置指令値配列の読込みに同期して動作する。画像入力部42は、撮像装置6によって撮影された画像を一定周期で取得する。画像入力部42は、取得した画像をデータ記憶部43に格納する。
 [合焦位置検出の原理]
 図3は、図1に示した二光束干渉対物レンズ4の構成を示す図である。図3に示されるように、二光束干渉対物レンズ4は、レンズ21、参照鏡22、およびビームスプリッタ23を含む。参照鏡22は、レンズ21の、被測定部品15を向いている側の中央部に設けられている。ビームスプリッタ23は、レンズ21と被測定部品15との間に設けられている。
 レンズ21に入射した光は、ビームスプリッタ23によって被測定部品15の方向に通過する光と参照鏡22の方向に反射する2つの光に分けられる。被測定部品15の表面で反射した光L1と参照鏡22の表面で反射した光L2は再びビームスプリッタ23で合流し、レンズ21によって集光される。
 図4は、図1に示した観察光学系5の構成を示す図である。図4に示されるように、観察光学系5は、集光レンズ31、ハーフミラー32、および結像レンズ33を含む。二光束干渉対物レンズ4の光軸と、結像レンズ33の光軸とはほぼ一致しており、ともに撮像装置6の撮像面6Aの中心を通過している。光源2の光軸と集光レンズ31の光軸とはほぼ一致しており、ともに二光束干渉対物レンズ4の光軸とほぼ直交している。光源2と集光レンズ31との間には、不要な波長の光を除去するためのフィルタ34が設けられている。ハーフミラー32は、光源2の光軸と二光束干渉対物レンズ4の光軸との交点に設けられている。ハーフミラー32は、光源2の光軸および二光束干渉対物レンズ4の光軸の各々に対してほぼ45度の角度で配置されている。
 光源2から出射されてフィルタ34を通過した光は、ハーフミラー32によってレンズ21の方向に反射される。レンズ21に入射した光は、ビームスプリッタ23によって被測定部品15の方向に通過する光と参照鏡22の方向に反射する2つの光に分けられる。被測定部品15および参照鏡22の表面で反射した光は再びビームスプリッタ23で合流し、レンズ21によって集光される。レンズ21から出た光は、ハーフミラー32を通過して、結像レンズ33を経て撮像装置6の撮像面6Aに入射する。
 撮像面6Aにおいて、被測定部品15の表面で反射した光L1と参照鏡22の表面で反射した光L2との干渉光の画像が取得される。干渉光の強度は、光L1の光路長および光L2の光路長の差に応じて変化する。
 図5は、二光束干渉対物レンズ4を光軸方向に移動させた場合の干渉光の強度の変化を示す図である。図5の横軸は、光軸方向の座標(Zステージ7の位置)を示す。図5の縦軸は、撮像面6Aにおいて取得される画像における干渉光の強度を示している。
 二光束干渉対物レンズ4は、対象物表面の反射光と参照光を干渉させることにより干渉光を得る。干渉光の強度は、図5に示されるようにZステージ7の位置に応じて、ある値を中心にして一定周期で振動し、その振幅はコントラストに相当する。また、振幅が最大となるP1はレンズ21の合焦位置である。ここで、たとえば被測定部品15が平面で、被測定部品15が対物レンズの光軸に対して垂直に配置された場合、反射光は正反射光となり、干渉光のコントラストは大きい。しかしながら、被測定部品15が傾斜した状態では、対物レンズ21の開口に戻る光L1が減少し、反射光の強度が低下する。これにより、干渉光のコントラストも低下する。
 干渉光のコントラストが低下すると、対象物と対物レンズとの距離を変化させた場合に、コントラストの明確なピークが生じにくくなり、ピークP1の検出が困難となる。ピークを検出できない場所の高さは不定となり、対象物の形状を正確に測定することは困難になる。
 しかしながら、被測定部品15の表面の凹凸による反射光量の違いは、撮像装置6で取得される画像における画素間の明暗の差として確認することができる場合がある。
 そこで実施の形態では、合焦位置を求めるために必要な評価値として、合焦位置を算出する対象である注目画素の輝度に加えて、注目画素の輝度と注目画素に近接する複数の単位領域の輝度との差に相関関係のある評価値として、注目画素の輝度と注目画素に近接する近接領域に含まれる画素の輝度との分散値を用いて、各画素の合焦位置を算出する。
 図6は、二光束干渉対物レンズ4を光軸方向に移動させた場合の干渉光の強度の分散値の変化を示す図である。図6の横軸は、光軸方向の座標(Zステージ7の位置)を示す。図6の縦軸は、干渉光の強度の分散値を示している。図6に示されるように、被測定部品15と二光束干渉対物レンズ4との距離を変化させた場合に、分散値に関して明確なピークP2が生じている。ピークP2に対応する位置FP2は、合焦位置にほぼ一致する。そのため、分散値を用いることにより注目画素の合焦位置を精度よく算出することができる。その結果、被測定部品15の形状を正確に測定することができる。
 図7は、撮像装置6によって取得される画像を構成する複数の画素を模式的に示す図である。撮像装置6によって取得される画像を構成する各画素は、位置(x,y)によって特定される。画素の座標値xは、0からMまでのいずれかの値をとる。画素の座標値yは、0からMまでのいずれかの値をとる。実施の形態において、画像上の位置が(x,y)である画素Cxyにおける分散値V(x,y)は、画素Cxyを中心とするA×Bの近接領域RABに含まれる画素の輝度G(i,j)を用いて、以下の式(1)で表される。
Figure JPOXMLDOC01-appb-M000001
 式(1)においては、Gaveは近接領域RABの輝度の平均値であり、以下の式(2)で表される。
Figure JPOXMLDOC01-appb-M000002
 輝度に関する分散値以外に、注目画素を含む近接領域を構成する複数の画素の各々の輝度と注目画素の輝度との差に相関関係があり、合焦位置でピークを示す評価値として、たとえば、画像のエッジ検出に用いられる輝度に関する一次微分値、あるいは二次微分値を挙げることができる。輝度に関する一次微分値としては、以下の式(3)で表されるグラディエントD1aを挙げることができる。
 D1a(x,y)=|G(x+1,y-1)-G(x-1,y-1)|+|G(x+1,y)-G(x-1,y)|+|G(x+1,y+1)-G(x-1,y+1)|+|G(x-1,y+1)-G(x-1,y-1)|+|G(x,y+1)-G(x,y-1)|+|G(x+1,y+1)-G(x+1,y-1)| …(3)
 グラディエントD1aは、注目画素に隣接する画素のうち、画素の位置を規定する座標軸のx軸方向に向き合う画素間の輝度の傾きの絶対値、およびy軸方向に向き合う画素間の輝度の傾きの絶対値の和である。なお、画素間の輝度の傾きとは、画素間の輝度の差である。
 図8は、注目画素Cxyに隣接する画素を示す図である。図8に示されるように、注目画素Cxyは、画素Cx-1,y,Cx,y+1,Cx+1,y+1,Cx+1,y,Cx+1,y-1,Cx,y-1,Cx-1,y-1,Cx-1,yに囲まれている。図8および式(3)を参照しながら、グラディエントD1は、x軸方向に向き合う画素Cx+1,y-1およびCx-1,y-1の間の輝度の傾きの絶対値(|G(x+1,y-1)-G(x-1,y-1)|)、画素Cx+1,yおよびCx-1,yの間の輝度の傾きの絶対値(|G(x+1,y)-G(x-1,y)|)、画素Cx+1,y+1およびCx-1,y+1の間の輝度の傾きの絶対値(|G(x+1,y+1)-G(x-1,y+1)|)、y軸方向に向き合う画素Cx-1,y+1およびCx-1,y-1の間の輝度の傾きの絶対値(|G(x-1,y+1)-G(x-1,y-1)|)、画素Cx,y+1およびCx,y-1の間の輝度の傾きの絶対値(|G(x,y+1)-G(x,y-1)|)、並びに画素Cx+1,y+1およびCx+1,y-1の間の輝度の傾きの絶対値(|G(x+1,y+1)-G(x+1,y-1)|)の和である。
 輝度に関する一次微分値としては、以下の式(4)で表されるグラディエントD1bを用いることもできる。
 D1b(x,y)=D1a(x,y)+|G(x+1,y+1)-G(x-1,y-1)|+|G(x+1,y-1)-G(x-1,y+1)| …(4)
 グラディエントD1bは、注目画素に隣接する画素のうち、画素の位置を規定する座標軸の対角線方向に向き合う画素間の輝度の傾きの絶対値を、グラディエントD1aに加えたものである。
 図8および式(4)を参照しながら、グラディエントD1bは、グラディエントD1a、対角線方向に向き合う画素Cx+1,y+1およびCx-1,y-1の間の輝度の傾きの絶対値(|G(x+1,y+1)-G(x-1,y-1)|)、並びに対角線方向に向き合う画素Cx+1,y-1およびCx-1,y+1の間の輝度の傾きの絶対値(|G(x+1,y-1)-G(x-1,y+1)|)の和である。
 輝度に関する二次微分値としては、以下の式(5)で表されるラプラシアンD2aを用いることができる。
 D2a(x,y)=|{G(x,y)-G(x-1,y)}-{G(x+1,y)-G(x,y)}|+|{G(x,y)-G(x,y-1)}-{G(x,y+1)-G(x,y)}|=|2G(x,y)-G(x-1,y)-G(x+1,y)|+|2G(x,y)-G(x,y-1)-G(x,y+1)| …(5)
 ラプラシアンD2aは、画素の位置を規定する座標軸のx軸方向に注目画素と隣接する画素と注目画素との間の輝度の傾きの差と、y軸方向に注目画素と隣接する画素間の輝度の傾きの差との和である。
 図8と式(5)を参照しながら、ラプラシアンD2aは、注目画素Cxyおよびx軸方向に注目画素Cxyに隣接する画素Cx-1,yの間の傾き(G(x,y)-G(x-1,y))と、注目画素Cxyおよびx軸方向に注目画素Cxyに隣接する画素Cx+1,yの間の傾き(G(x+1,y)-G(x,y))との差の絶対値、および注目画素Cxyおよびy軸方向に注目画素Cxyに隣接する画素Cx,y-1の間の傾き(G(x,y)-G(x,y-1))と、注目画素Cxyおよびx軸方向に注目画素Cxyに隣接する画素Cx,y+1の間の傾き(G(x,y+1)-G(x,y))との差の絶対値の和である。
 輝度に関する二次微分値としては、以下の式(6)で表されるラプラシアンD2bを用いることもできる。
 D2b(x,y)=D2a(x,y)+|{G(x,y)-G(x-1,y-1)}-{G(x+1,y+1)-G(x,y)}|+|{G(x,y)-G(x-1,y+1)}-{G(x+1,y-1)-G(x,y)}|=D2a(x,y)+|2G(x,y)-G(x-1,y-1)-G(x+1,y+1)|+|2G(x,y)-G(x-1,y+1)-G(x+1,y-1)| …(6)
 ラプラシアンD2bは、ラプラシアンD2aに画素の位置を規定する座標軸の対角線方向に注目画素に隣接する画素と注目画素との間の輝度の傾きの差を加えたものである。
 図8と式(6)を参照しながら、ラプラシアンD2bは、ラプラシアンD2a、注目画素Cxyおよび対角線方向に注目画素Cxyに隣接する画素Cx-1,y-1の間の傾き(G(x,y)-G(x-1,y-1))と、注目画素Cxyおよび対角線方向に注目画素Cxyに隣接する画素Cx+1,y+1の間の傾き(G(x+1,y+1)-G(x,y))との差の絶対値、および注目画素Cxyおよび対角線方向に注目画素Cxyに隣接する画素Cx-1,y+1の間の傾き(G(x,y)-G(x-1,y+1))と、注目画素Cxyおよび対角線方向に注目画素Cxyに隣接する画素Cx+1,y-1の間の傾き(G(x+1,y-1)-G(x,y))との差の絶対値の和である。
 [形状測定処理]
 図9は、制御装置11の演算処理部41によって行なわれる形状測定処理を示すフローチャートである。図9に示されるように、演算処理部41は、ステップS1(以下ではステップを単にSと表す。)において位置指令値配列および照明指令値配列を作成し、処理をS2に進める。
 演算処理部41は、S2において、光源2の輝度を照明指令値配列によって決定される輝度に設定して被測定部品15に白色光を照射するとともに、設定位置指令値配列の各値によって決定される位置にZステージ7を移動させて、各位置において干渉光の画像を取得するとともに、取得した各画像のそれぞれについて、当該画像を構成する各画素の評価値を算出し、処理をS3に進める。
 演算処理部41は、S3において、各画素の評価値が最大となるZステージ7の位置を当該画素の合焦位置として検出し、処理をS4に進める。
 演算処理部41は、各画素の合焦位置に基づいて被測定部品15の形状をモニタ14に表示し、処理を終了する。
 以下、S1~S3の各々について詳細に説明する。
 演算処理部41は、S1において、位置指令値配列および照明指令値配列を作成し、データ記憶部43にそれぞれ格納する。実施の形態では、照明指令値配列は一定値である。以下では位置指令値配列の作成方法について説明する。
 位置指令値配列のi番目の値であるEZ[i]は、EZ[i]に対応するZステージ7の座標値Z[i]、Zステージ7の最大高さZmax、Zステージ7の最小高さZmin、最大高さZmaxに対応する制御電圧EZmax、および最小高さZminに対応する制御電圧EZminを用いて以下の式(7)で表される。
 EZ[i]=Z[i](EZmax-EZmin)/(Zmax-Zmin) …(7)
 Zステージ7は、画像を取得する間、一定の速度W(μm/秒)で移動し、途中で停止しない。位置指令値配列が先頭から順に一定の時間間隔ΔT1(秒)で参照されるとすると、座標値Z[i]は、以下の式(8)と表される。
 Z[i]=i×ΔT1×W …(8)
 式(8)を式(7)に代入すると、位置指令値EZ[i]は以下の式(9)で表される。
 EZ[i]=(i×ΔT1×W)(EZmax-EZmin)/(Zmax-Zmin) …(9)
 実施の形態では、EZmax=10(V)、EZmin=0(V)、Zmax=100(μm)、Zmin=0(μm)である。i番目の位置指令値EZ[i]は以下の式(10)で表される。
 EZ[i]=(i×ΔT1×W)/10 …(10)
 なお、配列の要素の個数Nは、Zステージ7の移動距離をD(μm)とおくと、N=D/(ΔT1×W)である。
 図10は、位置指令値配列と、配列の順番を示す配列番号iとの関係を例示するグラフである。図10の横軸は配列番号iを示し、縦軸は位置指令値EZ[i]を示している。図10に示されるように、位置指令値EZ[i]は配列番号iに比例して増大する。
 再び図9を参照してS2の説明を行なう。制御装置11は、S2において、S1で作成した位置指令値配列および照明指令値配列に基づいてZステージ7の位置および光源2の明るさを制御しながら、干渉光の画像を取得する。
 演算処理部41からの開始トリガに応答して、位置制御値出力部44および照明制御値出力部45は、それぞれ制御電圧EZおよびELの出力を開始する。位置制御値出力部44は、位置指令値配列を先頭から順次参照し、一定の時間間隔ΔT1(秒)で制御電圧EZを変更する。位置指令値配列の最後の番号に達したら、位置制御値出力部44は制御電圧EZの出力を終了する。
 画像入力部42は、演算処理部41からの開始トリガに応答して、撮像装置6からの画像の取り込みを開始する。画像入力部42は、一定の周期ΔT2で撮像装置6から出力された画像を取り込む。画像入力部42は、取り込んだ画像をDMA(Direct Memory Access)転送方式を用いてデータ記憶部43へ画像を転送する。DMA転送は、周期ΔT2と比較して短い時間で完了する。
 以下の説明においては、(x,y)は、撮像装置6によって取得される画像上の画素の位置を表す。G[k](x,y)は、撮像装置6によって取得される複数の画像のうち、k番目に取得された画像の位置(x,y)の画素の輝度を表す。Gmax(x,y)は、位置(x,y)の画素の輝度の、撮影された複数の画像における最大値を表す。IDGmax(x,y)は、位置(x,y)の画素の輝度が最大となる画像の番号を表す。
 V[k](x,y)は、撮像装置6によって取得される複数の画像のうち、k番目に取得された画像の位置(x,y)の画素における分散値を表す。Vmax(x,y)は、位置(x,y)の画素における分散値の、撮像装置6によって取得された複数の画像における最大値を表す。IDVmax(x,y)は、位置(x,y)における分散値が最大となる画像の番号を表す。
 演算処理部41は、画像番号kを変化させながら、撮像装置6によってk番目に取得された画像を処理の対象とする。演算処理部41は、k番目に取得された画像について、xおよびyを変化させながら、当該画像を構成する各画素について、分散値V[k](x,y)を算出する。演算処理部41は、撮像装置6によって取得される画像上の各画素について、最大輝度Gmax(x,y)、最大分散値Vmax(x,y)、最大輝度番号IDGmax(x,y)、最大分散値番号IDVmax(x,y)を算出する。以下では、各値の導出過程について詳細に説明する。
 図11は、演算処理部41が各画像の分散値、最大輝度、最大分散値、最大輝度番号、および最大分散値番号を算出する処理を説明するためのフローチャートである。図11に示されるように、演算処理部41は、S20において初期化処理を行なう。演算処理部41は、初期化処理において、最大輝度Gmax(x,y)および最大分散値Vmax(x,y)を0に初期化する。演算処理部41は、最大輝度番号IDGmax(x,y)および最大分散値番号IDVmax(x,y)を-1に初期化する。この初期化処理は、たとえば、演算処理部41が開始トリガを出す直前に行なわれる。
 演算処理部41は、撮像装置6によってk番目に取得された画像について、xを0からMまで変化させるとともに、yを0からMまで変化させながら、S21~S28までの処理を行なう。
 演算処理部41は、S21において、位置(x,y)の画素について、輝度の差G[k](x,y)-G[k-1](x,y)を算出し、処理をS22に進める。演算処理部41は、S22において、輝度の差の下限値TG以上であるか否か(以下の式(11)を満たすか否か)を判定する。ここで、輝度の差を図5の干渉光の振幅とみなし、下限値TGと比較することにより振幅の小さい画像番号kの画像を検出対象から除外する。
 TG≦G[k](x,y)-G[k-1](x,y) …(11)
 式(11)が満たされる場合(S22においてYES)、演算処理部41は、S23に処理を進め、輝度G[k](x,y)と最大輝度Gmax(x,y)とを比較する。輝度G[k](x,y)が最大輝度Gmax(x,y)よりも大きい場合(S23においてYES)、演算処理部41は、S24に処理を進める。演算処理部41は、S24において、最大輝度Gmax(x,y)を輝度G[k](x,y)に更新するとともに最大輝度番号IDGmax(x,y)を画像番号kに更新し、処理をS25へ進める。
 式(11)が満たされない場合(S22においてNO)、あるいは輝度G[k](x,y)が最大輝度Gmax(x,y)以下である場合(S23においてNO)、演算処理部41は、処理をS25へ進める。
 演算処理部41は、S25において、位置(x,y)の画素について、式(1)を用いて分散値V[k](x,y)を算出し、処理をS26へ進める。演算処理部41は、S26において、分散値V[k](x,y)が下限値TV以上であるか否かを判定する。分散値V[k](x,y)が下限値TV以上である場合(S26においてYES)、演算処理部41は、処理をS27へ進め、分散値V(x,y)と最大分散値Vmax(x,y)とを比較する。分散値V[k](x,y)が最大分散値Vmax(x,y)より大きい場合(S27においてYES)、演算処理部41は、最大分散値Vmax(x,y)を分散値V[k](x,y)に更新するとともに、最大分散値番号IDVmax(x,y)を画像番号kに更新する。
 分散値V[k](x,y)が下限値TV未満である場合(S26においてNO)、あるいは分散値V[k](x,y)が最大分散値Vmax(x,y)以下である場合(S27においてNO)、演算処理部41は、処理をS29へ進める。
 演算処理部41は、S29において、番号kの画像に含まれる全画素について処理を完了したか否かを判定する。番号kの画像に含まれる全画素について処理を完了していない場合(S29においてNO)、演算処理部41は、画素の位置(x,y)を次の画素の位置に更新して処理をS21へ戻す。番号kの画像に含まれる全画素について処理を完了した場合(S29においてYES)、演算処理部41は、処理をS30へ進める。
 演算処理部41は、S30において撮像装置6によって取得された全画像について処理を完了したか否かを判定する。全画像について処理が完了していない場合(S30においてNO)、演算処理部41は、画像番号kを次の画像番号に更新して処理をS21へ戻す。全画像について処理が完了した場合(S30においてYES)、処理を終了する。
 S2が終了したとき、撮像装置6によって取得された画像番号が0からkmaxの複数の画像について、最大輝度Gmax(x,y)には位置(x,y)における画素の輝度の最大値が格納されている。最大輝度番号IDGmax(x,y)には、位置(x,y)における画素の輝度G[k](x,y)が最大となる画像番号kが格納されている。最大分散値Vmax(x,y)には位置(x,y)における輝度の分散値V[k](x,y)の最大値が格納されている。最大分散値番号IDVmax(x,y)には、位置(x,y)における輝度の分散値V[k](x,y)が最大となる画像番号kが格納されている。
 S3において、演算処理部41は、S2で求めた最大輝度番号IDGmax(x,y)および最大分散値番号IDVmax(x,y)に基づいて、各画素の合焦位置を検出する。
 図12は、合焦位置を検出する処理(図9のS3)をより具体的に示すフローチャートである。以下では、記載を単純にするために最大輝度番号IDGmax(x,y)を最大輝度番号Mxyと表す。
 図12に示されるように、演算処理部41は、S31において最大輝度番号Mxyが-1以外の値に更新されているか否かを判定する。最大輝度番号Mxyが-1以外の値に更新されている場合(S31においてYES)、演算処理部41は、S32に処理を進めて干渉光の輝度が最大となるZステージ7の位置に基づいて合焦位置を検出する。最大輝度番号Mxyが-1以外の値に更新されていない場合(S31においてNO)、演算処理部41は、S33に処理を進めて干渉光の輝度の分散値が最大となるZステージ7の位置に基づいて合焦位置を検出する。以下では、S32およびS33の詳細について説明する。
 S32は、最大輝度番号Mxyが-1以外の値に更新されている場合(S31においてYES)に行なわれる。最大輝度番号Mxyが-1以外の値であるということは、S2において、位置(x,y)の画素の輝度に関する式(11)が満たされる場合があったということである。このような場合、位置(x,y)の画素の輝度について明確なピークが得られているとして、干渉光の輝度に基づいて合焦位置を検出する。具体的には、(Mxy-L)番目から(Mxy+L)番目の各画像について、以下の式(12)で表される包絡線の値M[k](x,y)を画像番号kの画像上の各画素(x,y)について計算する。整数Lは、正の整数であり、たとえば5である。
Figure JPOXMLDOC01-appb-M000003
 図13は、Zステージ7の光軸方向の座標値Zと干渉光の強度との関係を示す曲線Cと、曲線Cの曲線Eを示す図である。画像番号kに対応するZステージ7の光軸方向の座標値Zと包絡線の値M[k](x,y)との関係は、図13の曲線Eとして表される。
 以下の式(13)により、式(12)によって算出された包絡線の値M[k](x,y)を用いて、各画素の合焦位置f(x,y)を算出する。
Figure JPOXMLDOC01-appb-M000004
 式(13)は、図13に示される曲線Eの重心を求めるための計算式である。包絡線の値M[k](x,y)が図13に示されるような曲線Eの頂点を中心とした左右対称のデータの場合、重心はその中心位置となるピークP3を示す。合焦位置f(x,y)は、図12のピークP3に対応する位置FP3となる。
 再び図12を参照して、S33は、最大輝度番号Mxyが初期値である-1のままである場合(S31においてNO)に行なわれる。最大輝度番号Mxyが初期値のままであるということは、S2において位置(x,y)の画素の輝度に関する式(11)が満たされる場合がなかったということである。このような場合、位置(x,y)の画素の輝度についてピークが得られていないとして、実施の形態においては、式(1)によって算出される分散値を用いて合焦位置を検出する。具体的には、(Mxy-L)番目から(Mxy+L)番目の各画像について、式(1)に基づいて画像上の位置(x,y)にある画素について分散値V[k](x,y)を用いて、以下の式(14)により各画素の合焦位置f(x,y)を算出する。
Figure JPOXMLDOC01-appb-M000005
 撮像装置6によって画像が取得される周期ΔT2と、Zステージ7の速度W(μm/秒)とを用いると、合焦位置f(x,y)における合焦位置配列F(x,y)は、以下の式(15)で表される。
 F(x,y)=ΔT2×W×f(x,y) …(15)
 制御装置11は、式(15)で表される合焦位置配列F(x,y)をモニタ14に3次元表示することにより、被測定部品15の立体形状を表示することができる。
 実施の形態によれば、合焦位置を求めるために必要な評価値として、合焦位置を算出する対象である注目画素の輝度に加えて、注目画素の輝度と注目画素に近接する複数の単位領域の輝度との差に相関関係のある評価値として、注目画素の輝度と注目画素に近接する近接領域に含まれる画素の輝度との分散値を用いることにより、画像に含まれる複数の画素の合焦位置を精度よく算出することができる。その結果、被測定部品15の形状を正確に測定することができる。
 図14は、本発明の実施の形態に従う形状測定装置を備える塗布装置100の模式的な斜視図である。図14に示されるように、塗布装置100は、形状測定装置1Aと、塗布機構50とを備える。形状測定装置1Aは、被塗布対象物である基板15Aの形状を測定する。塗布機構50は、基板15Aに、塗布機構50に設けられた塗布針を用いて、基板15Aの被塗布対象面(上面側)に塗布材料を塗布し、回路パターンを描画する。
 図15は、基板15Aの製造工程を示すフローチャートである。S51において塗布工程が行なわれる。塗布工程においては、基板15Aの被塗布面に回路パターンを描画する。S51に続いて、S52において形状測定工程が行なわれる。形状測定工程においては、形状測定装置1Aを用いて基板15Aの被塗布面の形状が測定される。S52に続いて、S53において検査工程が行なわれる。検査工程においては、S51において回路パターンが描画された被塗布面の形状を検査する。S53の終了により、基板15Aの製造工程が完了する。
 今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
 1,1A 形状測定装置、2 光源、3 光源制御器、4 二光束干渉対物レンズ、5 観察光学系、6 撮像装置、6A 撮像面、7 ステージ、8 ステージ制御器、9 支持部材、10 ベース板、11 制御装置、12 キーボード、13 マウス、14 モニタ、15 被測定部品、15A 基板、21 レンズ、22 参照鏡、23 ビームスプリッタ、31 集光レンズ、32 ハーフミラー、33 結像レンズ、34 フィルタ、41 演算処理部、42 画像入力部、43 データ記憶部、44 位置制御値出力部、45 照明制御値出力部、50 塗布機構、100 塗布装置、Cxy 画素、D1a,D1b グラディエント、D2a,D2b ラプラシアン、E 曲線、EL,EZ 制御電圧、L1,L2 光、RAB 近接領域。

Claims (6)

  1.  対象物に白色光を照射して、前記対象物からの反射光を用いて前記対象物の形状を測定する形状測定装置であって、
     前記白色光を出力する光源と、
     前記白色光を二光束に分離し、一方の光束を前記対象物に照射するとともに他方の光束を参照面に照射し、前記対象物からの反射光と前記参照面からの反射光とを干渉させて干渉光を出力するように構成される二光束干渉対物レンズと、
     前記二光束干渉対物レンズから出力される干渉光の画像を取得するように構成される撮像装置と、
     前記光源から出力された前記白色光を、前記二光束干渉対物レンズを介して前記対象物の表面に導き、前記表面からの反射光を前記二光束干渉対物レンズを介して前記撮像装置に導く観察光学系と、
     前記二光束干渉対物レンズを前記対象物に対して相対的に移動させるように構成される位置決め装置と、
     前記対象物と前記二光束干渉対物レンズとの距離を前記二光束干渉対物レンズの光軸方向に変化させながら複数の画像を取得し、前記複数の画像を用いて前記対象物の形状を測定するように構成される制御装置とを備え、
     前記制御装置は、
     前記複数の画像における各単位領域について、前記複数の画像にわたって輝度に基づく評価値が最大となる前記二光束干渉対物レンズの位置を当該単位領域の合焦位置として算出し、前記複数の画像における各単位領域の合焦位置に基づいて前記対象物の形状を測定し、
     前記評価値として、前記複数の画像における各単位領域の輝度、および当該単位領域の輝度と当該単位領域に近接する複数の単位領域の輝度との差に相関関係のある値を用いるように構成される、形状測定装置。
  2.  前記制御装置は、
     前記複数の画像における各単位領域の輝度の最大値が閾値より大きい場合、前記輝度を前記評価値として用い、
     前記最大値が前記閾値より小さい場合、前記差に相関関係のある値を前記評価値として用いる、請求項1に記載の形状測定装置。
  3.  前記評価値は、前記複数の画像における各単位領域の輝度と、当該単位領域に近接する複数の単位領域の輝度との分散値である、請求項2に記載の形状測定装置。
  4.  前記評価値は、前記複数の画像における各単位領域に隣接する単位領域間の輝度の傾きの絶対値の和である、請求項2に記載の形状測定装置。
  5.  前記評価値は、前記複数の画像における各単位領域と当該単位領域に隣接する複数の単位領域との間の輝度の傾きの差の絶対値の和である、請求項2に記載の形状測定装置。
  6.  請求項1に記載の形状測定装置を用いて被塗布対象物の形状を測定する工程を含む、被塗布対象物の製造方法。
PCT/JP2017/000463 2016-02-08 2017-01-10 形状測定装置および被塗布対象物の製造方法 WO2017138281A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/076,311 US10704898B2 (en) 2016-02-08 2017-01-10 Shape measuring apparatus and method for manufacturing target object to be coated
CN201780010383.2A CN108603751B (zh) 2016-02-08 2017-01-10 形状测量装置以及待涂覆目标物体的制造方法
EP17750006.3A EP3415864B1 (en) 2016-02-08 2017-01-10 Shape measuring apparatus and method of manufacturing target object to be coated

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016021831A JP6680552B2 (ja) 2016-02-08 2016-02-08 形状測定装置および被塗布対象物の製造方法
JP2016-021831 2016-02-08

Publications (1)

Publication Number Publication Date
WO2017138281A1 true WO2017138281A1 (ja) 2017-08-17

Family

ID=59564061

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/000463 WO2017138281A1 (ja) 2016-02-08 2017-01-10 形状測定装置および被塗布対象物の製造方法

Country Status (5)

Country Link
US (1) US10704898B2 (ja)
EP (1) EP3415864B1 (ja)
JP (1) JP6680552B2 (ja)
CN (1) CN108603751B (ja)
WO (1) WO2017138281A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019152570A (ja) * 2018-03-05 2019-09-12 東芝メモリ株式会社 測定装置
JP6867357B2 (ja) * 2018-11-09 2021-04-28 本田技研工業株式会社 塗工量の計測方法
DE102019114405A1 (de) * 2019-05-29 2020-04-16 Polytec Gmbh Interferometrische Messvorrichtung und interferometrisches Verfahren zur Bestimmung der Oberflächentopographie eines Messobjekts
CN110260783B (zh) * 2019-07-10 2020-11-10 中国工程物理研究院机械制造工艺研究所 一种干涉显微镜自动对焦装置及方法
CN115014210A (zh) * 2022-04-29 2022-09-06 深圳市中图仪器股份有限公司 用于提高测量精度的补偿光路结构

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013036848A (ja) * 2011-08-08 2013-02-21 Nikon Corp 高さ計測装置及び方法
JP2015007564A (ja) 2013-06-25 2015-01-15 Ntn株式会社 塗布装置および高さ検出方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0399209A (ja) * 1989-09-12 1991-04-24 Matsushita Electric Ind Co Ltd 実装基板検査装置
JP3260425B2 (ja) * 1992-07-01 2002-02-25 日本アビオニクス株式会社 パターンのエッジライン推定方式及びパターン検査装置
JPH1062140A (ja) * 1996-08-14 1998-03-06 Oki Electric Ind Co Ltd 形状の再構成方法および形状の再構成装置
US5784164A (en) * 1997-03-20 1998-07-21 Zygo Corporation Method and apparatus for automatically and simultaneously determining best focus and orientation of objects to be measured by broad-band interferometric means
JP2000046651A (ja) * 1998-07-28 2000-02-18 Sumitomo Electric Ind Ltd ワイヤーの外観検査装置
JP3610569B2 (ja) * 1999-03-23 2005-01-12 株式会社高岳製作所 能動共焦点撮像装置とそれを用いた三次元計測方法
GB2395777B (en) 2002-11-27 2005-12-28 Taylor Hobson Ltd A surface profiling apparatus
JP4845607B2 (ja) * 2006-06-21 2011-12-28 オリンパス株式会社 3次元形状測定方法及び装置
TWI336767B (en) * 2007-07-05 2011-02-01 Ind Tech Res Inst Method for calibration of image and apparatus for acquiring image
CN102884395B (zh) * 2010-05-07 2016-01-27 株式会社尼康 高度测量方法和高度测量装置
JP5965167B2 (ja) * 2012-03-16 2016-08-03 株式会社ミツトヨ 白色光干渉測定装置
US8970850B2 (en) * 2012-12-14 2015-03-03 University Of New Brunswick Method and apparatus for surface profilometry
JP6749814B2 (ja) * 2015-11-12 2020-09-02 Ntn株式会社 高さ検出装置およびそれを搭載した塗布装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013036848A (ja) * 2011-08-08 2013-02-21 Nikon Corp 高さ計測装置及び方法
JP2015007564A (ja) 2013-06-25 2015-01-15 Ntn株式会社 塗布装置および高さ検出方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3415864A4

Also Published As

Publication number Publication date
EP3415864A4 (en) 2019-09-25
US10704898B2 (en) 2020-07-07
CN108603751B (zh) 2020-09-01
JP6680552B2 (ja) 2020-04-15
EP3415864B1 (en) 2021-12-29
EP3415864A1 (en) 2018-12-19
JP2017142078A (ja) 2017-08-17
US20190049236A1 (en) 2019-02-14
CN108603751A (zh) 2018-09-28

Similar Documents

Publication Publication Date Title
WO2017138281A1 (ja) 形状測定装置および被塗布対象物の製造方法
JP6749814B2 (ja) 高さ検出装置およびそれを搭載した塗布装置
CN105301865B (zh) 自动聚焦系统
CN103649674B (zh) 测量设备以及信息处理设备
JP2014228486A (ja) 三次元プロファイル取得装置、パターン検査装置及び三次元プロファイル取得方法
JP2017096916A5 (ja)
CN106895793B (zh) 双模式深度测量的方法与装置
KR101652356B1 (ko) 광학적 웨이퍼 검사 장치
JP2005147715A (ja) 迂曲面の光波干渉測定方法および迂曲面測定用の干渉計装置
JP2023176026A (ja) 走査範囲決定方法
JP5540664B2 (ja) 光軸調整システム、光軸調整装置、光軸調整方法、及びプログラム
US11326871B2 (en) Height detection apparatus and coating apparatus equipped with the same
JP6665028B2 (ja) 形状測定装置およびそれを搭載した塗布装置
JP2007286284A (ja) 共焦点走査型顕微鏡システム、及びそれを使用した観察方法
WO2006111744A1 (en) Apparatus and method for monitoring the position of an object
JP2008304190A (ja) レーザ反射光による被計測物の高精度変位計測方法とその装置
WO2016204062A1 (ja) 形状測定装置およびそれを搭載した塗布装置
US20230304790A1 (en) Measurement method of surface shape and surface shape measurement device
KR20240034696A (ko) 렌즈를 통한 높이 측정
JP4496149B2 (ja) 寸法測定装置
Yan et al. Used digital speckle correlation method to realize orientation function of optical mouse
WO2003087711A1 (fr) Procede de mesure haute precision d'un objet au moyen d'un faisceau de reflexion laser et dispositif correspondant
JP2008233041A (ja) 硬さ試験機

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17750006

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017750006

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017750006

Country of ref document: EP

Effective date: 20180910