WO2021153056A1 - 三次元形状計測装置、三次元形状計測方法及びプログラム - Google Patents

三次元形状計測装置、三次元形状計測方法及びプログラム Download PDF

Info

Publication number
WO2021153056A1
WO2021153056A1 PCT/JP2020/046677 JP2020046677W WO2021153056A1 WO 2021153056 A1 WO2021153056 A1 WO 2021153056A1 JP 2020046677 W JP2020046677 W JP 2020046677W WO 2021153056 A1 WO2021153056 A1 WO 2021153056A1
Authority
WO
WIPO (PCT)
Prior art keywords
dimensional shape
measurement target
image
shape measuring
illumination light
Prior art date
Application number
PCT/JP2020/046677
Other languages
English (en)
French (fr)
Inventor
心平 藤井
貴茂 田中
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Priority to DE112020006630.4T priority Critical patent/DE112020006630T5/de
Priority to CN202080090516.3A priority patent/CN114867984A/zh
Publication of WO2021153056A1 publication Critical patent/WO2021153056A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • G01B11/2527Projection by scanning of the object with phase change by in-plane movement of the patern
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2531Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object using several gratings, projected with variable angle of incidence on the object, and one detection device

Definitions

  • the composite image is synthesized by comparing the values of predetermined feature amounts of pixels indicating the same location of the measurement target in each image that is the source of synthesis, and selecting the pixels from the image having the largest value. It may be the one that has been done.
  • illumination light having a different wavelength is irradiated to the measurement target from a plurality of different angles between the vertical direction and the horizontal direction, and in the measurement step, at least one acquired in the photographing step is applied.
  • the degree of inclination of the predetermined portion may be measured from the mode of reflection of the reflected light of the illumination light having different wavelengths in the image.
  • the lighting device 91 is configured to be capable of irradiating a measurement target with light of a plurality of different wavelengths, and in this application example, includes three different light sources of a red light source 911R, a green light source 911G, and a blue light source 911B. ..
  • the red light source 911R, the green light source 911G, and the blue light source 911B are arranged at different heights (in the Z-axis direction in the drawing), so that the incident angles of light with respect to the measurement target O are different from each other.
  • the light from each light source emitted from the lighting device 91 is collectively referred to as RGB illumination light.
  • the lighting device 91 is configured to irradiate the measurement target O with RGB illumination light from different positions around the Z axis in the drawing.
  • the configuration of the lighting device 91 and the camera 92 can be freely arranged as long as the camera 92 can capture a plurality of images in which the reflection mode of the RGB illumination light at the inclined portion OP in the measurement target O is different.
  • the camera 92 is arranged directly above the measurement target O, the lighting device 91 is arranged in an annular shape around the Z axis in the figure centered on the measurement target O, and then divided into a plurality of regions, and each light source is divided into a plurality of regions.
  • the ON / OFF of the light emission may be adjustable.
  • the camera 92 captures an image of the measurement target O in a state of being irradiated with RGB illumination light from the lighting device 91.
  • the three-dimensional shape of the measurement target O is measured by the information processing apparatus 93 processing the captured images by a method such as a color highlighting method.
  • the feature amount extraction unit 932 extracts the feature amount (for example, the brightness value) possessed by each pixel of the observed image from each acquired observation image.
  • the feature amount data extracted from the observation image a will be described as the feature amount data a
  • the feature amount data extracted from the observation image b will be described as the feature amount data b.
  • the three-dimensional shape measurement unit 935 measures the three-dimensional shape of the measurement target O based on the composite data created by the composite data creation unit 934.
  • FIG. 3 is a schematic view showing the hardware configuration of the substrate inspection device.
  • This substrate inspection device 1 is used for substrate appearance inspection (for example, inspection of solder joint state after reflow) in a surface mounting line.
  • the illumination device 111 (111R, 111G, 111B) is an illumination means for irradiating the substrate K with illumination light of a different color (wavelength).
  • FIG. 3 schematically shows an XZ cross section of the illuminating device 111.
  • the illuminating device 111 is annular so that light of the same color can be illuminated from all directions (all directions around the Z axis). Or it has a dome shape.
  • the projector 112 is a pattern projection means that projects pattern light having a predetermined pattern onto the substrate K.
  • the projector 112 projects pattern light through an opening provided in the middle of the lighting device 111.
  • the number of projectors 112 may be one, but a plurality of projectors 112 may be provided.
  • the control device 12 is a control means for controlling the operation of the substrate inspection device 1, such as movement control of the stage 10, lighting and dimming control of the lighting device 111, lighting control and pattern change of the projector 112, and imaging control of the camera 110. Is responsible for.
  • the information processing device 13 is a device having a function of acquiring various measured values related to the component KB and the solder KH and inspecting the state of the solder joint of the component KB by using the image data captured from the camera 110.
  • the display device 14 is a device that displays the measured values and inspection results obtained by the information processing device 13.
  • the information processing device 13 can be composed of, for example, a general-purpose computer having a CPU, RAM, a non-volatile storage device, and an input device.
  • the control device 12, the information processing device 13, and the display device 14 are shown in separate blocks in FIG. 3, they may be configured by separate devices or may be configured by a single device. good.
  • FIG. 4 is a block diagram showing a configuration of a functional module related to inspection processing provided by the information processing apparatus 13. These functional modules are realized by the CPU of the information processing device 13 reading and executing a program stored in the auxiliary storage device. However, all or part of the functions may be configured by a circuit such as an ASIC or FPGA.
  • the image acquisition unit 131 is a function module that acquires image data from the camera 110.
  • the solder shape measuring unit 132 is a functional module that restores the three-dimensional shape of a mirrored object part such as solder from two-dimensional image data
  • the part shape measuring unit 133 is a diffused object part such as a part from two-dimensional image data. It is a functional module that restores the three-dimensional shape of.
  • FIG. 5 is a schematic plan view schematically showing the arrangement relationship of the light sources 111R, 111G, and 111B of the lighting device 111.
  • the lighting device 111 has a structure in which three annular light sources, a red light source 111R, a green light source 111G, and a blue light source 111B, are arranged concentrically around the optical axis of the camera 110.
  • the elevation angles and orientations of the light sources 111R, 111G, and 111B are adjusted so that the incident angles with respect to the substrate K increase in the order of red light, green light, and blue light.
  • Such a lighting device 111 can be formed, for example, by arranging LEDs of each color R, G, and B in an annular shape on the outside of a dome-shaped diffuser plate.
  • the illuminating device 111 is divided into four equal parts, which are divided into four regions: a first illuminating region 111a, a second illuminating region 111b, a third illuminating region 111c, and a fourth illuminating region 111d.
  • the intensity of light emission (including ON / OFF, the same applies hereinafter) of the red light source 111R, the green light source 111G, and the blue light source 111B can be adjusted for each region. Since the illumination device 111 is divided into four regions in this way, it is possible to irradiate the substrate K with illumination light from eight directions by combining the regions to emit light. Specifically, of the four regions, there are four directions in which only one region is lit and four directions in which two adjacent regions are lit. The number of combinations of lighting areas is 13 including the case of all lighting.
  • a color feature corresponding to the normal direction (tilt angle) appears in the portion of the solder KH which is a mirror object.
  • tilt angle For example, when the inclination of the solder KH becomes gentler as the distance from the component electrodes increases, a change in hue of B ⁇ G ⁇ R appears in the region of the solder KH.
  • the shape, width, appearance order, etc. of the regions of each of R, G, and B change depending on the surface shape of the solder KH.
  • FIG. 6B is an image of the soldered portion when the lighting is turned on in the entire area of the lighting device 111 and photographed.
  • FIG. 6B shows regions of each color of R, G, and B. From the image shown in FIG. 6B, it can be inferred that there is a slope (a slope defined by) at the joint between the solder and the electrode, but which direction this slope is facing (that is, whether it is wet). It is not possible to determine whether it is in a non-wet state). Since diffuse reflection is dominant on the surface of the component KB body and the electrode, the color of the object itself as when illuminated with white light appears instead of the light source color such as R, G, and B.
  • the lighting device 111 of the present embodiment can turn on / off the light source for each of the four divided regions, the region of the lighting device 111 on the solder KH end side (second) of FIG.
  • an image as shown in FIG. 6C (hereinafter referred to as a first color highlight image) can be obtained.
  • Second color highlight image an image as shown in FIG. 6D (hereinafter, Second color highlight image) can be acquired.
  • the information processing device 13 extracts the brightness value of each pixel from the data of the first color highlight image and the second color highlight image, and synthesizes the pixel having the larger brightness value to synthesize the composite data. To create. Since the properties of the composite data and the process of creating the composite data are the same as those described in the application example, detailed description thereof will be omitted. In short, by using the composite data, it is possible to determine the direction of the slope of the joint between the solder KH and the electrode.
  • FIG. 6E shows an example of a composite image (hereinafter referred to as a color highlight composite image) created based on the composite data created in this way.
  • a color highlight composite image the parts where the pixels in the R, G, and B regions of the first color highlight image are adopted are displayed as they are in red (R), green (G), and blue (B), and the second
  • the portion of the color highlight image in which the pixels in the R, G, and B regions are adopted is represented by magenta (M), yellow (Y), and cyan (C).
  • M magenta
  • Y yellow
  • C cyan
  • the color selection in the composite image is completely arbitrary and is not limited to these six colors, but the degree of inclination is the same by using similar colors even though they have different color systems. Then, it is possible to intuitively grasp that the original image is different (that is, the direction of inclination is different).
  • the phase shift method is used to measure the three-dimensional shape of the component KB, which is a diffusion object.
  • the phase shift method is one of the methods for restoring the three-dimensional shape of the object surface by analyzing the distortion of the pattern when the pattern light is projected onto the object surface.
  • the projector 112 is used to project a predetermined pattern (for example, a striped pattern in which the brightness changes in a sinusoidal shape) onto a substrate, and the camera 110 takes a picture. Then, the distortion of the pattern corresponding to the unevenness appears on the surface of the substrate K (note that the pattern can hardly be observed because the specular reflection is dominant in the solder KH portion).
  • a plurality of images having different brightness characteristics (hereinafter, referred to as a pattern analysis image) can be obtained. Since the brightness of the same pixel in each image should change in the same cycle as the change in the striped pattern, the phase of each pixel can be known by applying a sine wave to the change in the brightness of each pixel. Then, by obtaining the phase difference with respect to the phase of a predetermined reference position (table surface, substrate surface, etc.), the distance (that is, height) from the reference position can be calculated.
  • a predetermined reference position table surface, substrate surface, etc.
  • FIG. 7 is a flowchart showing the flow of the inspection process.
  • the control device 12 controls the stage 10 according to the inspection program, and moves the component KB and the solder KH to be inspected to the measurement position (the field of view of the camera 110) (step S101). Then, the control device 12 lights a part of the area of the lighting device 111 (step S102), and takes a picture with the camera 110 while irradiating the red light, the green light, and the blue light (step S103). The obtained image data (first color highlight image) is taken into the information processing device 13 by the image acquisition unit 131.
  • the control device 12 projects the pattern light from the projector 112 (step S106), and the camera 110 takes an image (step S107).
  • the processes of steps S106 and S107 are executed a plurality of times while changing the phase of the pattern light.
  • the obtained plurality of image data are taken into the information processing device 13 by the image acquisition unit 131.
  • the shooting with the lighting device 111 is executed first, but the shooting with the projector 112 may be executed first. Further, when another inspection target exists outside the field of view of the camera 110, the processes of steps S101 to S107 may be repeatedly executed.
  • the solder shape measuring unit 132 extracts the brightness value of each pixel from the images obtained in steps S103 and S105 to create the above-mentioned composite data, and based on the composite data, the solder KH (and the electrode of the component KB) ) Is restored (step S108).
  • the restored three-dimensional shape data is stored, for example, in the form of image data (called a height map) in which the height (Z position) of each pixel in the solder KH region is expressed by a pixel value.
  • the component shape measuring unit 133 restores the three-dimensional shape of the component KB from the pattern image obtained in step S107 by the phase shift method (step S109).
  • the three-dimensional shape data of the part KB is also saved in the height map format. By synthesizing these height maps, it is possible to obtain an overall height map representing the height information of both the solder KH, which is a mirror object, and the component KB, which is a diffusion object.
  • the inspection unit 134 inspects the substrate K based on the overall height map and the threshold value of the inspection program (step S110).
  • the display device 14 displays the result of the inspection and the color highlight composite image visually representing the composite data created in step S108 (step S111), and ends the series of processes.
  • FIG. 8 is an explanatory diagram showing a schematic configuration of a measurement unit 21 according to a modified example of the present embodiment.
  • the measurement unit 21 according to this modification includes a lighting device 211 and a moving mechanism 25 which is a means for moving the projector 212.
  • the same reference numerals are used for the same configurations as in the first embodiment, and detailed description thereof will be omitted.
  • the moving mechanism 25 in this modification is a hollow cylindrical rotating mechanism 251 driven by a motor (not shown) controlled by the control device 12, and a reference plate assembled to the rotating mechanism 251 to support the lighting device 211. 252 and.
  • the rotation mechanism 251 includes a housing 251a and a rotating body 251b, and the upper portion of the housing 251a is fixed to the device frame 26.
  • FIG. 8 is a partial cross-sectional view to make it easier to grasp the internal structure of the moving mechanism 25, but the actual camera 110 is arranged in the hollow of the rotating mechanism 251 and cannot be visually recognized from the side surface.
  • the rotation mechanism 251 is configured such that the rotating body 251b rotates within a range of 360 degrees about a rotation axis extending in the Z-axis direction by transmitting the rotation of the motor by, for example, a gear.
  • the reference plate 252 assembled to the rotating mechanism 251 also rotates, whereby the lighting device 211 and the projector 212 locked to the reference plate 252 rotate the rotating shaft of the cylindrical rotating mechanism 251. It will rotate around the circumference. That is, when the substrate K is arranged coaxially with the rotation axis of the rotation mechanism 251, the lighting device 211 and the projector 212 rotate around the substrate K on a plane defined by the XY axes. Since other hardware configurations, processes, and the like of this modification are the same as those of the first embodiment, illustration and description thereof will be omitted.
  • the illumination device 211 and the projector 212 can be arranged at arbitrary positions on the circumference centered on the substrate K to irradiate the illumination light and project the pattern, so that a plurality of color highlights can be obtained. Images and pattern projection images can be acquired. Further, regardless of the orientation of the components and the solder of the substrate K, the illumination light and the pattern can be irradiated from the optimum direction for the measurement of the three-dimensional shape.
  • FIG. 9 is a schematic configuration diagram of the substrate inspection device 3 according to the present embodiment.
  • the substrate inspection device 3 roughly includes an inspection unit 31, a control device 32, an information processing device 33, and a display device 34.
  • the substrate inspection device 3 is different from the substrate inspection device 1 of the first embodiment in that the number of cameras, the arrangement position, and the absence of a projector. That is, since the configurations of the other control device 32, the information processing device 33, and the display device 34 are substantially the same as those of the substrate inspection device 1 of the first embodiment, detailed description thereof will be omitted.
  • the inspection unit 31 includes a stage 30, cameras 310a and 310b, a lighting device 311 and a moving mechanism 35, and a device frame 36.
  • the moving mechanism 35 has a configuration including a rotating mechanism 351 (housing 351a, rotating body 351b) and a reference plate 352, but since it has the same configuration as the moving mechanism of the modified example of the first embodiment described above, a detailed description thereof will be given. Is omitted. The same applies to the stage 30 and the device frame 36.
  • the cameras 310a and 310b are arranged on the reference plate 352 of the moving mechanism 35 at diagonal positions of the reference plate 352 so as to photograph the substrate K, respectively.
  • the illuminating device 311 is an illuminating means for irradiating the substrate K with illumination light having different wavelengths, and actually illuminates the substrate K so that the light having the same wavelength can be illuminated from all directions (all directions around the Z axis).
  • the device 111 has an annular or dome shape.
  • the lighting device 311 according to the present embodiment does not have a divided region, and the RGB illumination light is irradiated collectively as a whole.
  • a plurality of images having different reflection modes of the RGB illumination light are acquired.
  • a plurality of images having different modes of reflection of RGB illumination light are acquired by acquiring a plurality of images having different shooting directions.
  • FIG. 10 is a flowchart showing the flow of the inspection process.
  • the control device 32 controls the stage 30 according to the inspection program, and moves the parts to be inspected and the solder to the measurement position (step S201). Then, in a state where the control device 32 lights the lighting device 311 (step S202) and irradiates the red light, the green light, and the blue light, the moving mechanism 35 is controlled to position the two cameras 310a and 310b at appropriate positions. Move (step S203). Then, shooting is performed simultaneously with the two cameras (step S204). The obtained plurality of image data (color highlight images) are taken into the information processing device 33.
  • the information processing device 33 extracts the feature amount from the plurality of color highlight images, creates composite data (step S205), and executes the inspection based on the composite data (step S206). Then, as a result of the inspection, a composite image or the like created from the composite data is displayed on the display device (step S207), and a series of processes is completed. Since the process of creating composite data from a plurality of color highlight images is the same as that of the first embodiment, the description thereof will be omitted.
  • the time required for the inspection can be shortened because the color highlight image for creating the composite data can be taken at one time.
  • the substrate inspection device 3 is not provided with a projector, it may be provided with a projector to acquire a pattern projection image.
  • each of the above embodiments is merely an example of the present invention, and the present invention is not limited to the above specific embodiment.
  • the present invention can be modified in various ways within the scope of its technical idea.
  • the device measures the degree of inclination of the measurement target by the color highlight method, but in order to measure the direction of inclination, it is necessary to irradiate a plurality of illumination lights having different wavelengths. There is no. Therefore, for example, an image in which light of a desired wavelength is irradiated from only one of the directions facing each other with the measurement target as the center is acquired, and an image in which the same illumination light is irradiated from only the other is acquired, and these feature quantities are obtained. By comparing, the direction of inclination in the measurement target can be measured.
  • a projector may irradiate a measurement target with light that does not include a pattern, and the direction of inclination of the measurement target may be measured based on a plurality of images irradiated with the light. That is, the light that does not include the pattern emitted from the projector to the measurement target can be regarded as the "illumination light" of the present invention.
  • the projector can be configured to serve as both a pattern light projection means for measurement by the phase shift method and an illumination means for measuring the tilt direction of the measurement target.
  • the three-dimensional shape of the mirrored object is measured based on the color highlight image, and the three-dimensional shape of the diffused object is measured based on the pattern projection image. It is not necessary to do so, and two profile data for measuring the shape of the entire measurement target may be created based on each image, and then these data may be combined.
  • the device configuration may not include a projector.
  • the device configuration can be simplified and the inspection time can be shortened.
  • a device configuration may be configured in which a lighting means is further provided separately from the projector and the light source for color highlighting.
  • the wavelength used for the light source used in the lighting device is not limited to R, G, and B, and light of any wavelength can be adopted.
  • the image displayed on the display device also has red (R), green (G), blue (B), magenta (M), yellow (Y), and cyan (C) according to the illumination light. ), but it is not limited to this.
  • the present invention can be applied to a measuring device that does not use the color highlighting method, but in that case, since the above color coding is meaningless, display classification by different colors and / or patterns is performed. You may.
  • One aspect of the present invention is from an illumination means (91) that irradiates an illumination light on a measurement target (O), a photographing means (92) that photographs the measurement object, and an image taken by the photographing means.
  • the photographing means is the photographing means.
  • a plurality of images having different angles around the vertical axis with respect to the measurement target in the photographing direction or the irradiation direction of the illumination light and include either the intensity or the wavelength of the reflected light at a predetermined portion of the measurement target.
  • the plurality of images having different modes of reflection are acquired, and the measuring means measures the three-dimensional shape of the predetermined portion based on the plurality of images acquired by the photographing means.
  • a three-dimensional shape measuring device is
  • another aspect of the present invention is an irradiation step (S901, S903) in which the measurement target is irradiated with illumination light, and a vertical axis of the illumination light irradiation direction or imaging direction with respect to the measurement target.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

照明手段と、撮影手段と、計測手段を有する三次元形状計測装置において、前記撮影手段は、前記撮影手段の撮影方向又は前記照明光の照射方向の、前記計測対象に対する鉛直軸回りの角度が異なる複数の画像であって、前記計測対象の所定の部位における前記照明光の反射光の強度又は波長のいずれかを含む反射の態様が異なる、前記複数の画像を取得し、前記計測手段は、前記撮影手段が取得した前記複数の画像に基づいて、前記所定の部位の三次元形状を計測する。

Description

三次元形状計測装置、三次元形状計測方法及びプログラム
 本発明は、三次元形状の測定装置、三次元形状計測方法及びプログラムに関する。
 従来から、プリント基板に実装された部品のはんだ接合状態を検査する技術分野等において、いわゆるカラーハイライト方式による三次元形状の計測方法が知られている。カラーハイライト方式とは、複数の色(波長)の光を互いに異なる入射角で基板に照射し、はんだ表面にその法線方向に応じた色特徴(カメラから見て正反射方向にある光源の色)が現れるようにした状態で撮像を行うことにより、はんだ表面の三次元形状を二次元の色相情報として捉える方法である。
 例えば、特許文献1には、上記カラーハイライト方式による鏡面物体の三次元形状計測と、いわゆる位相シフト法による拡散物体の三次元形状計測を組み合わせた基板検査装置が開示されている。なお、位相シフト法とは、パターン光を物体表面に投影したときのパターンの歪みを解析することにより物体表面の三次元形状を復元する手法の一つである。
特開2016-11857号公報
 ところで上記のカラーハイライト方式による三次元形状の計測においては、計測対象の表面の傾斜がどの程度であるかについては、二次元の色相情報としてある程度の精度で計測可能であるが、当該傾斜の「方向」については、二次元では判別できないという問題がある。即ち、プリント基板の検査でいうと、はんだ表面の傾斜が、電極に対して積み上がっている(いわゆるぬれ上がっている)のか、或いは、電極に対して低くなっている(いわゆる不濡れの状態)のかが、二次元の色相情報からは精度良く判定することが困難となる。
 本発明は、上記のような実情に鑑みてなされたものであり、三次元形状計測において、計測対象に含まれる傾斜の方向を精度良く判別する技術を提供することを目的とする。
 前記の目的を達成するために、本発明は以下の構成を採用する。
 本発明に係る三次元形状計測装置は、計測対象に対して照明光を照射する照明手段と、前記計測対象を撮影する撮影手段と、前記撮影手段によって撮影された画像から得られる前記照明光の反射光の波長の相違に基づいて、前記計測対象の三次元形状を計測する計測手段と、を有する三次元形状計測装置において、前記撮影手段は、前記撮影手段の撮影方向又は前記照明光の照射方向の、前記計測対象に対する鉛直軸回りの角度が異なる複数の画像であって、前記計測対象の所定の部位における前記反射光の強度又は波長のいずれかを含む反射の態様が異なる、前記複数の画像を取得し、前記計測手段は、前記撮影手段が取得した前記複数の画像に基づいて、前記所定の部位の三次元形状を計測する、ことを特徴とする。
 なお、ここでいう「計測」には、計算により測定することも含む(以下同じ)。また、ここでいう「照明手段」は、その手段の本来の用途に関わらず、計測対象を照明する光を照射可能な光源を広く含む。このような構成により、単一の画像から前記計測対象の三次元形状を計測することに比べて、精度良く計測対象の三次元形状を計測することができる。
 また、前記所定の部位とは、前記計測対象において傾斜を含む部位であって、前記計測手段は、前記反射光の前記反射の態様がそれぞれ異なる複数の画像を構成する各画素における所定の特徴量の各画像間の相違に基づいて、前記所定の部位の傾斜の方向を計測するものであってもよい。
 なお、ここでいう「傾斜」は、水平面に対して直線で定義される傾きだけでなく、曲線によって定義される広義の意味合いの傾きを含む意味である。また、当該傾斜を含んでなる斜面も、平面だけでなく曲面を含む広義の意味合いの斜面を含む意味に解する。以下、本明細書中においては同様の意味に解する。
 このような構成であると、計測対象に含まれる傾斜の方向を計測することが可能になるため、当該傾斜部分の三次元形状を精度良く計測することができる。なお、所定の特徴量としては、各画素の輝度などを例示することができる。
 また、前記撮影手段は、前記計測対象を中心とする一の円周上の複数の異なる位置から、前記計測対象を撮影することによって、前記撮影方向の前記計測対象に対する鉛直軸回りの角度が異なる複数の画像を取得するものであってもよい。このような構成であると、前記照明手段が前記計測対象の周囲を囲んで、前記計測対象全体に照明光が照射されている状態で、前記計測対象の所定の部位における前記反射光の反射の態様が異なる複数の画像を取得することができる。
 また、前記円周上に複数の撮影手段を設け、前記照明光が照射されている計測対象を複数の方向から同時に撮影するようにすると、前記複数の画像を取得するための時間を短縮することができる。
 また、前記照明手段が、前記計測対象を中心とする一の円周上の複数の異なる位置から、前記計測対象に対して前記照明光を照射することによって、前記撮影手段は、前記照明光の照射方向の前記計測対象に対する鉛直軸回りの角度が異なる複数の画像を取得するものであってもよい。このような構成によると、撮影手段を前記計測対象の直上に一つ設けるだけでも前記計測対象の所定の部位における前記反射光の反射の態様が異なる複数の画像を取得することができる。このため、撮影手段に係る構成を簡略化することができる。
 また、前記照明手段が、前記計測対象を中心とする円周方向に移動可能に配置されて、前記計測対象を中心とする一の円周上の複数の異なる位置から前記計測対象に対して照明光を照射することによって、前記撮影手段は、前記照明光の照射方向の前記計測対象に対する鉛直軸回りの角度が異なる複数の画像を取得するものであってもよい。
 このような構成によると、円周上の所望の位置から前記計測対象に前記照明光を照射させることができ、計測対象の所定の部位の向き及び形状に関わらず、三次元形状の計測のために最適な方向から照明光を照射することができる。
 また、前記照明手段は、前記計測対象を中心として円環状に配置され、前記円環を複数に分割して形成される複数の範囲毎に前記照明光の発光強度を調整可能に構成されており、前記撮影手段は、前記複数の範囲のうち少なくとも一の範囲から前記計測対象に対して前記照明光が照射された際の画像と、その他の範囲から前記計測対象に対して前記照明光が照射された際の画像とを取得することにより、前記照明光の照射方向の前記計測対象に対する鉛直軸回りの角度が異なる複数の画像を取得するものであってもよい。
 なお、ここでいう「発光強度」には強度が0であること、即ち発光していないことも含まれ、発光強度の調整には発光のON/OFFも含まれる。このような構成であると、前記計測対象の周囲を覆うように前記照明手段を配置して領域を区切ればよいため、照明手段を移動可能に配置するよりも装置構成を簡略化することができる。
 また、前記三次元形状装置は、前記計測対象に対して、所定のパターン光を投影する投影手段をさらに有しており、前記撮影手段は、前記パターン光が投影された前記計測対象のパターン投影画像をさらに取得し、前記計測手段は、前記計測対象の所定の部位における前記反射光の前記反射の態様が異なる複数の画像及び前記パターン投影画像に基づいて、前記所定の部位の三次元形状を計測するものであってもよい。
 このような構成であると、前記所定の部位に鏡面構造ではない構造が存在する場合であっても、位相シフト法により当該構造の三次元形状を計測することができる。また、前記複数の画像に基づく三次元形状の計測と組み合わせることにより、計測の精度を向上させることができる。
 また、前記照明手段は、鉛直方向から水平方向の間における複数の異なる角度から、それぞれ異なる波長の照明光を前記計測対象に対して照射し、前記計測手段は、前記撮影手段が取得した少なくとも一の画像における、前記異なる波長の照明光のそれぞれの反射光の前記反射の態様から、前記所定の部位の傾斜の程度を計測する、ものであってもよい。このような構成であると、いわゆるカラーハイライト方式によって前記所定の部位における傾斜の程度を計測することが可能になるため、傾斜の程度(有無を含む)と傾斜の方向の計測により、精度の高い三次元計測を行ことができる。
 また、前記三次元形状計測装置は、前記撮影手段が取得した前記複数の画像から作成される合成画像を表示する画像表示手段をさらに有しており、前記合成画像は少なくとも前記所定の部位における前記傾斜の方向の違いを、異なる色及び/又は模様により表示分けする画像処理が施された画像であってもよい。また、前記合成画像は、前記所定の部位における前記傾斜の程度及び方向の違いを、異なる色及び/又は模様により表示分けする画像処理が施された画像であってもよい。
 従来から、例えばカラーハイライト方式を用いた三次元形状計測装置において、その照明光の反射の態様を画像として表示させる技術が知られており、これによってユーザーは計測対象の傾斜の程度の違いを、視覚的に認識することが可能となっている。しかしながら、当該技術によっても、計測対象の傾斜の方向は識別できないものであったため、例えば当該画像に基づいて計測装置のティーチング、検査基準の設定などを行う際には、安全よりの(即ち、厳しい)パラメータ設定が行われていた。
 一方、上記したような画像表示手段を有する三次元形状計測装置の構成によると、ユーザーは画像を参照することによって、前記計測対象における傾斜の方向を視覚的に識別することが可能になる。即ち、傾斜を有する箇所について、より多くの要素で識別することが可能になり、当該識別された要素ごとにパラメータを設定することが可能になる。これにより、三次元形状計測装置の設定(例えば検査基準)をより高い精度で調整することも可能になる。
 また、前記合成画像は、合成の元となる各画像における前記計測対象の同一の箇所を示す画素の所定の特徴量の値を比較し、当該値が最も大きい画像から前記画素を選別して合成されたものであってもよい。
 また、本発明に係る三次元形状の計測方法は、計測対象に対して照明光を照射する、照射ステップと、前記照明光の照射方向又は撮影方向の、前記計測対象に対する鉛直軸回りの角度が異なる複数の画像であって、前記計測対象の所定の部位における前記照明光の反射光の強度又は波長のいずれかを含む反射の態様が異なる前記複数の画像を取得する撮影ステップと、前記撮影ステップにおいて取得した前記複数の画像に基づいて、前記所定の部位の三次元形状を計測する計測ステップと、を有する。
 また、前記所定の部位とは、前記計測対象において傾斜を含む部位であって、前記計測ステップでは、前記反射光の前記反射の態様がそれぞれ異なる複数の画像を構成する各画素における所定の特徴量の差に基づいて、前記所定の部位の傾斜の方向を計測するものであってもよい。
 また、前記照射ステップにおいて、前記計測対象を中心とする一の円周上の複数の異なる位置から、前記計測対象に対して前記照明光を照射することによって、前記撮影ステップにおいて、前記反射光の照射方向の前記計測対象に対する鉛直軸回りの角度が異なる複数の画像を取得するようにしてもよい。
 また、前記撮影ステップにおいて、前記計測対象を中心とする一の円周上の複数の異なる位置から前記計測対象を撮影することによって、前記撮影方向の前記計測対象に対する鉛直軸回りの角度が異なる複数の画像を取得するようにしてもよい。
 また、前記計測方法は前記計測対象に対して、所定のパターン光を投影する投影ステップ、をさらに有しており、前記撮影ステップでは、前記パターン光が投影された前記計測対象のパターン投影画像をさらに取得し、前記計測ステップでは、前記計測対象の所定の部位における前記反射光の前記反射の態様が異なる複数の画像及び前記パターン投影画像に基づいて、前記所定の部位の三次元形状を計測するようにしてもよい。
 また、前記照明ステップでは、鉛直方向から水平方向の間における複数の異なる角度から、それぞれ異なる波長の照明光を前記計測対象に対して照射し、前記計測ステップでは、前記撮影ステップにおいて取得した少なくとも一の画像における、前記異なる波長の照明光のそれぞれの反射光の前記反射の態様から、前記所定の部位の傾斜の程度を計測する、ものであってもよい。
 前記撮影ステップにおいて取得した前記複数の画像を合成して作成される合成画像を表示する、合成画像表示ステップ、をさらに有しており、前記合成画像は、少なくとも前記所定の部位における前記傾斜の方向の違いを、異なる色及び/又は模様により表示分けする画像処理が施された画像であってもよい。また、前記合成画像は、前記所定の部位における前記傾斜の程度及び方向の違いを、異なる色及び/又は模様により表示分けする画像処理が施された画像であってもよい。また、前記合成画像は、合成の元となる各画像における前記計測対象の同一の箇所を示す画素の所定の特徴量の値を比較し、当該値が最も大きい画像から前記画素を選別して合成されたものであってもよい。
 また、本発明は、上記の方法を三次元形状計測装置に実行させるためのプログラム、そのようなプログラムを非一時的に記録したコンピュータ読取可能な記録媒体として捉えることもできる。
 また、上記構成及び処理の各々は技術的な矛盾が生じない限り互いに組み合わせて本発明を構成することができる。
 本発明によれば、三次元形状計測において、計測対象に含まれる傾斜の方向を精度良く判別する技術を提供することができる。
図1は、本発明の適用例に係る三次元形状計測装置の構成を示す模式図である。 図2は、本発明の適用例に係る三次元形状計測装置の三次元形状計測処理の流れを示すフローチャートである。 図3は、実施形態1に係る基板検査装置のハードウェア構成を示す模式図である。 図4は、実施形態1に係る情報処理装置の機能を説明するブロック図である。 図5は、実施形態1に係る照明装置の構成を説明する平面図である。 図6Aは、計測対象となる基板のはんだ付け部を説明する側面図である。図6Bは、基板のはんだ付け部の第1のカラーハイライト画像である。図6Cは、基板のはんだ付け部の第2のカラーハイライト画像である。図6Dは、基板のはんだ付け部の第3のカラーハイライト画像である。図6Eは、基板のはんだ付け部のカラーハイライト合成画像である。 図7は、実施形態1に係る基板検査装置の基板検査処理の流れを示すフローチャートである。 図8は、実施形態1の変形例に係る検査ユニットの概略構成を示す模式図である。 図9は、実施形態2に係る基板検査装置のハードウェア構成を示す模式図である。 図10は、実施形態2に係る基板検査装置の基板検査処理の流れを示すフローチャートである。
 以下、図面を参照して、本発明の実施例について説明する。
 <適用例>
 (適用例の構成)
 本発明は例えば、図1に示すような三次元形状計測装置に適用することができる。図1は本適用例に係る三次元形状計測装置9の概略構成を概略模式図である。三次元形状計測装置9は、計測対象Oの三次元形状を測定する装置であり、図1に示すように主な構成として照明手段としての照明装置91、撮影手段としてのカメラ92、計測手段としての情報処理装置93(例えばコンピュータ)、を有している。
 照明装置91は、計測対象に対して複数の異なる波長の光を照射可能に構成されており、本適用例においては赤色光源911R、緑色光源911G、青色光源911Bの3つの異なる光源を備えている。赤色光源911R、緑色光源911G、青色光源911Bはそれぞれ異なる高さ(図中のZ軸方向)に配置されており、これによって計測対象Oに対する光の入射角がそれぞれ異なるようになっている。なお、以下では照明装置91から照射される各光源からの光をまとめてRGB照明光ともいう。照明装置91は、計測対象Oに対して、図中Z軸回りの異なる位置からRGB照明光が照射されるように構成される。
 カメラ92は、RGB照明光が照射された状態の計測対象Oを撮影し、デジタル画像を出力する撮影手段である。なお、以下では、撮影手段によって撮影された画像を観測画像とも表記する。カメラ92は例えば、光学系とイメージセンサを有して構成される。
 情報処理装置93は、照明装置91、カメラ92及び搬送機構の制御、カメラ92から取り込まれた画像に対する処理、三次元形状計測などの機能を有しており、本発明における計測手段に該当する。情報処理装置93は、CPU(Central Processing Unit)、RAM(Random Access Memory)、不揮発性の記憶装置(例えば、ハードディスクドライブ、フラッシュメモリなど)、入力装置(例えば、キーボード、マウス、タッチパネルなど)、表示装置(例えば、液晶ディスプレイなど)を備えるコンピュータにより構成することができる。
 なお、照明装置91及びカメラ92の構成は、計測対象Oにおいて傾斜を有する部位OPでのRGB照明光の反射の態様が異なる複数の画像をカメラ92で撮影できるようになっていれば、自由に構成することができる。例えば、カメラ92を計測対象Oの直上に配置し、照明装置91を、計測対象Oを中心した図中Z軸回りの環状に配置した上で複数の領域に分割し、領域毎に各光源の発光のON/OFFを調整可能にしてもよい。
 このようにして、一の領域からRGB照明光を照射している際には他の領域の光源の発光をOFF(又は発光強度を弱く)した状態で計測対象Oをカメラ92で撮影し、発光する領域を切り替えて更に撮影を行えば、計測対象Oにおいて傾斜を有する部位OPでのRGB照明光の反射の態様が異なる複数の画像を撮影することができる。
 また、照明装置91を環状とせずに、移動機構を設けて図中Z軸回りの円周方向に移動可能としておくこともできる。この際には、所望の位置に照明装置91を移動させて計測対象OにRGB照明光を照射し、それぞれの位置でカメラ92による撮影を行うことで、計測対象Oにおいて傾斜を有する部位OPでのRGB照明光の反射の態様が異なる複数の画像を撮影することができる。
 また、カメラ92を計測対象Oの直上に配置せずに、計測対象Oの中心に向けて傾斜を付けて配置し、移動機構を設けて図中Z軸回りの円周方向に移動可能としておくこともできる。また、移動機構を設けずに図中Z軸回りの円周方向の異なる位置に、カメラ92を複数配置するのであってもよい。
 以上のような構成を有する三次元形状計測装置9において計測対象Oの三次元形状の測定を行う際には、照明装置91からRGB照明光を照射された状態の計測対象Oの画像をカメラ92によって複数撮影し、撮影された画像を情報処理装置93がカラーハイライト方式などの方法により画像処理することで、計測対象Oの三次元形状を計測する。
 (制御装置の機能)
 続いて、情報処理装置93の三次元形状計測に関わる機能を説明する。情報処理装置93は、三次元形状計測に関わる機能モジュールとして、画像取得部931、特徴量抽出部932、特徴量比較部933、合成データ作成部934、三次元形状計測部935、を有している。
 画像取得部931はカメラ92から三次元形状計測に用いる複数の観測画像を取り込む機能であり、例えば、計測対象Oに照射されるRGB照明光の向きが、計測対象Oを中心と円周上で180度異なる態様の二枚の画像を取得する。本適用例では一方の観測画像を観測画像a、他方の画像を観測画像bという。
 特徴量抽出部932は取得された各観測画像から、当該観測画像の各画素が有する特徴量(例えば輝度値)を抽出する。本適用例では、観測画像aから抽出される特徴量データを特徴量データa、観測画像bから抽出される特徴量データを特徴量データbとして説明する。
 特徴量比較部933は、特徴量抽出部932によって抽出された特徴量データaと特徴量データbとを比較する。より具体的には、各観測画像において計測対象Oの同一の箇所を表す画素同士の特徴量の値を比較し、その値が大きい方の画素は観測画像aと観測画像bのいずれの画像の画素かを特定する。ここで、特徴量が輝度であった場合、より明るい、即ちより多くの光がカメラ92に入光した方の画像が特定されることになる。そして、計測対象Oにおいて傾斜を有する箇所がある場合には、当該傾斜に対向する方向からRGB照明光が照射されている際の画像の画素の方がより明るくなるため、ここから当該傾斜の向きを特定することが可能になる。
 合成データ作成部934は、観測画像aと観測画像bから、三次元形状計測用の合成データを作成する。具体的には、観測画像aと観測画像bから、特徴量比較部933によって特定された特徴量の値の大きい方の画素同士を、いずれの画像の画素であるかの情報と紐付けて合成し、三次元形状のプロファイルデータを作成する。これにより、計測対象Oにおいて傾斜を有する箇所の向きが特定された三次元形状計測用のプロファイルデータを得る事ができる。
 三次元形状計測部935は、合成データ作成部934によって作成された合成データに基づいて計測対象Oの三次元形状を計測する。
 (三次元形状計測処理の流れ)
 次に、図2を参照して、本適用例における三次元形状計測の手順について説明する。まず、情報処理装置93は照明装置91を制御し、計測対象Oを中心とする円周上の第一の方向から、計測対象Oに対してRGB照明光を照射する(ステップS901)。次に、情報処理装置93は、カメラ92を制御して、第一の方向からRGB照明光が照射されている状態の計測対象Oを撮影し、第1画像を取得する(ステップS902)。
 次に、情報処理装置93は照明装置91を制御し、前記第一の方向と計測対象Oを挟んで対向する第二の方向から、計測対象Oに対してRGB照明光を照射する(ステップS903)。次に、情報処理装置93は、カメラ92を制御して、第二の方向からRGB照明光が照射されている状態の計測対象Oを撮影し、第2画像を取得する(ステップS904)。
 次に、情報処理装置93は、取得した第1画像及び、第2画像から、各画像の画素が有する特徴量を抽出し(ステップS905)、当該抽出した特徴量を比較してより大きな特徴量を有する画素を用いて三次元形状計測用の合成データを作成する(S906)。そして、作成した合成データに基づいて、計測対象Oの三次元形状を計測し(ステップS907)、一連の処理を終了する。なお、計測結果を図示しない表示装置に表示するようにしてもよい。
 以上のような、本適用例に係る三次元形状計測装置9の構成により、計測対象Oにおいて傾斜を有する部位OPがあった場合に、当該傾斜の程度に加えて、傾斜の方向特定した三次元形状プロファイルデータに基づいて、高精度な三次元形状の計測を行うことが可能になる。
 <実施形態1>
 次に、本発明を実施するための形態の他の例である基板検査装置1について説明する。ただし、この実施形態に記載されている構成部品の寸法、材質、形状、その相対配置などは、特に記載がない限りは、この発明の範囲をそれらのみに限定する趣旨のものではない。
 (基板検査装置のハードウェア構成)
 図3を参照して、本発明の実施形態に係る基板検査装置の全体構成について説明する。図3は基板検査装置のハードウェア構成を示す模式図である。この基板検査装置1は、表面実装ラインにおける基板外観検査(例えば、リフロー後のはんだ接合状態の検査など)に利用される。
 基板検査装置1は、主な構成として、ステージ10、計測ユニット11、制御装置12、情報処理装置13、表示装置14を備える。計測ユニット11は、カメラ110、照明装置111、パターン投影装置(プロジェクタ)112を有している。
  ステージ10は、基板Kを保持し、検査対象となる部品KBやはんだKHをカメラ110の計測位置に位置合わせするための機構である。図3に示すようにステージ10に平行にX軸とY軸をとり、ステージ10と垂直にZ軸をとった場合、ステージ10は少なくともX方向とY方向の2軸の並進が可能である。カメラ110は、光軸がZ軸と平行になるように配置されており、ステージ10上の基板Kを鉛直上方から撮像する。カメラ110で撮像された画像データは情報処理装置13に取り込まれる。
  照明装置111(111R,111G,111B)は、基板Kに対し異なる色(波長)の照明光を照射する照明手段である。図3は照明装置111のXZ断面を模式的に示したものであり、実際には、同じ色の光を全方位(Z軸回りの全方向)から照明可能なように照明装置111は円環状又はドーム形状を呈している。プロジェクタ112は、基板Kに対し所定のパターンをもつパターン光を投影するパターン投影手段である。プロジェクタ112は、照明装置111の中腹に設けられた開口を通してパターン光を投射する。プロジェクタ112の数は一つでもよいが複数のプロジェクタ112を設けてもよい。本実施形態では、異なる方位(対角の位置)に2つのプロジェクタ112を配置している。照明装置111とプロジェクタ112はいずれもカメラ110で基板Kを撮影するときに用いられる照明系であるが、照明装置111ははんだなどの鏡面物体の表面形状を計測する目的で用いられ、プロジェクタ112は部品などの拡散物体の表面形状を計測する目的で用いられる。
  制御装置12は、基板検査装置1の動作を制御する制御手段であり、ステージ10の移動制御、照明装置111の点灯及び調光制御、プロジェクタ112の点灯制御やパターン変更、カメラ110の撮像制御などを担っている。
  情報処理装置13は、カメラ110から取り込まれた画像データを用いて、部品KBやはんだKHに関する各種の計測値を取得したり、部品KBのはんだ接合の状態を検査する機能を有する装置である。表示装置14は、情報処理装置13で得られた計測値や検査結果を表示する装置である。情報処理装置13は、例えば、CPU、RAM、不揮発性の記憶装置、入力装置を有する汎用のコンピュータにより構成することができる。なお、図3では、制御装置12と情報処理装置13と表示装置14を別のブロックで示したが、これらは別体の装置で構成してもよいし、単一の装置で構成してもよい。
  (機能構成)
  図4は、情報処理装置13が提供する検査処理に関わる機能モジュールの構成を示すブロック図である。これらの機能モジュールは、情報処理装置13のCPUが補助記憶装置に格納されたプログラムを読み込み実行することにより実現されるものである。ただし、全部又は一部の機能をASICやFPGAなどの回路で構成してもよい。
  画像取得部131は、カメラ110から画像データを取り込む機能モジュールである。はんだ形状計測部132は、二次元の画像データからはんだなどの鏡面物体部分の三次元形状を復元する機能モジュールであり、部品形状計測部133は、二次元の画像データから部品などの拡散物体部分の三次元形状を復元する機能モジュールである。各々の復元処理で用いる画像データ及び復元アルゴリズムについては後述する。
  検査部134は、はんだ形状計測部132と部品形状計測部133で得られた三次元形状データを基に、はんだKHや部品KBの形状に関わる各種指標を計測し、これらの計測値を用いてはんだ接合の状態を検査する機能モジュールである。検査プログラム記憶部135は、検査部134における検査の項目や条件などを定義した検査プログラムを格納する機能モジュールである。検査プログラムには、例えば、検査対象のランドの位置及びサイズ、部品のサイズ、計測する指標の種類、指標ごとの判定基準値(良品と不良品を判定するための閾値や値域)などが定義されている。出力処理部136は、検査部134で得られた計測値や検査結果、部品KBやはんだKHの三次元形状などを表示装置14などへ外部出力する機能モジュールである。
  以下、はんだKH(鏡面物体)の三次元形状の復元方法と、部品KB(拡散物体)の三次元形状の復元方法をそれぞれ説明した後、情報処理装置13の検査処理の流れについて説明する。
  (はんだの三次元形状計測)
  はんだKHの三次元形状の計測には、いわゆるカラーハイライト方式で得られる画像を利用する。カラーハイライト方式とは、複数の色(即ち、波長)の光を互いに異なる入射角で基板に照射し、はんだ表面にその法線方向に応じた色特徴(即ち、カメラから見て正反射方向にある光源の色)が現れるようにした状態で撮影を行うことにより、はんだ表面の三次元形状を二次元の色相情報として捉える方法である。画像の中から、R、G、Bの光源色が現れている領域のみを抽出して、R、G、Bの各領域の形状、幅、順番に基づいて、はんだ三次元形状を復元することができる。なお、三次元形状の復元には公知の手法を用いることができるため、ここでは詳しい説明を省略する。
  まず、図5を参照して、カラーハイライト方式に用いる照明装置111の構成を説明する。図5は、照明装置111の各光源111R、111G、111Bの配置関係を模式的に示す平面概略図である。照明装置111は、赤色光源111R、緑色光源111G、青色光源111Bの3つの円環状の光源を、カメラ110の光軸を中心として同心円状に配置した構造を有している。各光源111R、111G、111Bは、赤色光、緑色光、青色光の順に基板Kに対する入射角が大きくなるよう、仰角及び向きが調整されている。このような照明装置111は、例えば、ドーム形状の拡散板の外側にR、G、B各色のLEDを円環状に配列することで形成できる。
 また、図5に示すように、照明装置111は四等分され、第1照明領域111a、第2照明領域111b、第3照明領域111c、第4照明領域111dの4つの領域に分かれている。そして赤色光源111R、緑色光源111G、青色光源111Bは、それぞれの領域ごとに発光の強度(ON/OFFを含む、以下同じ)が調節可能となっている。このように照明装置111が4つの領域に分かれていることによって、発光させる領域の組み合わせにより8つの方向から基板Kに照明光を照射することが可能になる。具体的には、4つの領域のうち、1の領域のみを点灯する場合の4方向と、隣接する2つの領域を点灯する場合の4方向である。なお、点灯する領域の組み合わせ数については、全点灯の場合を含めて13となる。
 照明装置111を点灯した状態で、基板Kをカメラ110で撮影をすると、鏡面物体であるはんだKHの部分に、その法線方向(傾斜角)に応じた色特徴が現れる。例えば、部品電極から離れるにつれてはんだKHの傾斜が緩やかになっていくような場合には、はんだKHの領域にB→G→Rという色相の変化が現れる。R、G、B各色の領域の形状、幅、現れる順番などは、はんだKHの表面形状に依存して変化する。
 図6を参照して、本実施形態に係る照明装置111を点灯した状態で、カメラ110で基板を撮影した際に取得できるはんだ部分の画像について説明する。図6Aは、基板K上の部品KBの電極部分とこれに接合されるはんだ部分(以下、はんだ付け部という)を側面から見た図である。図6Aに示すように、当該事例のはんだKHは部品KBから延びる電極に対して充分に馴染んでおらず、接触面積が少なくなっている(即ち、不濡れの状態になっている)。
 図6Bは、照明装置111の全領域で照明を点灯して撮影した場合のはんだ付け部の画像である。図6Bには、R、G、Bの各色の領域が示されている。図6Bに示す画像からは、はんだと電極の接合部に傾斜(によって定義される斜面)が存在することが推測できるが、この斜面がどちらを向いているのか(即ち、濡れあがっているのか、不濡れの状態なのか)までは判別することができない。なお、部品KB本体や電極の表面では拡散反射が支配的となるため、R、G、Bのような光源色ではなく、白色光で照明したときと同じ物体自体の色が現れる。
 ここで、本実施形態の照明装置111は、4つに分かれた領域ごとに光源のON/OFFが可能であるため、照明装置111のうち、図6のはんだKH端部側の領域(第2照明領域111b及び、第4照明領域111d)のみを点灯させてはんだ付け部を撮影すると、図6Cのような画像(以下、第1カラーハイライト画像という)が取得できる。
 また、照明装置111のうち、図6における部品KB側の領域(第1照明領域111a及び、第3照明領域111c)のみを点灯させてはんだ付け部を撮影すると、図6Dのような画像(以下、第2カラーハイライト画像という)を取得することができる。
 そして、情報処理装置13は、第1カラーハイライト画像および第2カラーハイライト画像のデータから各画素の有する輝度値を抽出し、より輝度値の大きいほうの画素を合成することで、合成データを作成する。なお、当該合成データの性質、及び合成データ作成の処理については、適用例において説明したものと同様であるため、詳細な説明は省略する。要するに、当該合成データを用いることで、はんだKHと電極の接合部の斜面の方向を判別することが可能になる。
 図6Eは、このようにして作成された合成データに基づいて作成された合成画像(以下、カラーハイライト合成画像という)の例を示している。カラーハイライト合成画像では、第1カラーハイライト画像のR、G、Bの領域の画素を採用した箇所は、そのまま赤色(R)、緑色(G)、青色(B)で表示し、第2カラーハイライト画像のR、G、Bの領域の画素を採用した箇所は、マゼンダ(M)、イエロー(Y)、シアン(C)で表現されている。なお、合成画像における色の選択は全くの任意であり、これら6色に限られるわけではないが、異なる色系統でありながらも類似する色を使用することによって、傾斜の程度が同一であることと、元となった画像が違う(即ち傾斜の向きが違う)ことを直感的に把握することができる。
 このようなカラーハイライト合成画像は、例えば表示装置14で表示可能にしておけば、ユーザーはカラーハイライト合成画像を見て、はんだ付け部の状態を容易に把握することが可能になる。
  (部品の三次元形状計測)
  一方、拡散物体である部品KBの三次元形状の計測には、位相シフト法を利用する。位相シフト法とは、パターン光を物体表面に投影したときのパターンの歪みを解析することにより物体表面の三次元形状を復元する手法の一つである。具体的には、プロジェクタ112を用いて、所定のパターン(例えば、輝度が正弦波状に変化する縞状パターン)を基板に投影した状態でカメラ110で撮影を行う。そうすると基板Kの表面には、その凹凸に応じたパターンの歪みが現れる(なお、はんだKHの部分では鏡面反射が支配的となるため、パターンはほとんど観測できない。)。この処理を、パターン光の輝度変化の位相を変化させながら複数回繰り返すことで、輝度特徴の異なる複数枚の画像(以下、パターン解析画像いう)が得られる。各画像の同一画素の輝度は縞状パターンの変化と同一の周期で変化するはずであるから、各画素の輝度の変化に対して正弦波を当てはめることで、各画素の位相が分かる。そして、所定の基準位置(テーブル表面、基板表面など)の位相に対する位相差を求めることで、その基準位置からの距離(即ち、高さ)を算出することができる。
  (検査処理の流れ)
  次に、図7を用いて、基板検査装置1で行われる検査処理の流れを説明する。図7は、検査処理の流れを示すフローチャートである。
  まず、制御装置12が検査プログラムに従ってステージ10を制御し、検査対象の部品KBおよびはんだKHを計測位置(カメラ110の視野)に移動させる(ステップS101)。そして、制御装置12が照明装置111の一部の領域を点灯し(ステップS102)、赤色光、緑色光、青色光を照射した状態でカメラ110で撮影を行う(ステップS103)。得られた画像データ(第1カラーハイライト画像)は、画像取得部131により情報処理装置13に取り込まれる。
 照明装置111の消灯後、さらに、照明装置111の先の発光領域と対向する領域を制御装置12が点灯し(ステップS104)、ハイライト照明光を照射した状態でカメラ110での撮影を行う(ステップS105)。ここで得られた画像データ(第2カラーハイライト画像)は、画像取得部131により情報処理装置13に取り込まれる。
 次に、制御装置12がプロジェクタ112からパターン光を投影し(ステップS106)、カメラ110で撮像を行う(ステップS107)。位相シフト法を利用する場合、パターン光の位相を変えながらステップS106及びS107の処理が複数回実行される。得られた複数枚の画像データは、画像取得部131により情報処理装置13に取り込まれる。なお、本実施形態では、照明装置111での撮影を先に実行したが、プロジェクタ112での撮影を先に実行しても構わない。また、カメラ110の視野外に他の検査対象が存在する場合には、ステップS101~S107の処理を繰り返し実行してもよい。
  以降は、情報処理装置13で行われる処理となる。はんだ形状計測部132は、ステップS103及びステップS105で得られた画像から、各画素の輝度値を抽出して前記の合成データを作成し、当該合成データに基づいてはんだKH(及び部品KBの電極)の三次元形状を復元する(ステップS108)。復元された三次元形状のデータは、例えば、はんだKH領域内の各画素の高さ(Z位置)を画素値で表現した画像データ(高さマップと呼ぶ)の形式で保存される。一方、部品形状計測部133は、ステップS107で得られたパターン画像から、位相シフト法により、部品KBの三次元形状を復元する(ステップS109)。部品KBの三次元形状データについても高さマップの形式で保存される。これらの高さマップを合成することで、鏡面物体であるはんだKHと拡散物体である部品KBの両方の高さ情報を表す全体の高さマップを得ることができる。
  そして、検査部134が、全体の高さマップと検査プログラムの閾値とによって、基板Kの検査を実施する(ステップS110)。検査が終了すると、表示装置14は、検査の結果、及びステップS108で作成した合成データを視覚的に表現したカラーハイライト合成画像を表示し(ステップS111)、一連の処理を終了する。
 以上述べた本実施形態の基板検査装置によれば、鏡面物体であるはんだの三次元形状と、拡散物体である部品電極とを、それぞれに適した方法で復元するので、はんだと部品電極の両方について精度の高い三次元形状データを得ることができる。また、はんだの三次元形状の復元にあたっては、複数のカラーハイライト画像を用いて合成データを作成することで、傾斜を有する場所の当該傾斜面の向きを特定して三次元形状を復元するため、はんだの斜面の形状を精度よく復元できる。
 (変形例)
 なお、上記実施形態1では、照明装置111は、Z軸を中心とした円環状に形成されていたが、必ずしもこのような構成である必要はない。図8は、本実施形態の変形例に係る計測ユニット21の概略構成を示す説明図である。本変形例に係る計測ユニット21は、照明装置211及び、プロジェクタ212を移動させる手段である移動機構25を備えている。なお、本変形例において、実施形態1と同様の構成については同一の符号を用い、詳細な説明は省略する。
 本変形例における移動機構25は、制御装置12によって制御されるモータ(図示せず)によって駆動される中空円筒状の回転機構251と、回転機構251に組み付けられて照明装置211を支持する基準板252と、を備えている。回転機構251は、筐体251aと回転体251bからなり、筐体251aの上部が装置フレーム26に固定されている。なお、図8は移動機構25の内部構造が把握しやすくするために部分断面図となっているが、実際のカメラ110は、回転機構251の中空内に配置され、側面からは視認できない。
 回転機構251は、例えばギアによってモータの回転が伝達されることにより、Z軸方向に延びる回転軸を中心として360度の範囲内で回転体251bが回転するように構成されている。この回転体251bが回転すると、回転機構251に組み付けられた基準板252も回転し、これによって基準板252に係止されている照明装置211及びプロジェクタ212は、円筒状の回転機構251の回転軸を中心とした円周上を回転移動することになる。すなわち、回転機構251の回転軸と同軸上に基板Kが配置されている場合、照明装置211及びプロジェクタ212は基板Kを中心として、XY軸により定義される平面上を回転移動する。本変形例のその他のハードウェア構成、処理などは実施形態1のものと同様であるため、図示及び説明は省略する。
 このような構成により、照明装置211及びプロジェクタ212を基板Kを中心とする円周の任意の位置に配置して、照明光の照射、パターンの投影を行うことができるため、複数のカラーハイライト画像およびパターン投影画像を取得することができる。また、基板Kの部品及びはんだの向きに関わらず、三次元形状の計測のために最適な方向から照明光、パターンを照射することができる。
 <実施形態2>
 続けて、第2の実施形態について説明する。図9は本実施形態に係る基板検査装置3の概略構成図である。図9に示すように、基板検査装置3は概略、検査ユニット31、制御装置32、情報処理装置33、表示装置34を備えている。基板検査装置3は、実施形態1の基板検査装置1と比べて、カメラの台数と配置位置、及びプロジェクタがない点、において異なっている。即ち、その他の制御装置32、情報処理装置33、表示装置34の構成については、実施形態1の基板検査装置1と略同様であるため詳細な説明は省略する。
 検査ユニット31は、ステージ30、カメラ310a、310b、照明装置311、移動機構35、装置フレーム36、を含んで構成される。移動機構35は、回転機構351(筐体351a、回転体351b)、基準板352を備える構成であるが、上述した実施形態1の変形例の移動機構と同様の構成であるため、詳細な説明は省略する。ステージ30、装置フレーム36についても同様である。
 カメラ310a、310b、は移動機構35の基準板352に、それぞれ基板Kを撮影するようにして、基準板352の対角の位置に配置される。また、照明装置311は、基板Kに対し異なる波長の照明光を照射する照明手段であり、実際には、同じ波長の光を全方位(Z軸回りの全方向)から照明可能なように照明装置111は円環状又はドーム形状を呈している。なお、本実施形態に係る照明装置311は、分割された領域を有するわけではなく、RGB照明光の照射は、全体で一括して行われる。
 即ち、実施形態1では、カメラを計測対象の鉛直上方に固定し、RGB照明光の照射の方向を変えて複数回撮影を行うことで、RGB照明光の反射の態様が異なる複数の画像を取得していたが、本実施形態では、撮影の方向が異なる画像を複数取得することでRGB照明光の反射の態様が異なる複数の画像を取得する。
 次に、図10用いて、基板検査装置3で行われる検査処理の流れを説明する。図10は、検査処理の流れを示すフローチャートである。
  まず、制御装置32が検査プログラムに従ってステージ30を制御し、検査対象の部品およびはんだを計測位置に移動させる(ステップS201)。そして、制御装置32が照明装置311を点灯し(ステップS202)、赤色光、緑色光、青色光を照射した状態で、移動機構35を制御して2台のカメラ310a、310bを適切な位置に移動させる(ステップS203)。そして、2台のカメラで同時に撮影を行う(ステップS204)。得られた複数の画像データ(カラーハイライト画像)は、情報処理装置33に取り込まれる。
 そして、情報処理装置33は、複数のカラーハイライト画像から特徴量を抽出して合成データを作成し(ステップS205)、当該合成データに基づいて検査を実行する(ステップS206)。そして、検査の結果、合成データから作成した合成画像などを表示装置に表示して(ステップS207)、一連の処理を終了する。なお、複数のカラーハイライト画像から合成データを作成する処理は、実施形態1と同様であるため、説明は省略する。
 本実施形態に係る検査装置3によれば、合成データを作成するためのカラーハイライト画像の撮影を一度で済ますことができるため、検査に係る時間を短縮させることができる。
 なお、本実施形態に係る基板検査装置3では、プロジェクタを備えない構成であったが、プロジェクタを備え、パターン投影画像を取得するようにしてもよい。
 <その他>
 上記各実施形態は、本発明を例示的に説明するものに過ぎず、本発明は上記の具体的な形態には限定されない。本発明はその技術的思想の範囲内で種々の変形が可能である。例えば、上記の各実施形態ではカラーハイライト方式で計測対象における傾斜の程度を計測する装置を前提としていたが、傾斜の方向を計測するのには、波長の異なる複数の照明光を照射する必要はない。このため、例えば、計測対象を中心として対向する方向の一方のみから所望の波長の光を照射した画像と、もう一方のみから同様の照明光を照射した画像とを取得して、これらの特徴量を比較することで、計測対象における傾斜の方向を計測することができる。
 具体的には、例えばプロジェクタからパターンを含まない光を計測対象に照射し、当該光が照射された複数の画像に基づいて計測対象の傾斜の方向を計測するようにしてもよい。即ち、プロジェクタから計測対象に対して照射されるパターンを含まない光を本願発明の「照明光」とすることができる。このような場合には、プロジェクタを、位相シフト法による計測のためのパターン光の投影手段と、計測対象の傾斜方向計測のための照明手段とを兼ねる構成とすることができる。なお、これらにカラーハイライト画像を組み合わせて、傾斜の程度を併せて計測することも当然可能である。
 また、上記の実施形態1においてはカラーハイライト画像に基づいて鏡面物体の三次元形状を、パターン投影画像に基づいて拡散物体の三次元形状をそれぞれ計測するようにしていたが、必ずしもこのようにする必要はなく、各画像に基づいて計測対象全体の形状を計測するためのプロファイルデータ2つを作成したうえで、これらのデータを合成するようにしてもよい。
 また、実施形態1においても、プロジェクタを備えない装置構成としてもよい。カラーハイライト方式のみで計測対象の三次元形状の計測を行うことで、装置構成を簡略化することができ、検査のための時間を短縮することができる。また、プロジェクタとカラーハイライト用の光源とは別に、さらに照明手段を設ける装置構成としてもよい。
 また、上述のように照明装置に用いる光源に用いる波長も、R、G、Bに限定されるわけではなく、任意の波長の光を採用することができる。また、表示装置に表示される画像も、上記実施形態では、照明光に合わせて、赤色(R)、緑色(G)、青色(B)、マゼンダ(M)、イエロー(Y)、シアン(C)で表示分けされるものであったが、これに限られるわけではない。例えば、カラーハイライト方式によらない計測装置にも本発明を適用することができるが、その場合には上記の色分けには意味はないため、異なる色、及び/又は模様による表示分けが行われてもよい。
 <付記>
 本発明の一の態様は、計測対象(O)に対して照明光を照射する照明手段(91)と、前記計測対象を撮影する撮影手段(92)と、前記撮影手段によって撮影された画像から得られる前記照明光の反射光の波長の相違に基づいて、前記計測対象の三次元形状を計測する計測手段(93)と、を有する三次元形状計測装置において、前記撮影手段は、前記撮影手段の撮影方向又は前記照明光の照射方向の、前記計測対象に対する鉛直軸回りの角度が異なる複数の画像であって、前記計測対象の所定の部位における前記反射光の強度又は波長のいずれかを含む反射の態様が異なる、前記複数の画像を取得し、前記計測手段は、前記撮影手段が取得した前記複数の画像に基づいて、前記所定の部位の三次元形状を計測する、ことを特徴とする、三次元形状計測装置である。
 また、本発明の他の一の態様は、計測対象に対して照明光を照射する、照射ステップ(S901,S903)と、前記照明光の照射方向又は撮影方向の、前記計測対象に対する鉛直軸回りの角度が異なる複数の画像であって、前記計測対象の所定の部位における前記照明光の反射光の強度又は波長のいずれかを含む反射の態様が異なる前記複数の画像を取得する撮影ステップ(S902,S904)と、前記撮影ステップにおいて取得した前記複数の画像に基づいて、前記所定の部位の三次元形状を計測する計測ステップ(S907)と、を有する三次元形状の計測方法である。
 1、3・・・基板検査装置
 9・・・三次元形状計測装置
 10、30・・・ステージ
 11、31・・・検査ユニット
 110、310、92・・・カメラ
 111、211、311、91・・・照明装置
 12、32・・・制御装置
 13、33、93・・・情報処理装置
 14、34・・・表示装置
 25、35・・・移動機構
 K・・・基板
 O・・・測定対象物

Claims (21)

  1.  計測対象に対して照明光を照射する照明手段と、
     前記計測対象を撮影する撮影手段と、
     前記撮影手段によって撮影された画像から得られる前記照明光の反射光の波長の相違に基づいて、前記計測対象の三次元形状を計測する計測手段と、を有する三次元形状計測装置において、
     前記撮影手段は、前記撮影手段の撮影方向又は前記照明光の照射方向の、前記計測対象に対する鉛直軸回りの角度が異なる複数の画像であって、前記計測対象の所定の部位における前記反射光の強度又は波長のいずれかを含む反射の態様が異なる、前記複数の画像を取得し、
     前記計測手段は、前記撮影手段が取得した前記複数の画像に基づいて、前記所定の部位の三次元形状を計測する、
     ことを特徴とする、三次元形状計測装置。
  2.  前記所定の部位とは、前記計測対象において傾斜を含む部位であって、
     前記計測手段は、前記反射光の前記反射の態様がそれぞれ異なる複数の画像を構成する各画素における所定の特徴量の各画像間の相違に基づいて、前記所定の部位の傾斜の方向を計測する、
     ことを特徴とする、請求項1に記載の三次元形状計測装置。
  3.  前記撮影手段は、前記計測対象を中心とする一の円周上の複数の異なる位置から、前記計測対象を撮影することによって、前記撮影方向の前記計測対象に対する鉛直軸回りの角度が異なる複数の画像を取得する、
     ことを特徴とする、請求項1又は2に記載の三次元形状計測装置。
  4.  前記照明手段が、前記計測対象を中心とする一の円周上の複数の異なる位置から、前記計測対象に対して前記照明光を照射することによって、
     前記撮影手段は、前記照明光の照射方向の前記計測対象に対する鉛直軸回りの角度が異なる複数の画像を取得する、
     ことを特徴とする、請求項1又は2に記載の三次元形状計測装置。
  5.  前記照明手段が、前記計測対象を中心とする円周方向に移動可能に配置されて、前記計測対象を中心とする一の円周上の複数の異なる位置から前記計測対象に対して照明光を照射することによって、
     前記撮影手段は、前記照明光の照射方向の前記計測対象に対する鉛直軸回りの角度が異なる複数の画像を取得する、
     ことを特徴とする、請求項4に記載の三次元形状計測装置。
  6.  前記照明手段は、前記計測対象を中心として円環状に配置され、前記円環を複数に分割して形成される複数の範囲毎に前記照明光の発光強度を調整可能に構成されており、
     前記撮影手段は、前記複数の範囲のうち少なくとも一の範囲から前記計測対象に対して前記照明光が照射された際の画像と、その他の範囲から前記計測対象に対して前記照明光が照射された際の画像とを取得することにより、前記照明光の照射方向の前記計測対象に対する鉛直軸回りの角度が異なる複数の画像を取得する、
     ことを特徴とする、請求項4に記載の三次元形状計測装置。
  7.  前記計測対象に対して、所定のパターン光を投影する投影手段をさらに有しており、
     前記撮影手段は、前記パターン光が投影された前記計測対象のパターン投影画像をさらに取得し、
     前記計測手段は、前記計測対象の所定の部位における前記反射光の前記反射の態様が異なる複数の画像及び前記パターン投影画像に基づいて、前記所定の部位の三次元形状を計測する、
     ことを特徴とする、請求項1から6のいずれか一項に記載の三次元形状計測装置。
  8.  前記照明手段は、鉛直方向から水平方向の間における複数の異なる角度から、それぞれ異なる波長の照明光を前記計測対象に対して照射し、
     前記計測手段は、前記撮影手段が取得した少なくとも一の画像における、前記異なる波長の照明光のそれぞれの反射光の前記反射の態様から、前記所定の部位の傾斜の程度を計測する、
     ことを特徴とする、請求項2に記載の三次元形状計測装置。
  9.  前記撮影手段が取得した前記複数の画像から作成される合成画像を表示する画像表示手段をさらに有しており、
     前記合成画像は、少なくとも前記所定の部位における前記傾斜の方向の違いを、異なる色及び/又は模様により表示分けする画像処理が施された画像である、
     ことを特徴とする、請求項2に記載の三次元形状計測装置。
  10.  前記撮影手段が取得した前記複数の画像から作成される合成画像を表示する画像表示手段をさらに有しており、
     前記合成画像は、前記所定の部位における前記傾斜の程度及び方向の違いを、異なる色及び/又は模様により表示分けする画像処理が施された画像である、
     ことを特徴とする、請求項8に記載の三次元形状計測装置。
  11.  前記合成画像は、合成の元となる各画像における前記計測対象の同一の箇所を示す画素の所定の特徴量の値を比較し、当該値が最も大きい画像から前記画素を選別して合成されたものである、
     ことを特徴とする、請求項9又は10に記載の三次元形状計測装置。
  12.  計測対象に対して照明光を照射する照射ステップと、
     前記照明光の照射方向又は撮影方向の、前記計測対象に対する鉛直軸回りの角度が異なる複数の画像であって、前記計測対象の所定の部位における前記照明光の反射光の強度又は波長のいずれかを含む反射の態様が異なる前記複数の画像を取得する撮影ステップと、
     前記撮影ステップにおいて取得した前記複数の画像に基づいて、前記所定の部位の三次元形状を計測する計測ステップと、
     を有する三次元形状計測方法。
  13.  前記所定の部位とは、前記計測対象において傾斜を含む部位であって、
     前記計測ステップでは、前記反射光の前記反射の態様がそれぞれ異なる複数の画像を構成する各画素における所定の特徴量の各画像間の相違に基づいて、前記所定の部位の傾斜の方向を計測する、
     ことを特徴とする、請求項12に記載の三次元形状計測方法。
  14.  前記照射ステップにおいて、前記計測対象を中心とする一の円周上の複数の異なる位置から、前記計測対象に対して前記照明光を照射することによって、
     前記撮影ステップにおいて、前記照明光の照射方向の前記計測対象に対する鉛直軸回りの角度が異なる複数の画像を取得する、
     ことを特徴とする、請求項12又は13に記載の三次元形状計測方法。
  15.  前記撮影ステップにおいて、前記計測対象を中心とする一の円周上の複数の異なる位置から前記計測対象を撮影することによって、前記撮影方向の前記計測対象に対する鉛直軸回りの角度が異なる複数の画像を取得する、
     ことを特徴とする、請求項12又は13に記載の三次元形状計測方法。
  16.  前記計測対象に対して、所定のパターン光を投影する投影ステップ、をさらに有しており、
     前記撮影ステップでは、前記パターン光が投影された前記計測対象のパターン投影画像をさらに取得し、
     前記計測ステップでは、前記計測対象の所定の部位における前記反射光の前記反射の態様が異なる複数の画像及び前記パターン投影画像に基づいて、前記所定の部位の三次元形状を計測する、
     ことを特徴とする、請求項12から15のいずれか一項に記載の三次元形状計測方法。
  17.  前記照射ステップでは、鉛直方向から水平方向の間における複数の異なる角度から、それぞれ異なる波長の照明光を前記計測対象に対して照射し、
     前記計測ステップでは、前記撮影ステップにおいて取得した少なくとも一の画像における、前記異なる波長の照明光のそれぞれの反射光の前記反射の態様から、前記所定の部位の傾斜の程度を計測する、
     ことを特徴とする、請求項13に記載の三次元形状計測方法。
  18.  前記撮影ステップにおいて取得した前記複数の画像を合成して作成される合成画像を表示する、合成画像表示ステップ、をさらに有しており、
     前記合成画像は、少なくとも前記所定の部位における前記傾斜の方向の違いを、異なる色及び/又は模様により表示分けする画像処理が施された画像である、
     ことを特徴とする、請求項13に記載の三次元形状計測方法。
  19.  前記撮影ステップにおいて取得した前記複数の画像を合成して作成される合成画像を表示する、合成画像表示ステップ、をさらに有しており、
     前記合成画像は、前記所定の部位における前記傾斜の程度及び方向の違いを、異なる色及び/又は模様により表示分けする画像処理が施された画像である、
     ことを特徴とする、請求項17に記載の三次元形状計測方法。
  20.  前記合成画像は、合成の元となる各画像における前記計測対象の同一の箇所を示す画素の所定の特徴量の値を比較し、当該値が最も大きい画像から前記画素を選別して合成されたものである、
     ことを特徴とする、請求項18又は19に記載の三次元形状計測方法。
  21.  請求項12から20のいずれか一項に記載の各ステップを、三次元形状計測装置に実行させるためのプログラム。
PCT/JP2020/046677 2020-01-28 2020-12-15 三次元形状計測装置、三次元形状計測方法及びプログラム WO2021153056A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE112020006630.4T DE112020006630T5 (de) 2020-01-28 2020-12-15 Vorrichtung zur messung dreidimensionaler form, verfahren zur messung dreidimensionaler form und programm
CN202080090516.3A CN114867984A (zh) 2020-01-28 2020-12-15 三维形状计测装置、三维形状计测方法及程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020011900A JP7424074B2 (ja) 2020-01-28 2020-01-28 三次元形状計測装置、三次元形状計測方法及びプログラム
JP2020-011900 2020-01-28

Publications (1)

Publication Number Publication Date
WO2021153056A1 true WO2021153056A1 (ja) 2021-08-05

Family

ID=77079284

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/046677 WO2021153056A1 (ja) 2020-01-28 2020-12-15 三次元形状計測装置、三次元形状計測方法及びプログラム

Country Status (4)

Country Link
JP (1) JP7424074B2 (ja)
CN (1) CN114867984A (ja)
DE (1) DE112020006630T5 (ja)
WO (1) WO2021153056A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001324450A (ja) * 2000-03-06 2001-11-22 View Engineering Inc 異なる投射角で焦点を合わせた光で物体を照明する方法とシステム及びこれに用いられる多色光源
JP2003172709A (ja) * 2001-12-06 2003-06-20 Asia Electronics Inc 検査装置
US20050238237A1 (en) * 2004-04-23 2005-10-27 3D-Shape Gmbh Method and apparatus for determining the shape and the local surface normals of specular surfaces
JP2018081048A (ja) * 2016-11-18 2018-05-24 オムロン株式会社 三次元形状計測装置
JP2018112479A (ja) * 2017-01-12 2018-07-19 リコーエレメックス株式会社 外観検査システム
JP2019120643A (ja) * 2018-01-10 2019-07-22 オムロン株式会社 画像処理システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3878033B2 (ja) * 2002-02-28 2007-02-07 シーケーディ株式会社 三次元計測装置
KR101190122B1 (ko) * 2008-10-13 2012-10-11 주식회사 고영테크놀러지 다중파장을 이용한 3차원형상 측정장치 및 측정방법
JP5170154B2 (ja) * 2010-04-26 2013-03-27 オムロン株式会社 形状計測装置およびキャリブレーション方法
JP2016008901A (ja) * 2014-06-25 2016-01-18 コニカミノルタ株式会社 形状測定装置
JP6303867B2 (ja) 2014-06-27 2018-04-04 オムロン株式会社 基板検査装置及びその制御方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001324450A (ja) * 2000-03-06 2001-11-22 View Engineering Inc 異なる投射角で焦点を合わせた光で物体を照明する方法とシステム及びこれに用いられる多色光源
JP2003172709A (ja) * 2001-12-06 2003-06-20 Asia Electronics Inc 検査装置
US20050238237A1 (en) * 2004-04-23 2005-10-27 3D-Shape Gmbh Method and apparatus for determining the shape and the local surface normals of specular surfaces
JP2018081048A (ja) * 2016-11-18 2018-05-24 オムロン株式会社 三次元形状計測装置
JP2018112479A (ja) * 2017-01-12 2018-07-19 リコーエレメックス株式会社 外観検査システム
JP2019120643A (ja) * 2018-01-10 2019-07-22 オムロン株式会社 画像処理システム

Also Published As

Publication number Publication date
JP2021117158A (ja) 2021-08-10
DE112020006630T5 (de) 2022-11-17
CN114867984A (zh) 2022-08-05
JP7424074B2 (ja) 2024-01-30

Similar Documents

Publication Publication Date Title
JP6626335B2 (ja) 構造化光プロジェクタおよびそうしたプロジェクタを含む3次元スキャナ
US10508902B2 (en) Three-dimensional measurement device
JP5170154B2 (ja) 形状計測装置およびキャリブレーション方法
US10262431B2 (en) Three-dimensional measurement device
KR20160007361A (ko) 투영광원을 구비한 촬영방법 및 그 촬영장치
US10796428B2 (en) Inspection system and inspection method
CN105372259B (zh) 测量装置、基板检查装置以及其控制方法、存储媒体
JP6791631B2 (ja) 画像生成方法及び検査装置
JP5432864B2 (ja) 検査装置及び検査方法
US8837809B2 (en) Method for detecting a bridge connecting failure
JP2019148438A (ja) 画像処理システムおよび設定方法
CN113483892B (zh) 一种多光谱影像测量系统和方法
WO2021153056A1 (ja) 三次元形状計測装置、三次元形状計測方法及びプログラム
JP5867123B2 (ja) 3次元形状計測装置およびキャリブレーション方法
WO2021153057A1 (ja) 三次元形状計測装置、三次元形状計測方法及びプログラム
KR101876391B1 (ko) 단색광 모아레의 다채널 이미지를 이용한 3차원 검사 장치
KR20170124509A (ko) 검사 시스템 및 검사 방법
CN115809984A (zh) 利用颜色通道的工件检查和缺陷检测系统
WO2021084773A1 (ja) 画像処理システム、設定方法およびプログラム
WO2021053852A1 (ja) 外観検査装置、外観検査装置の較正方法及びプログラム
CN214333663U (zh) 一种2d、3d复合的高精度视觉装置
JP7247032B2 (ja) 検査装置
WO2012073981A1 (ja) 外観検査装置及び印刷半田検査装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20917188

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 20917188

Country of ref document: EP

Kind code of ref document: A1