JP6933887B2 - Inspection equipment and inspection method - Google Patents

Inspection equipment and inspection method Download PDF

Info

Publication number
JP6933887B2
JP6933887B2 JP2016185788A JP2016185788A JP6933887B2 JP 6933887 B2 JP6933887 B2 JP 6933887B2 JP 2016185788 A JP2016185788 A JP 2016185788A JP 2016185788 A JP2016185788 A JP 2016185788A JP 6933887 B2 JP6933887 B2 JP 6933887B2
Authority
JP
Japan
Prior art keywords
image
alignment
region
reference image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016185788A
Other languages
Japanese (ja)
Other versions
JP2018048968A (en
Inventor
努 作山
努 作山
泰史 永田
泰史 永田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Screen Holdings Co Ltd
Original Assignee
Screen Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Screen Holdings Co Ltd filed Critical Screen Holdings Co Ltd
Priority to JP2016185788A priority Critical patent/JP6933887B2/en
Publication of JP2018048968A publication Critical patent/JP2018048968A/en
Application granted granted Critical
Publication of JP6933887B2 publication Critical patent/JP6933887B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、検査装置および検査方法に関する。 The present invention relates to an inspection device and an inspection method.

従来、立体的な対象物に光を照射して撮像し、撮像画像に基づいて対象物の外観を検査する装置が利用されている。例えば、特許文献1では、円形状製品を検査するための検査方法が開示されている。当該方法では、回転治具にて円形状製品を回転させながら撮像手段を用いて当該円形状製品の検査画像が帯状に展開取得され、帯状に展開したマスター画像に、検査基準位置をパターンマッチング処理により基準合わせした後、検査画像とマスター画像とが照合される。 Conventionally, an apparatus has been used in which a three-dimensional object is irradiated with light to take an image, and the appearance of the object is inspected based on the captured image. For example, Patent Document 1 discloses an inspection method for inspecting a circular product. In this method, the inspection image of the circular product is developed and acquired in a strip shape by using an imaging means while rotating the circular product with a rotating jig, and the inspection reference position is pattern-matched to the master image developed in the strip shape. After matching the reference with, the inspection image and the master image are collated.

なお、非特許文献1では、2つの画像におけるオプティカルフローを求める手法が開示されている。当該手法では、輝度不変の仮定、輝度勾配不変の仮定、および、平滑性の仮定からの逸脱にペナルティーを与えるエネルギー関数が用いられ、このエネルギーを最小化するベクトルが、粗密ワーピング(coarse-to-fine warping)を利用して求められる。 In addition, Non-Patent Document 1 discloses a method for obtaining an optical flow in two images. The technique uses an energy function that penalizes the assumptions of brightness invariance, brightness gradient invariance, and deviations from smoothness assumptions, and the vector that minimizes this energy is coarse-to-. It is requested by using fine warping).

特開2014−95579号公報Japanese Unexamined Patent Publication No. 2014-95579

Thomas Brox et al., "High Accuracy Optical Flow Estimation Based on a Theory for Warping", European Conference on Computer Vision, Springer LNCS 3024, May 2004, vol. 4, p. 25-36Thomas Brox et al., "High Accuracy Optical Flow Estimation Based on a Theory for Warping", European Conference on Computer Vision, Springer LNCS 3024, May 2004, vol. 4, p. 25-36

ところで、撮像部によりステージ上の対象物を撮像する際に、対象物の向きが、予め定められた向きからずれると、撮像部からの対象物の見え方が変化する。この場合に、撮像部により取得される対象画像と、所定の参照画像とを比較すると、対象画像において、参照画像には現れない部分が出現しているため、当該部分が、欠陥ではないにもかかわらず、欠陥として検出されてしまう(いわゆる、偽欠陥の検出)。 By the way, when an object on the stage is imaged by the imaging unit, if the direction of the object deviates from a predetermined direction, the appearance of the object from the imaging unit changes. In this case, when the target image acquired by the imaging unit is compared with the predetermined reference image, a portion of the target image that does not appear in the reference image appears, so that the portion is not a defect. Regardless, it is detected as a defect (so-called false defect detection).

一方、参照画像と対象画像との間で画素のオプティカルフローを求めることにより参照画像を対象画像に対して位置合わせする場合、上記部分に似せるように参照画像の一部が歪められるため、偽欠陥の検出は抑制される。しかしながら、画素単位での位置合わせでは、参照画像が対象画像に対して過度に似せられることがあり、対象物において寸法が設計値と大きく異なる部分等の欠陥が検出されなくなる。 On the other hand, when the reference image is aligned with respect to the target image by obtaining the optical flow of pixels between the reference image and the target image, a part of the reference image is distorted so as to resemble the above part, which is a false defect. Detection is suppressed. However, in the pixel-by-pixel alignment, the reference image may be excessively resembled to the target image, and defects such as a portion whose dimensions differ greatly from the design value in the target object cannot be detected.

本発明は上記課題に鑑みなされたものであり、対象画像と参照画像との位置合わせを適切に行って、好ましい検査を行うことを目的としている。 The present invention has been made in view of the above problems, and an object of the present invention is to appropriately align the target image and the reference image to perform a preferable inspection.

請求項1に記載の発明は、検査装置であって、対象物を撮像した対象画像を記憶する対象画像記憶部と、参照画像を記憶する参照画像記憶部と、前記対象画像と前記参照画像との位置合わせを行う位置合わせ部と、位置合わせ後の両画像を比較することにより、前記対象画像中の欠陥領域を検出する比較部とを備え、前記位置合わせ部が、前記対象画像および前記参照画像の一方の画像の第1設定領域を分割した複数の領域を、他方の画像に対して個別に位置合わせする第1位置合わせ処理部と、前記一方の画像において前記第1設定領域とは異なる第2設定領域に含まれ、かつ、前記複数の領域のいずれよりも大きい領域を前記他方の画像に対して位置合わせする第2位置合わせ処理部とを備える。 The invention according to claim 1 is an inspection device, which comprises a target image storage unit that stores a target image obtained by capturing an image of an object, a reference image storage unit that stores a reference image, and the target image and the reference image. The alignment unit includes a alignment unit for detecting a defect region in the target image by comparing both images after the alignment, and the alignment unit is the target image and the reference. The first alignment processing unit that individually aligns a plurality of regions obtained by dividing the first setting region of one image of the image with respect to the other image is different from the first setting region in the one image. It includes a second alignment processing unit that aligns a region included in the second setting region and larger than any of the plurality of regions with respect to the other image.

請求項2に記載の発明は、請求項1に記載の検査装置であって、前記比較部が、前記位置合わせ後の両画像の一方を他方に対して上下左右にずらした複数の相対位置関係において、前記両画像から複数の差分画像を求め、前記複数の差分画像に基づいて前記欠陥領域を検出する。 The invention according to claim 2 is the inspection apparatus according to claim 1, wherein the comparison unit shifts one of the two images after alignment vertically and horizontally with respect to the other. In, a plurality of difference images are obtained from both of the images, and the defect region is detected based on the plurality of difference images.

請求項3に記載の発明は、請求項1または2に記載の検査装置であって、前記第2位置合わせ処理部が、アフィン変換を用いて前記第2設定領域における前記他方の画像に対する位置合わせを行う。 The invention according to claim 3 is the inspection apparatus according to claim 1 or 2, wherein the second alignment processing unit aligns the other image in the second setting region by using an affine transformation. I do.

請求項4に記載の発明は、請求項3に記載の検査装置であって、前記第2位置合わせ処理部が、アフィン変換を用いて前記一方の画像の全体の処理済み画像を取得し、前記第1位置合わせ処理部による位置合わせ後の前記第1設定領域が、前記処理済み画像に合成され、合成後の前記処理済み画像において前記第1設定領域以外の領域である前記第2設定領域が前記他方の画像に対して位置合わせされている。 The invention according to claim 4 is the inspection apparatus according to claim 3, wherein the second alignment processing unit acquires an entire processed image of the one image by using an affine transformation, and said that. The first setting area after alignment by the first alignment processing unit is combined with the processed image, and the second setting area, which is an area other than the first setting area in the processed image after composition, is formed. wherein that are aligned with respect to the other image.

請求項5に記載の発明は、請求項1ないし4のいずれかに記載の検査装置であって、前記第1位置合わせ処理部が、前記第1設定領域における各画素の前記他方の画像に対するオプティカルフローを求めることにより、位置合わせを行う。 The invention according to claim 5 is the inspection apparatus according to any one of claims 1 to 4, wherein the first alignment processing unit is an optical with respect to the other image of each pixel in the first setting area. Alignment is performed by obtaining the flow.

請求項6に記載の発明は、検査方法であって、a)対象物を撮像した対象画像を準備する工程と、b)前記対象画像と参照画像との位置合わせを行う工程と、c)位置合わせ後の両画像を比較することにより、前記対象画像中の欠陥領域を検出する工程とを備え、前記b)工程が、b1)前記対象画像および前記参照画像の一方の画像の第1設定領域を分割した複数の領域を、他方の画像に対して個別に位置合わせする工程と、b2)前記一方の画像において前記第1設定領域とは異なる第2設定領域に含まれ、かつ、前記複数の領域のいずれよりも大きい領域を前記他方の画像に対して位置合わせする工程とを備える。
The invention according to claim 6 is an inspection method, in which a) a step of preparing a target image obtained by capturing an image of an object, b) a step of aligning the target image with a reference image, and c) a position. A step of detecting a defect region in the target image by comparing both the combined images is provided, and the b) step is b1) a first setting region of one image of the target image and the reference image. B2) The step of individually aligning a plurality of regions divided into the above with respect to the other image, and b2) the plurality of regions included in the second setting region different from the first setting region in the one image. It includes a step of aligning a region larger than any of the regions with respect to the other image.

請求項7に記載の発明は、請求項6に記載の検査方法であって、前記c)工程において、前記位置合わせ後の両画像の一方を他方に対して上下左右にずらした複数の相対位置関係において、前記両画像から複数の差分画像が求められ、前記複数の差分画像に基づいて前記欠陥領域が検出される。 The invention according to claim 7 is the inspection method according to claim 6, wherein in the step c), a plurality of relative positions in which one of the two images after the alignment is shifted vertically and horizontally with respect to the other. In the relationship, a plurality of difference images are obtained from the two images, and the defect region is detected based on the plurality of difference images.

請求項8に記載の発明は、請求項6または7に記載の検査方法であって、前記b2)工程において、アフィン変換を用いて前記第2設定領域における前記他方の画像に対する位置合わせが行われる。 The invention according to claim 8 is the inspection method according to claim 6 or 7, wherein in the step b2), the alignment with respect to the other image in the second setting region is performed by using the affine transformation. ..

請求項9に記載の発明は、請求項8に記載の検査方法であって、前記b2)工程において、アフィン変換を用いて前記一方の画像の全体の処理済み画像が取得され、前記b1)工程における位置合わせ後の前記第1設定領域が、前記処理済み画像に合成され、合成後の前記処理済み画像において前記第1設定領域以外の領域である前記第2設定領域が前記他方の画像に対して位置合わせされている。 The invention according to claim 9 is the inspection method according to claim 8, wherein in the step b2), the entire processed image of the one image is acquired by using the affine transformation, and the step b1). The first set area after alignment in the above is combined with the processed image, and the second set area, which is a region other than the first set area in the processed image after composition, is relative to the other image. It has been aligned Te that.

請求項10に記載の発明は、請求項6ないし9のいずれかに記載の検査方法であって、前記b1)工程において、前記第1設定領域における各画素の前記他方の画像に対するオプティカルフローを求めることにより、位置合わせが行われる。 The invention according to claim 10 is the inspection method according to any one of claims 6 to 9, wherein in the step b1), an optical flow of each pixel in the first setting region with respect to the other image is obtained. As a result, alignment is performed.

本発明によれば、対象画像と参照画像との位置合わせを、第1および第2設定領域において個別に行うことにより、各設定領域に応じた位置合わせを適切に行って、好ましい検査を行うことができる。 According to the present invention, by individually aligning the target image and the reference image in the first and second setting areas, the alignment according to each setting area is appropriately performed, and a preferable inspection is performed. Can be done.

検査装置の構成を示す図である。It is a figure which shows the structure of the inspection apparatus. 検査装置の本体を示す平面図である。It is a top view which shows the main body of an inspection apparatus. コンピュータが実現する機能構成を示すブロック図である。It is a block diagram which shows the functional structure realized by a computer. 対象物の検査の処理の流れを示す図である。It is a figure which shows the flow of the process of inspection of an object. 対象画像を示す図である。It is a figure which shows the target image. 参照画像を示す図である。It is a figure which shows the reference image. 第1処理済み参照画像を示す図である。It is a figure which shows the 1st processed reference image. 第2処理済み参照画像を示す図である。It is a figure which shows the 2nd processed reference image. 合成参照画像を示す図である。It is a figure which shows the composite reference image. 合成参照画像の一部を拡大して示す図である。It is a figure which shows the part of the composite reference image enlarged. ゆすらせ比較処理を説明するための図である。It is a figure for demonstrating the shaking comparison process. 欠陥領域画像を示す図である。It is a figure which shows the defect area image. 比較例の処理による欠陥領域画像を示す図である。It is a figure which shows the defect region image by the processing of the comparative example. 他の比較例の処理による欠陥領域画像を示す図である。It is a figure which shows the defect region image by processing of another comparative example. 位置合わせ後の設定領域の画像を示す図である。It is a figure which shows the image of the setting area after alignment. 2つの設定領域を示す図である。It is a figure which shows two setting areas. 位置合わせ後の設定領域の画像を示す図である。It is a figure which shows the image of the setting area after alignment.

図1は、本発明の一の実施の形態に係る検査装置1の構成を示す図である。図2は、検査装置1の本体11を示す平面図である。検査装置1は、表面に光沢を有する立体的な対象物9の外観を検査する装置である。対象物9は、例えば、鍛造や鋳造により形成された金属部品であり、その表面は微小な凹凸を有する梨地状である。対象物9は、例えば、自在継手に用いられる各種部品(円筒形のハブの軸や外輪、ヨーク等)である。 FIG. 1 is a diagram showing a configuration of an inspection device 1 according to an embodiment of the present invention. FIG. 2 is a plan view showing the main body 11 of the inspection device 1. The inspection device 1 is a device that inspects the appearance of a three-dimensional object 9 having a glossy surface. The object 9 is, for example, a metal part formed by forging or casting, and its surface is satin-finished with minute irregularities. The object 9 is, for example, various parts (cylindrical hub shaft, outer ring, yoke, etc.) used for a universal joint.

図1に示すように、検査装置1は、本体11と、コンピュータ12とを備える。本体11は、ステージ2と、ステージ回動部21と、撮像ユニット3と、光源ユニット4とを備える。対象物9はステージ2上に載置される。ステージ回動部21は、上下方向を向く中心軸J1を中心として対象物9をステージ2と共に所定の角度だけ回動する。中心軸J1は、ステージ2の中央を通過する。本体11には、外部の光がステージ2上に到達することを防止する図示省略の遮光カバーが設けられ、ステージ2、撮像ユニット3および光源ユニット4は、遮光カバー内に設けられる。 As shown in FIG. 1, the inspection device 1 includes a main body 11 and a computer 12. The main body 11 includes a stage 2, a stage rotating unit 21, an imaging unit 3, and a light source unit 4. The object 9 is placed on the stage 2. The stage rotating portion 21 rotates the object 9 together with the stage 2 by a predetermined angle about the central axis J1 facing in the vertical direction. The central axis J1 passes through the center of stage 2. The main body 11 is provided with a light-shielding cover (not shown) for preventing external light from reaching the stage 2, and the stage 2, the image pickup unit 3, and the light source unit 4 are provided in the light-shielding cover.

図1および図2に示すように、撮像ユニット3は、1個の上方撮像部31と、4個の斜方撮像部32と、4個の側方撮像部33とを備える。図2では、上方撮像部31の図示を省略している(後述の上方光源部41において同様)。上方撮像部31は、ステージ2の上方にて中心軸J1上に配置される。上方撮像部31によりステージ2上の対象物9を真上から撮像した画像が取得可能である。 As shown in FIGS. 1 and 2, the image pickup unit 3 includes one upper image pickup unit 31, four oblique image pickup units 32, and four side image pickup units 33. In FIG. 2, the upper light source unit 31 is not shown (the same applies to the upper light source unit 41 described later). The upper imaging unit 31 is arranged on the central axis J1 above the stage 2. An image obtained by capturing an object 9 on the stage 2 from directly above can be acquired by the upper imaging unit 31.

図2に示すように、上側から下方を向いて本体11を見た場合に(すなわち、本体11を平面視した場合に)、4個の斜方撮像部32はステージ2の周囲に配置される。4個の斜方撮像部32は、中心軸J1を中心とする周方向に90°の角度間隔(ピッチ)にて配列される。各斜方撮像部32の撮像光軸K2と中心軸J1とを含む面において(図1参照)、撮像光軸K2と中心軸J1とがなす角度θ2は、およそ45°である。各斜方撮像部32によりステージ2上の対象物9を斜め上から撮像した画像が取得可能である。 As shown in FIG. 2, when the main body 11 is viewed from the upper side to the lower side (that is, when the main body 11 is viewed in a plan view), the four oblique imaging units 32 are arranged around the stage 2. .. The four oblique imaging units 32 are arranged at an angular interval (pitch) of 90 ° in the circumferential direction about the central axis J1. On the surface of each oblique imaging unit 32 including the imaging optical axis K2 and the central axis J1 (see FIG. 1), the angle θ2 formed by the imaging optical axis K2 and the central axis J1 is approximately 45 °. An image obtained by capturing an object 9 on the stage 2 from diagonally above can be acquired by each oblique imaging unit 32.

本体11を平面視した場合に、4個の側方撮像部33も、4個の斜方撮像部32と同様にステージ2の周囲に配置される。4個の側方撮像部33は、周方向に90°の角度間隔にて配列される。各側方撮像部33の撮像光軸K3と中心軸J1とを含む面において、撮像光軸K3と中心軸J1とがなす角度θ3は、およそ90°である。各側方撮像部33によりステージ2上の対象物9を横から撮像した画像が取得可能である。上方撮像部31、斜方撮像部32および側方撮像部33は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等を有し、多階調の画像が取得される。上方撮像部31、斜方撮像部32および側方撮像部33は、図示省略の支持部により支持される。 When the main body 11 is viewed in a plan view, the four lateral imaging units 33 are also arranged around the stage 2 in the same manner as the four oblique imaging units 32. The four lateral imaging units 33 are arranged at an angular interval of 90 ° in the circumferential direction. The angle θ3 formed by the imaging optical axis K3 and the central axis J1 on the surface of each side imaging unit 33 including the imaging optical axis K3 and the central axis J1 is approximately 90 °. An image obtained by capturing an object 9 on the stage 2 from the side can be acquired by each side imaging unit 33. The upper image pickup unit 31, the oblique image pickup section 32, and the side image pickup section 33 have, for example, a CCD (Charge Coupled Device), a CMOS (Complementary Metal-Oxide Semiconductor), or the like, and a multi-gradation image is acquired. The upper image pickup unit 31, the oblique image pickup section 32, and the side image pickup section 33 are supported by a support section (not shown).

光源ユニット4は、1個の上方光源部41と、8個の斜方光源部42と、8個の側方光源部43とを備える。上方光源部41は、中心軸J1を中心とするリング状に複数のLED(発光ダイオード)が配列された光源部である。リング状の上方光源部41は上方撮像部31の周囲を囲むように、上方撮像部31に固定される。上方光源部41によりステージ2上の対象物9に対して真上から中心軸J1に平行な方向に沿って光が照射可能である。 The light source unit 4 includes one upper light source unit 41, eight oblique light source units 42, and eight side light source units 43. The upper light source unit 41 is a light source unit in which a plurality of LEDs (light emitting diodes) are arranged in a ring shape centered on the central axis J1. The ring-shaped upper light source unit 41 is fixed to the upper image pickup unit 31 so as to surround the periphery of the upper image pickup unit 31. The upper light source unit 41 can irradiate the object 9 on the stage 2 with light from directly above along the direction parallel to the central axis J1.

本体11を平面視した場合に、8個の斜方光源部42はステージ2の周囲に配置される。8個の斜方光源部42は、周方向に45°の角度間隔にて配列される。各斜方光源部42は、中心軸J1を中心とする円周の接線方向に伸びるバー状に複数のLEDが配列された光源部である。各斜方光源部42の出射面の中央と対象物9(の中心)とを結ぶ線を「照明軸」と呼ぶと、当該斜方光源部42の照明軸と中心軸J1とを含む面において、当該照明軸と中心軸J1とがなす角度は、およそ45°である。各斜方光源部42では、ステージ2上の対象物9に対して斜め上から当該照明軸に沿って光が照射可能である。検査装置1では、8個の斜方光源部42のうち4個の斜方光源部42は4個の斜方撮像部32にそれぞれ固定され、残りの4個の斜方光源部42は、図示省略の支持部により支持される。 When the main body 11 is viewed in a plan view, the eight oblique light source portions 42 are arranged around the stage 2. The eight oblique light source units 42 are arranged at an angular interval of 45 ° in the circumferential direction. Each oblique light source unit 42 is a light source unit in which a plurality of LEDs are arranged in a bar shape extending in the tangential direction of the circumference centered on the central axis J1. When the line connecting the center of the emission surface of each oblique light source unit 42 and the object 9 (center) is called an "illumination axis", the surface including the illumination axis and the central axis J1 of the oblique light source unit 42 The angle formed by the illumination axis and the central axis J1 is approximately 45 °. Each oblique light source unit 42 can irradiate the object 9 on the stage 2 with light from diagonally above along the illumination axis. In the inspection device 1, four of the eight oblique light source units 42 are fixed to the four oblique light source units 32, and the remaining four oblique light source units 42 are shown in the figure. Supported by an abbreviated support.

本体11を平面視した場合に、8個の側方光源部43はステージ2の周囲に配置される。8個の側方光源部43は、周方向に45°の角度間隔にて配列される。各側方光源部43は、中心軸J1を中心とする円周の接線方向に伸びるバー状に複数のLEDが配列された光源部である。斜方光源部42と同様に、各側方光源部43の出射面の中央と対象物9とを結ぶ線を「照明軸」と呼ぶと、当該側方光源部43の照明軸と中心軸J1とを含む面において、当該照明軸と中心軸J1とがなす角度は、およそ90°である。各側方光源部43では、ステージ2上の対象物9に対して横から当該照明軸に沿って光が照射可能である。検査装置1では、8個の側方光源部43のうち4個の側方光源部43は4個の側方撮像部33にそれぞれ固定され、残りの4個の側方光源部43は、図示省略の支持部により支持される。 When the main body 11 is viewed in a plan view, the eight side light source units 43 are arranged around the stage 2. The eight side light source units 43 are arranged at an angular interval of 45 ° in the circumferential direction. Each side light source unit 43 is a light source unit in which a plurality of LEDs are arranged in a bar shape extending in the tangential direction of the circumference centered on the central axis J1. Similar to the oblique light source unit 42, when the line connecting the center of the emission surface of each side light source unit 43 and the object 9 is called an "illumination axis", the illumination axis and the central axis J1 of the side light source unit 43 are called "illumination axes". The angle formed by the illumination axis and the central axis J1 on the surface including and is approximately 90 °. Each side light source unit 43 can irradiate the object 9 on the stage 2 with light from the side along the illumination axis. In the inspection device 1, four side light source units 43 out of eight side light source units 43 are fixed to each of the four side light source units 33, and the remaining four side light source units 43 are not shown. Supported by an abbreviated support.

例えば、上方撮像部31および上方光源部41と対象物9との間の距離は、約55cm(センチメートル)である。また、斜方撮像部32および斜方光源部42と対象物9との間の距離は約50cmであり、側方撮像部33および側方光源部43と対象物9との間の距離は約40cmである。上方光源部41、斜方光源部42および側方光源部43では、LED以外の種類の光源が用いられてよい。 For example, the distance between the upper image pickup unit 31 and the upper light source unit 41 and the object 9 is about 55 cm (centimeters). The distance between the oblique imaging unit 32 and the oblique light source unit 42 and the object 9 is about 50 cm, and the distance between the side imaging unit 33 and the side light source unit 43 and the object 9 is about 50 cm. It is 40 cm. In the upper light source unit 41, the oblique light source unit 42, and the side light source unit 43, a type of light source other than the LED may be used.

図3は、コンピュータ12が実現する機能構成を示すブロック図である。コンピュータ12は、検査部5を備える。検査部5は、対象画像記憶部51と、参照画像記憶部52と、位置合わせ部53と、比較部54とを備える。対象画像記憶部51は、撮像ユニット3(の撮像部)により撮像された対象物9の画像(以下、「対象画像」という。)のデータを記憶する。参照画像記憶部52は、対象画像と同じ撮像部により取得された、欠陥が無い対象物9の画像(以下、「参照画像」という。)のデータを記憶する。位置合わせ部53は、対象画像と参照画像との位置合わせを行う。位置合わせ部53は、第1位置合わせ処理部531と、第2位置合わせ処理部532と、合成部533とを有する。比較部54は、位置合わせ後の両画像を比較することにより、対象画像中の欠陥領域を検出する。検査部5による処理の詳細については、後述する。コンピュータ12は、検査装置1の全体制御を行う制御部としての役割も担う。 FIG. 3 is a block diagram showing a functional configuration realized by the computer 12. The computer 12 includes an inspection unit 5. The inspection unit 5 includes a target image storage unit 51, a reference image storage unit 52, an alignment unit 53, and a comparison unit 54. The target image storage unit 51 stores data of an image of the object 9 (hereinafter, referred to as “target image”) captured by the image pickup unit 3 (the image pickup unit). The reference image storage unit 52 stores the data of the image of the object 9 without defects (hereinafter, referred to as “reference image”) acquired by the same imaging unit as the target image. The alignment unit 53 aligns the target image and the reference image. The alignment unit 53 includes a first alignment processing unit 531, a second alignment processing unit 532, and a synthesis unit 533. The comparison unit 54 detects a defective region in the target image by comparing both the aligned images. The details of the processing by the inspection unit 5 will be described later. The computer 12 also plays a role as a control unit that controls the entire inspection device 1.

図4は、検査装置1による対象物9の検査の処理の流れを示す図である。まず、ステージ2上に検査対象の対象物9が載置される(ステップS11)。ステージ2上には、例えば位置合わせ用の複数のピンが設けられており、対象物9の予め定められた部位を当該複数のピンに当接させることにより、ステージ2上の所定位置に対象物9が(理想的には)所定の向きにて配置される。続いて、操作者による入力等に基づいて、ステージ2上の対象物9に対する撮像設定情報が取得される(ステップS12)。ここで、撮像設定情報は、撮像ユニット3において使用する撮像部(以下、「選択撮像部」という。)と、当該選択撮像部による画像の取得の際に光源ユニット4において点灯する光源部(以下、「選択光源部」という。)とを示す。ここでは、選択撮像部として、一の斜方撮像部32が選択され、選択光源部として、選択撮像部の周囲の光源部が選択されているものとする。もちろん、他の撮像部および光源部が選択撮像部および選択光源部として選択されてもよい。撮像設定情報が取得されると、選択光源部および選択撮像部を利用して、図5に示す対象画像71(のデータ)が取得される(ステップS13)。 FIG. 4 is a diagram showing a flow of processing for inspection of the object 9 by the inspection device 1. First, the object 9 to be inspected is placed on the stage 2 (step S11). For example, a plurality of pins for alignment are provided on the stage 2, and by bringing a predetermined portion of the object 9 into contact with the plurality of pins, the object is placed at a predetermined position on the stage 2. The 9s are (ideally) arranged in a predetermined orientation. Subsequently, the imaging setting information for the object 9 on the stage 2 is acquired based on the input by the operator or the like (step S12). Here, the imaging setting information includes an imaging unit used in the imaging unit 3 (hereinafter referred to as “selective imaging unit”) and a light source unit (hereinafter referred to as “selective imaging unit”) that lights up in the light source unit 4 when the selective imaging unit acquires an image. , "Selected light source unit"). Here, it is assumed that one oblique imaging unit 32 is selected as the selective imaging unit, and the light source unit around the selective imaging unit is selected as the selective light source unit. Of course, other imaging units and light source units may be selected as the selective imaging unit and the selective light source unit. When the imaging setting information is acquired, the target image 71 (data) shown in FIG. 5 is acquired by using the selective light source unit and the selective imaging unit (step S13).

対象画像71は、対象物9を示す多階調の画像であり、対象画像記憶部51に記憶されて準備される。図5では、対象画像71中の対象物9に対して同じ符号9を付している(後述の図6の参照画像8において同様)。対象物9は、板状のベース部901の中央に円柱部902が設けられた形状を有する。撮像時における対象物9は、予め定められた向きから円柱部902を中心として僅かな角度だけ回転した向きとなっている。その結果、対象画像71では、ベース部901において、本来は背後に隠れた部分(いわゆる、オクルージョン)である角部側面903が現れている。また、ベース部901のエッジに欠陥904が存在し、円柱部902の長さも設計値に対して短くなっている(後述の図6参照)。 The target image 71 is a multi-gradation image showing the target object 9, and is stored and prepared in the target image storage unit 51. In FIG. 5, the same reference numeral 9 is attached to the object 9 in the target image 71 (the same applies to the reference image 8 in FIG. 6 described later). The object 9 has a shape in which a cylindrical portion 902 is provided in the center of a plate-shaped base portion 901. The object 9 at the time of imaging is in a direction rotated by a slight angle about the cylindrical portion 902 from a predetermined direction. As a result, in the target image 71, the corner side surface 903, which is originally a hidden portion (so-called occlusion), appears in the base portion 901. Further, a defect 904 exists at the edge of the base portion 901, and the length of the cylindrical portion 902 is also shorter than the design value (see FIG. 6 described later).

一方、検査装置1では、光源部および撮像部の様々な組合せを利用して、欠陥が無い他の対象物9を撮像することにより、複数の参照画像(のデータ)が予め取得されている。参照画像は、欠陥が無い複数の対象物9を撮像した複数の画像から作成されてもよく、対象物9の設計データから作成されてもよい。検査部5では、対象画像71と同じ光源部および撮像部の組合せを利用して取得された参照画像が特定され、対象画像71と共に位置合わせ部53に出力される。 On the other hand, in the inspection device 1, a plurality of reference images (data) are acquired in advance by imaging another object 9 having no defects by using various combinations of a light source unit and an imaging unit. The reference image may be created from a plurality of images obtained by capturing a plurality of objects 9 having no defects, or may be created from the design data of the objects 9. The inspection unit 5 identifies the reference image acquired by using the same combination of the light source unit and the imaging unit as the target image 71, and outputs the reference image together with the target image 71 to the alignment unit 53.

図6は、対象画像71に対応する参照画像8を示す図である。第1位置合わせ処理部531および第2位置合わせ処理部532では、参照画像8と対象画像71との位置合わせが行われる。ここで、位置合わせ(レジストレーション)とは、対象画像71および参照画像の一方の画像において、対象物9の各部位を示す領域を、他方の画像における当該部位を示す位置へと移動する処理であり、位置合わせにより、両画像の差が低減される。 FIG. 6 is a diagram showing a reference image 8 corresponding to the target image 71. In the first alignment processing unit 531 and the second alignment processing unit 532, the reference image 8 and the target image 71 are aligned. Here, the alignment (registration) is a process of moving a region showing each part of the object 9 to a position showing the part in the other image in one image of the target image 71 and the reference image. Yes, the alignment reduces the difference between the two images.

第1位置合わせ処理部531では、参照画像8の各画素の対象画像71に対するオプティカルフローが求められる。そして、オプティカルフローに基づいて、参照画像8が対象画像71に対して位置合わせされ、図7に示す位置合わせ後の参照画像81(以下、「第1処理済み参照画像81」という。)が取得される(ステップS14)。 The first alignment processing unit 531 is required to obtain an optical flow for the target image 71 of each pixel of the reference image 8. Then, the reference image 8 is aligned with the target image 71 based on the optical flow, and the aligned reference image 81 (hereinafter, referred to as “first processed reference image 81”) shown in FIG. 7 is acquired. (Step S14).

ここで、参照画像8と対象画像71との間のオプティカルフローの算出では、例えば、Thomas Broxらによる"High Accuracy Optical Flow Estimation Based on a Theory for Warping"(European Conference on Computer Vision, Springer LNCS 3024, May 2004, vol. 4, p. 25-36)(非特許文献1)に記載の手法が利用可能である。本手法では、輝度不変の仮定、輝度勾配不変の仮定、および、平滑性の仮定からの逸脱にペナルティーを与えるエネルギー関数が用いられ、このエネルギーを最小化するベクトルが、粗密ワーピング(coarse-to-fine warping)を利用して求められる。 Here, in the calculation of the optical flow between the reference image 8 and the target image 71, for example, "High Accuracy Optical Flow Estimation Based on a Theory for Warping" by Thomas Brox et al. (European Conference on Computer Vision, Springer LNCS 3024, The method described in May 2004, vol. 4, p. 25-36) (Non-Patent Document 1) can be used. In this method, an energy function that penalizes the assumption of brightness invariance, the assumption of brightness gradient invariance, and the deviation from the assumption of smoothness is used, and the vector that minimizes this energy is coarse-to- It is requested by using fine warping).

このように、第1位置合わせ処理部531による位置合わせ処理では、画素を単位とする微視的な位置合わせ(すなわち、他方の画像にて類似する部分を探索する際における単位領域を1つの画素とする位置合わせ)が行われる。その結果、参照画像8には現れていない対象画像71中の角部側面903が、輝度が比較的近い参照画像8中の周囲の画素の位置合わせにより、第1処理済み参照画像81においてある程度表現される。また、第1処理済み参照画像81では、円柱部902の長さも対象画像71における長さにある程度合わせられる。オプティカルフローの算出では、他の手法が用いられてもよい。 As described above, in the alignment processing by the first alignment processing unit 531, one pixel is used for microscopic alignment in pixels (that is, when searching for a similar portion in the other image). Alignment) is performed. As a result, the corner side surface 903 in the target image 71 that does not appear in the reference image 8 is expressed to some extent in the first processed reference image 81 by the alignment of the surrounding pixels in the reference image 8 having a relatively close brightness. Will be done. Further, in the first processed reference image 81, the length of the cylindrical portion 902 is also adjusted to some extent to the length in the target image 71. Other methods may be used in the calculation of the optical flow.

また、第2位置合わせ処理部532では、アフィン変換を用いて参照画像8が対象画像71に対して位置合わせされ、図8に示す位置合わせ後の参照画像82(以下、「第2処理済み参照画像82」という。)が取得される(ステップS15)。アフィン変換を用いた位置合わせの一例では、参照画像8において対象物9上の複数の特徴点(例えば、対象物9の外形を示す線上の点)が予め定められており、対象画像71において当該複数の特徴点を示す複数の位置が、パターンマッチングにより求められる。そして、参照画像8における複数の特徴点の座標と、対象画像71における当該複数の位置の座標とを用いてアフィン変換行列の要素(ここでは、平行移動および回転に係る要素)の値が求められ、参照画像8に対して当該変換行列を用いてアフィン変換が施される。 Further, in the second alignment processing unit 532, the reference image 8 is aligned with respect to the target image 71 by using the affine transformation, and the reference image 82 after the alignment shown in FIG. 8 (hereinafter, “second processed reference”). Image 82 ”) is acquired (step S15). In an example of alignment using the affine transformation, a plurality of feature points on the object 9 (for example, points on a line indicating the outer shape of the object 9) are predetermined in the reference image 8, and the target image 71 is the same. A plurality of positions indicating a plurality of feature points are obtained by pattern matching. Then, the values of the elements of the affine transformation matrix (here, the elements related to translation and rotation) are obtained by using the coordinates of the plurality of feature points in the reference image 8 and the coordinates of the plurality of positions in the target image 71. , The affine transformation is performed on the reference image 8 using the transformation matrix.

このように、第2位置合わせ処理部532による位置合わせ処理では、複数の特徴点により囲まれる比較的大きな領域を単位として巨視的な位置合わせ(すなわち、単位領域を多数の画素の集合とする位置合わせ)が行われる。その結果、処理前の参照画像8と第2処理済み参照画像82との間において、対象物9の各部位の寸法(例えば、円柱部902の長さや直径、ベース部901の幅等)はおよそ維持される。なお、複数の特徴点により囲まれる領域は、後述の設定領域A1の外側の領域も含む。一方、第2処理済み参照画像82において、参照画像8には現れていない角部側面903に対応する領域(図8中に同じ符号903を付して示す領域)は、例えば背景となる。 As described above, in the alignment processing by the second alignment processing unit 532, the macroscopic alignment (that is, the position where the unit region is a set of a large number of pixels) is set in units of a relatively large area surrounded by a plurality of feature points. Matching) is performed. As a result, between the reference image 8 before processing and the reference image 82 after the second processing, the dimensions of each part of the object 9 (for example, the length and diameter of the cylindrical portion 902, the width of the base portion 901, etc.) are approximately. Be maintained. The area surrounded by the plurality of feature points also includes an area outside the setting area A1 described later. On the other hand, in the second processed reference image 82, the region corresponding to the corner side surface 903 that does not appear in the reference image 8 (the region indicated by the same reference numeral 903 in FIG. 8) is, for example, a background.

図6の参照画像8では、破線の矩形にて示す設定領域A1が操作者の入力等により予め定められており、合成部533では、図7の第1処理済み参照画像81における設定領域A1の部分が抽出され、図8の第2処理済み参照画像82における設定領域A1の部分と置き換えられる。すなわち、第1位置合わせ処理部531による位置合わせ後の設定領域A1が、第2位置合わせ処理部532による位置合わせ後の第2処理済み参照画像82に合成される。これにより、図9に示す合成参照画像83が取得される(ステップS16)。 In the reference image 8 of FIG. 6, the setting area A1 indicated by the broken line rectangle is predetermined by the input of the operator or the like, and in the synthesis unit 533, the setting area A1 of the first processed reference image 81 of FIG. 7 is set. The portion is extracted and replaced with the portion of the setting area A1 in the second processed reference image 82 of FIG. That is, the set area A1 after the alignment by the first alignment processing unit 531 is combined with the second processed reference image 82 after the alignment by the second alignment processing unit 532. As a result, the composite reference image 83 shown in FIG. 9 is acquired (step S16).

比較部54では、対象画像71と合成参照画像83とを比較することにより、対象画像71中の欠陥領域が検出される(ステップS17)。ここで、図9中にて二点鎖線で囲む領域A0を拡大した図10に示すように、設定領域A1の境界では、対象物9のエッジに僅かなずれが生じる場合がある。第1処理済み参照画像81の設定領域A1を第2処理済み参照画像82に合成する際に、両画像が示す対象物9の位置が必ずしも完全には一致しないためである。そこで、比較部54では、ゆすらせ比較処理が行われる。 The comparison unit 54 detects a defective region in the target image 71 by comparing the target image 71 with the composite reference image 83 (step S17). Here, as shown in FIG. 10 in which the region A0 surrounded by the alternate long and short dash line in FIG. 9 is enlarged, the edge of the object 9 may be slightly displaced at the boundary of the setting region A1. This is because when the setting area A1 of the first processed reference image 81 is combined with the second processed reference image 82, the positions of the objects 9 shown by both images do not always completely match. Therefore, the comparison unit 54 performs a shaking comparison process.

図11は、ゆすらせ比較処理を説明するための図であり、対象画像71と合成参照画像83との間の複数の(9個の)位置関係を3行3列に並べて示している。ゆすらせ比較処理では、図11中に破線の矩形にて示す対象画像71を、実線の矩形にて示す合成参照画像83と完全に重なる位置(図11中の中央参照)から、8方向のそれぞれに所定の画素数(例えば、1画素)だけ移動し、移動後の対象画像71の各画素に対して、当該画素の値と、当該画素と重なる合成参照画像83の画素の値との差(絶対値)が求められる。換言すると、移動後の対象画像71と合成参照画像83との差分画像が求められる。対象画像71が、合成参照画像83と完全に重なる位置においても同様に差分画像が求められる。 FIG. 11 is a diagram for explaining the shaking comparison process, and shows a plurality of (nine) positional relationships between the target image 71 and the composite reference image 83 side by side in 3 rows and 3 columns. In the shaking comparison process, the target image 71 shown by the broken line rectangle in FIG. 11 is completely overlapped with the composite reference image 83 shown by the solid line rectangle (see the center in FIG. 11) in each of the eight directions. The difference between the value of the pixel and the value of the pixel of the composite reference image 83 that overlaps with the pixel for each pixel of the target image 71 after moving by a predetermined number of pixels (for example, one pixel). Absolute value) is required. In other words, a difference image between the moved target image 71 and the composite reference image 83 is obtained. Similarly, a difference image is obtained at a position where the target image 71 completely overlaps with the composite reference image 83.

そして、複数の(ここでは、9個の)差分画像において、同じ位置の画素の値の最小値が特定され、当該位置に当該最小値を付与した画像が、ゆすらせ比較処理の結果画像として取得される。結果画像は、所定の閾値で二値化され、欠陥候補領域を示す二値の欠陥候補画像が取得される。比較部54では、欠陥候補画像が示す欠陥候補領域のうち、所定の条件(例えば、面積等)を満たすものが欠陥領域として特定される。これにより、図12に示すように、欠陥領域611を示す欠陥領域画像61が取得され、対象画像71中の欠陥領域が検出される。図12では、対象画像71が示す対象物9を二点鎖線にて示している(後述の図13および図14において同様)。上記ステップS11〜S17は、他の対象物9に対して繰り返される。なお、ゆすらせ比較処理により得られる結果画像は、上記の複数の差分画像から導かれるものであればよく、例えば、複数の差分画像のうち画素の値の和が最小の差分画像がそのまま結果画像として用いられてもよい。 Then, in a plurality of (here, nine) difference images, the minimum value of the pixel value at the same position is specified, and the image to which the minimum value is given to the position is acquired as the result image of the shaking comparison process. Will be done. The result image is binarized at a predetermined threshold value, and a binary defect candidate image indicating a defect candidate region is acquired. In the comparison unit 54, among the defect candidate regions shown by the defect candidate image, those satisfying a predetermined condition (for example, an area or the like) are specified as the defect region. As a result, as shown in FIG. 12, the defect region image 61 showing the defect region 611 is acquired, and the defect region in the target image 71 is detected. In FIG. 12, the object 9 shown by the object image 71 is shown by a chain double-dashed line (the same applies to FIGS. 13 and 14 described later). The steps S11 to S17 are repeated for the other object 9. The result image obtained by the shaking comparison process may be derived from the above-mentioned plurality of difference images. For example, the difference image having the smallest sum of pixel values among the plurality of difference images is the result image as it is. May be used as.

ここで、対象画像71と参照画像8との位置合わせを行う際に、第2位置合わせ処理部532のみを用いる(アフィン変換のみを用いる)比較例の処理について説明する。当該比較例の処理では、欠陥領域を検出する際に、図8の第2処理済み参照画像82と図5の対象画像71とが比較されることにより、図13に示す欠陥領域画像91が取得される。図13の欠陥領域画像91では、図12の欠陥領域画像61と同様に、ベース部901のエッジに存在する欠陥領域911、および、円柱部902の長さが短いことを示す欠陥領域911が検出される。一方、既述のように、第2処理済み参照画像82では、参照画像8に現れていない角部側面903に対応する領域が、例えば背景となってしまう。したがって、欠陥領域画像91では、欠陥ではない角部側面903が欠陥領域911として検出され、欠陥が過検出されてしまう(偽欠陥が検出される。)。また、対象画像71における角部側面903の存在により、アフィン変換による参照画像8と対象画像71との位置合わせにおいてずれが生じ、多くの偽欠陥が検出される場合もある。上記問題は、欠陥が無い他の対象物9を撮像して参照画像8を取得する際に、当該対象物9が、予め定められた向きから僅かに回転している場合、すなわち、参照画像8にオクルージョンが発生している場合において同様である。 Here, the processing of a comparative example in which only the second alignment processing unit 532 is used (only the affine transformation is used) when the target image 71 and the reference image 8 are aligned will be described. In the processing of the comparative example, when the defective region is detected, the defective region image 91 shown in FIG. 13 is acquired by comparing the second processed reference image 82 of FIG. 8 with the target image 71 of FIG. Will be done. In the defect region image 91 of FIG. 13, similarly to the defect region image 61 of FIG. 12, the defect region 911 existing at the edge of the base portion 901 and the defect region 911 indicating that the length of the cylindrical portion 902 is short are detected. Will be done. On the other hand, as described above, in the second processed reference image 82, the region corresponding to the corner side surface 903 that does not appear in the reference image 8 becomes, for example, the background. Therefore, in the defect region image 91, the corner side surface 903 that is not a defect is detected as the defect region 911, and the defect is over-detected (a false defect is detected). Further, due to the presence of the corner side surface 903 in the target image 71, the reference image 8 and the target image 71 may be misaligned by the affine transformation, and many false defects may be detected. The problem is that when the reference image 8 is acquired by imaging another object 9 having no defects, the object 9 is slightly rotated from a predetermined direction, that is, the reference image 8. The same applies when occlusion occurs in.

また、対象画像71と参照画像8との位置合わせを行う際に、第1位置合わせ処理部531のみを用いる(オプティカルフローのみを用いる)他の比較例の処理について説明する。当該他の比較例の処理では、欠陥領域を検出する際に、図7の第1処理済み参照画像81と図5の対象画像71とが比較されることにより、図14に示す欠陥領域画像92が取得される。図14の欠陥領域画像92では、図12の欠陥領域画像61と同様に、ベース部901のエッジに存在する欠陥領域921が検出される。また、既述のように、参照画像8には現れていない角部側面903が、参照画像8中の輝度が比較的近い周囲の画素により、第1処理済み参照画像81においてある程度表現される。したがって、当該他の比較例の処理により得られる欠陥候補画像では、角部側面903に対応する欠陥候補領域が比較的小さくなり、欠陥領域として検出されることが抑制される。一方、第1処理済み参照画像81では、円柱部902の長さが対象画像71における長さにある程度合わせられてしまうため、対象画像71において円柱部902の長さが短いことを示す欠陥領域が検出されなくなる。すなわち、円柱部902の長さに係る欠陥が見逃されてしまう。図14では、当該欠陥を示す領域922を破線にて示している。 Further, when aligning the target image 71 and the reference image 8, processing of another comparative example in which only the first alignment processing unit 531 is used (only the optical flow is used) will be described. In the processing of the other comparative example, when the defect region is detected, the first processed reference image 81 of FIG. 7 and the target image 71 of FIG. 5 are compared, so that the defect region image 92 shown in FIG. 14 is compared. Is obtained. In the defect region image 92 of FIG. 14, the defect region 921 existing at the edge of the base portion 901 is detected as in the defect region image 61 of FIG. Further, as described above, the corner side surface 903 that does not appear in the reference image 8 is represented to some extent in the first processed reference image 81 by the surrounding pixels having relatively close brightness in the reference image 8. Therefore, in the defect candidate image obtained by the processing of the other comparative example, the defect candidate region corresponding to the corner side surface 903 becomes relatively small, and detection as a defect region is suppressed. On the other hand, in the first processed reference image 81, the length of the cylindrical portion 902 is adjusted to some extent to the length of the target image 71, so that there is a defect region indicating that the length of the cylindrical portion 902 is short in the target image 71. It will not be detected. That is, a defect related to the length of the cylindrical portion 902 is overlooked. In FIG. 14, the region 922 showing the defect is shown by a broken line.

これに対し、検査装置1では、対象画像71と参照画像8との位置合わせを行う際に、第1位置合わせ処理部531および第2位置合わせ処理部532の双方が利用される。第1位置合わせ処理部531では、参照画像8の各画素の対象画像71に対するオプティカルフローを求めることにより、参照画像8の複数の(全ての)画素が対象画像71に対して個別に位置合わせされる。第2位置合わせ処理部532では、参照画像8中の対象物9の領域が、アフィン変換を用いて全体的に対象画像71に対して位置合わせされる。そして、第1位置合わせ処理部531による位置合わせ後の設定領域A1が、第2位置合わせ処理部532による位置合わせ後の参照画像(第2処理済み参照画像82)に合成される。 On the other hand, in the inspection device 1, both the first alignment processing unit 531 and the second alignment processing unit 532 are used when the target image 71 and the reference image 8 are aligned. In the first alignment processing unit 531, by obtaining the optical flow for each pixel of the reference image 8 with respect to the target image 71, a plurality of (all) pixels of the reference image 8 are individually aligned with respect to the target image 71. NS. In the second alignment processing unit 532, the region of the object 9 in the reference image 8 is aligned with respect to the target image 71 as a whole by using the affine transformation. Then, the setting area A1 after the alignment by the first alignment processing unit 531 is combined with the reference image (second processed reference image 82) after the alignment by the second alignment processing unit 532.

上記処理では、対象物9の回転による偽欠陥の発生が生じやすい、または、対象物9の寸法不良の許容範囲が大きい設定領域A1については、第1位置合わせ処理部531による位置合わせが実質的に行われる。また、対象物9の回転による偽欠陥の発生が生じにくい(上記の例では、回転体である円柱部902)、または、対象物9の寸法不良の許容範囲が小さい他の領域については、第2位置合わせ処理部532による位置合わせが実質的に行われる。このように、対象画像71と参照画像8との位置合わせを、設定領域A1と、設定領域A1以外の領域とにおいて個別に(すなわち、異なる大きさの単位領域で)行うことにより、各領域に応じた位置合わせを適切に行って、好ましい検査を行うことが可能となる。 In the above processing, for the setting area A1 in which false defects are likely to occur due to the rotation of the object 9 or the allowable range of dimensional defects of the object 9 is large, the alignment by the first alignment processing unit 531 is substantially performed. It is done in. Further, for other regions where the occurrence of false defects due to the rotation of the object 9 is unlikely to occur (in the above example, the cylindrical portion 902 which is a rotating body) or the allowable range of dimensional defects of the object 9 is small, the first The alignment by the two alignment processing unit 532 is substantially performed. In this way, by aligning the target image 71 and the reference image 8 individually (that is, in unit areas of different sizes) in the setting area A1 and the areas other than the setting area A1, each area is set. Appropriate alignment can be performed appropriately, and a preferable inspection can be performed.

また、比較部54では、位置合わせ後の参照画像(合成参照画像83)に対して、対象画像71を上下左右にずらした複数の相対位置関係において、両画像から複数の差分画像が求められ、当該複数の差分画像に基づいて欠陥領域が検出される。これにより、第1処理済み参照画像81と第2処理済み参照画像82との位置ずれに起因する偽欠陥の発生を抑制することができる。 Further, in the comparison unit 54, a plurality of difference images are obtained from both images in a plurality of relative positional relationships in which the target image 71 is shifted vertically and horizontally with respect to the reference image (composite reference image 83) after alignment. The defect region is detected based on the plurality of difference images. As a result, it is possible to suppress the occurrence of false defects caused by the misalignment between the first processed reference image 81 and the second processed reference image 82.

上記検査装置1では様々な変形が可能である。 The inspection device 1 can be modified in various ways.

第1位置合わせ処理部531が、参照画像8における設定領域A1のみに対して処理を行って、図15に示すように、位置合わせ後の設定領域A1の画像81aが取得されてもよい。この場合、設定領域A1の画像81aが、第2位置合わせ処理部532による参照画像8の全体の処理済み画像(第2処理済み参照画像82)に合成され、図9と同様の合成参照画像83が取得される。また、第2位置合わせ処理部532が、参照画像8における設定領域A1以外の領域のみに対して処理を行って、位置合わせ後の当該領域を示す画像が取得され、第1処理済み参照画像81に合成されてもよい。 The first alignment processing unit 531 may perform processing only on the setting area A1 in the reference image 8 to acquire the image 81a of the setting area A1 after the alignment as shown in FIG. In this case, the image 81a of the setting area A1 is combined with the entire processed image (second processed reference image 82) of the reference image 8 by the second alignment processing unit 532, and the composite reference image 83 similar to FIG. 9 is combined. Is obtained. Further, the second alignment processing unit 532 performs processing only on the area other than the setting area A1 in the reference image 8, and an image showing the area after the alignment is acquired, and the first processed reference image 81 is obtained. May be synthesized in.

ここで、同じ大きさの領域の位置合わせに係る演算量は、第2位置合わせ処理部532よりも第1位置合わせ処理部531において多くなる。したがって、位置合わせ部53における演算量を低減するには、第2位置合わせ処理部532が参照画像8の全部に対して処理を行い、第1位置合わせ処理部531が参照画像8の一部の領域のみ(設定領域A1)に対して処理を行うことが好ましいといえる。 Here, the amount of calculation related to the alignment of regions of the same size is larger in the first alignment processing unit 531 than in the second alignment processing unit 532. Therefore, in order to reduce the amount of calculation in the alignment unit 53, the second alignment processing unit 532 processes all of the reference image 8, and the first alignment processing unit 531 performs a part of the reference image 8. It can be said that it is preferable to perform processing only on the area (setting area A1).

上記処理例では、参照画像8において、ベース部901を主に含む1つの設定領域A1が設けられるが、図16に示すように、円柱部902を主に含む他の設定領域A2が、設定領域A1に加えて設けられてもよい。この場合、例えば、第2位置合わせ処理部532が、参照画像8における設定領域A2のみに対して処理を行って(詳細には、設定領域A2における複数の特徴点に基づくアフィン変換により位置合わせを行って)、図17に示すように、位置合わせ後の設定領域A2の画像82aが取得される。そして、図15の位置合わせ後の設定領域A1の画像81aと、図17の位置合わせ後の設定領域A2の画像82aとを結合して、位置合わせ後の参照画像が取得される。 In the above processing example, in the reference image 8, one setting area A1 mainly including the base portion 901 is provided, but as shown in FIG. 16, another setting area A2 mainly including the cylindrical portion 902 is a setting area. It may be provided in addition to A1. In this case, for example, the second alignment processing unit 532 performs processing only on the setting area A2 in the reference image 8 (specifically, the alignment is performed by affine transformation based on a plurality of feature points in the setting area A2). Then, as shown in FIG. 17, the image 82a of the set area A2 after the alignment is acquired. Then, the image 81a of the setting area A1 after the alignment of FIG. 15 and the image 82a of the setting area A2 after the alignment of FIG. 17 are combined to obtain the reference image after the alignment.

また、設定領域A1および設定領域A2(以下、それぞれ「第1設定領域A1」および「第2設定領域A2」という。)において、対象画像71との比較が個別に行われてもよい。例えば、図15の位置合わせ後の第1設定領域A1の画像81aと対象画像71とを比較することにより、第1設定領域A1についての比較結果(欠陥領域画像の第1設定領域A1の部分)が取得される。また、図17の位置合わせ後の第2設定領域A2の画像82aと対象画像71とを比較することにより、第2設定領域A2についての比較結果(欠陥領域画像の第2設定領域A2の部分)が取得される。この場合、演算量を大幅に削減することができる。 Further, in the setting area A1 and the setting area A2 (hereinafter, referred to as "first setting area A1" and "second setting area A2", respectively), comparison with the target image 71 may be performed individually. For example, by comparing the image 81a of the first setting area A1 after the alignment in FIG. 15 with the target image 71, the comparison result for the first setting area A1 (the portion of the first setting area A1 of the defect area image). Is obtained. Further, by comparing the image 82a of the second setting area A2 after the alignment in FIG. 17 with the target image 71, the comparison result for the second setting area A2 (the portion of the second setting area A2 of the defect area image). Is obtained. In this case, the amount of calculation can be significantly reduced.

第1処理済み参照画像81および第2処理済み参照画像82を取得する上記処理例において、参照画像8中の設定領域A1を第1設定領域A1と捉え、設定領域A1以外の全ての領域を第2設定領域と捉えることも可能である。この場合、第1処理済み参照画像81は、参照画像8の第1設定領域A1に含まれる複数の画素を対象画像71に対して個別に位置合わせした画像であるといえる。また、第2処理済み参照画像82は、参照画像8の第2設定領域に含まれる対象物9の領域を対象画像71に対して位置合わせした画像であるといえる。 In the above processing example of acquiring the first processed reference image 81 and the second processed reference image 82, the setting area A1 in the reference image 8 is regarded as the first setting area A1, and all the areas other than the setting area A1 are the first. 2 It is also possible to regard it as a setting area. In this case, it can be said that the first processed reference image 81 is an image in which a plurality of pixels included in the first setting area A1 of the reference image 8 are individually aligned with respect to the target image 71. Further, it can be said that the second processed reference image 82 is an image in which the region of the object 9 included in the second setting region of the reference image 8 is aligned with respect to the target image 71.

位置合わせ部53では、対象画像71が参照画像8に対して位置合わせされてもよい。この場合、対象画像71において、第1設定領域および第2設定領域が設定され、第1位置合わせ処理部531により、対象画像71の第1設定領域に含まれる複数の画素が参照画像8に対して個別に位置合わせされる。また、第2位置合わせ処理部532により、対象画像71の第2設定領域に含まれる対象物9の領域が参照画像8に対して位置合わせされる。 In the alignment unit 53, the target image 71 may be aligned with respect to the reference image 8. In this case, the first setting area and the second setting area are set in the target image 71, and a plurality of pixels included in the first setting area of the target image 71 are set with respect to the reference image 8 by the first alignment processing unit 531. Are individually aligned. Further, the second alignment processing unit 532 aligns the area of the object 9 included in the second setting area of the target image 71 with respect to the reference image 8.

第1位置合わせ処理部531では、例えば、対象画像71および参照画像8の一方の画像の第1設定領域を分割して複数の領域を取得し、各領域(例えば、数個の画素の集合)をアフィン変換を用いて他方の画像に対して位置合わせすることにより、位置合わせ後の第1設定領域の画像が取得されてもよい。このように、一方の画像の第1設定領域に含まれる複数の領域(画素であってもよい。)を、他方の画像に対して個別に位置合わせすることにより、第1設定領域に対して微視的な位置合わせ(微小領域を単位とする位置合わせ)を実現することができる。なお、位置合わせ後の第1設定領域において当該複数の領域の間に間隙が生じる場合には、当該間隙を埋める補間処理が適宜行われる(間隙が生じる他の処理において同様)。 The first alignment processing unit 531 divides, for example, the first setting area of one of the target image 71 and the reference image 8 to acquire a plurality of areas, and each area (for example, a set of several pixels). The image of the first setting region after the alignment may be acquired by aligning the image with respect to the other image using the affine transformation. In this way, by individually aligning a plurality of regions (which may be pixels) included in the first setting region of one image with respect to the other image, the first setting region can be used. Microscopic alignment (alignment in units of minute regions) can be realized. If a gap is generated between the plurality of regions in the first setting region after alignment, interpolation processing for filling the gap is appropriately performed (the same applies to other processes in which the gap is generated).

第2位置合わせ処理部532では、第2設定領域に対して巨視的な位置合わせが実現されるのであるならば、アフィン変換以外の様々な手法が採用されてよい。ここで、第2位置合わせ処理部532による第2設定領域における位置合わせは、第1位置合わせ処理部531による位置合わせの単位よりも大きい領域を位置合わせの単位とするものであればよい。すなわち、第2位置合わせ処理部532では、対象画像71および参照画像8の一方の画像の第2設定領域に含まれ、かつ、第1位置合わせ処理部531における位置合わせの単位である複数の領域のいずれよりも大きい領域が他方の画像に対して位置合わせされる。検査装置1では、対象画像71と参照画像8との位置合わせを、第1および第2設定領域において異なる大きさの単位領域で行うことにより、各設定領域に応じた位置合わせを適切に行って、好ましい検査を実現することができる。 In the second alignment processing unit 532, various methods other than the affine transformation may be adopted as long as the macroscopic alignment with respect to the second setting region is realized. Here, the alignment in the second setting area by the second alignment processing unit 532 may be performed by using a region larger than the unit of alignment by the first alignment processing unit 531 as the unit of alignment. That is, in the second alignment processing unit 532, a plurality of regions included in the second setting area of one of the target image 71 and the reference image 8 and being the unit of alignment in the first alignment processing unit 531. Areas larger than any of are aligned with respect to the other image. In the inspection device 1, the target image 71 and the reference image 8 are aligned in unit areas having different sizes in the first and second setting areas, so that the alignment according to each setting area is appropriately performed. , A favorable inspection can be realized.

位置合わせ部53では、複数の第1設定領域が設定されてもよく、同様に複数の第2設定領域が設定されてもよい。また、対象画像71中の対象物9の領域において、欠陥の検査を行わない非検査領域が設定されてもよい。 A plurality of first setting areas may be set in the alignment unit 53, and a plurality of second setting areas may be set in the same manner. Further, in the region of the object 9 in the target image 71, a non-inspection region in which the defect is not inspected may be set.

比較部54におけるゆすらせ比較処理では、合成参照画像83を対象画像71に対して移動させてもよい。すなわち、ゆすらせ比較処理では、対象画像71と参照画像8との位置合わせを行った後、両画像の一方を他方に対して上下左右にずらした複数の相対位置関係において、当該両画像から複数の差分画像が求められる。比較部54の設計によっては、ゆすらせ処理を行うことなく、両画像の比較が行われてもよい。また、位置合わせされた対象画像71と参照画像8との比較は、両画像の差分画像を求める手法以外に、例えば、両画像の対応する画素の値の比を求めることにより行われてもよい。 In the shaking comparison process in the comparison unit 54, the composite reference image 83 may be moved with respect to the target image 71. That is, in the shaking comparison process, after the target image 71 and the reference image 8 are aligned, one of the two images is shifted vertically and horizontally with respect to the other in a plurality of relative positional relationships. The difference image of is obtained. Depending on the design of the comparison unit 54, the two images may be compared without performing the shaking process. Further, the comparison between the aligned target image 71 and the reference image 8 may be performed by, for example, obtaining the ratio of the values of the corresponding pixels of both images, in addition to the method of obtaining the difference image of both images. ..

比較部54が有するメモリ領域によっては、対象画像71と第1処理済み参照画像81との比較結果を示す第1欠陥領域画像と、対象画像71と第2処理済み参照画像82との比較結果を示す第2欠陥領域画像とが取得されてもよい。この場合、例えば第1欠陥領域画像における設定領域A1の部分を第2欠陥領域画像に合成することにより、欠陥領域画像が取得される。 Depending on the memory area of the comparison unit 54, the first defect area image showing the comparison result between the target image 71 and the first processed reference image 81 and the comparison result between the target image 71 and the second processed reference image 82 may be displayed. The second defect region image shown may be acquired. In this case, for example, the defect region image is acquired by synthesizing the portion of the setting region A1 in the first defect region image with the second defect region image.

検査装置1における検査対象は、立体的な対象物9以外に、板状またはフィルム状の対象物等であってもよい。 The inspection target in the inspection device 1 may be a plate-shaped object, a film-shaped object, or the like, in addition to the three-dimensional object 9.

上記実施の形態および各変形例における構成は、相互に矛盾しない限り適宜組み合わされてよい。 The above-described embodiment and the configurations in each modification may be appropriately combined as long as they do not conflict with each other.

1 検査装置
8 参照画像
9 対象物
51 対象画像記憶部
52 参照画像記憶部
53 位置合わせ部
54 比較部
71 対象画像
82 第2処理済み参照画像
83 合成参照画像
531 第1位置合わせ処理部
532 第2位置合わせ処理部
611 欠陥領域
A1 第1設定領域
A2 第2設定領域
S11〜S17 ステップ
1 Inspection device 8 Reference image 9 Target image 51 Target image storage unit 52 Reference image storage unit 53 Alignment unit 54 Comparison unit 71 Target image 82 Second processed reference image 83 Synthetic reference image 531 First alignment processing unit 532 Second Alignment processing unit 611 Defect area A1 First setting area A2 Second setting area S11 to S17 Steps

Claims (10)

検査装置であって、
対象物を撮像した対象画像を記憶する対象画像記憶部と、
参照画像を記憶する参照画像記憶部と、
前記対象画像と前記参照画像との位置合わせを行う位置合わせ部と、
位置合わせ後の両画像を比較することにより、前記対象画像中の欠陥領域を検出する比較部と、
を備え、
前記位置合わせ部が、
前記対象画像および前記参照画像の一方の画像の第1設定領域を分割した複数の領域を、他方の画像に対して個別に位置合わせする第1位置合わせ処理部と、
前記一方の画像において前記第1設定領域とは異なる第2設定領域に含まれ、かつ、前記複数の領域のいずれよりも大きい領域を前記他方の画像に対して位置合わせする第2位置合わせ処理部と、
を備えることを特徴とする検査装置。
It ’s an inspection device,
A target image storage unit that stores the target image obtained by capturing the target object,
A reference image storage unit that stores a reference image,
An alignment unit that aligns the target image and the reference image, and
A comparison unit that detects a defective region in the target image by comparing both images after alignment, and a comparison unit.
With
The alignment part
A first alignment processing unit that individually aligns a plurality of regions obtained by dividing the first setting area of one image of the target image and the reference image with respect to the other image.
A second alignment processing unit that aligns a region included in a second setting region different from the first setting region in the one image and larger than any of the plurality of regions with respect to the other image. When,
An inspection device comprising.
請求項1に記載の検査装置であって、
前記比較部が、前記位置合わせ後の両画像の一方を他方に対して上下左右にずらした複数の相対位置関係において、前記両画像から複数の差分画像を求め、前記複数の差分画像に基づいて前記欠陥領域を検出することを特徴とする検査装置。
The inspection device according to claim 1.
The comparison unit obtains a plurality of difference images from the two images in a plurality of relative positional relationships in which one of the two images after the alignment is shifted vertically and horizontally with respect to the other, and is based on the plurality of difference images. An inspection device characterized by detecting the defect region.
請求項1または2に記載の検査装置であって、
前記第2位置合わせ処理部が、アフィン変換を用いて前記第2設定領域における前記他方の画像に対する位置合わせを行うことを特徴とする検査装置。
The inspection device according to claim 1 or 2.
An inspection apparatus characterized in that the second alignment processing unit aligns the other image in the second setting region by using an affine transformation.
請求項3に記載の検査装置であって、
前記第2位置合わせ処理部が、アフィン変換を用いて前記一方の画像の全体の処理済み画像を取得し、
前記第1位置合わせ処理部による位置合わせ後の前記第1設定領域が、前記処理済み画像に合成され
合成後の前記処理済み画像において前記第1設定領域以外の領域である前記第2設定領域が前記他方の画像に対して位置合わせされていることを特徴とする検査装置。
The inspection device according to claim 3.
The second alignment processing unit acquires the entire processed image of the one image by using the affine transformation.
The first set area after alignment by the first alignment processing unit is combined with the processed image, and the image is combined with the processed image .
Inspection device the second setting area which is an area other than the first prescribed area in the processed image after the synthesis is characterized that you have been aligned relative to the other image.
請求項1ないし4のいずれかに記載の検査装置であって、
前記第1位置合わせ処理部が、前記第1設定領域における各画素の前記他方の画像に対するオプティカルフローを求めることにより、位置合わせを行うことを特徴とする検査装置。
The inspection device according to any one of claims 1 to 4.
An inspection apparatus characterized in that the first alignment processing unit performs alignment by obtaining an optical flow of each pixel in the first setting region with respect to the other image.
検査方法であって、
a)対象物を撮像した対象画像を準備する工程と、
b)前記対象画像と参照画像との位置合わせを行う工程と、
c)位置合わせ後の両画像を比較することにより、前記対象画像中の欠陥領域を検出する工程と、
を備え、
前記b)工程が、
b1)前記対象画像および前記参照画像の一方の画像の第1設定領域を分割した複数の領域を、他方の画像に対して個別に位置合わせする工程と、
b2)前記一方の画像において前記第1設定領域とは異なる第2設定領域に含まれ、かつ、前記複数の領域のいずれよりも大きい領域を前記他方の画像に対して位置合わせする工程と、
を備えることを特徴とする検査方法。
It ’s an inspection method,
a) The process of preparing an object image that is an image of an object, and
b) A step of aligning the target image and the reference image, and
c) A step of detecting a defective region in the target image by comparing both images after alignment, and
With
The step b)
b1) A step of individually aligning a plurality of regions obtained by dividing the first setting region of one image of the target image and the reference image with respect to the other image.
b2) A step of aligning a region included in a second setting region different from the first setting region in the one image and larger than any of the plurality of regions with respect to the other image.
An inspection method characterized by comprising.
請求項6に記載の検査方法であって、
前記c)工程において、前記位置合わせ後の両画像の一方を他方に対して上下左右にずらした複数の相対位置関係において、前記両画像から複数の差分画像が求められ、前記複数の差分画像に基づいて前記欠陥領域が検出されることを特徴とする検査方法。
The inspection method according to claim 6.
In the step c), a plurality of difference images are obtained from the two images in a plurality of relative positional relationships in which one of the two images after the alignment is shifted vertically and horizontally with respect to the other, and the plurality of difference images are obtained. An inspection method characterized in that the defect region is detected based on the above.
請求項6または7に記載の検査方法であって、
前記b2)工程において、アフィン変換を用いて前記第2設定領域における前記他方の画像に対する位置合わせが行われることを特徴とする検査方法。
The inspection method according to claim 6 or 7.
The inspection method, characterized in that, in the step b2), the alignment with respect to the other image in the second setting region is performed by using the affine transformation.
請求項8に記載の検査方法であって、
前記b2)工程において、アフィン変換を用いて前記一方の画像の全体の処理済み画像が取得され、
前記b1)工程における位置合わせ後の前記第1設定領域が、前記処理済み画像に合成され
合成後の前記処理済み画像において前記第1設定領域以外の領域である前記第2設定領域が前記他方の画像に対して位置合わせされていることを特徴とする検査方法。
The inspection method according to claim 8.
In the step b2), the entire processed image of the one image is acquired by using the affine transformation.
The first set area after the alignment in the step b1) is combined with the processed image .
Inspection method the second set area which is an area other than the first setting region is characterized that you have been aligned relative to the other images in the processed image after the synthesis.
請求項6ないし9のいずれかに記載の検査方法であって、
前記b1)工程において、前記第1設定領域における各画素の前記他方の画像に対するオプティカルフローを求めることにより、位置合わせが行われることを特徴とする検査方法。
The inspection method according to any one of claims 6 to 9.
The inspection method, characterized in that, in the step b1), alignment is performed by obtaining an optical flow of each pixel in the first setting region with respect to the other image.
JP2016185788A 2016-09-23 2016-09-23 Inspection equipment and inspection method Active JP6933887B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016185788A JP6933887B2 (en) 2016-09-23 2016-09-23 Inspection equipment and inspection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016185788A JP6933887B2 (en) 2016-09-23 2016-09-23 Inspection equipment and inspection method

Publications (2)

Publication Number Publication Date
JP2018048968A JP2018048968A (en) 2018-03-29
JP6933887B2 true JP6933887B2 (en) 2021-09-08

Family

ID=61767396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016185788A Active JP6933887B2 (en) 2016-09-23 2016-09-23 Inspection equipment and inspection method

Country Status (1)

Country Link
JP (1) JP6933887B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102031001B1 (en) * 2018-11-05 2019-10-11 신한대학교 산학협력단 Apparatus for Providing Service of Checking Workpiece and Driving Method Thereof
KR102317992B1 (en) * 2021-03-26 2021-10-28 주식회사 트윔 Product inspection method and appratus using the neural network and method of training product inspection appratus
KR102355997B1 (en) * 2021-05-17 2022-02-08 주식회사 한국건설 방재연구원 method for monitoring the soundness of concrete structure based on smart glass

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005292017A (en) * 2004-04-02 2005-10-20 Dainippon Screen Mfg Co Ltd Apparatus for acquiring amount of position deviation, and defect detector
JP5672097B2 (en) * 2011-03-18 2015-02-18 株式会社明電舎 Filtration membrane plate inspection device by image processing
JP5852641B2 (en) * 2011-04-20 2016-02-03 株式会社メガトレード Automatic inspection device and alignment method in automatic inspection device
JP2013123812A (en) * 2011-12-13 2013-06-24 Canon Inc Inspecting device, inspecting method, and computer program
JP2013124868A (en) * 2011-12-13 2013-06-24 Canon Inc Inspection apparatus, inspection method and computer program
JP2014048154A (en) * 2012-08-31 2014-03-17 Dainippon Screen Mfg Co Ltd Device for determining area of interest, defect detector, method for determining area of interest and method for detecting defect
JP6403446B2 (en) * 2014-06-09 2018-10-10 株式会社キーエンス Image inspection apparatus, image inspection method, image inspection program, computer-readable recording medium, and recorded apparatus
JP6319030B2 (en) * 2014-10-08 2018-05-09 三菱電機株式会社 Target detection device

Also Published As

Publication number Publication date
JP2018048968A (en) 2018-03-29

Similar Documents

Publication Publication Date Title
TWI598581B (en) Inspection apparatus and inspection method
JP5518571B2 (en) Tire appearance inspection apparatus and appearance inspection method
TWI580951B (en) Inspection apparatus and inspection method
JP6594039B2 (en) Image processing apparatus, method, and program
US8731274B2 (en) Method and system for wafer registration
JP5039519B2 (en) Appearance inspection method and apparatus
EP3401672B1 (en) Flaw detection device and flaw detection method
JP6933887B2 (en) Inspection equipment and inspection method
JP2012194059A (en) Image creation method, substrate inspection method, recording medium with program for executing image creation method or substrate inspection method recorded thereon, and substrate inspection device
JP2017040612A (en) Inspection method, inspection device, image processor, program and record medium
JP2017166957A (en) Defect detection device, defect detection method and program
CN105911065A (en) Pattern inspection apparatus and pattern inspection method
JP6679538B2 (en) Inspection device and inspection method
CN112991334B (en) Global positioning method and device for industrial particle continuous product
JP6811540B2 (en) Defect detector, defect detection method and program
JP5615252B2 (en) Appearance inspection device
CA3203163A1 (en) Image augmentation techniques for automated visual inspection
JP6688629B2 (en) Defect detecting device, defect detecting method and program
JP6739325B2 (en) Appearance image creation method and lookup table creation jig
JP2007242988A (en) Image acquisition method of semiconductor chip
TWI755460B (en) Appearance inspection method
JP2004108845A (en) Paper cup inspecting apparatus
JP2023111297A (en) Program, inspection method, and inspection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200803

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210304

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210820

R150 Certificate of patent or registration of utility model

Ref document number: 6933887

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150