JP7443162B2 - Inspection equipment and inspection method - Google Patents

Inspection equipment and inspection method Download PDF

Info

Publication number
JP7443162B2
JP7443162B2 JP2020092252A JP2020092252A JP7443162B2 JP 7443162 B2 JP7443162 B2 JP 7443162B2 JP 2020092252 A JP2020092252 A JP 2020092252A JP 2020092252 A JP2020092252 A JP 2020092252A JP 7443162 B2 JP7443162 B2 JP 7443162B2
Authority
JP
Japan
Prior art keywords
illumination
image
evaluation
section
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020092252A
Other languages
Japanese (ja)
Other versions
JP2021188959A (en
Inventor
成樹 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020092252A priority Critical patent/JP7443162B2/en
Publication of JP2021188959A publication Critical patent/JP2021188959A/en
Application granted granted Critical
Publication of JP7443162B2 publication Critical patent/JP7443162B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Description

本発明は、物体の表面を検査する検査装置及び検査方法に関する。 The present invention relates to an inspection device and an inspection method for inspecting the surface of an object.

物体の外観を評価することは重要な命題であり、近年、自動車やその他工業製品の仕上がり検査においては自動化がすすめられている。特に、空間的にある周期で明暗をもつラインパターンの照明(以下、ラインパターン照明)を検査対象の物体に照明して、物体の凹凸や傷などの欠陥を検査する装置が知られている。ラインパターン照明で欠陥を検査する技術においては、特に金属加工面や樹脂成型面など、完全な鏡面ではなく反射性状に拡散の性質を含む対象物の凹凸などの欠陥を検出するのは難しい。そのため、検査対象の物体に対して比較的緩い角度(大きい入射角度)でパターン光を照明して観測する以下のような技術が開示されている。 Evaluating the appearance of an object is an important proposition, and in recent years, automation has been promoted in the inspection of the finish of automobiles and other industrial products. In particular, an apparatus is known that illuminates an object to be inspected with line pattern illumination (hereinafter referred to as line pattern illumination) that changes in brightness and darkness at a certain spatial period to inspect defects such as irregularities and scratches on the object. With technology that uses line pattern illumination to inspect defects, it is particularly difficult to detect defects such as irregularities on objects that are not completely mirror-like and have diffuse reflective properties, such as processed metal surfaces or resin molded surfaces. Therefore, the following technology has been disclosed in which the object to be inspected is illuminated with pattern light at a relatively gentle angle (large incident angle) and observed.

特開2011-89981(特許文献1)には、鋼板の凹凸欠陥の検査装置が開示されている。この検査装置では、照明部からのラインパターン照明光で、鋼板の評価領域に3~10°以下の角度で照明し、照明部に対して正反射方向に配置したカメラで鋼板に映り込んだラインパターン照明光を撮影する。その際、照明部とカメラの両者を固定した保持部材を移動させ、鋼板の表面に対してラインパターンの位相を変化させて撮像することで、鋼板の凹凸の欠陥を検出している。なお、撮像画像上で照明部と鋼板とが重ならない位置関係を構成して、撮像画像において、ラインパターン照明光が映り込んでいる部分とラインパターン照明光が映り込んでいない光量変化のない単調な部分とを自動認識して欠陥評価領域を決定している。 Japanese Unexamined Patent Publication No. 2011-89981 (Patent Document 1) discloses an inspection device for unevenness defects in a steel plate. In this inspection device, the evaluation area of the steel plate is illuminated at an angle of 3 to 10 degrees with line pattern illumination light from the illumination unit, and the lines reflected on the steel plate are captured using a camera placed in the specular reflection direction with respect to the illumination unit. Photograph pattern illumination light. At this time, defects in the unevenness of the steel plate are detected by moving a holding member to which both the illumination unit and the camera are fixed and capturing an image while changing the phase of the line pattern with respect to the surface of the steel plate. In addition, the positional relationship between the illumination unit and the steel plate is such that they do not overlap on the captured image, so that in the captured image, there are areas where the line pattern illumination light is reflected and areas where the line pattern illumination light is not reflected, with no change in light intensity. The defect evaluation area is determined by automatically recognizing the defective parts.

特開2011-89981号公報JP2011-89981A

金属のような粗面の計測においては、より浅い角度(大きな反射角)で撮像する方が、明暗パターン光の縞が明瞭に撮影できる。特許文献1では、撮像画像上で照明部を含まない画像を生成、取得しているが、撮像画像上で照明部を含む場合の検査については開示されていない。また、特許文献1では、撮像画像上で照明部と鋼板とが重なる場合、光量変化のない単調な部分を自動認識することは難しい。 When measuring a rough surface such as a metal, it is better to capture the image at a shallower angle (larger reflection angle) to capture the bright and dark patterned light stripes more clearly. Although Patent Document 1 generates and acquires an image that does not include an illumination portion on a captured image, it does not disclose an inspection when an illumination portion is included on a captured image. Further, in Patent Document 1, when the illumination section and the steel plate overlap on the captured image, it is difficult to automatically recognize a monotonous portion where the amount of light does not change.

そこで、本発明は、撮影画像において照明部を含む場合において物体の評価領域を簡易に検査することを目的とする。 Therefore, an object of the present invention is to easily inspect the evaluation region of an object when a captured image includes an illumination part.

上記課題を解決する本発明の一側面としての検査装置は、物体の表面を検査する検査装置において、明暗パターンを前記物体の表面に照射する照明部と、前記照明部により前記明暗パターンが照明された前記物体の表面を撮像する撮像部と、前記撮像部により撮像された画像を処理することにより前記物体の表面の評価を行う処理部と、を有し、前記撮像部は、前記照明部により前記明暗パターンの位相をずらしながら照明された前記物体の表面と、前記照明部と、が画角内に含まれた複数の画像を生成し、前記処理部は、前記複数の画像に基づいて画像内における前記物体の表面と前記照明部の領域を分離して、分離された前記物体の表面における画像を評価することを特徴とする。 An inspection apparatus according to one aspect of the present invention for solving the above problems is an inspection apparatus that inspects the surface of an object, and includes an illumination section that irradiates a bright and dark pattern onto the surface of the object, and an illumination section that illuminates the bright and dark pattern. an image capturing section that captures an image of the surface of the object, and a processing section that evaluates the surface of the object by processing the image captured by the image capturing section; The processing unit generates a plurality of images in which the surface of the object illuminated while shifting the phase of the light and dark pattern and the illumination unit are included within an angle of view, and the processing unit generates an image based on the plurality of images. The method is characterized in that the surface of the object and the area of the illumination section within the object are separated, and an image on the separated surface of the object is evaluated.

本発明によれば、撮影画像において照明部を含む場合において物体の評価領域を簡易に検査することができる。 According to the present invention, it is possible to easily inspect the evaluation region of an object when a captured image includes an illumination section.

第1実施形態における検査装置を示す概略図である。It is a schematic diagram showing an inspection device in a 1st embodiment. 照明部と物体の評価面の配置を示す概略図である。FIG. 2 is a schematic diagram showing the arrangement of an illumination unit and an evaluation surface of an object. 検査物体のBRDFを示す図である。It is a figure showing BRDF of an inspection object. 検査方法のフローチャートである。It is a flow chart of an inspection method. カメラで取得した画像を示す図である。FIG. 3 is a diagram showing an image acquired by a camera. 図5の画像におけるy方向への位相変化を示す図である。6 is a diagram showing a phase change in the y direction in the image of FIG. 5. FIG. 照明部を傾けた時にカメラで取得した画像を示す図である。It is a figure which shows the image acquired by the camera when the illumination part is tilted. 図7の画像におけるy方向への位相変化を示す図である。8 is a diagram showing a phase change in the y direction in the image of FIG. 7. FIG. 第2実施形態における検査装置を示す概略図である。It is a schematic diagram showing an inspection device in a 2nd embodiment. 第3実施形態における検査装置を示す概略図である。It is a schematic diagram showing an inspection device in a 3rd embodiment. 第4実施形態における検査装置を示す概略図である。It is a schematic diagram showing an inspection device in a 4th embodiment.

以下に、本発明の好ましい実施形態を添付の図面に基づいて詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail based on the accompanying drawings.

<第1実施形態>
図1は、第1実施形態における検査装置50を示す概略図である。検査装置50は、検査対象の物体4を検査するため、照明部1と、カメラ2(撮像部)と、制御部3、画像処理部5、表示部6、及び、可動機構7を備える。
<First embodiment>
FIG. 1 is a schematic diagram showing an inspection device 50 in the first embodiment. The inspection device 50 includes an illumination section 1, a camera 2 (imaging section), a control section 3, an image processing section 5, a display section 6, and a movable mechanism 7 in order to inspect an object 4 to be inspected.

照明部1は、高拡散の配光特性を持ち、明部と暗部からなる面照明により、明暗のライン状のパターン照明光を物体4に照射する。照明部1について図2を用いて説明する。照明部1は、明部(光透過部)1Aと暗部(非透過部、遮光部)1BがピッチPで空間的に交互に平面上に配置された面照明である。例えば、内部に敷き詰められたLEDの上に拡散板を配置することで得られる一様に明るい面照明に、非透過部として、黒いインクでシルク印刷したり、黒い金属等の板材を配置したりすることで構成することができる。 The illumination unit 1 has a highly diffused light distribution characteristic, and irradiates the object 4 with bright and dark line-shaped pattern illumination light by surface illumination consisting of a bright part and a dark part. The illumination unit 1 will be explained using FIG. 2. The illumination part 1 is a surface illumination in which bright parts (light transmitting parts) 1A and dark parts (non-transmitting parts, light shielding parts) 1B are spatially arranged alternately on a plane at a pitch P. For example, in uniformly bright surface illumination obtained by placing a diffuser plate on top of the LEDs lined inside, a non-transparent part can be silk-printed with black ink or a plate material such as black metal can be placed. It can be configured by

カメラ2は、例えばCCDやCMOSなどの2次元エリアセンサーとレンズで構成され、評価面(検査面)の画像を取得できるものとする。カメラ2は、照明部1により評価面41、42に照射された照明光の反射光を撮影する。 The camera 2 is composed of a two-dimensional area sensor such as a CCD or CMOS, and a lens, and is capable of acquiring an image of the evaluation surface (inspection surface). The camera 2 photographs the reflected light of the illumination light irradiated onto the evaluation surfaces 41 and 42 by the illumination unit 1.

制御部3は、検査装置50の各部を制御する。制御部3は、例えばCPUやメモリなどを有する基板によって構成されており、照明部1、カメラ2、及び、可動機構7を同期して制御する。 The control section 3 controls each section of the inspection device 50. The control section 3 is constituted by a board having, for example, a CPU and a memory, and controls the illumination section 1, the camera 2, and the movable mechanism 7 in synchronization.

画像処理部5は、画像を演算処理する機能を有し、例えば汎用的なPCであっても画像処理専用マシンであってもよく、CPU、GPU又はDSPなどの演算装置を有する。カメラ2で撮像された画像はケーブル、制御部3を経由して画像処理部5に転送される。画像処理部5は、カメラ2で生成された画像に対して画像処理を行い、物体表面の欠陥を判定するための様々な数値処理を行い、欠陥の有無や合否を判定できる。具体的には、画像処理部5は、評価面41、42にある欠陥、傷の大きさや深さ、見た目の目立ち具合などを数値化し合否判定することができる。 The image processing unit 5 has a function of processing images, and may be, for example, a general-purpose PC or a machine dedicated to image processing, and includes a processing device such as a CPU, GPU, or DSP. The image captured by the camera 2 is transferred to the image processing section 5 via a cable and the control section 3. The image processing unit 5 performs image processing on the image generated by the camera 2, performs various numerical processing to determine defects on the object surface, and can determine the presence or absence of defects and pass/fail. Specifically, the image processing unit 5 can quantify the size and depth of defects and scratches on the evaluation surfaces 41 and 42, how conspicuous they are, and make a pass/fail determination.

表示部6は、例えばディスプレイであって、取得した画像、画像処理部5で数値処理した結果、又は、数値処理した結果を使用して判定した欠陥の合否結果、等を表示することができる。 The display unit 6 is, for example, a display, and can display the acquired image, the result of numerical processing by the image processing unit 5, the pass/fail result of a defect determined using the result of numerical processing, and the like.

検査対象の物体4の表面としては、例えば、金属加工面、樹脂成型面、又は、印刷面などの光拡散面がある。本実施形態では、評価面41、42は、フライスで加工、製作された金属加工面であって、加工時に表面に機械加工によるひき目ができた光拡散面を例に挙げて説明する。金属加工面は、図3(a)に示すように、入射光100が正対する方向つまり入射角θが45°以下の小さい値の時は拡散に近いBRDF特性105B(BRDF=双方向反射率分布関数)をもつ。一方、金属加工面は、図3(b)に示すように、入射光100が反射面に沿うような緩い角度、つまり入射角θが80°~90°の時は、正反射方向にほとんどの光が反射される鋭いBRDF特性105Cをもつ。 The surface of the object 4 to be inspected includes, for example, a metal processed surface, a resin molded surface, or a light diffusing surface such as a printed surface. In this embodiment, the evaluation surfaces 41 and 42 are metal processed surfaces processed and manufactured using a milling cutter, and will be described using, as an example, a light diffusing surface in which a score is formed by machining on the surface during processing. As shown in FIG. 3(a), when the incident light 100 faces directly, that is, when the incident angle θ is a small value of 45° or less, the metal processed surface has a BRDF characteristic 105B (BRDF = bidirectional reflectance distribution) close to diffusion. function). On the other hand, as shown in FIG. 3(b), when the incident light 100 on a metal processed surface is at a gentle angle such that it follows the reflective surface, that is, when the incident angle θ is between 80° and 90°, most of the light is reflected in the specular direction. It has a sharp BRDF characteristic of 105C that reflects light.

そのため、評価面41、42と、カメラ2により撮影される評価面41、42での照明光の反射光の方向(カメラ2の光軸)とが、10°以下の角度になるように、照明部1、物体4、カメラ2を配置する。そのように配置すると、評価面41、42上には、照明部1によるパターン照明光の鏡像が写し出され、カメラ2で撮像できることになる。 Therefore, the illumination is made such that the evaluation surfaces 41 and 42 and the direction of reflected light of the illumination light on the evaluation surfaces 41 and 42 photographed by the camera 2 (optical axis of the camera 2) are at an angle of 10 degrees or less. A unit 1, an object 4, and a camera 2 are arranged. With such arrangement, a mirror image of the pattern illumination light from the illumination section 1 is projected onto the evaluation surfaces 41 and 42, and can be imaged by the camera 2.

カメラ2は、レンズの焦点位置と絞りが調整され、評価面41と評価面42の全面に焦点が合い、明瞭に観察できることが好ましい。本実施形態においては、評価面41、42の長さが20mm、入射角θを85°とすると、評価面41、42の全面に焦点を合わせるためには、焦点深度は20mm×sin(85°)=19.9mm必要になる。一方、評価面41、42で幅1mmの欠陥は、カメラ2の方向から欠陥を見ると、1mm×cos(85°)=0.087mmとなる。この欠陥を判別するためには、光学系のボケの許容量はそれより小さいことが好ましい。つまり、カメラ2のレンズの焦点方向に19.9mmにわたって50μm程度のボケしか許容せず、マクロ撮影的に欠陥の観察をする本用途においては、レンズ絞りを相当数絞る必要がある。このことから、検査時間と撮像時間を両立するために、レンズ光軸とセンサー面を傾斜させて焦点面を光軸と傾けるシャインプルーフ構成にして、レンズの絞りを出来るだけ開いて、センサーに到達する光を確保することも効果的である。ただし、判定すべき傷の大きさに応じて、焦点がぼけていることは構わない。 It is preferable that the focal position and aperture of the lens of the camera 2 are adjusted so that the entire evaluation surface 41 and the evaluation surface 42 are in focus and can be observed clearly. In this embodiment, assuming that the length of the evaluation surfaces 41 and 42 is 20 mm and the angle of incidence θ is 85 degrees, in order to focus on the entire surface of the evaluation surfaces 41 and 42, the depth of focus is 20 mm x sin (85 degrees )=19.9mm is required. On the other hand, a defect with a width of 1 mm on the evaluation surfaces 41 and 42 becomes 1 mm×cos(85°)=0.087 mm when the defect is viewed from the direction of the camera 2. In order to identify this defect, it is preferable that the blur tolerance of the optical system is smaller than this. In other words, in this application where only about 50 μm of blur is allowed over 19.9 mm in the focal direction of the lens of the camera 2, and defects are observed using macro photography, it is necessary to reduce the lens aperture by a considerable number. Therefore, in order to balance inspection time and imaging time, we created a Scheimpflug configuration in which the lens optical axis and sensor surface are tilted so that the focal plane is tilted to the optical axis, and the lens aperture is opened as much as possible to reach the sensor. It is also effective to secure sufficient light. However, it does not matter if the image is out of focus, depending on the size of the flaw to be determined.

照明部1は、可動機構7により、照明部1の明部1A、暗部1Bのラインの延びる方向(長手方向)に対して直交する方向(図中のX方向、ピッチPの周期方向)に移動可能と構成されている。可動機構7は制御部3と接続されている。制御部3は可動機構7を制御して、照明部1をΔXi(i=1,2,・・・N、Nは3以上の整数)だけ移動させ、N枚の画像をカメラ2に撮影させる。ここで、ΔX1、ΔX2・・・ΔXNはそれぞれ互いに異なる値であり、ΔXiは既知であればよく、任意の大きさに設定することができる。ただし、このような構成に限定されるものではなく、例えば、手動にて可動機構7を操作して物体4を移動させた後、マニュアルトリガーでカメラ2にて物体4を撮影してもよい。 The illumination part 1 is moved by the movable mechanism 7 in a direction (X direction in the figure, periodic direction of pitch P) orthogonal to the direction in which the lines of the bright part 1A and dark part 1B of the illumination part 1 extend (longitudinal direction). It is configured as possible. The movable mechanism 7 is connected to the control section 3. The control unit 3 controls the movable mechanism 7 to move the illumination unit 1 by ΔXi (i=1, 2, . . . N, where N is an integer of 3 or more) and causes the camera 2 to take N images. . Here, ΔX1, ΔX2, . However, the configuration is not limited to this, and for example, the movable mechanism 7 may be manually operated to move the object 4, and then the object 4 may be photographed by the camera 2 using a manual trigger.

次に、欠陥の検出(検査)の方法について述べる。図4に、本実施形態の検査装置を用いた、物体の表面上の欠陥を検査する方法のフローチャートを示す。 Next, a method for detecting (inspecting) defects will be described. FIG. 4 shows a flowchart of a method for inspecting defects on the surface of an object using the inspection apparatus of this embodiment.

まず、制御部3は可動機構7を制御し、可動機構7により照明部1を移動させて、照明部1と物体4の相対的な位置を基準位置に対してΔX1だけ移動させる(S11)。次に、ΔX1の位置において、制御部3は照明部1を発光させる制御を行って、カメラ2で撮影を行い、1番目の画像I1(x,y)を生成する(S12)。ここで、xとyは画像上の画素の位置を表す。なお、ΔX1がゼロであって、1番目の画像が前記基準位置に置けるものであってもよい。次に、iが設定されたNに等しいかどうかを判定する(S13)。iがNでない場合、iを1増やして(S14)、S11に戻る。 First, the control unit 3 controls the movable mechanism 7 to move the illumination unit 1 and move the relative position of the illumination unit 1 and the object 4 by ΔX1 with respect to the reference position (S11). Next, at the position of ΔX1, the control unit 3 controls the illumination unit 1 to emit light, and the camera 2 takes a picture to generate the first image I1 (x, y) (S12). Here, x and y represent the position of a pixel on the image. Note that ΔX1 may be zero and the first image may be placed at the reference position. Next, it is determined whether i is equal to the set N (S13). If i is not N, i is incremented by 1 (S14) and the process returns to S11.

さらに、制御部3は可動機構7を制御し、可動機構7により照明部1を移動させ、照明部1と物体4の相対的な位置を基準位置に対してΔX2だけ変化させる(S11)。次に、ΔX2の位置において、制御部3は照明部1を発光させる制御を行って、カメラ2で撮影を行い、2番目の画像I2(x,y)を生成する(S12)。S11~S14を、iがNになるまでN回繰り返して、合計N枚の画像をカメラ2が生成し、画像処理部5が取得する。iがNになったらS15に進む。 Further, the control unit 3 controls the movable mechanism 7 to move the illumination unit 1 and change the relative position of the illumination unit 1 and the object 4 by ΔX2 with respect to the reference position (S11). Next, at the position of ΔX2, the control unit 3 controls the illumination unit 1 to emit light, and the camera 2 takes a picture to generate a second image I2 (x, y) (S12). Steps S11 to S14 are repeated N times until i becomes N, and the camera 2 generates a total of N images, which the image processing unit 5 acquires. When i becomes N, the process advances to S15.

次に、画像処理部5は、照明部1と物体4の相対位置がΔXiだけ変化した時、位相が4πΔXi/Pラジアンでシフトする周波数成分の強度変化に関する情報を用いて、N枚の画像から、第一の合成画像を生成する(S15)。合成画像の一例は、位相が4πΔX1/Pラジアンでシフトする周波数成分(検査対象が平面の場合には、画像上に発生する、周期P/2の縞状パターンに対応する周波数成分)の振幅画像である。照明部1と物体4の相対的な位置をP/N幅のステップでシフトさせた場合、ΔXi(i=1,2,・・・N)は以下の式1で表される。 Next, the image processing unit 5 uses the information regarding the intensity change of the frequency component whose phase shifts by 4πΔXi/P radians when the relative position between the illumination unit 1 and the object 4 changes by ΔXi to convert the N images into , generates a first composite image (S15). An example of a composite image is an amplitude image of a frequency component whose phase shifts by 4πΔX1/P radians (if the inspection target is a flat surface, a frequency component corresponding to a striped pattern with a period of P/2 that occurs on the image). It is. When the relative positions of the illumination unit 1 and the object 4 are shifted in steps of P/N width, ΔXi (i=1, 2, . . . N) is expressed by the following equation 1.

ΔXi=(P/N)×(i―1)・・・(1)
式1はΔX1がゼロである場合も含むもので、1番目の画像が前記基準位置から変化したものである場合は以下の式2となる。
ΔXi=(P/N)×(i-1)...(1)
Equation 1 includes the case where ΔX1 is zero, and when the first image has changed from the reference position, the following Equation 2 is obtained.

ΔXi=(P/N)×i・・・(2)
この時、振幅画像A(x,y)は、以下の式3により算出できる。
ΔXi=(P/N)×i...(2)
At this time, the amplitude image A(x, y) can be calculated using Equation 3 below.

Figure 0007443162000001
これが、N枚の画像を処理して得られる、物体4の表面(評価面)の情報を含む処理画像であって、位相が4πΔXi/Pラジアンでシフトする周波数成分の強度変化に関する情報を用いて生成された処理画像である。
Figure 0007443162000001
This is a processed image containing information on the surface (evaluation surface) of the object 4, obtained by processing N images, and using information on intensity changes of frequency components whose phase shifts by 4πΔXi/P radians. This is the generated processed image.

照明部1の位置を移動すると、照明部1の発光点に相当する明るい点(光透過部)や、照明部1の暗部に相当する暗い点(非透過部)が移動する。そのため、検査対象の評価面で反射された照明部1からの照明光により、カメラ2の画素上の1点では、強度の明暗が変化する。 When the position of the illumination section 1 is moved, a bright point (light transmission section) corresponding to a light emitting point of the illumination section 1 and a dark point (non-transmission section) corresponding to a dark section of the illumination section 1 move. Therefore, the illumination light from the illumination unit 1 reflected by the evaluation surface of the inspection object changes the brightness and darkness of the intensity at one point on the pixel of the camera 2.

本実施形態では、カメラ2の側から物体4の評価面41、42を望む角度θ41、θ42を、5°以下に設定している。そのため、評価面41、42が金属加工面のような粗面であっても光沢性を持ち、照明の明暗像が評価面41、42上では明瞭に反射して見えるので、高S/N比で明暗の差に相当する振幅が発生する。また、合成画像の別の例は、位相が4πΔXi/Pラジアンでシフトする周波数成分の位相画像である。位相画像θ(x,y)は、以下の式4により算出できる。 In this embodiment, the angles θ41 and θ42 at which the evaluation surfaces 41 and 42 of the object 4 are viewed from the camera 2 side are set to 5° or less. Therefore, even if the evaluation surfaces 41 and 42 are rough surfaces such as processed metal surfaces, they have gloss, and the bright and dark images of the illumination are clearly reflected on the evaluation surfaces 41 and 42, resulting in a high S/N ratio. An amplitude corresponding to the difference between brightness and darkness occurs. Another example of the composite image is a phase image of frequency components whose phase shifts by 4πΔXi/P radians. The phase image θ(x, y) can be calculated using Equation 4 below.

Figure 0007443162000002
一般に、位相は‐π~πの値で算出されるため、それ以上に位相が変化する場合は、位相画像では非連続な位相の飛びが発生する。このため、必要に応じて位相接続(位相アンラップ)が必要である。位相画像では、表面性状として評価面41と評価面42の表面の傾きを評価することができ、可視化することもできる。
Figure 0007443162000002
Generally, the phase is calculated as a value between -π and π, so if the phase changes more than that, discontinuous phase jumps will occur in the phase image. Therefore, phase unwrapping (phase unwrapping) is required as necessary. In the phase image, the inclination of the surfaces of the evaluation surface 41 and the evaluation surface 42 can be evaluated as a surface property, and can also be visualized.

位相接続(位相アンラップ)には、種々のアルゴリズムが提案されているが、画像ノイズが大きい場合には、誤差が生じうる。位相接続を回避するための手段として、位相の微分に相当する位相差を算出してもよい。位相差Δθx(x,y)およびΔθy(x,y)は以下の式5により算出できる。 Various algorithms have been proposed for phase unwrapping (phase unwrapping), but errors may occur if image noise is large. As a means to avoid phase coupling, a phase difference corresponding to a phase differential may be calculated. The phase differences Δθx(x, y) and Δθy(x, y) can be calculated using Equation 5 below.

Figure 0007443162000003
さらなる合成画像の例は平均画像である。平均画像Iave(x,y)は、以下の式6により算出できる。
Figure 0007443162000003
A further example of a composite image is an average image. The average image Iave (x, y) can be calculated using Equation 6 below.

Figure 0007443162000004
平均画像では、表面性状として反射率の分布を評価できる。したがって、平均画像では、汚れや錆びなど、正常な部分と反射率に違いがある欠陥の情報を得ることができる。可視化することもできる。このように、振幅画像、位相画像または位相差画像、平均画像で、光学的に評価可能な表面性状が異なる結果、可視化される欠陥も異なるため、これらの画像を組み合わせることで、多様な表面性状を評価して、多様な欠陥を可視化することができる。
Figure 0007443162000004
In the average image, the distribution of reflectance can be evaluated as a surface quality. Therefore, the average image can provide information on defects such as dirt and rust that have a different reflectance from normal parts. It can also be visualized. In this way, the surface textures that can be optically evaluated are different in the amplitude image, phase image, phase contrast image, and average image, and as a result, the defects that are visualized are also different. By combining these images, it is possible to visualize various surface textures. can be evaluated to visualize various defects.

本実施形態では、拡散面として取り扱うような面の計測を行うために、カメラ2で取得した画像中には、物体4の評価面41、42のみならず、照明部1も含まれるように、照明部1、カメラ2及び物体4を配置している。上記で述べた照明部1を移動させて得た画像では、照明部1の明部1Aと暗部1Bが、N枚の画像においてP/N幅ずつ移動しながら映っているので、照明部1の部分についても振幅画像、位相画像または位相差画像、平均画像が得られる。よって、評価(検査)の際には照明部1と物体4の評価面41、42とを明確に分離する必要がある。以下、分離の方法を説明する。 In this embodiment, in order to measure a surface treated as a diffusion surface, the image acquired by the camera 2 includes not only the evaluation surfaces 41 and 42 of the object 4 but also the illumination section 1. A lighting section 1, a camera 2, and an object 4 are arranged. In the image obtained by moving the illumination part 1 described above, the bright part 1A and the dark part 1B of the illumination part 1 are shown moving by P/N width in N images, so the illumination part 1 is An amplitude image, a phase image or a phase difference image, and an average image can also be obtained for each part. Therefore, during evaluation (inspection), it is necessary to clearly separate the illumination unit 1 and the evaluation surfaces 41 and 42 of the object 4. The separation method will be explained below.

物体4の評価面41、42における照明光の入射角は80°から90°とする。例えば、物体4の材料がアルミ合金であったとすると、材料のフレネル反射による反射率はおよそ90%から95%の範囲である。また、物体4は機械加工面であるので、若干の拡散する反射性状となる。BRDFの広がりを考慮すると、検査対象の物体の正反射方向への反射率は85%から90%以下の光量であるといえる。 The angle of incidence of the illumination light on the evaluation surfaces 41 and 42 of the object 4 is from 80° to 90°. For example, if the material of the object 4 is an aluminum alloy, the reflectance due to Fresnel reflection of the material is approximately in the range of 90% to 95%. Furthermore, since the object 4 is a machined surface, it has a somewhat diffuse reflective property. Considering the spread of BRDF, it can be said that the reflectance of the object to be inspected in the specular reflection direction is 85% to 90% or less.

この正反射方向への反射率によるカメラ2での受光光量の差を利用し、N枚の画像における同一画素の輝度値の最大値を用いて、画像内における照明部1の領域と、物体4の領域(物体4で反射された照明光の領域)と、の違いを判定できる。例えば、配置上、照明部1の部分とわかる場所、例えば画像の最上部中央部の画素の、N枚の画像における最大輝度値を100として、閾値を輝度値95に設定する。一方、物体で反射された照明光の部分の画素の輝度値は物体4の反射率により低下し、最大でも90以下になる。そのため、画像処理部5は、画像の輝度値(画素値)が閾値以下である領域を物体4の評価領域と判定し、欠陥の検出に利用することができる。このように、画素の輝度値と閾値を用いて、画像内における照明部1の領域と、評価をすべき物体4の領域を分離することができる。 Utilizing the difference in the amount of light received by the camera 2 due to the reflectance in the regular reflection direction, and using the maximum brightness value of the same pixel in the N images, the area of the illumination part 1 in the image and the object 4 are determined. (the area of the illumination light reflected by the object 4). For example, the threshold value is set to a brightness value of 95, assuming that the maximum brightness value in N images of a pixel at a location known as the illumination unit 1, for example, the top center of the image, is 100 due to layout. On the other hand, the luminance value of the pixel in the portion of the illumination light reflected by the object decreases depending on the reflectance of the object 4, and becomes 90 or less at the maximum. Therefore, the image processing unit 5 can determine an area where the brightness value (pixel value) of the image is less than or equal to the threshold value as the evaluation area of the object 4, and use the area for defect detection. In this way, the area of the illumination unit 1 and the area of the object 4 to be evaluated can be separated in the image using the pixel brightness value and the threshold value.

また、振幅画像A(x,y)を使用すると、取得したN枚の画像における最大輝度値と最小輝度値の差、つまり、照明部1の明部1Aと暗部1Bの明るさとコントラストで評価することになる。物体4で反射された照明光の領域では、物体4の評価面の反射率や反射性状に起因して画像の輝度値が低下する。つまり、最大輝度値の例と同様、反射率や反射性状による低下分を考慮して振幅画像A(x,y)の各画素の輝度値に閾値を設けることで、画像内において、照明部1の領域と、物体4の評価領域と、の分離をすることができる。 Furthermore, when the amplitude image A(x, y) is used, evaluation is made based on the difference between the maximum brightness value and the minimum brightness value in the N acquired images, that is, the brightness and contrast of the bright part 1A and the dark part 1B of the illumination part 1. It turns out. In the region of the illumination light reflected by the object 4, the brightness value of the image decreases due to the reflectance and reflection properties of the evaluation surface of the object 4. In other words, as in the example of the maximum brightness value, by setting a threshold value for the brightness value of each pixel of the amplitude image A (x, y) in consideration of the decrease due to reflectance and reflection properties, the illumination part 1 The area and the evaluation area of the object 4 can be separated.

また、物体4で反射された照明部1の照明光が映り込まない評価不能部分については、N枚の画像の各画素の輝度値が変化しないことを利用して、振幅画像A(x、y)が所定の閾値(例えば10)以下の部分、を評価不能部分として分離することもできる。 In addition, for the unevaluable portion where the illumination light of the illumination unit 1 reflected by the object 4 is not reflected, the amplitude image A (x, y ) is less than a predetermined threshold value (for example, 10) can be separated as an unevaluable portion.

次に、位相で判定する場合について説明する。図2に図示するように、位相で判定する場合は、照明部1のライン方向と、物体4の評価面41、42の法線方向とが、カメラ2の方向から見て平行でない配置にすることが有効である。具体的には、カメラ2の方向から見て、評価面41の法線方向41Fと評価面42の法線方向42Fが、照明部1の明部1Aと暗部1Bのライン方向1Fに対して傾いて配置されているとする。すると、カメラ2で取得した画像では、図5のように、評価面41、42に映り込んだ照明部1の明暗ラインパターン光の方向41FFと42FFは、そのまま映り込んだ照明部1のライン方向1Fとは傾いた方向になる。ここで、図5の画像中で画面のy方向(短手方向)に照明部1のライン方向1Fの方向を配置すれば、y方向に連続する画素の位相θ(x,y)の変化点が評価面41、42と照明部1の映り込み部分との境界であることが分かる。 Next, a case of determining based on phase will be explained. As shown in FIG. 2, when determining based on the phase, the line direction of the illumination unit 1 and the normal direction of the evaluation surfaces 41 and 42 of the object 4 are arranged so as not to be parallel when viewed from the direction of the camera 2. This is effective. Specifically, when viewed from the direction of the camera 2, the normal direction 41F of the evaluation surface 41 and the normal direction 42F of the evaluation surface 42 are inclined with respect to the line direction 1F of the bright section 1A and the dark section 1B of the illumination section 1. Suppose that it is located as follows. Then, in the image acquired by the camera 2, as shown in FIG. 5, the directions 41FF and 42FF of the bright and dark line pattern light of the illumination part 1 reflected on the evaluation surfaces 41 and 42 are the line directions of the illumination part 1 reflected as they are. The direction is slanted from 1F. Here, if the direction of the line direction 1F of the illumination unit 1 is arranged in the y direction (lateral direction) of the screen in the image of FIG. It can be seen that these are the boundaries between the evaluation surfaces 41 and 42 and the reflected portion of the illumination unit 1.

画像中のx方向に配列する各画素についてy方向の位相θ(x、y)を比較して行くと、図6に示すように、位相が画像のS/N値を超えて変化する位相飛びが生じる。位相飛びのある画素部分は物体4の評価領域の境界であって、それより上部の位相が変化しない画素領域は照明映り込み部で、境界より下部に位置する画素は評価すべき物体が映り込んだ評価部と分別することができる。また、画像の明瞭性に応じて境界部が複数の画素にまたがることも考えられるが、その場合は複数画素を境界部として、評価不要部分と分別すればよい。 When comparing the phase θ(x, y) in the y direction for each pixel arranged in the x direction in the image, as shown in Figure 6, there is a phase jump where the phase changes beyond the S/N value of the image. occurs. The pixel area with phase jump is the boundary of the evaluation area of object 4, the pixel area above it where the phase does not change is the illumination reflection area, and the pixels located below the boundary are the area where the object to be evaluated is reflected. It can be separated from the evaluation section. Further, depending on the clarity of the image, it is possible that the boundary portion spans a plurality of pixels, but in that case, the plurality of pixels may be used as the boundary portion and separated from the portion that does not require evaluation.

同様に、位相差で判別することも可能である。位相差で判定する場合は、照明部1の明部1Aと暗部1Bのライン方向1Fは画素配列方向であるy方向に平行である必要はない。図7に示すように、ライン方向1Fを画素配列方向であるx方向やy方向に対して傾いた状態にしてもよい。この場合、画像中のx方向に配列する各画素についてy方向の位相差Δθx(x,y)は、図8のように、照明映り込み部と評価部の境界で位相飛びが発生し、その後、縞の傾きが変化する波形となる。よって、位相飛びと位相差の変化部により照明映り込み部と評価部の分離が可能である。 Similarly, it is also possible to discriminate based on phase difference. When determining based on phase difference, the line direction 1F of the bright portion 1A and dark portion 1B of the illumination unit 1 does not need to be parallel to the y direction, which is the pixel arrangement direction. As shown in FIG. 7, the line direction 1F may be tilted with respect to the x direction or the y direction, which is the pixel arrangement direction. In this case, the phase difference Δθx(x, y) in the y direction for each pixel arranged in the x direction in the image is such that a phase jump occurs at the boundary between the illumination reflection part and the evaluation part, and then , resulting in a waveform in which the slope of the stripes changes. Therefore, the illumination reflection part and the evaluation part can be separated by the phase jump and the phase difference changing part.

以上、位相や位相差で、照明映り込み部と評価部の分離ができることは、照明の明暗ライン方向と評価面の法線方向がカメラ方向から見て傾いているからこそ発生する効果である。この効果は映り込む照明と物体との境界が判別できればよいので、評価面の一部、例えば境界より内側の評価面は、照明部のライン方向と評価面の法線方向が同じであってもよい。言い換えれば、カメラ2の側から見て、照明部1の明暗パターンのラインの延びる方向と、物体4の少なくとも一部の表面の法線の方向と、が異なればよい。 As described above, the ability to separate the illumination reflection part and the evaluation part by the phase or phase difference is an effect that occurs precisely because the light and dark line direction of the illumination and the normal direction of the evaluation surface are tilted when viewed from the camera direction. This effect only needs to be able to distinguish the boundary between the reflected lighting and the object, so a part of the evaluation surface, for example, the evaluation surface inside the boundary, can be used even if the line direction of the illumination part and the normal direction of the evaluation surface are the same. good. In other words, when viewed from the camera 2 side, the direction in which the lines of the bright and dark pattern of the illumination unit 1 extend and the direction of the normal to at least a part of the surface of the object 4 need only be different.

また、本実施形態では、境界部を境に照明映り込み部と評価部を弁別した。ただし、物体4の形状によっては、評価面の境界に近い部分は面取りや隅Rが存在したり、物体4自体が曲面など単純平面でない場合は、評価面にほぼ平行に観察するような配置になることが考えられる。その場合は欠陥の評価判定精度は悪化する。その場合は、境界線を判定した後、境界線から決められた画素分だけ離れた画素からの領域を評価領域にする。または、境界線から決められた距離だけ離れた場所に相当する画素からの領域を評価領域にするなども、評価判定精度を高めるために有効な手段である。 Furthermore, in the present embodiment, the illumination reflection portion and the evaluation portion are distinguished from each other using the boundary portion as a boundary. However, depending on the shape of the object 4, there may be chamfers or corners near the boundary of the evaluation surface, or if the object 4 itself is not a simple plane such as a curved surface, the object 4 may be placed so that it is observed almost parallel to the evaluation surface. It is possible that this will happen. In that case, the accuracy of defect evaluation and determination deteriorates. In that case, after determining the boundary line, an area starting from a pixel that is a predetermined pixel distance from the boundary line is set as an evaluation area. Alternatively, setting an area from pixels corresponding to a location a predetermined distance away from the boundary line as an evaluation area is also an effective means for increasing evaluation determination accuracy.

また、本実施形態において、照明部1の距離をカメラ2と物体4から遠ざけると、評価面41、42に映り込む明暗パターンの照明光のピッチは小さくなり、欠陥に対する評価の敏感度は上がる。逆に、照明部1の距離をカメラ2と物体4に近づけると、評価面41、42に映り込む明暗照明のピッチは大きくなり、欠陥に対する評価の敏感度は下がる。ただし、投影される縞パターンのピッチの変化に応じて、評価とは無関係な加工時のヒキ目なども敏感度は変化し、ノイズ成分として見えてくる。そのため、欠陥の大きさや深さなどに応じて、それぞれの敏感度が評価判定に適した敏感度になるように照明部1の位置を調整することも有効である。この場合、微小な傷や大きな凹欠陥など評価したい欠陥の種類に応じて照明位置を変化させて、調整してもよい。 Further, in this embodiment, when the distance of the illumination unit 1 is increased from the camera 2 and the object 4, the pitch of the illumination light of the bright and dark pattern reflected on the evaluation surfaces 41 and 42 becomes smaller, and the sensitivity of evaluation to defects increases. Conversely, when the distance of the illumination unit 1 is brought closer to the camera 2 and the object 4, the pitch of the bright and dark illumination reflected on the evaluation surfaces 41 and 42 increases, and the sensitivity of evaluation to defects decreases. However, as the pitch of the projected striped pattern changes, the sensitivity of cracks during processing, which are unrelated to evaluation, changes and becomes visible as noise components. Therefore, it is also effective to adjust the position of the illumination unit 1 so that each sensitivity becomes a sensitivity suitable for evaluation and determination, depending on the size and depth of the defect. In this case, the illumination position may be changed and adjusted depending on the type of defect to be evaluated, such as a minute scratch or a large concave defect.

また、評価領域の決定(分離)を画像処理部5による演算処理で行う方法について述べた。しかし、評価領域の決定に関与する各値の変化のデータやグラフを、表示部6に表示するだけでもよい。例えば、表示データとしては、N枚の画像の各画素の最大輝度値のデータやその画像、または振幅画像A(x,y)、位相画像θ(x,y)、位相差画像Δθx(x,y)、Δθy(x,y)が挙げられる。または、y方向に配列する各画素のx方向へ前記各値の変化のデータやグラフが挙げられる。この場合、評価領域の決定は、表示部6に表示されたデータや画像処理部5から出力されたデータをもとにGUIによりユーザーが行ってもよい。 Furthermore, a method has been described in which the determination (separation) of evaluation regions is performed through arithmetic processing by the image processing unit 5. However, it is also possible to simply display data and graphs of changes in each value involved in determining the evaluation area on the display unit 6. For example, the display data may include data on the maximum luminance value of each pixel of N images or images thereof, amplitude image A(x,y), phase image θ(x,y), phase difference image Δθx(x, y) and Δθy(x, y). Alternatively, data and graphs of changes in each value in the x direction of each pixel arranged in the y direction may be cited. In this case, the evaluation area may be determined by the user using the GUI based on the data displayed on the display section 6 or the data output from the image processing section 5.

<第2実施形態>
図9は、第2実施形態の検査装置を示す概略図である。本実施形態において、物体4はギア(櫛歯)の形状をしていて、検査すべき評価面41と評価面42とはそれぞれ異なる歯の異なる向きの2面である。このような複雑な形状の物体の検査においては、評価面41、42とラインパターン照明をカメラ2の同一画角内に収める本構成は好適で、評価領域と背景であるラインパターン照明の領域についても、第1実施形態で既述した方法で容易に分離することができる。
<Second embodiment>
FIG. 9 is a schematic diagram showing an inspection device according to the second embodiment. In this embodiment, the object 4 has the shape of a gear (comb teeth), and the evaluation surfaces 41 and 42 to be inspected are two surfaces of different teeth facing in different directions. In the inspection of such a complex-shaped object, this configuration in which the evaluation surfaces 41 and 42 and the line pattern illumination are placed within the same field of view of the camera 2 is suitable, and the evaluation area and the area of the line pattern illumination that is the background are can also be easily separated by the method described in the first embodiment.

<第3実施形態>
図10は、第3実施形態の検査装置を示す概略図である。第1実施形態と同様に、物体4の評価面41、42を明部と暗部からなる照明部1で照明し、評価面41、42の照明部1に対する正反射方向にカメラ2を配置し、照明部1の位置を駆動部7で所定ピッチ量移動させる。
<Third embodiment>
FIG. 10 is a schematic diagram showing an inspection device according to the third embodiment. Similar to the first embodiment, the evaluation surfaces 41 and 42 of the object 4 are illuminated by the illumination section 1 consisting of a bright section and a dark section, and the camera 2 is placed in the specular reflection direction of the evaluation surfaces 41 and 42 with respect to the illumination section 1, The position of the illumination unit 1 is moved by a predetermined pitch amount by the driving unit 7.

評価面41、42にはラインパターン照明が映り込み、それぞれの位相がずれている複数の画像を取得し、画像処理部5により、第1実施形態で既述した演算処理をすることで評価面41、42の欠陥を検出している。 Line pattern illumination is reflected on the evaluation surfaces 41 and 42, and a plurality of images whose phases are shifted are acquired, and the image processing unit 5 performs the arithmetic processing described in the first embodiment to form the evaluation surface. 41 and 42 defects were detected.

本実施形態では、これに加え、半透過型の照明部101がカメラ2と物体4の間に配置してあり、駆動部701で移動可能になっている点が実施形態1とは異なる。半透明型のラインパターン照明は、特開2019-2762に詳細が開示されてある。半透明型のラインパターン照明は、カメラ2側から見ると半透過型のスクリーンになっており、物体4側から見るとラインパターン照明に見える特殊な照明であって、広い法線角度範囲をもった面の同時評価に効果がある。 The present embodiment differs from the first embodiment in that, in addition to this, a transflective illumination unit 101 is disposed between the camera 2 and the object 4, and is movable by a drive unit 701. Details of the translucent line pattern illumination are disclosed in Japanese Patent Application Laid-Open No. 2019-2762. Translucent line pattern lighting is a special type of lighting that looks like a semi-transparent screen when viewed from the camera 2 side, and line pattern lighting when viewed from the object 4 side, and has a wide normal angle range. It is effective for simultaneous evaluation of both aspects.

半透明型照明部101は、照明部1が駆動されるときには制御部3の指令により駆動部701により同時に駆動され、駆動量は照明部1の駆動と同じピッチ量が好適である。 When the illumination part 1 is driven, the translucent illumination part 101 is simultaneously driven by the driving part 701 according to a command from the control part 3, and the driving amount is preferably the same pitch amount as that of the driving of the illumination part 1.

本構成によれば、第1実施形態では照明部1の照明光が照明されず評価不能面としていた物体4の面43にも、半透明型照明部101の照明光が当たるので、欠陥評価できるようになる。ただし、面43への反射光は正対に近い角度からの照明光になるので、面43はこの角度からでも照明101のラインパターン照明が映り込む高光沢面であることが条件となる。ただし、一度にいろいろな向きを持つ複数の面の欠陥検査ができるようになり、部品の傷欠陥検査の高速化に効果がある。面43においても欠陥評価の評価値の算出や、評価領域の決定については同様な手法で行える。 According to this configuration, the illumination light of the translucent illumination unit 101 also hits the surface 43 of the object 4, which was not illuminated with the illumination light of the illumination unit 1 and was regarded as an unevaluable surface in the first embodiment, so that defects can be evaluated. It becomes like this. However, since the reflected light on the surface 43 is illumination light from an angle close to directly opposite, the surface 43 must be a high-gloss surface that reflects the line pattern illumination of the illumination 101 even from this angle. However, it is now possible to inspect multiple surfaces with various orientations at the same time, which has the effect of speeding up the inspection of parts for flaws and defects. For the surface 43 as well, calculation of the evaluation value for defect evaluation and determination of the evaluation area can be performed using the same method.

<第4実施形態>
図11は、第4実施形態の検査装置を示す概略図である。第2実施形態とは異なり、物体4を半透明型照明部101、102で挟み込み、カメラ2からは物体4の評価面42、43、45が観察できる位置に配置し、カメラ201からは評価面41、44、46が観察できる位置に配置してある。半透明型照明部101、102はそれぞれ駆動機構701と702によりP/Nずつ移動し、それぞれN枚ずつ、合計2N枚の画像を得る。カメラ2とカメラ201で得た画像は、それぞれ画像処理部5により、第1実施形態で既述した演算処理をすることで、評価面41、42、43、44、45、46の欠陥を同時に検出できる。本実施形態においては半透明型ラインパターン照明を2つ使用し、2方向からの挟み込み測定のような形態である。ただし、これに限らず、ラインパターン照明は部品の大きさや形状に応じで、3個以上の複数であってもよいし、半透明型ライパターン照明でも通常のラインパターン照明の組み合わせでもよく、同様の効果を発揮する。
<Fourth embodiment>
FIG. 11 is a schematic diagram showing an inspection device according to the fourth embodiment. Unlike the second embodiment, the object 4 is sandwiched between translucent illumination units 101 and 102, and is placed in a position where the evaluation surfaces 42, 43, and 45 of the object 4 can be observed from the camera 2. 41, 44, and 46 are placed at a position where they can be observed. The translucent illumination units 101 and 102 are moved by P/N by drive mechanisms 701 and 702, respectively, to obtain N images each, for a total of 2N images. The images obtained by the camera 2 and the camera 201 are subjected to the arithmetic processing described in the first embodiment by the image processing unit 5, respectively, to simultaneously eliminate defects on the evaluation surfaces 41, 42, 43, 44, 45, and 46. Can be detected. In this embodiment, two translucent line pattern illuminations are used, and the measurement is performed by sandwiching the measurement from two directions. However, the line pattern illumination is not limited to this, depending on the size and shape of the part, it may be three or more, or it may be a combination of translucent light pattern illumination or normal line pattern illumination. Demonstrates the effect of

上記の実施形態の検査装置では、明部と暗部が設定された周期ピッチで空間的に配置されている、あるいは設定された空間周波数で明暗が徐々に変化するラインパターン照明により、該照明の前面に配置された測定サンプルを照明している。また、該照明の明部と暗部の空間的位相をずらしながら、該測定サンプルでの正反射方向に配置した2次元画像を取得可能なカメラで、物体からの反射光を撮影することで、該照明と該物体の両者を画角内に含んだ複数の画像を取得する。そして、該得られた画像の各画素における、輝度情報や該輝度情報を演算した評価値で、背景である照明と物体の領域を分離し、物体の欠陥を検出する。これにより、金属加工面のような粗面や複雑な形状をした物体の傷、欠陥検査ができる。具体的には、得られたN枚の各画像の同一画素の輝度の最大値や、N枚の各画像の同一画素の輝度の最大値と最小値の差を取った振幅画像によって評価領域の決定、欠陥の評価ができる。または、N枚の各画像の各画素の変化を正弦波に模した時の位相、あるいは、各画素の位相を画素配列方向への位相変化を数値化した位相差によっても、評価領域の決定、欠陥の評価ができる。 In the inspection apparatus of the above embodiment, the front surface of the illumination is The measurement sample placed in the area is illuminated. In addition, by photographing the reflected light from the object with a camera that can acquire a two-dimensional image placed in the direction of specular reflection on the measurement sample while shifting the spatial phase of the bright and dark areas of the illumination, it is possible to A plurality of images including both the illumination and the object within the angle of view are acquired. Then, using the brightness information in each pixel of the obtained image and the evaluation value calculated from the brightness information, the illumination that is the background and the object area are separated, and defects in the object are detected. This makes it possible to inspect scratches and defects on rough surfaces such as metal surfaces and objects with complex shapes. Specifically, the evaluation area is calculated using the maximum brightness value of the same pixel in each of the N images obtained, and the amplitude image obtained by taking the difference between the maximum and minimum brightness values of the same pixel in each of the N images. Able to make decisions and evaluate defects. Alternatively, the evaluation area can be determined by the phase when the change in each pixel of each of the N images is simulated as a sine wave, or by the phase difference that digitizes the phase change of each pixel in the pixel arrangement direction. Defects can be evaluated.

以上、本発明の好ましい実施形態、実施例について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。例えば、カメラ2として時間相関イメージセンサを用いて、カメラを露光させながら照明部1を移動させて撮影する外観検査装置にも適用することができる。 Although preferred embodiments and examples of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the gist thereof. For example, the present invention can be applied to an external appearance inspection device that uses a time-correlated image sensor as the camera 2 and moves the illumination unit 1 while exposing the camera to take pictures.

Claims (8)

物体の表面を検査する検査装置において、
明暗パターンを前記物体の表面に照射する照明部と、
前記照明部により前記明暗パターンが照明された前記物体の表面を撮像する撮像部と、
前記撮像部により撮像された画像を処理することにより前記物体の表面の評価を行う処理部と、を有し、
前記撮像部は、前記照明部により前記明暗パターンの位相をずらしながら照明された前記物体の表面と、前記照明部と、が画角内に含まれた複数の画像を生成し、
前記処理部は、前記複数の画像に基づいて画像内における前記物体の表面と前記照明部の領域を分離して、分離された前記物体の表面における画像を評価することを特徴とする検査装置。
In an inspection device that inspects the surface of an object,
an illumination unit that irradiates the surface of the object with a bright and dark pattern;
an imaging unit that images the surface of the object illuminated with the bright and dark pattern by the illumination unit;
a processing unit that evaluates the surface of the object by processing the image captured by the imaging unit,
The imaging unit generates a plurality of images in which the surface of the object illuminated by the illumination unit while shifting the phase of the brightness and darkness pattern and the illumination unit are included in an angle of view,
The inspection device is characterized in that the processing section separates the surface of the object and the region of the illumination section in the image based on the plurality of images, and evaluates the separated image on the surface of the object.
前記撮像部の側から見て、前記照明部の明暗パターンのラインの延びる方向と、前記物体の少なくとも一部の表面の法線の方向と、が異なることを特徴とする請求項1に記載の検査装置。 2. The object according to claim 1, wherein the direction in which the line of the light and dark pattern of the illumination section extends and the direction of a normal to at least a part of the surface of the object are different from each other when viewed from the side of the imaging section. Inspection equipment. 前記画像内において、前記照明部の明暗パターンのラインの延びる方向と、前記物体の少なくとも一部の表面で反射された明暗パターンのラインの延びる方向と、が異なることを特徴とする請求項1に記載の検査装置。 2. The object according to claim 1, wherein in the image, the direction in which the lines of the brightness pattern of the illumination section extend and the direction in which the lines of the brightness and darkness pattern reflected on at least a part of the surface of the object extend are different. Inspection equipment as described. 前記処理部は、前記複数の画像の画素値に基づいた演算により前記物体の表面の評価領域を決定することを特徴とする請求項1乃至3の何れか1項に記載の検査装置。 The inspection device according to any one of claims 1 to 3, wherein the processing unit determines an evaluation area on the surface of the object by calculation based on pixel values of the plurality of images. 前記処理部は、決定した評価領域に関する情報を出力することを特徴とする請求項4に記載の検査装置。 The inspection device according to claim 4, wherein the processing unit outputs information regarding the determined evaluation area. 前記評価領域に関する情報を表示する表示部を有することを特徴とする請求項5に記載の検査装置。 The inspection device according to claim 5, further comprising a display section that displays information regarding the evaluation area. 前記処理部は、分離された前記物体の表面における画像の評価値に基づいて前記物体の表面の欠陥を検出することを特徴とする請求項1乃至6の何れか1項に記載の検査装置。 7. The inspection apparatus according to claim 1, wherein the processing unit detects a defect on the surface of the object based on an evaluation value of an image on the surface of the separated object. 物体の表面を検査する検査方法において、
照明部を用いて明暗パターンを前記物体の表面に照射する照明工程と、
前記明暗パターンが照明された前記物体の表面を撮像する撮像工程と、
撮像された画像を処理することにより前記物体の表面の評価を行う評価工程と、を有し、
前記撮像工程において、前記明暗パターンの位相をずらしながら照明された前記物体の表面と、前記照明部と、が画角内に含まれた複数の画像を生成し、
前記評価工程において、前記複数の画像に基づいて画像内における前記物体の表面と前記照明部の領域を分離して、分離された前記物体の表面における画像を評価することを特徴とする検査方法。
In an inspection method for inspecting the surface of an object,
an illumination step of irradiating the surface of the object with a bright and dark pattern using an illumination unit;
an imaging step of imaging the surface of the object illuminated with the bright and dark pattern;
an evaluation step of evaluating the surface of the object by processing the captured image,
In the imaging step, generating a plurality of images in which the surface of the object illuminated while shifting the phase of the brightness and darkness pattern and the illumination section are included within an angle of view,
An inspection method characterized in that, in the evaluation step, the surface of the object and the area of the illumination section in the image are separated based on the plurality of images, and the image on the separated surface of the object is evaluated.
JP2020092252A 2020-05-27 2020-05-27 Inspection equipment and inspection method Active JP7443162B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020092252A JP7443162B2 (en) 2020-05-27 2020-05-27 Inspection equipment and inspection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020092252A JP7443162B2 (en) 2020-05-27 2020-05-27 Inspection equipment and inspection method

Publications (2)

Publication Number Publication Date
JP2021188959A JP2021188959A (en) 2021-12-13
JP7443162B2 true JP7443162B2 (en) 2024-03-05

Family

ID=78849245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020092252A Active JP7443162B2 (en) 2020-05-27 2020-05-27 Inspection equipment and inspection method

Country Status (1)

Country Link
JP (1) JP7443162B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001012930A (en) 1999-06-28 2001-01-19 Nissan Motor Co Ltd Surface defect inspection apparatus
JP2011089981A (en) 2009-09-24 2011-05-06 Kde Corp Inspection system and inspection method
JP2016090328A (en) 2014-10-31 2016-05-23 株式会社 日立産業制御ソリューションズ Imaging device and buckling inspection device
JP2017101979A (en) 2015-11-30 2017-06-08 リコーエレメックス株式会社 Inspection system
JP2018036172A (en) 2016-09-01 2018-03-08 富士フイルム株式会社 Inspection device and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001012930A (en) 1999-06-28 2001-01-19 Nissan Motor Co Ltd Surface defect inspection apparatus
JP2011089981A (en) 2009-09-24 2011-05-06 Kde Corp Inspection system and inspection method
JP2016090328A (en) 2014-10-31 2016-05-23 株式会社 日立産業制御ソリューションズ Imaging device and buckling inspection device
JP2017101979A (en) 2015-11-30 2017-06-08 リコーエレメックス株式会社 Inspection system
JP2018036172A (en) 2016-09-01 2018-03-08 富士フイルム株式会社 Inspection device and method

Also Published As

Publication number Publication date
JP2021188959A (en) 2021-12-13

Similar Documents

Publication Publication Date Title
JP6945245B2 (en) Visual inspection equipment
JP5546103B2 (en) Device for controlling transparent or reflective parts
JP5144401B2 (en) Wafer inspection equipment
JP2006242886A (en) Surface defect inspecting apparatus
JP6859627B2 (en) Visual inspection equipment
JP2012078144A (en) Surface defect inspection device for transparent body sheet-like material
JP6584454B2 (en) Image processing apparatus and method
JP2017040510A (en) Inspection apparatus, inspection method, and object manufacturing method
JP2019082452A (en) Image generation method, image generation device, and defect determination method using the same
JP6859628B2 (en) Visual inspection method and visual inspection equipment
JP2019002928A (en) Image acquisition device and method
JP6482710B1 (en) Appearance inspection apparatus and inspection system
JP7443162B2 (en) Inspection equipment and inspection method
KR20220110291A (en) Laser-based inclusion detection system and method
JP7448808B2 (en) Surface inspection device and surface inspection method
JP7111370B2 (en) Defect inspection method
JP2020060533A (en) Optical evaluation device and optical evaluation method
JP2021196189A (en) Inspection device and inspection method
JP2020091143A (en) Surface defect inspection method and device of translucent member
JP2022098685A (en) Inspection device, lighting device for inspection, inspection method, and method for manufacturing article
CN111272762B (en) Surface defect inspection device for light-transmitting member
JP2020094877A (en) Optical evaluation device, optical evaluation method, test object conveyance method
JP2005030848A (en) Simulation method for surface inspection and surface inspection device
JP2023160096A (en) Surface defect detection device and surface defect detection method
JP2011075534A (en) Curved-surface appearance inspection apparatus

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20200616

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230510

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240221

R151 Written notification of patent or utility model registration

Ref document number: 7443162

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151