JP2012008619A - Edge detection method, edge detection apparatus. and inspection apparatus - Google Patents

Edge detection method, edge detection apparatus. and inspection apparatus Download PDF

Info

Publication number
JP2012008619A
JP2012008619A JP2010141314A JP2010141314A JP2012008619A JP 2012008619 A JP2012008619 A JP 2012008619A JP 2010141314 A JP2010141314 A JP 2010141314A JP 2010141314 A JP2010141314 A JP 2010141314A JP 2012008619 A JP2012008619 A JP 2012008619A
Authority
JP
Japan
Prior art keywords
value
pixel
edge
pixels
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010141314A
Other languages
Japanese (ja)
Inventor
Hajime Baba
基 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shinko Electric Industries Co Ltd
Original Assignee
Shinko Electric Industries Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shinko Electric Industries Co Ltd filed Critical Shinko Electric Industries Co Ltd
Priority to JP2010141314A priority Critical patent/JP2012008619A/en
Publication of JP2012008619A publication Critical patent/JP2012008619A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an edge detection method for stably detecting an edge.SOLUTION: A processing unit 12 calculates deviations of pixels having the same luminance value on the basis of the luminance value included in interpolation image data, and calculates the luminance value of the pixel having the smallest deviation. The processing unit 12 defines the calculated luminance value as an edge determination value, and detects, as an edge, a pixel included in the interpolation image data and having a value same as the edge determination value.

Description

エッジ検出方法、エッジ検出装置、及び検査装置に関する。   The present invention relates to an edge detection method, an edge detection device, and an inspection device.

プリント基板を検査する検査装置は、CCD(Charge Coupled Device )等の撮像装置でプリント基板を撮像して得られた画像データを用いて、プリント基板を検査する。その検査のうちの1つは、プリント基板に形成された配線に関する検査である。検査装置は、画像データを画像処理してエッジを検出し(例えば、特許文献1参照)、エッジ間を配線として認識する。そして、配線の配線幅を計測し、その配線幅が規定範囲内か否かに基づいて、プリント基板の良否を判定する。   An inspection apparatus for inspecting a printed circuit board inspects the printed circuit board using image data obtained by imaging the printed circuit board with an imaging device such as a CCD (Charge Coupled Device). One of the inspections is an inspection related to the wiring formed on the printed circuit board. The inspection apparatus performs image processing on the image data to detect edges (see, for example, Patent Document 1), and recognizes between the edges as wiring. Then, the wiring width of the wiring is measured, and the quality of the printed circuit board is determined based on whether or not the wiring width is within a specified range.

近年、例えばフリップチップが搭載されるプリント基板は、配線の高精細化が進んでいる。このような配線を計測する場合、CCD等の撮像素子における分解能が不足する場合がある。このため、撮像装置で得られた画像データについて、画素値(例えば輝度)を補間することにより、CCD等の撮像素子のピッチより細かいピッチの画像データを作成する。この方法では、見かけ上の分解能を上げることができるため、高精細な配線の検証を行うことが可能となる。   In recent years, for example, a printed circuit board on which a flip chip is mounted has been improved in the definition of wiring. When such wiring is measured, the resolution of an image sensor such as a CCD may be insufficient. For this reason, image data having a finer pitch than the pitch of an image sensor such as a CCD is created by interpolating pixel values (for example, luminance) of image data obtained by the imaging device. In this method, the apparent resolution can be increased, so that high-definition wiring can be verified.

しかし、補間により得られた画像データでは、しきい値とするレベルの設定によって判定するエッジの位置が異なり、測定結果、即ち線幅が大きく変化する。このような変化を抑えるため、レベルを設定する方法として、平均値を用いる方法、輝度の傾きを用いる方法、等がある。   However, in the image data obtained by interpolation, the edge position to be determined differs depending on the setting of the threshold level, and the measurement result, that is, the line width changes greatly. In order to suppress such a change, there are a method for setting the level, a method using an average value, a method using a luminance gradient, and the like.

特開2005−242596号公報JP 2005-242596 A

しかしながら、平均値を用いる方法では、配線が含まれるように平均値を求める領域を設定しなければならない。また、平均値を求める領域の大きさが、配線の影響がない程度に広く設定しなければならない。しかし、領域が広すぎると、平均値が照明むら等の影響を受けやすくなる。   However, in the method using the average value, a region for obtaining the average value must be set so that the wiring is included. In addition, the size of the area for which the average value is obtained must be set so wide that there is no influence of wiring. However, if the region is too wide, the average value is likely to be affected by uneven illumination.

また、輝度の傾きを用いる方法では、微少区間(補間により作成した画素間)での傾き(輝度値の差)を用いてエッジを判定するため、画像データにノイズがある場合には、誤った傾きを算出してしまう。また、照明の具合によって光量が変化すると、傾きが変わるため、エッジを検出し難くなる。   In addition, in the method using the luminance gradient, the edge is determined using the gradient (difference in luminance value) in a minute section (between pixels created by interpolation). The slope is calculated. Further, when the amount of light changes depending on the lighting condition, the inclination changes, so that it is difficult to detect an edge.

本発明は上記問題点を解決するためになされたものであって、その目的は、安定してエッジを検出することが可能なエッジ検出方法、エッジ検出装置、及び検査装置を提供することにある。   The present invention has been made to solve the above problems, and an object of the present invention is to provide an edge detection method, an edge detection device, and an inspection device capable of stably detecting an edge. .

本発明の一観点によれば、画像を構成する画素の値に基づいて、同一輝度値の複数の画素について画素の振れ幅を算出し、前記振れ幅が最も小さい画素の輝度値を算出する輝度算出処理と、算出した輝度値をエッジ判定値とし、前記画像に含まれる画素のうち、前記エッジ判定値と等しい値の画素をエッジとして検出するパターンエッジ検出処理と、を含む。   According to one aspect of the present invention, the brightness of a pixel that has the same brightness value is calculated based on the values of the pixels that form the image, and the brightness value of the pixel that has the smallest shake width is calculated. And a pattern edge detection process in which a calculated luminance value is used as an edge determination value, and a pixel having a value equal to the edge determination value among pixels included in the image is detected as an edge.

補間画像データに含まれる画素の配列方向とエッジがなす角度に応じて、同一輝度値の画素が並ぶ方向に対して、その方向と直交する方向に画素が振れた状態となる。この振れ幅は、エッジから離れるに従って大きくなる。従って、振れ幅の最も小さな画素の輝度値を算出することにより、エッジを示す輝度値を得て、エッジを検出する。   According to the angle between the pixel arrangement direction and the edge included in the interpolated image data, the pixel is swung in a direction orthogonal to the direction in which the pixels having the same luminance value are arranged. This runout width increases as the distance from the edge increases. Therefore, by calculating the luminance value of the pixel having the smallest fluctuation width, the luminance value indicating the edge is obtained and the edge is detected.

本発明の一観点によれば、安定してエッジを検出することが可能なエッジ検出方法、エッジ検出装置、及び検査装置を提供することができる。   According to one aspect of the present invention, it is possible to provide an edge detection method, an edge detection apparatus, and an inspection apparatus that can detect edges stably.

一実施形態の検査装置の概略構成図。The schematic block diagram of the test | inspection apparatus of one Embodiment. エッジ検出処理のフローチャート。The flowchart of an edge detection process. 画像分割の説明図。Explanatory drawing of image division. (a)は検査対象物の一部拡大図、(b)は画像データの説明図。(A) is a partially enlarged view of an inspection object, and (b) is an explanatory diagram of image data. 補間処理の説明図。Explanatory drawing of an interpolation process. 補間処理後の画像データを示す説明図。Explanatory drawing which shows the image data after an interpolation process. エッジ検出処理の説明図。Explanatory drawing of an edge detection process. エッジ検出処理の説明図。Explanatory drawing of an edge detection process. 別のエッジ検出処理の説明図。Explanatory drawing of another edge detection process. 別のエッジ検出処理の説明図。Explanatory drawing of another edge detection process.

以下、一実施の形態を添付図面に従って説明する。
図1に示すように、検査装置は、撮像部11、処理部12、出力部13を含む。撮像部11は、例えばCCD(Charge Coupled Device )を含む一次元の撮像装置(所謂ラインCCD)である。なお、撮像部11として、CMOS構造の撮像素子を用いたものとしてもよい。また、二次元の撮像素子を用いたものとしてもよい。
Hereinafter, an embodiment will be described with reference to the accompanying drawings.
As illustrated in FIG. 1, the inspection apparatus includes an imaging unit 11, a processing unit 12, and an output unit 13. The imaging unit 11 is a one-dimensional imaging device (so-called line CCD) including, for example, a CCD (Charge Coupled Device). The imaging unit 11 may be a CMOS imaging device. Further, a two-dimensional image sensor may be used.

撮像部11は、検査対象物21を撮影するように配置されている。検査対象物21は、例えばプリント配線板であり、搬送装置14(例えば、ベルトコンベア)により搬送方向(図に示す矢印方向)に搬送される。   The imaging unit 11 is arranged so as to photograph the inspection object 21. The inspection object 21 is a printed wiring board, for example, and is transported in the transport direction (arrow direction shown in the figure) by the transport device 14 (for example, a belt conveyor).

撮像部11は、検査対象物21の全体を撮像するように配置されている。例えば、一次元の撮像部11は、水平面において搬送方向と直交する方向に沿って素子が配列されるように配置される。そして、撮像部11は、1ライン分の画像データを出力する。検査対象物21が搬送される。従って、撮像部11から出力される画像データは、検査対象物21を、その搬送方向に一定の間隔で分割したライン毎のデータとなる。   The imaging unit 11 is arranged so as to image the entire inspection object 21. For example, the one-dimensional imaging unit 11 is arranged such that elements are arranged along a direction orthogonal to the transport direction on a horizontal plane. Then, the imaging unit 11 outputs image data for one line. The inspection object 21 is conveyed. Therefore, the image data output from the imaging unit 11 is data for each line obtained by dividing the inspection object 21 at a constant interval in the conveyance direction.

処理部12は、画像メモリを有し、その画像メモリに撮像部11から出力される画像データを順次記憶する。これにより、画像メモリには、検査対象物21全体の画像データが記憶される。   The processing unit 12 has an image memory, and sequentially stores the image data output from the imaging unit 11 in the image memory. Thereby, the image data of the entire inspection object 21 is stored in the image memory.

処理部12は、画像メモリに記憶した画像データを補間処理して補間画像データを生成する。補間処理は、画像データの画素間に、画素値に基づいて生成した補間画素を挿入することにより、画素間隔、つまり画素のピッチを見かけ上小さくして分解能を高くする処理である。処理部12は、補間画素の画素値を、例えば双三次補間(バイキュービック(Bicubic )補間)により生成する。   The processing unit 12 interpolates the image data stored in the image memory to generate interpolated image data. The interpolation process is a process of increasing the resolution by apparently reducing the pixel interval, that is, the pixel pitch, by inserting the interpolation pixel generated based on the pixel value between the pixels of the image data. The processing unit 12 generates the pixel value of the interpolation pixel by, for example, bicubic interpolation (Bicubic interpolation).

次いで、処理部12は、補間画像データに基づいて、検査対象物21に含まれる測定対象物(例えば、基板上に形成された配線)のエッジを検出する。次いで、処理部12は、検出したエッジ間の距離を算出する。このエッジ間の距離は、配線の幅(パターン幅)に対応する。つまり、処理部12は、補間画像データから配線のエッジを抽出し、配線幅を算出する。   Next, the processing unit 12 detects the edge of the measurement object (for example, a wiring formed on the substrate) included in the inspection object 21 based on the interpolation image data. Next, the processing unit 12 calculates the distance between the detected edges. The distance between the edges corresponds to the width of the wiring (pattern width). That is, the processing unit 12 extracts the wiring edge from the interpolation image data, and calculates the wiring width.

次いで、処理部12は、算出した配線幅を設定値と比較する。設定値は、検査対象物21の合否を判定するための判定値であり、配線幅の許容範囲を示す値、つまり最小配線幅と最大配線幅を含む。従って、処理部12は、配線幅と設定値(最小配線幅、最大配線幅)と比較し、配線幅が許容範囲に入っている場合に、その配線幅の配線を合格(OK)と判定し、配線幅が許容範囲を超えている場合にその配線を不合格(NG)と判定する。処理部12は、検査対象物21全体において、全ての配線が合格の場合に、その検査対象物21を合格と判定し、少なくとも1つの不合格な配線が含まれる検査対象物21を不合格と判定する。従って、処理部12は、補間処理部、エッジ検出部、判定部を含む。   Next, the processing unit 12 compares the calculated wiring width with a set value. The set value is a determination value for determining pass / fail of the inspection object 21 and includes a value indicating an allowable range of the wiring width, that is, a minimum wiring width and a maximum wiring width. Accordingly, the processing unit 12 compares the wiring width with the set values (minimum wiring width, maximum wiring width), and determines that the wiring with the wiring width is acceptable (OK) when the wiring width is within the allowable range. When the wiring width exceeds the allowable range, the wiring is determined to be rejected (NG). The processing unit 12 determines that the inspection object 21 is acceptable when all the wirings pass in the entire inspection object 21, and rejects the inspection object 21 including at least one unacceptable wiring. judge. Accordingly, the processing unit 12 includes an interpolation processing unit, an edge detection unit, and a determination unit.

処理部12は、処理における各種のデータを、出力部13に表示する。出力部13は、例えばLCD等の表示装置である。例えば、処理部12は、画像データに基づく画像、補間画像データに基づく画像、処理中のブロックの画像、各ブロックの判定結果、検査対象物21に対する判定結果、等を出力部13に表示する。尚、出力部13を、印刷装置(プリンタ等)としてもよい。また、表示装置と印刷装置を出力部13として備える構成としてもよい。なお、処理部12に対して設定値や処理に対する指示を入力する装置として、キーボードやマウスを備える構成としてもよい。   The processing unit 12 displays various data in the processing on the output unit 13. The output unit 13 is a display device such as an LCD. For example, the processing unit 12 displays an image based on the image data, an image based on the interpolated image data, an image of the block being processed, a determination result for each block, a determination result for the inspection target 21, and the like on the output unit 13. The output unit 13 may be a printing apparatus (printer or the like). In addition, a display device and a printing device may be provided as the output unit 13. In addition, it is good also as a structure provided with a keyboard and a mouse | mouth as an apparatus which inputs the setting value and the instruction | indication with respect to the process part 12. FIG.

次に、処理部12における処理を説明する。
先ず、補間処理を説明する。
図4(a)に示すように、検査対象物21には、絶縁体22上に所定幅の配線23が形成されている。絶縁体22は、例えばエポキシ樹脂系、フェノール樹脂系、ポリイミド樹脂系、不飽和ポリエステル樹脂系、ポリフェニレンエーテル樹脂系等の単独、変性物、混合物である。絶縁体22と配線23は、互いに反射率が異なる。例えば、配線23の反射率は、絶縁体22のそれと比べて高い。従って、配線23を撮像した画素から出力される画像データ(輝度値)は、絶縁体22に対する輝度値よりも値が大きい。
Next, processing in the processing unit 12 will be described.
First, the interpolation process will be described.
As shown in FIG. 4A, a wiring 23 having a predetermined width is formed on an insulator 22 in the inspection object 21. The insulator 22 is, for example, an epoxy resin type, a phenol resin type, a polyimide resin type, an unsaturated polyester resin type, or a polyphenylene ether resin type alone, a modified product, or a mixture. The insulator 22 and the wiring 23 have different reflectances. For example, the reflectance of the wiring 23 is higher than that of the insulator 22. Therefore, the image data (luminance value) output from the pixel that images the wiring 23 has a value larger than the luminance value for the insulator 22.

更に、撮像部11の各画素は、所定の大きさを有している。従って、配線23のエッジ23aを撮像した画素から出力される画像データ(輝度値)は、画素により撮像する領域に含まれる配線23の部分と絶縁体22の部分との反射光に基づく。従って、図4(b)に示すように、画像データは、絶縁体22のみを撮影した画素に対応する領域31と、配線23のみを撮影した画素に対応する領域32と、1つの画素にて絶縁体22と配線23とを撮影した領域33を含む。図4(b)に示す点線は、図4(a)に示す配線23のエッジ23aを示す。領域31,32の境界線、即ち絶縁体22に対する輝度値の境界線と、配線23に対する輝度値の境界線は、エッジ23aを挟む両側において、それぞれ階段状の形状を示す。つまり、輝度値の境界は、階段状に変化する。   Furthermore, each pixel of the imaging unit 11 has a predetermined size. Therefore, the image data (luminance value) output from the pixel obtained by imaging the edge 23a of the wiring 23 is based on the reflected light from the portion of the wiring 23 and the portion of the insulator 22 included in the region imaged by the pixel. Therefore, as shown in FIG. 4B, the image data is composed of one pixel, a region 31 corresponding to a pixel obtained by photographing only the insulator 22, a region 32 corresponding to a pixel obtained by photographing only the wiring 23, and one pixel. A region 33 in which the insulator 22 and the wiring 23 are photographed is included. The dotted line shown in FIG. 4B indicates the edge 23a of the wiring 23 shown in FIG. The boundary line between the regions 31 and 32, that is, the boundary line of the luminance value with respect to the insulator 22 and the boundary line of the luminance value with respect to the wiring 23 each have a stepped shape on both sides of the edge 23a. That is, the boundary between the luminance values changes in a staircase pattern.

そして、2つの領域31,32の間の領域33は、画素の領域内における配線23と絶縁体22からの反射光の光量に応じた輝度値のデータとなる。なお、図4(b)の左上に、1つの画素により撮像される領域34を示している。なお、上記の領域31,32における輝度値は、原理的に一定の値であるが、実際の画像データの画素値(輝度値)は、配線23、絶縁体22の表面の状態(例えば凹凸)に基づく反射率の変化、等により変化する。   A region 33 between the two regions 31 and 32 is data of a luminance value corresponding to the amount of reflected light from the wiring 23 and the insulator 22 in the pixel region. In addition, the area | region 34 imaged by one pixel is shown on the upper left of FIG.4 (b). Note that although the luminance values in the above-described areas 31 and 32 are constant values in principle, the pixel values (luminance values) of actual image data are the states of the surfaces of the wirings 23 and the insulators 22 (for example, unevenness). It changes due to the change of the reflectance based on.

処理部12は、上記のようにして得られた画像データに対し、補間処理を行う。補間処理は、上記したように、三次補間(バイキュービック(Bicubic )補間)により、補間画素の画素値を算出する。処理部12は、画像データにおいて、隣接する2つの画素間を10分割する。つまり、処理部12は、4つの画素を矩形の頂点とする領域を、100個の補助領域に分割し、各補助領域の頂点を補助画素の座標値とする。そして、処理部12は、元の画像データに含まれる画素、及び補間画素の画素値を、その周辺の複数の画素値に基づいて算出する。画像データの画素値(輝度値)と、補間処理により得られた画素値(輝度値)を図5に示す。この図5において、黒四角は撮像部11から出力される画像データの画素値(計測点)を示し、一点鎖線は、補間画像データに含まれる画素値を結ぶ線分を示す。   The processing unit 12 performs an interpolation process on the image data obtained as described above. As described above, the interpolation processing calculates the pixel value of the interpolated pixel by cubic interpolation (Bicubic interpolation). The processing unit 12 divides the adjacent two pixels into 10 in the image data. That is, the processing unit 12 divides an area having four pixels as rectangular vertices into 100 auxiliary areas, and uses the vertices of each auxiliary area as coordinate values of the auxiliary pixels. Then, the processing unit 12 calculates the pixel values of the pixels and the interpolation pixels included in the original image data based on a plurality of surrounding pixel values. FIG. 5 shows pixel values (luminance values) of image data and pixel values (luminance values) obtained by the interpolation process. In FIG. 5, black squares indicate pixel values (measurement points) of image data output from the imaging unit 11, and alternate long and short dash lines indicate line segments connecting pixel values included in the interpolated image data.

上記の補間処理により生成された補間画像データを図6に示す。尚、図6は、補間画像データに含まれる画素の画素値(輝度値)の分布を領域41〜45として示している。図中の実線は、画素値を所定の値(例えば20)毎の範囲に区分した領域の境界線を示している。例えば、領域41は、輝度値が[40]〜[60]の画素が含まれる領域であり、領域42は、輝度値が[60]〜[80]の画素が含まれる領域である。   The interpolated image data generated by the above interpolation processing is shown in FIG. FIG. 6 shows the distribution of pixel values (luminance values) of pixels included in the interpolated image data as regions 41 to 45. A solid line in the figure indicates a boundary line of a region in which pixel values are divided into ranges of predetermined values (for example, 20). For example, the region 41 is a region including pixels with luminance values [40] to [60], and the region 42 is a region including pixels with luminance values [60] to [80].

同じ画素値(輝度値)の画素が含まれる領域の境界は、例えば、その領域に含まれる画素のうち、隣接する画素の画素値が異なる(例えば小さい)画素を結ぶ線分として得られる。この境界線は、輝度値に応じて、配線が延びる方向と略直交する方向に波打つ。つまり、同一値の補間画素を結ぶラインにおいて、所定の輝度値に対するラインは波打ち、別の輝度値に対するラインは波打たない。この波打ち現象は、画像データを構成する画素の配列方向(X軸及びY軸)に対して、配線23(エッジ23a)が傾き、その傾きに応じて撮像部11の画素に入射する光量の変化(強弱)により発生する。   A boundary between regions including pixels having the same pixel value (luminance value) is obtained, for example, as a line segment connecting pixels having different (for example, small) pixel values of adjacent pixels among pixels included in the region. This boundary line undulates in a direction substantially perpendicular to the direction in which the wiring extends in accordance with the luminance value. That is, in a line connecting interpolation pixels having the same value, a line for a predetermined luminance value is undulated, and a line for another luminance value is not undulated. This wavy phenomenon is caused by the change in the amount of light incident on the pixels of the imaging unit 11 according to the inclination of the wiring 23 (edge 23a) with respect to the arrangement direction (X axis and Y axis) of the pixels constituting the image data. (Strength).

エッジ部分からの反射光は、明るい側(反射光量が相対的に多い側であって、配線23の部分)と暗い部分(反射光量が相対的に少ない側であって、絶縁体22の部分)の双方にボケを生じさせる。その量は、ガウシアン分布にて変化する。従って、輝度値が同じ補間画素を結ぶ線分の振幅は、配線23の中心部分からエッジ23aに向って徐々に小さくなる。また、絶縁体22から配線23に向って、即ちエッジ23aに向って徐々に小さくなる。従って、同じ輝度値の画素を結ぶ線分のうち、波打ちが最も小さい、即ち振幅が最も小さい線分が、配線23のエッジに対応する位置となる。   Reflected light from the edge portion is a bright side (a portion with a relatively large amount of reflected light and a portion of the wiring 23) and a dark portion (a portion with a relatively small amount of reflected light and a portion of the insulator 22). Causes blur on both sides. The amount varies with a Gaussian distribution. Therefore, the amplitude of the line segment connecting the interpolation pixels having the same luminance value gradually decreases from the central portion of the wiring 23 toward the edge 23a. Further, it gradually decreases from the insulator 22 toward the wiring 23, that is, toward the edge 23a. Accordingly, among the line segments connecting pixels having the same luminance value, the line segment having the smallest undulation, that is, the smallest amplitude is the position corresponding to the edge of the wiring 23.

次に、エッジ検出処理の一例を説明する。
処理部12は、図2に示すフローチャートに従って各処理を実行し、エッジを検出する。
Next, an example of edge detection processing will be described.
The processing unit 12 executes each process according to the flowchart shown in FIG. 2 and detects an edge.

即ち、ステップ51において、処理部12は、補間画像データを入力し(ステップ51:画像入力処理)、その画像を複数の矩形領域(ブロック)に分割する(ステップ52:ブロック分割処理)。例えば、処理部12は、図3に示すように、補間画像データ60を、縦横をそれぞれ3分割して9個のブロック61を生成する。なお、分割数は、1以上の値に適宜変更されてもよい。また、検査対象物21の大きさ、検査対象物21に対する照明の状態等に応じて設定されてもよい。また、画像データの状態、例えば輝度の状態に応じて分割数を変更するようにしてもよい。   That is, in step 51, the processing unit 12 inputs interpolation image data (step 51: image input processing), and divides the image into a plurality of rectangular areas (blocks) (step 52: block division processing). For example, as illustrated in FIG. 3, the processing unit 12 generates nine blocks 61 by dividing the interpolated image data 60 into three parts each in vertical and horizontal directions. Note that the number of divisions may be appropriately changed to a value of 1 or more. Moreover, you may set according to the magnitude | size of the test target object 21, the state of the illumination with respect to the test target object 21, etc. Further, the number of divisions may be changed according to the state of image data, for example, the state of luminance.

次いで、処理部12は、画素値に基づいて、斜めに延びるパターン(配線)を抽出する(ステップ53:斜めパターン抽出処理)。画像データの配列方向(画素の配列方向であって、X軸及びY軸)に対して斜めに延びる配線は、図4〜図6において説明したように、同じ輝度値の画素を結び波打つ線分を生じさせる。従って、処理部12は、所定の画素値(輝度値)について、その輝度値が同じ画素を結ぶ線分を検出し、その線分が波打つか否かにより、斜めに延びる線分を検出する。なお、画素を結ぶ線分の波打ちは、画素の座標値の増加量(又は減少量)が周期的に変化することにより検出可能である。波打っていない線分つまり直線は、画素の座標値(例えばX軸の座標値)の増加量(減少量)は一定である。   Next, the processing unit 12 extracts a diagonally extending pattern (wiring) based on the pixel value (step 53: diagonal pattern extraction process). As described with reference to FIGS. 4 to 6, the wiring extending obliquely with respect to the image data arrangement direction (the pixel arrangement direction, that is, the X axis and the Y axis) is a line segment that connects pixels having the same luminance value. Give rise to Accordingly, the processing unit 12 detects a line segment connecting pixels having the same luminance value for a predetermined pixel value (luminance value), and detects a line segment extending obliquely depending on whether the line segment is wavy. Note that the undulation of the line connecting the pixels can be detected by periodically changing the increase amount (or decrease amount) of the coordinate value of the pixel. For a line segment that is not wavy, that is, a straight line, the increase amount (decrease amount) of the coordinate value of the pixel (for example, the coordinate value of the X axis) is constant.

そして、処理部12は、抽出したパターン(配線)の延びる方向を算出する。この方向は、例えば、近似直線により得られる。即ち、処理部12は、同一輝度値の画素の位置(座標値)に基づいて、各座標値をパラメータとする近似直線の一次方程式(y=ax+b)の係数(a,b)を算出する。その係数(a)が配線の延びる方向(傾き)を示す。   Then, the processing unit 12 calculates the extending direction of the extracted pattern (wiring). This direction is obtained by an approximate straight line, for example. That is, the processing unit 12 calculates a coefficient (a, b) of a linear equation (y = ax + b) of an approximate line using each coordinate value as a parameter based on the position (coordinate value) of the pixel having the same luminance value. The coefficient (a) indicates the direction (inclination) in which the wiring extends.

次いで、処理部12は、(ステップ54:輝度算出処理)。処理部12は、エッジとする輝度を求める。
配線の平行な2つのエッジにおいて発生する波打ち線分は、図7に示すように、配線の中心に対して線対称に発生する。図中、矢印は配線の延びる方向を示す。同じ輝度値を結ぶ2つの波打ち線分71a.71b(図中、一点鎖線で示す)は、この方向に対して直交する方向に延びる線分と交差する。処理部12は、上記のステップ53において検出したパターンの方向に沿って所定個の画素により線分を形成する。このとき線分を判定するために利用する画素の個数は、画素を結ぶ線分の波打ち、つまり線分の振幅が判定可能な個数であればよく、例えば、波打ちの1周期分に相当する個数(例えば、50個)とする。処理部12は、それらの交点72a,72bの間隔(交点間距離)を算出する。
Next, the processing unit 12 (step 54: luminance calculation processing). The processing unit 12 obtains luminance as an edge.
As shown in FIG. 7, wavy line segments generated at two parallel edges of the wiring are generated symmetrically with respect to the center of the wiring. In the figure, the arrow indicates the direction in which the wiring extends. Two wavy line segments 71a. 71b (indicated by a one-dot chain line in the figure) intersects with a line segment extending in a direction orthogonal to this direction. The processing unit 12 forms a line segment with a predetermined number of pixels along the direction of the pattern detected in step 53. At this time, the number of pixels used for determining the line segment may be any number that can determine the undulation of the line connecting the pixels, that is, the amplitude of the line segment. For example, the number corresponding to one cycle of the undulation (For example, 50). The processing unit 12 calculates an interval (inter-intersection distance) between the intersections 72a and 72b.

図8に示すように、交点間距離を示す線分71は、配線の延びる方向の位置(例えば、X軸の座標値を配線の延びる方向に座標変換したときの値)に対して、増減を繰り返す。この増減が最も小さい線分が、波打ち量(振幅)が最も小さい線分となる。図7に示す線分では、線分73a,73b(図8では線分73)が、波打ちが最も小さな線分となる。そして、処理部12は、この線分の輝度を得る。尚、図7,8に示す線分は、所定値(例えば20)毎の線分を示す。このため、算出により最も波打ちが少ないとして得られる線分を示していない場合がある。   As shown in FIG. 8, the line segment 71 indicating the distance between the intersections increases or decreases with respect to the position in the wiring extending direction (for example, the value when the coordinate value of the X-axis is coordinate-converted in the extending direction of the wiring). repeat. The line segment with the smallest increase / decrease is the line segment with the smallest waviness (amplitude). In the line segment shown in FIG. 7, the line segments 73a and 73b (the line segment 73 in FIG. 8) are the line segments with the smallest waviness. Then, the processing unit 12 obtains the luminance of this line segment. Note that the line segments shown in FIGS. 7 and 8 are line segments for each predetermined value (for example, 20). For this reason, there is a case where a line segment obtained by calculation with the least waviness is not shown.

次いで、処理部12は、(ステップ55:パターンエッジ検出処理)。処理部は、求めた輝度値をエッジ判定値とし、そのエッジ判定値に基づいて、処理中のブロック61に含まれるパターンのエッジを検出する。このときに検出されるエッジは、ステップ53において検出した斜めパターン全体のエッジ、他のパターンのエッジ(例えば、図4(a)において左上と右下のエッジ23aを含む。更に、検出されるエッジは、画素の配列方向と平行なエッジを含む。このように、画素の配列方向と平行なエッジにおいても、光学的に生じるボケによりエッジが検出し難くなっている。このため、上記のように算出した輝度値によりエッジを検出することで、画素の配列方向のエッジにおいても安定して検出することができる。   Next, the processing unit 12 (step 55: pattern edge detection processing). The processing unit uses the obtained luminance value as an edge determination value, and detects an edge of the pattern included in the block 61 being processed based on the edge determination value. The edges detected at this time include the edges of the entire diagonal pattern detected in step 53 and the edges of other patterns (for example, the upper left and lower right edges 23a in FIG. 4A. Further, the detected edges. Includes edges that are parallel to the pixel arrangement direction, and it is difficult to detect edges even at edges parallel to the pixel arrangement direction due to optically generated blur. By detecting the edge based on the calculated luminance value, the edge in the pixel arrangement direction can be detected stably.

次いで、処理部12は、全ブロック61でエッジを検出したか否かを判定する(ステップ56:終了判定処理)。処理部12は、全てのブロック61におけるエッジを検出した場合、この処理を終了する。一方、処理部12は、未検出のブロック61が存在する場合、ステップ53に移行する。   Next, the processing unit 12 determines whether or not an edge has been detected in all the blocks 61 (step 56: end determination processing). When the processing unit 12 detects an edge in all the blocks 61, the processing ends. On the other hand, when there is an undetected block 61, the processing unit 12 proceeds to step 53.

以上のように、処理部12は、矩形領域(ブロック)61毎に、ステップ53〜55の処理を実行する。従って、処理部12は、ブロック61毎に、波打ちが最も小さな線分を表す輝度値を算出し、その輝度値に基づいてエッジを検出する。   As described above, the processing unit 12 executes the processing of steps 53 to 55 for each rectangular area (block) 61. Therefore, for each block 61, the processing unit 12 calculates a luminance value representing a line segment with the smallest undulation, and detects an edge based on the luminance value.

つまり、各ブロック61においてエッジを検出するための輝度値は、ブロック61に含まれる画像の画素値に応じて設定される。従って、検査対象物21に対して、照明等による輝度ムラが生じた場合でも、その輝度ムラに応じた輝度値を算出するため、輝度ムラの影響を低減することができる。   That is, the luminance value for detecting an edge in each block 61 is set according to the pixel value of the image included in the block 61. Therefore, even when luminance unevenness due to illumination or the like occurs on the inspection object 21, the luminance value corresponding to the luminance unevenness is calculated, so that the influence of the luminance unevenness can be reduced.

なお、輝度ムラの発生は、試験的な検査(試験用基板を用いた検査)により、予め判定することができる。このため、検査対象物21に発生する輝度ムラに応じて、補間画像データ60をブロック61(図3参照)に分割する際の分割数を設定するとよい。このように設定することで、輝度ムラの影響がないエッジ検出及び配線23の幅測定を行うことができ、検査に対する誤判定を低減することが可能となる。   The occurrence of luminance unevenness can be determined in advance by a trial inspection (inspection using a test substrate). For this reason, the number of divisions for dividing the interpolated image data 60 into blocks 61 (see FIG. 3) may be set in accordance with the luminance unevenness occurring in the inspection object 21. By setting in this way, it is possible to perform edge detection and the width measurement of the wiring 23 that are not affected by luminance unevenness, and to reduce erroneous determinations for inspection.

なお、上記の説明では、画素を結ぶ線分として説明したが、これは、同一輝度値の画素の位置関係を判りやすくするためのものであり、実際の処理として線分を必ずしも用いるものではない。例えば、処理部12は、ブロック61に含まれる画素の輝度値の最大値(又は最小値)から順に着目し、着目した輝度値の画素を抽出する。そして、直線的に配列されていな非直線状態の画素について、抽出した画素の座標値に基づいて、波打ち量(振幅)を算出するようにしてもよい。   In the above description, the line segment connecting the pixels is described. However, this is for easy understanding of the positional relationship between the pixels having the same luminance value, and the line segment is not necessarily used as an actual process. . For example, the processing unit 12 pays attention in order from the maximum value (or the minimum value) of the luminance values of the pixels included in the block 61, and extracts pixels having the focused luminance value. Then, the wavy amount (amplitude) may be calculated for pixels in a non-linear state that are not linearly arranged based on the coordinate values of the extracted pixels.

以上記述したように、本実施の形態によれば、以下の効果を奏する。
(1)処理部12は、補間画像データに含まれる画素の輝度値に基づいて、同一輝度値の複数の画素について画素の振れ幅を算出し、振れ幅が最も小さい画素の輝度値を算出する。そして、処理部12は、算出した輝度値をエッジ判定値とし、補間画像データに含まれる画素のうち、エッジ判定値と等しい値の画素をエッジとして検出する。
As described above, according to the present embodiment, the following effects can be obtained.
(1) Based on the luminance value of the pixel included in the interpolated image data, the processing unit 12 calculates the pixel fluctuation width for a plurality of pixels having the same luminance value, and calculates the luminance value of the pixel having the smallest fluctuation width. . Then, the processing unit 12 uses the calculated luminance value as an edge determination value, and detects a pixel having a value equal to the edge determination value among the pixels included in the interpolated image data as an edge.

補間画像データに含まれる画素の配列方向(X軸及びY軸)と、配線23のエッジ23aがなす角度に応じて、同一輝度値の画素を結ぶ線分に波打ち現象が発生する。つまり、同一輝度値の画素の位置が、直線状態と異なる状態、つまり、同一輝度値の画素が並ぶ方向に対して、その方向と直交する方向に画素が振れた状態となる。この振れ幅(線分の振幅)は、エッジ23aから離れるに従って大きくなる。従って、振れ幅の最も小さな画素の輝度値を算出することにより、エッジを示す輝度値を得ることができる。そして、この輝度値によりブロック61内のエッジを安定して検出することができる。   Corrugation occurs in line segments connecting pixels having the same luminance value in accordance with the arrangement direction (X axis and Y axis) of the pixels included in the interpolated image data and the angle formed by the edge 23a of the wiring 23. That is, the position of the pixel having the same luminance value is different from the linear state, that is, the pixel is shaken in a direction orthogonal to the direction in which the pixels having the same luminance value are arranged. This fluctuation width (line segment amplitude) increases as the distance from the edge 23a increases. Therefore, the luminance value indicating the edge can be obtained by calculating the luminance value of the pixel having the smallest fluctuation width. And the edge in the block 61 can be stably detected by this luminance value.

(2)線分の波打ち(画素の振れ幅)は、画素の輝度値が変化しても同様に発生する。従って、画素の輝度値の変化、即ち光の当り具合などに影響されることなく、安定してエッジを検出することができる。   (2) Waves of the line segment (pixel fluctuation width) occur in the same manner even if the luminance value of the pixel changes. Therefore, it is possible to detect the edge stably without being affected by the change of the luminance value of the pixel, that is, the light hit condition.

(3)処理部12は、補間画像データ60を複数のブロック61に分割し、ブロック61毎に、線分の振幅が最も小さな画素の輝度値を算出するようにした。これにより、ブロック61毎の輝度の変化、例えば輝度ムラが発生しても、それに影響されることなく、安定してエッジを検出することができる。   (3) The processing unit 12 divides the interpolated image data 60 into a plurality of blocks 61, and calculates the luminance value of the pixel having the smallest amplitude of the line segment for each block 61. As a result, even if a luminance change for each block 61, for example, luminance unevenness occurs, an edge can be detected stably without being affected by it.

(4)処理部12は、撮像部11にて検査対象物21を撮像した画像データに対して、補間処理を行って撮像素子のピッチよりも小さなピッチの補間画素を生成する。そして、処理部12は、補間画素を含む補間画像データに基づいて、エッジを判定するようにした。これにより、見かけ上の分解能を上げ、かつエッジ23aを安定して検出することで、高精細な配線23の幅を測定することができる。   (4) The processing unit 12 performs an interpolation process on the image data obtained by imaging the inspection object 21 by the imaging unit 11 to generate an interpolation pixel having a pitch smaller than the pitch of the imaging element. Then, the processing unit 12 determines the edge based on the interpolation image data including the interpolation pixel. Thereby, the apparent resolution can be increased and the edge 23a can be detected stably, whereby the width of the high-definition wiring 23 can be measured.

(5)処理部12は、補間画像データから斜めパターンを検出し、その斜めパターンにより発生する波打ち現象の線分に基づいて、エッジを判定する輝度値を算出するようにした。従って、補間画像データ全体、又は平均値を算出するために必要な画素数と比べ、少ない個数の画素によりエッジを検出することができる。このため、エッジ検出処理に要する時間を短縮することができる。また、少ない画素数にてエッジを検出することができるため、処理能力が低い処理部12でもエッジを検出することができる。   (5) The processing unit 12 detects an oblique pattern from the interpolated image data, and calculates a luminance value for determining an edge based on a line segment of a wavy phenomenon generated by the oblique pattern. Therefore, the edge can be detected by a smaller number of pixels compared to the entire interpolation image data or the number of pixels necessary for calculating the average value. For this reason, the time required for the edge detection process can be shortened. Further, since the edge can be detected with a small number of pixels, the edge can be detected even with the processing unit 12 having a low processing capability.

尚、上記実施の形態は、以下の態様で実施してもよい。
・上記実施形態では、配線23における平行な2つのエッジ23aにより発生する波打ち線分間の距離により、波打ちの少ない線分を検出して輝度値を算出するようにした。波打ちの少ない線分を表す輝度値が算出できれば、上記方法に限定されない。例えば、図9に示すように、1つのエッジにおいて発生する波打ち線分81〜84について、波打ちの少ない線分を検出するようにしてもよい。
In addition, you may implement the said embodiment in the following aspects.
In the above-described embodiment, the luminance value is calculated by detecting a line segment with few undulations based on the distance between the wavy line segments generated by the two parallel edges 23 a in the wiring 23. The present invention is not limited to the above method as long as a luminance value representing a line segment with few undulations can be calculated. For example, as shown in FIG. 9, a line segment with few undulations may be detected for the undulation line segments 81 to 84 generated at one edge.

例えば、図9に示す各線分を、画像データの1つの軸(例えばX軸)に対して図10に示すように回転変換し、その変換後の各線分81a〜84aについて、Y軸の座標値の変化が少ない線分を、波打ちが少ない線分として検出するようにしてもよい。   For example, each line segment shown in FIG. 9 is rotationally converted as shown in FIG. 10 with respect to one axis (for example, the X axis) of the image data, and the coordinate values of the Y axis for each of the converted line segments 81a to 84a. A line segment with a small change may be detected as a line segment with few wavinesses.

また、配線の延びる方向(図9において矢印が示す方向)に仮想的に直線85を生成し、その直線85と、各線分81〜84との間の距離を算出し、その距離の変化が少ない線分を、波打ちが少ない線分として検出するようにしてもよい。   Further, a straight line 85 is virtually generated in the wiring extending direction (the direction indicated by the arrow in FIG. 9), and the distance between the straight line 85 and each of the line segments 81 to 84 is calculated, and the change in the distance is small. You may make it detect a line segment as a line segment with few undulations.

また、配線が延びる方向に沿って延びる直線は、画像データの座標系(X軸及びY軸)において、画素間の座標値の差が均一である。従って、線分を形成する画素の座標値に基づいて、X軸及びY軸の少なくとも一方において、画素間の座標値の差の増減が少ない線分を、波打ちが少ない線分として検出するようにしてもよい。   In addition, the straight line extending along the direction in which the wiring extends has a uniform coordinate value difference between pixels in the image data coordinate system (X-axis and Y-axis). Therefore, on the basis of the coordinate values of the pixels forming the line segment, a line segment with a small increase / decrease in the coordinate value difference between the pixels is detected as a line segment with less waviness on at least one of the X axis and the Y axis. May be.

また、振幅が同じ2つの線分を検出し、それら線分の輝度値の中間値(平均値)の線分を、波打ちが少ない線分として検出するようにしてもよい。振幅が同じ2つの線分は、エッジを中心として線対称に現れる。   Alternatively, two line segments having the same amplitude may be detected, and a line segment having an intermediate value (average value) of luminance values of these line segments may be detected as a line segment with less waviness. Two line segments having the same amplitude appear symmetrically with respect to the edge.

・上記実施形態における検査対象物21を、高精細プリント基板、リードフレーム、半導体ウェハー、および、それらのフォトマスク等としてもよく、それらに形成されたパターンのエッジを検出するようにしてもよい。   The inspection object 21 in the above embodiment may be a high-definition printed circuit board, a lead frame, a semiconductor wafer, a photomask thereof, or the like, or may detect an edge of a pattern formed on them.

・上記実施の形態に対し、補間画素値を算出する方法として、直線補間、最近傍補間(ニアレストテイバー)、双一次補間(バイリニア補間)、等の方法を用いても良い。
・上記実施の形態では、直線状のエッジ23aに対して発生する画素値(輝度値)の変化に基づいて、波打ちの少ない輝度値を算出してエッジ23aを検出するようにした。これに対し、任意の曲線に形成されたエッジを検出するようにしてもよい。任意の曲線において、例えばその曲線の接線方向と画像データを構成する画素の配列方向とが角度をなす部分において、上記直線状のエッジ23aと同様に波打ち現象が発生する。この波打ち現象が発生する部分においてエッジとする輝度値を算出し、その輝度値に基づいて画像全体(又はブロック内の画像)のエッジを検出するようにしてもよい。
In contrast to the above-described embodiment, methods such as linear interpolation, nearest neighbor interpolation (nearest taber), bilinear interpolation (bilinear interpolation), or the like may be used as a method for calculating an interpolated pixel value.
In the above embodiment, the edge 23a is detected by calculating a luminance value with less waviness based on a change in the pixel value (luminance value) generated with respect to the linear edge 23a. On the other hand, you may make it detect the edge formed in arbitrary curves. In an arbitrary curve, for example, in a portion where the tangential direction of the curve and the arrangement direction of the pixels constituting the image data make an angle, a undulation phenomenon occurs similarly to the linear edge 23a. It is also possible to calculate a luminance value as an edge in a portion where the undulation phenomenon occurs and detect an edge of the entire image (or an image in a block) based on the luminance value.

11 撮像部
12 処理部
21 検査対象物
23 配線
23a エッジ
60 補間画像データ
61 ブロック
71a,71b 線分
DESCRIPTION OF SYMBOLS 11 Imaging part 12 Processing part 21 Inspection object 23 Wiring 23a Edge 60 Interpolation image data 61 Block 71a, 71b Line segment

Claims (7)

画像中のエッジを検出するエッジ検出方法であって、
前記画像を構成する画素の値に基づいて、同一輝度値の複数の画素について画素の振れ幅を算出し、前記振れ幅が最も小さい画素の輝度値を算出する輝度算出処理と、
算出した輝度値をエッジ判定値とし、前記画像に含まれる画素のうち、前記エッジ判定値と等しい値の画素をエッジとして検出するパターンエッジ検出処理と、
を含むことを特徴とするエッジ検出方法。
An edge detection method for detecting an edge in an image,
Based on the values of the pixels constituting the image, a luminance calculation process for calculating a pixel shake width for a plurality of pixels having the same brightness value, and calculating a brightness value of a pixel having the smallest shake width;
A pattern edge detection process for detecting, as an edge determination value, the calculated luminance value, and a pixel having a value equal to the edge determination value among the pixels included in the image,
An edge detection method comprising:
前記画素の振れ幅は、同一輝度値の複数の画素を結ぶ線分の振幅である、ことを特徴とする請求項1記載のエッジ検出方法。   The edge detection method according to claim 1, wherein the fluctuation width of the pixel is an amplitude of a line segment connecting a plurality of pixels having the same luminance value. 画像データを複数のブロックに分割するブロック分割処理を含み、
前記輝度算出処理において、ブロック毎に前記エッジ判定値を算出することを特徴とする請求項1又は2記載のエッジ検出方法。
Including block division processing for dividing the image data into a plurality of blocks,
The edge detection method according to claim 1, wherein the edge determination value is calculated for each block in the luminance calculation process.
前記画像を構成する画素は、撮像素子にて得られた複数の画素の輝度値に基づき生成した各画素間の補間画素を含むことを特徴とする請求項1〜3のうちの何れか一項に記載のエッジ検出方法。   The pixel constituting the image includes an interpolated pixel between the pixels generated based on the luminance values of the plurality of pixels obtained by the image sensor. The edge detection method described in 1. 画素の配列方向と異なる方向に沿って延びる斜めパターンを検出する斜めパターン検出処理を含み、
前記輝度算出処理において、同一輝度値の複数の画素を結ぶ2つの線分を検出し、前記2つの線分と前記斜めパターンと直交する方向に延びる線分とが交差する2つの交点間の距離を算出し、前記距離の変動が最も少ない線分の輝度値を算出する、ことを特徴とする請求項1〜4のうちの何れか一項に記載のエッジ検出方法。
Including an oblique pattern detection process for detecting an oblique pattern extending along a direction different from the pixel arrangement direction;
In the luminance calculation processing, two line segments connecting a plurality of pixels having the same luminance value are detected, and a distance between two intersections at which the two line segments intersect with a line segment extending in a direction orthogonal to the oblique pattern The edge detection method according to claim 1, further comprising: calculating a luminance value of a line segment with the smallest variation in the distance.
画像中のエッジを検出する処理部を含むエッジ検出装置であって、
前記処理部は、前記画像を構成する画素の値に基づいて、同一輝度値の複数の画素について画素の振れ幅を算出し、前記振れ幅が最も小さい画素の輝度値を算出し、算出した輝度値をエッジ判定値とし、前記画像に含まれる画素のうち、前記エッジ判定値と等しい値の画素をエッジとして検出する、
ことを特徴とするエッジ検出装置。
An edge detection device including a processing unit for detecting an edge in an image,
The processing unit calculates a pixel shake width for a plurality of pixels having the same luminance value based on a value of a pixel constituting the image, calculates a luminance value of a pixel having the smallest shake width, and calculates the calculated luminance. The value is an edge determination value, and among pixels included in the image, a pixel having a value equal to the edge determination value is detected as an edge.
An edge detection apparatus characterized by the above.
検査対象物を撮像する撮像部と、
前記撮像部から出力される画像データに基づいて、前記検査対象物に形成されたパターン幅を検査する処理部と、
を含み、
前記処理部は、
前記画像データに含まれる画素の値に基づいて、同一輝度値の複数の画素について画素の振れ幅を算出し、前記振れ幅が最も小さい画素の輝度値を算出し、算出した輝度値をエッジ判定値とし、前記画像に含まれる画素のうち、前記エッジ判定値と等しい値の画素をエッジとして検出し、2つのエッジ間の距離を前記パターン幅として算出し、前記パターン幅と設定値と比較して前記パターン幅を検査する、
ことを特徴とする検査装置。
An imaging unit for imaging an inspection object;
A processing unit that inspects a pattern width formed on the inspection object based on image data output from the imaging unit;
Including
The processor is
Based on the value of the pixel included in the image data, the pixel shake width is calculated for a plurality of pixels having the same brightness value, the brightness value of the pixel having the smallest shake width is calculated, and the calculated brightness value is subjected to edge determination. As a value, among pixels included in the image, a pixel having a value equal to the edge determination value is detected as an edge, a distance between two edges is calculated as the pattern width, and the pattern width is compared with a set value. To inspect the pattern width,
Inspection apparatus characterized by that.
JP2010141314A 2010-06-22 2010-06-22 Edge detection method, edge detection apparatus. and inspection apparatus Pending JP2012008619A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010141314A JP2012008619A (en) 2010-06-22 2010-06-22 Edge detection method, edge detection apparatus. and inspection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010141314A JP2012008619A (en) 2010-06-22 2010-06-22 Edge detection method, edge detection apparatus. and inspection apparatus

Publications (1)

Publication Number Publication Date
JP2012008619A true JP2012008619A (en) 2012-01-12

Family

ID=45539123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010141314A Pending JP2012008619A (en) 2010-06-22 2010-06-22 Edge detection method, edge detection apparatus. and inspection apparatus

Country Status (1)

Country Link
JP (1) JP2012008619A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017042710A (en) * 2015-08-26 2017-03-02 森永乳業株式会社 Electrolysis product mixer, ballast water treatment device, vessel, suction mixer, and electrolysis product mixing method
JP2022526610A (en) * 2019-08-28 2022-05-25 昆山国顕光電有限公司 Positioning method, positioning device, and storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017042710A (en) * 2015-08-26 2017-03-02 森永乳業株式会社 Electrolysis product mixer, ballast water treatment device, vessel, suction mixer, and electrolysis product mixing method
JP2022526610A (en) * 2019-08-28 2022-05-25 昆山国顕光電有限公司 Positioning method, positioning device, and storage medium
JP7262614B2 (en) 2019-08-28 2023-04-21 昆山国顕光電有限公司 POSITIONING METHOD, POSITIONING DEVICE, AND STORAGE MEDIUM

Similar Documents

Publication Publication Date Title
JP5564348B2 (en) Image processing apparatus and appearance inspection method
JP2008185514A (en) Substrate visual inspection apparatus
KR101794964B1 (en) Inspection system and inspection method
KR20090101356A (en) Defect detecting device, and defect detecting method
JP5385703B2 (en) Inspection device, inspection method, and inspection program
JP4970569B2 (en) Pattern inspection apparatus and pattern inspection method
JP5660861B2 (en) Foreign matter inspection method and foreign matter inspection apparatus on substrate
JP4230880B2 (en) Defect inspection method
JP2010181328A (en) Device, program and method for inspecting surface of solar battery wafer
US20110142326A1 (en) Pattern inspection method, pattern inspection apparatus and pattern processing apparatus
JP5511212B2 (en) Defect detection apparatus and defect detection method
JP2012008619A (en) Edge detection method, edge detection apparatus. and inspection apparatus
JP3718101B2 (en) Periodic pattern defect inspection method and apparatus
JP2006317408A (en) Warpage checker
JP2003214820A (en) Method and apparatus for inspecting stroke width
JP2012237585A (en) Defect inspection method
JP7003669B2 (en) Surface inspection equipment and surface inspection method
US5272761A (en) Method and apparatus for inspecting line width on printed board
TWI427263B (en) Method and apparatus of measuring height of projections, and program therefor
JP2003139519A (en) Electronic component inspection device and program
JP5642605B2 (en) Inspection apparatus, program, and image alignment method
JP5979387B2 (en) Method for measuring height of protrusions or ridges on article surface and apparatus therefor
JP6074284B2 (en) Method and apparatus for measuring shape of belt-like rubber member
JP6355487B2 (en) Edge position detection device and edge position detection method
JP2008281493A (en) Surface defect inspection system, method, and program