JP2015232482A - Inspection equipment, inspection method and program - Google Patents

Inspection equipment, inspection method and program Download PDF

Info

Publication number
JP2015232482A
JP2015232482A JP2014119105A JP2014119105A JP2015232482A JP 2015232482 A JP2015232482 A JP 2015232482A JP 2014119105 A JP2014119105 A JP 2014119105A JP 2014119105 A JP2014119105 A JP 2014119105A JP 2015232482 A JP2015232482 A JP 2015232482A
Authority
JP
Japan
Prior art keywords
image
shape
reference level
inspection
inspection object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014119105A
Other languages
Japanese (ja)
Other versions
JP6405124B2 (en
Inventor
典正 眞弓
Norimasa Mayumi
典正 眞弓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2014119105A priority Critical patent/JP6405124B2/en
Publication of JP2015232482A publication Critical patent/JP2015232482A/en
Application granted granted Critical
Publication of JP6405124B2 publication Critical patent/JP6405124B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

PROBLEM TO BE SOLVED: To adjust a flatness level (reference level) in a shape image indicating a surface shape of an inspection object.SOLUTION: A reference level adjustment part 3101 adjusts a reference level which is a pixel value indicating that a surface shape is flat. An image creation part 3100 images an inspection object by a photo metric stereo method, determines a normal vector of a surface of the inspection object, determines shape values which indicate a shape of the surface of the inspection object based on the normal vector, allocates a pixel value larger than the reference level to the shape value which indicates a salient part out of the determined shape values, allocates a pixel value smaller than the reference level to the shape value which indicates a recess part out of the determined shape values, thereby creates a contour image in which a contour of the inspection object is enhanced. The created contour image can be used for determining quality of the inspection object.

Description

本発明は検査装置、検査方法およびプログラムに関する。   The present invention relates to an inspection apparatus, an inspection method, and a program.

検査対象物の輪郭を精度良く抽出した輪郭画像を生成できれば、検査対象物の寸法検査や輪郭の欠け検査、計測領域の動的設定に役立つであろう。   If a contour image in which the contour of the inspection object is accurately extracted can be generated, it will be useful for dimensional inspection of the inspection target, inspection of a lack of contour, and dynamic setting of the measurement region.

特許文献1には、フォトメトリックステレオの原理を用いずに、検査対象物を撮像し、物体の輪郭を抽出する技術として深さエッジ検出法が記載されている。深さエッジ検出法は、検査対象物に異なる方向から照明を当て複数の画像を取得し、各画像ごとに最大輝度の画素値で正規化を実行し、各画像において明るさが明から暗へ変化する部分をエッジとして検出し、各画像において検出されたエッジの情報を融合して深さエッジ画像を形成することが提案されている。   Patent Document 1 describes a depth edge detection method as a technique for imaging an inspection object and extracting the contour of an object without using the principle of photometric stereo. In the depth edge detection method, a plurality of images are acquired by illuminating the inspection object from different directions, and normalization is performed with the pixel value of the maximum luminance for each image, and the brightness is changed from light to dark in each image. It has been proposed that a changing portion is detected as an edge, and information on edges detected in each image is merged to form a depth edge image.

米国特許出願公開第2011/0123122号明細書US Patent Application Publication No. 2011/0123122

特許文献1に記載された深さエッジ検出法では、検査対象物の表面に反射率の違う部分があるとエッジの誤検出が発生しやすい。また、深さエッジ検出法では検査対象物の表面に鏡面反射を起こすような部分があると、その部分に2重に線が生じてしまうこともある。また、深さエッジ検出法ではエッジの検出処理が各画像において必要となるため、画像の枚数に比例して演算負荷が増大してしまう。さらに、深さエッジ検出法では、アフィン変換が必要となることもある。   In the depth edge detection method described in Patent Document 1, if there is a portion having a different reflectance on the surface of the inspection object, erroneous detection of an edge is likely to occur. Further, in the depth edge detection method, if there is a part that causes specular reflection on the surface of the inspection object, a double line may be generated in the part. In addition, since the edge detection process is required for each image in the depth edge detection method, the calculation load increases in proportion to the number of images. In addition, the depth edge detection method may require affine transformation.

ところで、フォトメトリックステレオの原理によれば、それぞれ照明方向が異なる複数の輝度画像から表面の法線ベクトルを求め、この法線ベクトルに基づきワークの表面形状を示す形状画像を生成することができる。フォトメトリックステレオ法は、物体の形状を画像化する方法であるが、発明者の研究によれば、これを応用して輪郭画像を生成できることがわかってきた。また、フォトメトリックステレオ法は、深さエッジ検出法と比較して、上記の課題に対して有利である。   By the way, according to the principle of photometric stereo, it is possible to obtain a surface normal vector from a plurality of luminance images having different illumination directions, and to generate a shape image indicating the surface shape of the workpiece based on the normal vector. The photometric stereo method is a method of imaging the shape of an object, but according to the research of the inventor, it has been found that a contour image can be generated by applying this method. In addition, the photometric stereo method is advantageous for the above-described problem as compared with the depth edge detection method.

このように従来は検査対象物の表面形状を示す形状画像における平坦レベル(基準レベル)が調整可能ではなかったため、形状画像から輪郭画像を効率よく生成できなかった。そこで、本発明は、検査対象物の表面形状を示す形状画像における平坦レベル(基準レベル)を調整可能とすることを目的とする。   As described above, conventionally, since the flat level (reference level) in the shape image indicating the surface shape of the inspection object cannot be adjusted, the contour image cannot be efficiently generated from the shape image. Therefore, an object of the present invention is to make it possible to adjust a flat level (reference level) in a shape image showing a surface shape of an inspection object.

本発明によれば、たとえば、
検査対象物をフォトメトリックステレオ法により撮像し、当該検査対象物の表面の法線ベクトルを求め、当該法線ベクトルに基づき当該検査対象物の表面の形状を示す形状値を求め、当該求められた形状値のうち凸部を示す形状値ついては、平坦であることを示す基準レベルよりも大きな画素値を割り当て、当該求められた形状値のうち凹部を示す形状値ついては前記基準レベルよりも小さな画素値を割り当てることで、形状画像を生成する画像生成手段と、
前記形状画像を用いて前記検査対象物の良否を判定する判定手段と
を有する検査装置であって、
前記基準レベルを調整する基準レベル調整手段をさらに有し、
前記画像生成手段は、前記基準レベル調整手段によって調整された基準レベルにしたがって前記形状画像を構成する各画素値を決定することを特徴とする検査装置が提供される。
According to the present invention, for example,
The inspection object is imaged by the photometric stereo method, a normal vector of the surface of the inspection object is obtained, a shape value indicating the shape of the surface of the inspection object is obtained based on the normal vector, and the obtained Of the shape values, a pixel value larger than a reference level indicating flatness is assigned to the shape value indicating a convex portion, and among the obtained shape values, a pixel value smaller than the reference level is assigned to a shape value indicating a concave portion. Assigning the image generation means for generating the shape image,
An inspection apparatus having a determination unit that determines the quality of the inspection object using the shape image,
A reference level adjusting means for adjusting the reference level;
The inspection apparatus is characterized in that the image generation means determines each pixel value constituting the shape image according to the reference level adjusted by the reference level adjustment means.

また、本発明によれば、検査対象物の表面の形状が平坦であることを示す画素値である基準レベルを調整する基準レベル調整手段と、
前記検査対象物をフォトメトリックステレオ法により撮像し、当該検査対象物の表面の法線ベクトルを求め、当該法線ベクトルに基づき当該検査対象物の表面の形状を示す形状値を求め、当該求められた形状値のうち凸部を示す形状値ついては前記基準レベル調整手段によって調整された基準レベルよりも大きな画素値を割り当て、当該求められた形状値のうち凹部を示す形状値ついては前記基準レベル調整手段によって調整された基準レベルよりも小さな画素値を割り当てることで、前記検査対象物の輪郭が強調された輪郭画像を生成する画像生成手段と、
前記輪郭画像を用いて前記検査対象物の良否を判定する判定手段と
を有することを特徴とする検査装置が提供される。
Further, according to the present invention, the reference level adjusting means for adjusting the reference level, which is a pixel value indicating that the shape of the surface of the inspection object is flat,
The inspection object is imaged by a photometric stereo method, a normal vector of the surface of the inspection object is obtained, a shape value indicating the shape of the surface of the inspection object is obtained based on the normal vector, and the obtained value is obtained. Among the obtained shape values, a pixel value larger than the reference level adjusted by the reference level adjusting unit is assigned to the shape value indicating the convex portion, and the reference level adjusting unit is assigned to the shape value indicating the concave portion among the obtained shape values. Image generation means for generating a contour image in which the contour of the inspection object is emphasized by assigning a pixel value smaller than the reference level adjusted by
There is provided an inspection apparatus comprising: a determination unit that determines the quality of the inspection object using the contour image.

本発明によれば、検査対象物の表面形状を示す形状画像における平坦レベル(基準レベル)を調整可能となる。その結果、フォトメトリックステレオ法を応用して輪郭画像を効率よく生成できるようになる。すなわち、検査対象物の表面における反射率の変化や鏡面反射の影響を受けにくく、かつ、演算負荷についても軽い、輪郭画像の生成方法を実現できる。また、本発明によれば精度の良い輪郭画像が得られるため、輪郭画像を用いた製品検査の精度も向上するであろう。   According to the present invention, it is possible to adjust the flat level (reference level) in the shape image indicating the surface shape of the inspection object. As a result, the contour image can be efficiently generated by applying the photometric stereo method. That is, it is possible to realize a contour image generation method that is not easily affected by a change in reflectance or specular reflection on the surface of the inspection object and that is light in calculation load. Further, according to the present invention, an accurate contour image can be obtained, so that the accuracy of product inspection using the contour image will be improved.

検査装置の概要を示す図Diagram showing the outline of the inspection device フォトメトリックステレオの原理を説明するための図Diagram for explaining the principle of photometric stereo 積み上げ演算を説明するための図Diagram for explaining stacking operation 特徴サイズに基づく重みの決定方法を示す図The figure which shows the determination method of the weight based on feature size 特徴サイズの異なる検査画像の一例を示す図A figure showing an example of inspection images with different feature sizes 表面形状画像の生成に関与する画像を説明する図The figure explaining the image involved in the generation of the surface shape image テクスチャ画像の生成方法を説明する図Diagram explaining how to create a texture image 検査装置の機能ブロック図Functional block diagram of inspection equipment 設定モードを示すフローチャートFlow chart showing setting mode ユーザインタフェースの一例を示す図The figure which shows an example of the user interface ユーザインタフェースの一例を示す図The figure which shows an example of the user interface ユーザインタフェースの一例を示す図The figure which shows an example of the user interface ユーザインタフェースの一例を示す図The figure which shows an example of the user interface ユーザインタフェースの一例を示す図The figure which shows an example of the user interface ユーザインタフェースの一例を示す図The figure which shows an example of the user interface ユーザインタフェースの一例を示す図The figure which shows an example of the user interface ユーザインタフェースの一例を示す図The figure which shows an example of the user interface ユーザインタフェースの一例を示す図The figure which shows an example of the user interface ユーザインタフェースの一例を示す図The figure which shows an example of the user interface 検査モードを示すフローチャートFlow chart showing inspection mode ユーザインタフェースの一例を示す図The figure which shows an example of the user interface ユーザインタフェースの一例を示す図The figure which shows an example of the user interface ユーザインタフェースの一例を示す図The figure which shows an example of the user interface ユーザインタフェースの一例を示す図The figure which shows an example of the user interface ユーザインタフェースの一例を示す図The figure which shows an example of the user interface ユーザインタフェースの一例を示す図The figure which shows an example of the user interface 基準レベルの調整を説明する図Diagram explaining the adjustment of the reference level 照明光による影の発生と輪郭との関係を説明する図The figure explaining the relation between the generation of shadows by illumination light and the contour 基準レベルの調整により生成された輪郭画像の一例を示す図The figure which shows an example of the outline image produced | generated by adjustment of a reference level 基準レベルの調整により生成された輪郭画像の一例を示す図The figure which shows an example of the outline image produced | generated by adjustment of a reference level フォトメトリック処理部の機能を示す図The figure which shows the function of the photometric processing section

以下に本発明の一実施形態を示す。以下で説明される個別の実施形態は、本発明の上位概念、中位概念および下位概念など種々の概念を理解するために役立つであろう。また、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。   An embodiment of the present invention is shown below. The individual embodiments described below will help to understand various concepts, such as the superordinate concept, intermediate concept and subordinate concept of the present invention. Further, the technical scope of the present invention is determined by the scope of the claims, and is not limited by the following individual embodiments.

図1は外観検査システムの一例を示す図である。ライン1は検査対象物であるワーク2を搬送する搬送ベルトなどである。照明装置3はフォトメトリックステレオ法にしたがって検査対象物を照明する照明手段の一例である。カメラ4はフォトメトリックステレオ法にしたがって前記照明された検査対象物からの反射光を受光して輝度画像を生成する撮像手段の一例である。画像処理装置5は、カメラ4により取得された複数の輝度画像からワーク2の表面の法線ベクトルを算出し、複数の輝度画像から算出された法線ベクトルに基づく画素値により構成された傾き画像と、当該傾き画像の縮小画像とについて、注目画素に隣接する隣接画素の法線ベクトルを用いて注目画素の画素値を積み上げ演算し、画素値を有する検査画像を生成し、検査画像を用いて検査対象物の良否を判定する外観検査装置である。傾き画像は法線ベクトル画像と呼ばれることもある。画像処理装置5は輝度画像から反射率画像(アルベド画像)を作成してもよい。表示部7は検査に関連する制御パラメータを設定するためのユーザインタフェースや傾き画像、反射率画像、検査画像などを表示する。入力部6は、コンソール、ポインティングデバイス、キーボードなどであり、制御パラメータを設定するために使用される。画像処理装置5と照明装置3は信号線8によって接続されている。画像処理装置5とカメラ4は信号線9によって接続されている。   FIG. 1 is a diagram illustrating an example of an appearance inspection system. A line 1 is a conveyance belt that conveys a workpiece 2 that is an inspection object. The illuminating device 3 is an example of an illuminating unit that illuminates an inspection object according to a photometric stereo method. The camera 4 is an example of an imaging unit that receives reflected light from the illuminated inspection object according to a photometric stereo method and generates a luminance image. The image processing device 5 calculates a normal vector of the surface of the workpiece 2 from a plurality of luminance images acquired by the camera 4, and an inclination image composed of pixel values based on the normal vectors calculated from the plurality of luminance images. And the reduced image of the tilt image, the pixel value of the pixel of interest is calculated using the normal vector of the adjacent pixel adjacent to the pixel of interest, an inspection image having the pixel value is generated, and the inspection image is used. It is an appearance inspection apparatus that determines the quality of an inspection object. The tilt image is sometimes called a normal vector image. The image processing device 5 may create a reflectance image (albedo image) from the luminance image. The display unit 7 displays a user interface for setting control parameters related to the inspection, an inclination image, a reflectance image, an inspection image, and the like. The input unit 6 is a console, a pointing device, a keyboard, or the like, and is used for setting control parameters. The image processing device 5 and the illumination device 3 are connected by a signal line 8. The image processing device 5 and the camera 4 are connected by a signal line 9.

とりわけ、図1によればカメラ4と照明装置3とが独立して移動可能なようにそれぞれ異なるフレームによって支持されている。このように照明装置3は、カメラ4から独立して移動可能となっているため、ワーク2から照明装置3までの距離を自在に調整できるようになっている。つまり、ワーク2の種類や置き方に応じて照明装置3をワーク2から遠ざけて配置させることで、カメラ4は正反射光を強く受光できるようになる。また、照明装置3をワーク2に近づけて配置することでカメラ4は拡散反射光を強く受光できるようになる。なお、同一のフレームによってカメラ4と照明装置3とが指示されていてもよい。この場合には、照明装置3の取り付け位置を調整するためのクランプ機構などで照明装置3をフレームに固定すればよい。   In particular, according to FIG. 1, the camera 4 and the illumination device 3 are supported by different frames so that they can move independently. Thus, since the illuminating device 3 can move independently from the camera 4, the distance from the workpiece 2 to the illuminating device 3 can be freely adjusted. That is, by arranging the illumination device 3 away from the work 2 in accordance with the type and placement of the work 2, the camera 4 can strongly receive regular reflection light. Further, by arranging the illumination device 3 close to the workpiece 2, the camera 4 can strongly receive diffuse reflection light. Note that the camera 4 and the illumination device 3 may be instructed by the same frame. In this case, what is necessary is just to fix the illuminating device 3 to a flame | frame with the clamp mechanism etc. for adjusting the attachment position of the illuminating device 3. FIG.

<フォトメトリクスステレオの原理>
一般的なフォトメトリックステレオ法では、図2に示すように、ワーク2に対して4方向から照明光L1〜L4を順番に切り替えながら照射し、4枚の輝度画像を生成する。各輝度画像を撮影する際に使用される照明光の方向は一方向だけである。なお、輝度画像は複数の画素により構成されており、4枚の輝度画像において座標が一致する4つの画素は同一のワーク表面に対応している。4つの画素の画素値(輝度値)I1、I2、I3、I4と、法線ベクトルnとの間には図2示した式1が成り立つ。ここでρは反射率である。Lは各方向からの照明光の光量であり、既知である。ここでは4方向とも光量は同一である。Sは照明方向行列であり、既知である。この数式を解くことで各座標(ワーク表面)ごとの反射率ρと法線ベクトルnが求められる。その結果、反射率画像と傾き画像とが得られる。
<Principle of photometric stereo>
In a general photometric stereo method, as shown in FIG. 2, illumination light L1 to L4 is irradiated onto a work 2 while sequentially switching from four directions to generate four luminance images. The direction of the illumination light used when photographing each luminance image is only one direction. The luminance image is composed of a plurality of pixels, and four pixels having the same coordinates in the four luminance images correspond to the same work surface. 2 is established between the pixel values (luminance values) I1, I2, I3, and I4 of the four pixels and the normal vector n. Here, ρ is the reflectance. L is the amount of illumination light from each direction and is known. Here, the light quantity is the same in all four directions. S is an illumination direction matrix and is known. By solving this mathematical formula, the reflectance ρ and the normal vector n for each coordinate (work surface) are obtained. As a result, a reflectance image and a tilt image are obtained.

本実施形態では、さらに、傾き画像から高さ成分を抽出しワークの形状を示す形状画像を検査画像として作成する。検査画像は、図2に示し式2である積み上げ演算式により求められる。ここで、znはn回目の積み上げ結果であり、ワーク表面の形状を示している。x、yは画素の座標を示している。nは何回目の繰り返し計算であるかを示している。pは水平方向の傾き成分を示し、qは垂直方向の傾き成分を示している。p、qは法線ベクトルnから求められる。wは重みである。また、1回目の積み上げ演算では1/1の傾き画像を用い、2回目の積み上げには1/2の縮小傾き画像を用い、3回目の積み上げには1/4の縮小傾き画像を用いる。縮小画像を作成する際にはガウシアン処理を施してから縮小処理が施されてもよい。   In the present embodiment, the height component is further extracted from the tilt image, and a shape image indicating the shape of the work is created as an inspection image. The inspection image is obtained by a stacking arithmetic expression which is Expression 2 shown in FIG. Here, zn is the result of the n-th stacking and indicates the shape of the workpiece surface. x and y indicate pixel coordinates. n indicates the number of repeated calculations. p indicates a horizontal inclination component, and q indicates a vertical inclination component. p and q are obtained from the normal vector n. w is a weight. In addition, a 1/1 tilt image is used for the first stacking operation, a 1/2 reduced tilt image is used for the second stacking operation, and a 1/4 reduced tilt image is used for the third stacking operation. When creating a reduced image, reduction processing may be performed after performing Gaussian processing.

本実施形態では積み上げ演算において特徴サイズというパラメータを採用する。特徴サイズは積み上げ演算において使用される縮小画像の成分に対する重みを与えるパラメータである。特徴サイズはワーク2の表面形状の大きさを示すパラメータである。たとえば、特徴サイズが1であればxy方向で注目画素に隣接した4つの画素についての重みが最も大きくされて積み上げ演算される。特徴サイズが2であればxy方向で注目画素に隣接した8つの画素についての重みが最も大きく設定されて積み上げ演算が実行される。ただし、8つの画素を用いて演算することは演算量の増大を招くため、上述した縮小画像を作成して演算に使用する。つまり、8つの隣接画素を用いる代わりに、傾き画像を1/2に縮小して演算を実行する。これにより、ある注目画素について縮小画像における4つの画素を演算に考慮すればよいことになる。これは特徴サイズが4、8、16、32と増加したときもそれに応じた縮小画像を作成し、特徴サイズに対応した縮小画像について重みを最大に設定することで、同様の演算負荷の軽減効果が得られる。   In this embodiment, a parameter called feature size is employed in the stacking calculation. The feature size is a parameter that gives a weight to the components of the reduced image used in the accumulation operation. The feature size is a parameter indicating the size of the surface shape of the workpiece 2. For example, if the feature size is 1, the weights for the four pixels adjacent to the pixel of interest in the xy direction are maximized and the calculation is performed. If the feature size is 2, the weights for the eight pixels adjacent to the pixel of interest in the xy direction are set to be the largest, and the accumulation operation is executed. However, since calculation using eight pixels causes an increase in the amount of calculation, the above-described reduced image is created and used for the calculation. That is, instead of using eight adjacent pixels, the tilt image is reduced to ½ and the calculation is executed. Thus, four pixels in the reduced image may be taken into consideration for a certain target pixel. Even when the feature size increases to 4, 8, 16, 32, a reduced image corresponding to the feature size is created and the weight is set to the maximum for the reduced image corresponding to the feature size. Is obtained.

図3は積み上げ演算の一例を示している。この例では法線ベクトルnから求められた2枚の傾き画像(水平方向の傾き成分pの画像と垂直方向の傾き成分qの画像)を入力としている。まず、縮小度の大きい傾き画像で全体の形状を積み上げ、それよりも縮小度の小さい画像で細部形状を積み上げる。これにより短時間で全体の形状を復元できるようになる。図3によれば、たとえば、1/32の縮小画像について式2により注目画素についてワーク表面の形状zを算出する。重みwは特徴サイズに応じて決定される。縮小画像を構成する1つ1つの画素を注目画素として積み上げ演算をイタレーション(繰り返し処理)する。zの初期値はゼロである。次に式2にしたがって1/16の縮小画像についてzを算出する。ここでは、1/32の演算結果に対して1/16の縮小画像の傾き成分が積み上げられる。同様にして、1/8縮小画像から1/1画像まで積み上げ演算が実行される。   FIG. 3 shows an example of a stacking operation. In this example, two tilt images obtained from the normal vector n (a horizontal tilt component p image and a vertical tilt component q image) are input. First, the entire shape is accumulated with an inclination image having a large reduction degree, and the detailed shape is accumulated with an image having a smaller reduction degree. As a result, the entire shape can be restored in a short time. According to FIG. 3, for example, the shape z of the workpiece surface is calculated for the target pixel using Equation 2 for a 1/32 reduced image. The weight w is determined according to the feature size. The accumulation operation is iterated (repeatedly processed) with each pixel constituting the reduced image as a target pixel. The initial value of z is zero. Next, z is calculated for a 1/16 reduced image according to Equation 2. Here, the inclination components of 1/16 reduced images are accumulated with respect to the 1/32 calculation result. Similarly, a stacking operation is performed from a 1/8 reduced image to a 1/1 image.

図4は各特徴サイズごと重みの一例を示している。横軸は解像度レベル(縮小度)を示し、縦軸は重みを示している。図4からわかるように、特徴サイズ1では縮小度が最も小さいレベル0(1/1画像)の重みが最大となる。これにより微細な形状を積み上げることが可能となる。特徴サイズ2ではレベル1(1/2画像)の重みが最大となる。これによりさらに大きなサイズの形状を積み上げることが可能となる。このように各重みは、特徴サイズに対応したレベルでピークが生じるように決定される。   FIG. 4 shows an example of the weight for each feature size. The horizontal axis indicates the resolution level (reduction degree), and the vertical axis indicates the weight. As can be seen from FIG. 4, in the feature size 1, the weight of level 0 (1/1 image) having the smallest reduction degree is the largest. Thereby, it becomes possible to accumulate fine shapes. In feature size 2, the weight of level 1 (1/2 image) is the maximum. Thereby, it becomes possible to pile up the shape of a bigger size. Thus, each weight is determined so that a peak occurs at a level corresponding to the feature size.

形状画像の復元方法としては、上記の積み上げ演算の他に公知のフーリエ変換積分法を採用することもできる(A Method for Enforcing Integrability in Shape from Shading Algorithms, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.10, No.4 July 1988)。当該方法においても計算プロセスにおいて縮小画像を生成し、重み付け成分を調整することにより抽出する特徴サイズを変更することが可能である。   As a restoration method of the shape image, a known Fourier transform integration method can be adopted in addition to the above-described accumulation operation (A Method for Enforcing Integrability in Shape from Shading Algorithms, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 10, No.4 July 1988). Also in this method, it is possible to change the feature size to be extracted by generating a reduced image in the calculation process and adjusting the weighting component.

図5は特徴サイズの違いに応じた検査画像の一例を示している。特徴サイズ4では細部の形状が抽出されており、特徴サイズ64では全体の形状が抽出されており、特徴サイズ16ではこれらの中間的なサイズの形状が抽出されていることがわかる。このように小さな特徴サイズは細かい傷を検査するのに役立ち、大きな特徴サイズは物体の有無の判別に適しており、中間の特徴サイズは凹凸文字のOCRなどに適している。つまり検査ツールに応じて適切な特徴サイズを選択することで検査精度を向上させることが可能となる。   FIG. 5 shows an example of an inspection image corresponding to a difference in feature size. It can be seen that the detailed shape is extracted in the feature size 4, the entire shape is extracted in the feature size 64, and the intermediate size is extracted in the feature size 16. The small feature size is useful for inspecting fine scratches, the large feature size is suitable for determining the presence or absence of an object, and the intermediate feature size is suitable for OCR of uneven characters. That is, it is possible to improve inspection accuracy by selecting an appropriate feature size according to the inspection tool.

図6はフォトメトリックステレオ法による検査画像の作成工程を示す図である。輝度画像601〜604はそれぞれ照明方向の異なる照明光によりワーク2を照明して取得された輝度画像である。なお、輝度画像600は4方向から同時に照明して得られた輝度画像である。それぞれ照明方向の異なる照明光によりワーク2を照明して取得された複数の輝度画像から演算によりワーク表面の法線ベクトルが求められる。傾き画像611は、輝度画像601〜604から求められた法線ベクトルのX方向の傾き成分を画素値とした傾き画像である。傾き画像612は、輝度画像601〜604から求められた法線ベクトルのY方向の傾き成分を画素値とした傾き画像である。反射率画像610は、輝度画像601〜604から求められた法線ベクトルから、ワーク表面の傾きによる輝度値の変動分を除去し、ワーク表面の反射率を画像にした反射率画像である。検査画像621〜623は傾き画像611、612から求められたそれぞれ特徴サイズの異なる画像(表面形状画像)である。なお、検査画像621〜623も傾き成分に基づく画素により構成されているため、傾き画像の一種である。このような手順でワーク2の検査画像が生成される。なお、検査ツールに依存して全方向照明画像である輝度画像600や反射率画像610が検査画像として採用されてもよい。全方向照明画像とは、照明装置3が備える複数の光源をすべて点灯させて取得された輝度画像のことである。   FIG. 6 is a diagram showing a process of creating an inspection image by the photometric stereo method. The luminance images 601 to 604 are luminance images obtained by illuminating the work 2 with illumination light having different illumination directions. Note that the luminance image 600 is a luminance image obtained by simultaneously illuminating from four directions. A normal vector of the workpiece surface is obtained by calculation from a plurality of luminance images obtained by illuminating the workpiece 2 with illumination light having different illumination directions. The tilt image 611 is a tilt image in which the X direction tilt component of the normal vector obtained from the luminance images 601 to 604 is used as a pixel value. The tilt image 612 is a tilt image in which the Y direction tilt component of the normal vector obtained from the luminance images 601 to 604 is a pixel value. The reflectance image 610 is a reflectance image obtained by removing the variation of the luminance value due to the tilt of the workpiece surface from the normal vector obtained from the luminance images 601 to 604 and using the reflectance of the workpiece surface as an image. The inspection images 621 to 623 are images (surface shape images) having different feature sizes obtained from the tilt images 611 and 612, respectively. The inspection images 621 to 623 are also a kind of tilt image because they are composed of pixels based on the tilt component. An inspection image of the work 2 is generated by such a procedure. Depending on the inspection tool, the luminance image 600 and the reflectance image 610 that are omnidirectional illumination images may be adopted as the inspection image. An omnidirectional illumination image is a luminance image acquired by turning on all of a plurality of light sources included in the illumination device 3.

<テクスチャ情報>
テクスチャ情報とはワーク2の表面の反射率ρに基づく情報である。式1によって反射率ρが求められる、つまり4枚の輝度画像から1枚の反射率画像が得られる。反射率画像はワーク表面の反射率ρに比例した画素値を有する画像である。図7に示すように、4枚の輝度画像701〜704から法線ベクトルを算出し、算出された法線ベクトルと複数の輝度画像の各々対応する画素の輝度値に基づいて各画素の反射率に比例した画素値を算出することで反射率画像であるテクスチャ画像711、712が求められる。この合成方法としては4枚の輝度画像の画素平均によってテクスチャ画像を求める方法や、4枚の輝度画像からハレーションを除去してから画素平均によってテクスチャ画像を求める方法などがある。テクスチャ画像711は画像平均によって求められたものであり、テクスチャ画像712はハレーション除去によって求められたものの一例である。4枚の輝度画像において座標が一致する画素が4つ存在する。4つの画素のうち画素値が1番大きい画素を除外したり、画素値の大きい順に1番目からN番目(Nは3以下の自然数)までの画素を除外したりすることでハレーションを除去することが可能である。ハレーションは高い輝度として画像に表れるからである。テクスチャ画像711、712はともに反射率に基づく画素により構成されているため、反射率画像の一種である。
<Texture information>
The texture information is information based on the reflectance ρ of the surface of the work 2. The reflectance ρ is obtained by Equation 1, that is, one reflectance image is obtained from four luminance images. The reflectance image is an image having a pixel value proportional to the reflectance ρ of the workpiece surface. As shown in FIG. 7, a normal vector is calculated from four luminance images 701 to 704, and the reflectance of each pixel is calculated based on the calculated normal vector and the luminance value of each corresponding pixel in the plurality of luminance images. The texture images 711 and 712, which are reflectance images, are obtained by calculating pixel values proportional to. As this synthesis method, there are a method for obtaining a texture image by pixel average of four luminance images, a method for obtaining a texture image by pixel average after removing halation from the four luminance images, and the like. The texture image 711 is obtained by image averaging, and the texture image 712 is an example obtained by removing halation. There are four pixels with the same coordinates in the four luminance images. Eliminate halation by excluding the pixel with the largest pixel value from the four pixels, or excluding the first to Nth pixels (N is a natural number of 3 or less) in the descending order of the pixel value. Is possible. This is because halation appears in the image as high luminance. Since texture images 711 and 712 are both composed of pixels based on reflectance, they are a kind of reflectance image.

<機能ブロック>
図8は検査装置のブロック図である。この例では照明装置3、カメラ4および画像処理装置5がそれぞれ個別の筐体に収容されているが、これは一例に過ぎず、適宜に一体化されてもよい。照明装置3は、フォトメトリックステレオ法にしたがって検査対象物を照明する照明手段の一例であり、光源群801とこれを制御する照明コントローラ802を備えている。複数の発光素子で1つのセグメントが構成され、さらに複数のセグメントによって光源群801が構成されていてもよい。セグメントの数は一般的には4つであるが、3つ以上であればよい。これは3方向以上の照明方向からワーク2を照明できれば、フォトメトリックステレオ法により検査画像を生成できるからである。図1に示したように照明装置3の外形はリング状をしていてもよい。また、照明装置3は、それぞれ分離した複数の照明ユニットにより構成されていてもよい。たとえば、市場にはワーク2を撮影するために使用される照明ユニットが存在しているが、これらはフォトメトリックステレオ用に開発されたものではない。ただし、このような照明ユニットを複数個用意するとともに、これらを制御する照明コントローラを接続することで、照明装置3を構成してもよい。照明コントローラ802は、画像処理装置5からの制御コマンドに応じて光源群801の点灯タイミングや照明パターン(点灯パターン)を制御する。照明コントローラ802は照明装置3に内蔵されているものとして説明するが、カメラ4に内蔵されていてもよいし、画像処理装置5に内蔵されていてもよいし、これらからは独立した筐体に収容されていてもよい。
<Functional block>
FIG. 8 is a block diagram of the inspection apparatus. In this example, the illumination device 3, the camera 4, and the image processing device 5 are each housed in separate housings, but this is only an example and may be appropriately integrated. The illumination device 3 is an example of illumination means for illuminating an inspection object according to a photometric stereo method, and includes a light source group 801 and an illumination controller 802 that controls the light source group 801. One segment may be composed of a plurality of light emitting elements, and the light source group 801 may be composed of a plurality of segments. The number of segments is generally four, but may be three or more. This is because if the workpiece 2 can be illuminated from three or more illumination directions, an inspection image can be generated by the photometric stereo method. As shown in FIG. 1, the outer shape of the lighting device 3 may be ring-shaped. Moreover, the illuminating device 3 may be comprised by the some illumination unit each isolate | separated. For example, there are lighting units in the market that are used to photograph the workpiece 2, but these are not developed for photometric stereo. However, you may comprise the illuminating device 3 by preparing several such lighting units and connecting the lighting controller which controls these. The illumination controller 802 controls the lighting timing and illumination pattern (lighting pattern) of the light source group 801 in accordance with a control command from the image processing apparatus 5. Although the illumination controller 802 is described as being incorporated in the illumination device 3, it may be incorporated in the camera 4, may be incorporated in the image processing device 5, or may be provided in a casing independent of these. It may be accommodated.

カメラ4はフォトメトリックステレオ法にしたがって照明された検査対象物からの反射光を受光して輝度画像を生成する撮像手段の一例であり、画像処理装置5からの制御コマンドに応じて撮像処理を実行する。カメラ4はワーク2の輝度画像を作成して画像処理装置5に転送してもよいし、撮像素子から得られる輝度信号を画像処理装置5に転送し、画像処理装置5が輝度画像を生成してもよい。輝度信号は輝度画像の元になる信号であるため、広義には輝度信号も輝度画像である。   The camera 4 is an example of an imaging unit that receives reflected light from an inspection object illuminated according to a photometric stereo method and generates a luminance image, and executes imaging processing according to a control command from the image processing device 5 To do. The camera 4 may create a luminance image of the work 2 and transfer it to the image processing device 5, or transfer a luminance signal obtained from the image sensor to the image processing device 5, and the image processing device 5 generates a luminance image. May be. Since the luminance signal is a signal from which the luminance image is based, the luminance signal is also a luminance image in a broad sense.

画像処理装置5は、コンピュータの一種であり、CPUやASICなどのプロセッサ810と、RAM、ROM、可搬記憶媒体などの記憶装置820と、ASICなどの画像処理部830と、ネットワークインタフェースなどの通信部850とを有している。プロセッサ810は検査ツールの設定や、制御パラメータの調整、検査画像の生成・再生成・更新を担当する。フォトメトリック処理部811は、カメラ4により取得された複数の輝度画像からワーク2の表面の法線ベクトルnを算出し、複数の輝度画像から算出された法線ベクトルnに基づく画素値を有する傾き画像と、傾き画像の縮小画像とについて、注目画素に隣接する隣接画素の法線ベクトルnを用いて当該注目画素の画素値を積み上げ演算し、当該画素値を有する検査画像を生成する演算手段(検査画像生成手段)として機能する。なお、具体的には上述した数式などを使用して検査画像が生成される。照明制御部812は、照明コントローラ802に対して制御コマンドを送信することで点灯パターンや照明切り替えタイミングなどを制御する。撮像制御部813は、カメラ4を制御する。UI管理部814は、検査ツールを設定するためのユーザインタフェース(UI)や検査画像を生成するために必要となるパラメータを設定するためのUIなどを表示部7に表示し、入力部6から入力された情報したがって検査ツールやパラメータを設定する。とりわけ、特徴サイズ設定部815は積み上げ演算において使用される縮小画像の成分に対する重みwを与えるパラメータである特徴サイズを設定する設定手段として機能する。画像選択部816は複数の輝度画像や複数の検査画像、複数の傾き画像、複数の反射率画像のうち表示すべき画像などを選択したりする。画像選択部816はカメラ4により取得された複数の輝度画像および検査画像のうち保存対象もしくは出力対象となる画像を選択してもよい。検査ツール設定部817は画像選択部816により選択された検査画像に対して検査ツールを設定する。検査ツール設定部817は、たとえば、基準画像に対して傷検査領域を設定したり、文字認識領域を設定したりする。基準画像設定部818は良品から取得された検査画像である基準画像を設定する。表示制御部851は輝度画像と検査画像を切り替えて表示部7に表示させたり、または、輝度画像と検査画像とを同時に表示させたりする。また表示制御部851は制御パラメータが調整されると表示部7に表示されている画像を当該制御パラメータが反映された画像に更新する。検査ツール設定部817は、表示制御部851、特徴サイズ設定部815、画像選択部816、基準画像設定部818および条件設定部819を内包していてもよい。画像処理部830は基準画像を用いて検査画像にパターンサーチを実行し、検査画像に検査領域(例:傷検査領域や文字認識領域など)を設定する検査領域設定手段として機能する。検査領域は、たとえば、文字認識領域である。条件設定部819は画像を表示部7や通信部850に接続された外部機器に出力する条件や、可搬記憶媒体などに保存する条件を設定する。判定部840は検査画像を用いてワーク2の良否を判定する判定手段として機能する。たとえば、判定部840は画像処理部830において検査画像を用いて実行された検査の結果を受け取って検査結果が良品条件(公差など)を満たしているかどうかを判定する。   The image processing apparatus 5 is a kind of computer, and includes a processor 810 such as a CPU and an ASIC, a storage device 820 such as a RAM, a ROM, and a portable storage medium, an image processing unit 830 such as an ASIC, and a communication such as a network interface. Part 850. The processor 810 is in charge of setting an inspection tool, adjusting control parameters, and generating / regenerating / updating an inspection image. The photometric processing unit 811 calculates a normal vector n of the surface of the work 2 from a plurality of luminance images acquired by the camera 4, and has a pixel value based on the normal vector n calculated from the plurality of luminance images. An arithmetic unit that accumulates the pixel value of the target pixel using the normal vector n of the adjacent pixel adjacent to the target pixel and generates an inspection image having the pixel value for the image and the reduced image of the tilt image ( Function as inspection image generation means). Specifically, the inspection image is generated using the above-described mathematical formula and the like. The illumination control unit 812 controls a lighting pattern, illumination switching timing, and the like by transmitting a control command to the illumination controller 802. The imaging control unit 813 controls the camera 4. The UI management unit 814 displays a user interface (UI) for setting an inspection tool, a UI for setting parameters necessary for generating an inspection image, and the like on the display unit 7 and inputs from the input unit 6. Set information and thus inspection tools and parameters. In particular, the feature size setting unit 815 functions as a setting unit that sets a feature size that is a parameter that gives a weight w to a component of a reduced image used in a stacking operation. The image selection unit 816 selects an image to be displayed from among a plurality of luminance images, a plurality of inspection images, a plurality of tilt images, and a plurality of reflectance images. The image selection unit 816 may select an image to be stored or output from among a plurality of luminance images and inspection images acquired by the camera 4. The inspection tool setting unit 817 sets an inspection tool for the inspection image selected by the image selection unit 816. For example, the inspection tool setting unit 817 sets a flaw inspection area or a character recognition area for the reference image. The reference image setting unit 818 sets a reference image that is an inspection image acquired from a non-defective product. The display control unit 851 switches the luminance image and the inspection image to be displayed on the display unit 7 or displays the luminance image and the inspection image at the same time. Further, when the control parameter is adjusted, the display control unit 851 updates the image displayed on the display unit 7 to an image reflecting the control parameter. The inspection tool setting unit 817 may include a display control unit 851, a feature size setting unit 815, an image selection unit 816, a reference image setting unit 818, and a condition setting unit 819. The image processing unit 830 functions as an inspection area setting unit that performs a pattern search on the inspection image using the reference image and sets an inspection area (eg, a flaw inspection area or a character recognition area) in the inspection image. The inspection area is, for example, a character recognition area. The condition setting unit 819 sets conditions for outputting an image to an external device connected to the display unit 7 and the communication unit 850, and conditions for saving the image in a portable storage medium. The determination unit 840 functions as a determination unit that determines the quality of the workpiece 2 using the inspection image. For example, the determination unit 840 receives the result of the inspection performed using the inspection image in the image processing unit 830 and determines whether the inspection result satisfies a non-defective product condition (tolerance or the like).

記憶装置820は、カメラ4によって取得された輝度画像のデータである輝度画像データ821、フォトメトリック処理部811により生成された傾き画像データ822や反射率画像データ823を記憶する。また、記憶装置820は各種の設定データやユーザインタフェースを生成するためのプログラムコードなども記憶している。記憶装置820は特徴サイズがそれぞれ異なる検査画像を記憶して保持していてもよい。また、記憶装置820は検査画像に加え、検査画像の元になった傾き画像データや反射率画像データを記憶してもよい。これらはワーク2の誤判定が見つかったときに、検査画像、傾き画像または反射率画像のいずれに問題があったのかを特定して、その制御パラメータを修正するのに役立つであろう。   The storage device 820 stores luminance image data 821 that is luminance image data acquired by the camera 4, tilt image data 822 and reflectance image data 823 generated by the photometric processing unit 811. The storage device 820 also stores various setting data, a program code for generating a user interface, and the like. The storage device 820 may store and hold inspection images having different feature sizes. In addition to the inspection image, the storage device 820 may store tilt image data and reflectance image data that are the basis of the inspection image. These will help to identify whether there is a problem with the inspection image, the tilt image or the reflectance image and to correct the control parameters when an erroneous determination of the workpiece 2 is found.

画像処理部830は、フォトメトリック処理部811によって生成された検査画像(傾き画像データ822や反射率画像データ823)を用いて外観検査を実行する。傷検査部831は、それぞれ異なる特徴サイズ用いて生成された複数の検査画像の傷検査領域において傷検査を実行する。OCR部832はそれぞれ異なる特徴サイズ用いて生成された複数の検査画像に対して文字認識処理を実行する文字認識処理手段として機能する。傷検査部831やOCR部832は記憶装置820に記憶されている検査画像(傾き画像データ822や反射率画像データ823)を読み出し、文字認識領域において検査を実行し、検査結果を記憶装置820に書き込んだり、判定部840に渡したりしてもよい。判定部840はこの検査結果に基づきワーク2の良否を判定する。   The image processing unit 830 performs an appearance inspection using the inspection image (tilt image data 822 and reflectance image data 823) generated by the photometric processing unit 811. The flaw inspection unit 831 performs a flaw inspection in a flaw inspection region of a plurality of inspection images generated using different feature sizes. The OCR unit 832 functions as a character recognition processing unit that executes character recognition processing on a plurality of inspection images generated using different feature sizes. The wound inspection unit 831 and the OCR unit 832 read the inspection image (tilt image data 822 and reflectance image data 823) stored in the storage device 820, perform inspection in the character recognition area, and store the inspection result in the storage device 820. It may be written or passed to the determination unit 840. The determination unit 840 determines the quality of the workpiece 2 based on the inspection result.

<設定モード>
検査システムには検査ツールを設定する設定モードと、設定された検査ツールにしたがってワーク2の外観検査を実行する検査モード(運転モード)とを有しいている。ここでは設定モードの一例について説明する。
<Setting mode>
The inspection system has a setting mode for setting an inspection tool and an inspection mode (operation mode) for executing an appearance inspection of the workpiece 2 in accordance with the set inspection tool. Here, an example of the setting mode will be described.

図9は設定モードに関するフローチャートである。入力部6を通じて設定モードの開始が指示されると、プロセッサ810のUI管理部814は検査ツールを設定するためのUIを表示部7に表示する。   FIG. 9 is a flowchart regarding the setting mode. When the start of the setting mode is instructed through the input unit 6, the UI management unit 814 of the processor 810 displays a UI for setting the inspection tool on the display unit 7.

図10はUIの一例を示している。UI管理部814が表示部7に表示するUI1000には、検査結果の保存先を指定するプルダウンメニュー1001や検査ツールの名称を入力するテキストボックス1002が設けられている。UI管理部814は実行ボタンの押し下げを検出すると次のUIを表示する。   FIG. 10 shows an example of a UI. The UI 1000 displayed on the display unit 7 by the UI management unit 814 is provided with a pull-down menu 1001 for designating a storage destination of the inspection result and a text box 1002 for inputting the name of the inspection tool. When the UI management unit 814 detects that the execution button has been pressed, the UI management unit 814 displays the next UI.

図11に示すUI1100には、検査ツールを設定するためのガイダンス1101と、カメラ4に撮像を指示する計測実行ボタン1102と、カメラ4により撮像された画像を表示する表示領域1103と、カメラ設定の開始を指示するカメラ設定ボタン1104を有している。なお、画像選択部1105は、表示領域1103に表示する画像や検査に使用する画像を選択するためのボタンである。この例では画像選択部1105によって、形状1、形状2、テクスチャおよびノーマルのうちいずれか1つの画像が択一的に選択される。計測実行ボタン1102が操作されると、撮像制御部がカメラ4に撮像を指示する。UI管理部814はカメラ4により取得された輝度画像を表示領域1103にレンダリングする。なお、画像選択部1105によって別の画像が選択されると、UI管理部814は画像選択部1105によって選択された画像を表示領域1103にレンダリングする。このようにユーザは画像選択部1105を操作するか、入力部6を通じて画像の切り替えを指示することで表示領域1103に表示される画像を切り替えることができる。カメラ設定ボタン1104が操作されると、UI管理部814は次のUIに切り替える。   A UI 1100 illustrated in FIG. 11 includes a guidance 1101 for setting an inspection tool, a measurement execution button 1102 for instructing the camera 4 to perform imaging, a display area 1103 for displaying an image captured by the camera 4, and camera settings. A camera setting button 1104 for instructing start is provided. Note that the image selection unit 1105 is a button for selecting an image to be displayed in the display area 1103 or an image to be used for inspection. In this example, the image selection unit 1105 selectively selects one of the images of shape 1, shape 2, texture, and normal. When the measurement execution button 1102 is operated, the imaging control unit instructs the camera 4 to perform imaging. The UI management unit 814 renders the luminance image acquired by the camera 4 in the display area 1103. When another image is selected by the image selection unit 1105, the UI management unit 814 renders the image selected by the image selection unit 1105 in the display area 1103. As described above, the user can switch the image displayed in the display area 1103 by operating the image selection unit 1105 or instructing the switching of the image through the input unit 6. When the camera setting button 1104 is operated, the UI management unit 814 switches to the next UI.

S901でUI管理部814はカメラ4を設定するためUIを表示部7に表示し、カメラ設定を実行する。図12はカメラ設定UI1200の一例を示している。カメラ設定タブ1201には、カメラの機種を設定するプルダウンメニュー1202、画像サイズを設定するプルダウンメニュー1203、シャッタースピードを設定するプルダウンメニュー1204、カメラの感度を設定するスライダー1205などを有している。なお、計測実行ボタン1102が操作されると、UI管理部814は、その時点で設定されている撮像パラメータにしたがってカメラ4によって取得された輝度画像を表示領域1103に表示する。これによりユーザは設定したパラメータが適切かどうかを判定できる。   In step S <b> 901, the UI management unit 814 displays a UI on the display unit 7 for setting the camera 4, and executes camera setting. FIG. 12 shows an example of the camera setting UI 1200. The camera setting tab 1201 includes a pull-down menu 1202 for setting the camera model, a pull-down menu 1203 for setting the image size, a pull-down menu 1204 for setting the shutter speed, and a slider 1205 for setting the sensitivity of the camera. When the measurement execution button 1102 is operated, the UI management unit 814 displays the luminance image acquired by the camera 4 in the display area 1103 according to the imaging parameter set at that time. Thereby, the user can determine whether the set parameter is appropriate.

S902でUI管理部814はフォトメトリック処理を設定するためUIを表示部7に表示し、設定を実行する。たとえば、カメラ設定UI1200に設けられているフォトメトリックステレオ設定タブ1210が操作されたこと検知すると、UI管理部814は、図13に示すように、フォトメトリックステレオ設定タブ1210を有効に切り替える。有効に切り替えるとは、ユーザ操作可能な状態にフォトメトリックステレオ設定タブ1210の表示状態を切り替えることをいう。フォトメトリックステレオ設定タブ1210には、画像を選択するためのプルダウンメニュー1301と、特徴サイズ設定部1302とが含まれている。この例では、それぞれ特徴サイズが異なる3つの検査画像(形状1、形状2、形状3)のいずれかを選択できるものとする。プルダウンメニュー1301によって選択された画像ごとに特徴サイズ設定部1302により特徴サイズが設定される。   In step S902, the UI management unit 814 displays a UI on the display unit 7 for setting photometric processing, and executes the setting. For example, when detecting that the photometric stereo setting tab 1210 provided in the camera setting UI 1200 is operated, the UI management unit 814 switches the photometric stereo setting tab 1210 to be valid as shown in FIG. To switch to enable means to switch the display state of the photometric stereo setting tab 1210 to a state in which the user can operate. The photometric stereo setting tab 1210 includes a pull-down menu 1301 for selecting an image and a feature size setting unit 1302. In this example, it is assumed that one of three inspection images (shape 1, shape 2, and shape 3) having different feature sizes can be selected. A feature size is set by the feature size setting unit 1302 for each image selected by the pull-down menu 1301.

フォトメトリックステレオ設定タブ1210に点灯パターンを選択するための選択部が配置されてもよい。また、一回の照明あたりの発光量を指定する指定部が設けられてもよい。   A selection unit for selecting a lighting pattern may be arranged in the photometric stereo setting tab 1210. In addition, a designation unit that designates a light emission amount per one illumination may be provided.

S903でUI管理部814は検査ツールを設定するためのUIを表示部7に表示し、設定を実行する。図14は検査ツールを設定するUI1400の一例である。画像選択ボタン1401は、複数ある検査画像のうち検査に使用する検査画像を選択するためのボタンである。検査カテゴリー選択ボタン1402は、複数ある検査カテゴリーのうち検査ツールとして追加すべきツールのカテゴリーを選択するためのボタンである。認識対象設定ボタン1403は複数ある認識対象のうち1つを選択するためのボタンである。この例では、検査画像として「形状1」が選択され、カテゴリーとして「認識」が選択され、認識処理として「文字認識」が選択されている。追加ボタン1404が操作されると、UI管理部814は次のUIに切り替える。図15は基準画像登録UI1500を示している。基準画像登録UI1500には、上述した計測実行ボタン1102、表示領域1103に加え、登録ボタン1501が配置されている。登録ボタン1501が操作されると、UI管理部814は計測実行ボタン1102によって取得され、表示領域1103に表示されている画像を基準画像として登録する。登録が完了すると、UI管理部814は次のUIに切り替える。   In step S903, the UI management unit 814 displays a UI for setting the inspection tool on the display unit 7, and executes the setting. FIG. 14 shows an example of a UI 1400 for setting an inspection tool. The image selection button 1401 is a button for selecting an inspection image to be used for inspection from among a plurality of inspection images. The inspection category selection button 1402 is a button for selecting a category of a tool to be added as an inspection tool from among a plurality of inspection categories. The recognition target setting button 1403 is a button for selecting one of a plurality of recognition targets. In this example, “shape 1” is selected as the inspection image, “recognition” is selected as the category, and “character recognition” is selected as the recognition process. When the add button 1404 is operated, the UI management unit 814 switches to the next UI. FIG. 15 shows a reference image registration UI 1500. The reference image registration UI 1500 includes a registration button 1501 in addition to the above-described measurement execution button 1102 and display area 1103. When the registration button 1501 is operated, the UI management unit 814 registers the image acquired by the measurement execution button 1102 and displayed in the display area 1103 as a reference image. When registration is completed, the UI management unit 814 switches to the next UI.

図16は計測領域設定UI1600を示している。計測領域設定UI1600の表示領域1103には基準画像1601と、計測領域を示すフレーム1602が配置される。UI管理部814は入力部6からの指示に応じてフレーム1602の位置とサイズを変更する。ユーザは基準画像1601のうち計測対象としたい部分の位置とサイズに合わせてフレーム1602の位置とサイズを調整する。なお、さらに、UI管理部814は、文字の切り出し設定や、認識すべき文字の具体例(文字画像)と文字画像に対応する文字キャラクタを登録するための辞書設定などを実行してもよい。   FIG. 16 shows a measurement area setting UI 1600. A reference image 1601 and a frame 1602 indicating the measurement area are arranged in the display area 1103 of the measurement area setting UI 1600. The UI management unit 814 changes the position and size of the frame 1602 according to an instruction from the input unit 6. The user adjusts the position and size of the frame 1602 in accordance with the position and size of the portion to be measured in the reference image 1601. Further, the UI management unit 814 may perform character cutout settings, dictionary settings for registering specific examples (character images) of characters to be recognized and character characters corresponding to the character images, and the like.

次に傷検査ツールについて説明する。図17に示すように、検査カテゴリー選択ボタン1402によって傷検査が選択されると、UI管理部814は、検査内容選択ボタン1701を表示する。この例では、検査内容選択ボタン1701によって傷の総面積を計測するツールが選択されている。追加ボタン1404が操作されると、UI管理部814はUIを切り替える。   Next, the flaw inspection tool will be described. As shown in FIG. 17, when a wound inspection is selected by the inspection category selection button 1402, the UI management unit 814 displays an inspection content selection button 1701. In this example, a tool for measuring the total area of the wound is selected by the inspection content selection button 1701. When the add button 1404 is operated, the UI management unit 814 switches the UI.

図18は計測領域設定UI1800を示している。計測領域設定UI1800には、計測領域(傷検査領域)を示すフレーム1802が配置される。フレーム1802の形状は変更可能であり、たとえば、形状を選択するためのプルダウンメニュー1801によって複数の形状のうちいずれかの形状が選択される。UI管理部814はプルダウンメニュー1801によって選択された形状のフレーム1802を表示領域1103にレンダリングする。UI管理部814は入力部6からの指示に応じてフレーム1802の位置とサイズを変更する。   FIG. 18 shows a measurement area setting UI 1800. In the measurement area setting UI 1800, a frame 1802 indicating a measurement area (scratch inspection area) is arranged. The shape of the frame 1802 can be changed. For example, one of a plurality of shapes is selected by a pull-down menu 1801 for selecting a shape. The UI management unit 814 renders the frame 1802 having the shape selected by the pull-down menu 1801 in the display area 1103. The UI management unit 814 changes the position and size of the frame 1802 in accordance with an instruction from the input unit 6.

図19は傷の検出条件を設定するための設定UI1900を示している。設定UI1900には、傷の検出方向を選択するためのプルダウンメニュー1901と、傷のセグメントサイズを指定するためのボックス1902と、傷のレベルを指定するためのスライダー1903が配置されている。設定UI1900により設定された傷検出条件に基づいて傷検査領域内(フレーム1802内)で傷検査部831が傷を検出したときは、UI管理部814が傷の位置に傷検出マーク1910を表示してもよい。これにより、ユーザは、傷検出条件が適切かどうかを判断できよう。   FIG. 19 shows a setting UI 1900 for setting a flaw detection condition. The setting UI 1900 includes a pull-down menu 1901 for selecting a flaw detection direction, a box 1902 for designating a flaw segment size, and a slider 1903 for designating a flaw level. When the flaw inspection unit 831 detects a flaw in the flaw inspection area (within the frame 1802) based on the flaw detection condition set by the setting UI 1900, the UI management unit 814 displays a flaw detection mark 1910 at the flaw position. May be. Thereby, the user will be able to judge whether the flaw detection condition is appropriate.

<検査モード>
図20は検査モードを示すフローチャートである。入力部6を通じて検査モードの開始が指示されると、プロセッサ810が動作モードを検査モードに移行させる。
<Inspection mode>
FIG. 20 is a flowchart showing the inspection mode. When the start of the inspection mode is instructed through the input unit 6, the processor 810 shifts the operation mode to the inspection mode.

S2001でプロセッサ810は設定された点灯パターンにしたがって照明方向を切り替えながらワーク2の画像を撮像して取得する。具体的には、照明制御部812が、記憶装置820に保持されている設定データを参照して点灯パターンを特定し、点灯パターンを指定するためのコマンドを照明コントローラ802に送出する。撮像制御部813は記憶装置820に保持されている設定データを参照してカメラ4に関する制御パラメータ(シャッタースピードや感度など)を特定し、これを指定するコマンドをカメラ4に送信する。フォトメトリック処理部811は照明の開始を指示するためのトリガー信号を照明コントローラ802に送信するとともに、これと連動して撮像の開始を指示するためのトリガー信号をカメラ4に送信する。照明コントローラ802はトリガー信号に同期して照明方向を切り替える。たとえば、照明コントローラ802はコマンドにより指定された点灯パターンにしたがって4つの照明方向について1つずつ順番に対応する発光素子を点灯させる。照明コントローラ802はコマンドと点灯パターンとの対応関係をメモリなどに保持していてもよい。トリガー信号は照明開始時に1つだけ発行されてもよいし、切り替えタイミングにおいても発行されてもよい。カメラ4は制御パラメータにしたがってワーク2を撮像し、輝度画像を画像処理装置5に転送する。このようにして、たとえば、1つの照明方向につき1枚の輝度画像が生成される。   In step S2001, the processor 810 captures and acquires an image of the work 2 while switching the illumination direction according to the set lighting pattern. Specifically, the illumination control unit 812 identifies a lighting pattern with reference to setting data held in the storage device 820, and sends a command for designating the lighting pattern to the lighting controller 802. The imaging control unit 813 specifies control parameters (such as shutter speed and sensitivity) related to the camera 4 with reference to the setting data held in the storage device 820, and transmits a command for specifying the control parameter to the camera 4. The photometric processing unit 811 transmits a trigger signal for instructing the start of illumination to the illumination controller 802 and transmits a trigger signal for instructing the start of imaging to the camera 4 in conjunction with the trigger signal. The illumination controller 802 switches the illumination direction in synchronization with the trigger signal. For example, the lighting controller 802 turns on the light emitting elements corresponding to the four lighting directions one by one in accordance with the lighting pattern specified by the command. The lighting controller 802 may hold the correspondence between the command and the lighting pattern in a memory or the like. Only one trigger signal may be issued at the start of illumination, or may be issued at the switching timing. The camera 4 captures the workpiece 2 according to the control parameters and transfers the luminance image to the image processing device 5. In this way, for example, one luminance image is generated for one illumination direction.

S2002でプロセッサ810は複数の輝度画像から法線ベクトルnと反射率ρとを求める。上述したようにフォトメトリック処理部811は複数の輝度画像の画素値について式1を適用し、法線ベクトルnと反射率ρとを求める。   In S2002, the processor 810 obtains a normal vector n and a reflectance ρ from a plurality of luminance images. As described above, the photometric processing unit 811 applies Equation 1 to the pixel values of a plurality of luminance images to obtain the normal vector n and the reflectance ρ.

S2003でプロセッサ810は設定された特徴サイズにしたがって検査画像を生成する。上述したようにフォトメトリック処理部811は特徴サイズに対応する重みWを重みテーブルなどから決定し、式2を用いて積み上げ演算を実行して検査画像(傾き画像)を生成する。このように、フォトメトリック処理部811は複数の輝度画像からワーク2の表面の法線ベクトルnに基づく画素値を有する傾き画像を生成してもよい。なお、それぞれ値の異なる複数の特徴サイズを設定されている場合、フォトメトリック処理部811は設定された複数の特徴サイズのそれぞれについて検査画像を生成してもよい。また、フォトメトリック処理部811は上述した手法により反射率画像やテクスチャ画像を生成してもよい。たとえば、フォトメトリック処理部811は複数の輝度画像からワーク2の表面の法線ベクトルnとともにワーク2の表面の反射率ρを算出し、当該反射率ρに基づく画素値を有する反射率画像を生成してもよい。ここでは検査の対象とされる画像が生成され、検査の対象とさていない画像については生成が省略されてもよい。   In step S2003, the processor 810 generates an inspection image according to the set feature size. As described above, the photometric processing unit 811 determines the weight W corresponding to the feature size from the weight table or the like, and executes a stacking operation using Expression 2 to generate an inspection image (tilt image). As described above, the photometric processing unit 811 may generate an inclination image having a pixel value based on the normal vector n on the surface of the workpiece 2 from a plurality of luminance images. When a plurality of feature sizes having different values are set, the photometric processing unit 811 may generate an inspection image for each of the set feature sizes. The photometric processing unit 811 may generate a reflectance image or a texture image by the above-described method. For example, the photometric processing unit 811 calculates the reflectance ρ of the surface of the workpiece 2 together with the normal vector n of the surface of the workpiece 2 from a plurality of luminance images, and generates a reflectance image having a pixel value based on the reflectance ρ. May be. Here, an image to be inspected is generated, and generation of an image not to be inspected may be omitted.

S2004でプロセッサ810は検査画像を表示部7に表示する。UI管理部814は検査画像とともに、輝度画像、傾き画像、反射率画像を表示部7に同時または選択的に表示してもよい。選択的に表示する場合、UI管理部814は入力部6からの切り替え指示にしたがって、たとえば、4つの輝度画像を順番に切り替え表示してもよい。たとえば、入力部6のうちコンソールに設けられた特定のキーが画像の切替ボタンとして割り当てられていてもよい。   In step S2004, the processor 810 displays the inspection image on the display unit 7. The UI management unit 814 may display the luminance image, the tilt image, and the reflectance image together with the inspection image on the display unit 7 simultaneously or selectively. In the case of selective display, the UI management unit 814 may switch and display, for example, four luminance images in accordance with a switching instruction from the input unit 6. For example, a specific key provided on the console of the input unit 6 may be assigned as an image switching button.

S2005でプロセッサ810は画像処理部830に検査の実行を指示する。画像処理部830は検査を指示されると、予め設定された検査ツールを起動して検査画像に対して検査を実行する。たとえば、傷検査部831は設定された計測領域や検出条件にしたがって傷のレベルを判別し、検査結果(傷のレベル)を判定部840に転送する。なお、傷検査部831は、上述した基準画像を用いてパターンサーチを実行して検査領域を設定し、検査領域において検査を実行してもよい。また、OCR部832は、予め設定された文字認識設定にしたがって検査画像に対して文字認識処理を実行し、文字認識結果を判定部840に転送する。OCR部832も上述した基準画像を用いてパターンサーチを実行して検査領域(文字認識領域)を設定し、検査領域において検査を実行してもよい。   In step S2005, the processor 810 instructs the image processing unit 830 to execute inspection. When the inspection is instructed, the image processing unit 830 activates a preset inspection tool and executes the inspection on the inspection image. For example, the wound inspection unit 831 determines the level of the scratch according to the set measurement region and detection condition, and transfers the inspection result (scratch level) to the determination unit 840. Note that the flaw inspection unit 831 may perform a pattern search using the above-described reference image to set an inspection region, and perform inspection in the inspection region. In addition, the OCR unit 832 performs character recognition processing on the inspection image in accordance with preset character recognition settings, and transfers the character recognition result to the determination unit 840. The OCR unit 832 may perform a pattern search using the above-described reference image to set an inspection area (character recognition area), and execute an inspection in the inspection area.

S2006でプロセッサ810の判定部840は検査結果と判定閾値とを比較して、ワーク2が良品であるかどうかを判定する。たとえば、傷検査とOCRの両方を実行するように設定されている場合、判定部840は傷検査部831の検査結果とOCR部832の文字認識結果との両方が合格レベルにあるときに、ワーク2を良品と判定する。   In S2006, the determination unit 840 of the processor 810 compares the inspection result with the determination threshold value to determine whether the workpiece 2 is a non-defective product. For example, in a case where both the wound inspection and the OCR are set to be executed, the determination unit 840 determines whether the inspection result of the wound inspection unit 831 and the character recognition result of the OCR unit 832 are at a pass level. 2 is judged as a good product.

<画像保存設定>
図21は検査フローを設定するUI2100の一例を示している。UI管理部814はUI2100を表示部7に表示させ、検査フローのスタートからエンドまでの間に実行される複数の工程を入力部6から入力される指示にしたがって設定して行く。この例では、撮像工程、パターンサーチ工程、位置補正工程および傷検査工程が検査フローに追加されている。たとえば、入力部6を通じて検査フローのエンドが指定されると、UI管理部814はエンドにおいて検査履歴を蓄積するように設定してもよい。検査履歴とは、検査結果や検査に使用された画像などである。
<Image save settings>
FIG. 21 shows an example of a UI 2100 for setting an inspection flow. The UI management unit 814 displays the UI 2100 on the display unit 7, and sets a plurality of processes to be executed from the start to the end of the inspection flow according to instructions input from the input unit 6. In this example, an imaging process, a pattern search process, a position correction process, and a flaw inspection process are added to the inspection flow. For example, when the end of the inspection flow is designated through the input unit 6, the UI management unit 814 may be set to accumulate the inspection history at the end. The inspection history is an inspection result or an image used for the inspection.

なお、各工程を追加するときにUI管理部814は各工程で使用される画像の選択を、入力部6を通じて受け付けてもよい。たとえば、ユーザは入力部6を通じて撮像工程に対しては照明方向と異なる4つの輝度画像や傾き画像、反射率画像などを取得対象として指定し、パターンサーチ工程に対してはいずれかの輝度画像(全方向照明画像など)をサーチ対象として指定し、傷検査工程に対しては傾き画像から生成された検査画像などを検査対象として指定してもよい。   When adding each process, the UI management unit 814 may accept selection of an image used in each process through the input unit 6. For example, the user designates four luminance images, tilt images, reflectance images, and the like that are different from the illumination direction for the imaging process through the input unit 6 as acquisition targets, and any luminance image (for the pattern search process). An omnidirectional illumination image or the like) may be designated as a search target, and an inspection image or the like generated from an inclination image may be designated as an inspection target for a scratch inspection process.

図22は履歴を蓄積する条件を設定するUI2200の一例を示している。蓄積条件を識別するための識別情報を設定する設定部2201は複数ある識別情報から設定対象となる識別情報を選択するためのプルダウンメニューによって構成されている。この例では設定部2201において「0:」という識別情報の蓄積条件が選択されている。蓄積条件としては、たとえば、検査結果が良品ではないときにのみ画像を蓄積するといった条件や、検査結果に依存せずに各ワークごとに常に画像を蓄積するといった条件などがある。ここでは、プロセッサ810は詳細設定ボタンなどが押されたことを検知すると条件設定部819を起動する。条件設定部819は、たとえば、常に画像を保存または出力するモードと、判定部840により検査対象物が良品ではないと判定されたときに画像を保存または出力するモードとのうちいずれかを設定してもよい。画像選択部2202は蓄積条件が満たされたときに保存する画像を選択する。ここでは画像選択部2202によって「すべて」と「指定」とを選択することができる。保存先選択部2203は、画像の保存先(例:内蔵メモリ、メモリカードなどの可搬メディアやFTPサーバなどのネットワークストレージ)を選択するためのプルダウンメニューによって構成されている。   FIG. 22 shows an example of a UI 2200 for setting conditions for accumulating history. The setting unit 2201 for setting identification information for identifying the accumulation condition is configured by a pull-down menu for selecting identification information to be set from a plurality of identification information. In this example, an accumulation condition of identification information “0:” is selected in the setting unit 2201. Examples of the accumulation condition include a condition that an image is accumulated only when the inspection result is not a non-defective product, and a condition that an image is always accumulated for each workpiece without depending on the inspection result. Here, the processor 810 activates the condition setting unit 819 when detecting that the detailed setting button or the like is pressed. For example, the condition setting unit 819 sets one of a mode in which an image is always stored or output and a mode in which an image is stored or output when the determination unit 840 determines that the inspection target is not a good product. May be. The image selection unit 2202 selects an image to be saved when the accumulation condition is satisfied. Here, “all” and “designation” can be selected by the image selection unit 2202. The storage destination selection unit 2203 includes a pull-down menu for selecting an image storage destination (for example, portable media such as a built-in memory or a memory card, or a network storage such as an FTP server).

図23は画像選択部2202で「指定」が選択されたときにUI管理部814が表示部7に表示させるUI2300の一例を示している。この例では、検査フローにおいて扱われるすべての種類の画像のうち実際に保存すべき画像を選択するためのチェックボックス2301が設けられている。形状1、2は特徴サイズが異なる検査画像(傾き画像)である。テクスチャは反射率画像である。ノーマルは全方向照明により取得された画像である。4つの矢印は照明方向を示すアイコンである。つまり矢印マークによって照明方向が異なる4つの輝度画像が区別されている。チェックボックスにチェックされた画像が保存対象として設定される。   FIG. 23 shows an example of a UI 2300 that the UI management unit 814 displays on the display unit 7 when “designation” is selected by the image selection unit 2202. In this example, a check box 2301 for selecting an image to be actually saved among all types of images handled in the inspection flow is provided. Shapes 1 and 2 are inspection images (tilt images) having different feature sizes. The texture is a reflectance image. Normal is an image acquired by omnidirectional illumination. Four arrows are icons indicating the illumination direction. That is, four luminance images having different illumination directions are distinguished by the arrow marks. An image whose check box is checked is set as a save target.

ところで、プロセッサ810は判定部840が判定を終了した後で画像を保存または出力する条件が満たされているかどうかを判断する判断手段を備えていてもよい。すなわち、検査フローのエンド部において、プロセッサ810は、条件設定部819により設定された蓄積条件や出力条件が満たされているかどうかを判断してもよい。   By the way, the processor 810 may include a determination unit that determines whether a condition for saving or outputting an image is satisfied after the determination unit 840 completes the determination. That is, at the end part of the inspection flow, the processor 810 may determine whether the storage condition and the output condition set by the condition setting unit 819 are satisfied.

図24は画像出力工程2401を検査フローに追加する例を示している。上述した実施例では検査フローの最後に画像を出力するように設定したが、この例では入力部6から入力されるユーザ指示にしたがってUI管理部814が検査フローの任意の位置に画像出力工程2401を設定する。このように、プロセッサ810は、判定部840が判定を終了する前に位置する画像出力工程2401で画像を保存または出力する条件が満たされているかどうかを判断してもよい。画像出力工程2401に関連する蓄積設定等は図21ないし図23を用いて説明したのと同様であってもよいし、異なってもよい。   FIG. 24 shows an example in which an image output process 2401 is added to the inspection flow. In the above-described embodiment, an image is set to be output at the end of the inspection flow. However, in this example, the UI management unit 814 performs an image output process 2401 at an arbitrary position in the inspection flow according to a user instruction input from the input unit 6. Set. As described above, the processor 810 may determine whether or not a condition for saving or outputting an image is satisfied in the image output step 2401 positioned before the determination unit 840 ends the determination. The accumulation settings and the like related to the image output process 2401 may be the same as or different from those described with reference to FIGS.

図25は蓄積設定(出力設定)に関するUIの別の例を示している。画像出力工程2401が入力部6により選択された状態で、さらに入力部6により設定を開始する指示が入力されると、UI管理部814はUI2501を表示する。画像変数2502は出力すべき画像を選択する画像選択部として機能し、この例では検査フローにおける各工程に付与されている画像変数によって出力すべき画像が指定される。つまり、各工程ごとに出力すべき画像を選択できる。UI2501において画像の出力枚数や画像形式なども設定されてもよい。出力先選択部2503は画像の出力先(例:内蔵メモリ、メモリカードなどの可搬記憶メディアやFTPサーバなどのネットワークストレージ)を選択するためのプルダウンメニューである。   FIG. 25 shows another example of a UI related to accumulation setting (output setting). When the image output process 2401 is selected by the input unit 6 and an instruction to start setting is further input by the input unit 6, the UI management unit 814 displays the UI 2501. The image variable 2502 functions as an image selection unit that selects an image to be output. In this example, an image to be output is designated by an image variable assigned to each process in the inspection flow. That is, an image to be output can be selected for each process. In the UI 2501, the number of output images and the image format may be set. An output destination selection unit 2503 is a pull-down menu for selecting an image output destination (for example, a portable storage medium such as a built-in memory or a memory card, or a network storage such as an FTP server).

図26は画像を選択するUI2600の一例である。UI2501において詳細設定ボタンが押し下げられると、UI管理部814はUI2600を表示する。UI2600ではすべての画像を保存するか、個別指定するかを選択するためのラジオボタンや、画像を個別に選択するためのチェックボックスなどが配置されている。この例では、ラジオボタンにより個別指定が選択されているため、チェックボックスが有効となり、チェックボックスを通じていくつかの画像が選択されている。このように、複数の輝度画像、検査画像、全方向照明画像および複数の輝度画像を合成して得られた合成輝度画像から保存対象もしくは出力対象となる画像が選択されてもよい。また、それぞれ特徴サイズが異なる複数の検査画像から保存対象もしくは出力対象となる画像を選択できるようにUI2600が構成されてもよい。また、複数の輝度画像、検査画像および検査対象物の表面の反射率を画素値とした反射率画像から保存対象もしくは出力対象となる画像を選択できるようにUI2600が構成されてもよい。   FIG. 26 shows an example of a UI 2600 for selecting an image. When the detailed setting button is pressed on the UI 2501, the UI management unit 814 displays the UI 2600. In the UI 2600, radio buttons for selecting whether all images are stored or individually designated, check boxes for individually selecting images, and the like are arranged. In this example, since individual designation is selected by a radio button, the check box is valid, and several images are selected through the check box. As described above, an image to be stored or output may be selected from a combined luminance image obtained by combining a plurality of luminance images, an inspection image, an omnidirectional illumination image, and a plurality of luminance images. Further, the UI 2600 may be configured such that an image to be saved or output can be selected from a plurality of inspection images each having a different feature size. Further, the UI 2600 may be configured so that an image to be stored or output can be selected from a plurality of luminance images, an inspection image, and a reflectance image using the reflectance of the surface of the inspection object as a pixel value.

<輪郭強調画像の生成>
検査対象物の輪郭を精度良く抽出した輪郭画像を生成できれば、検査対象物の寸法検査や欠け検査、計測領域の動的設定に役立つであろう。
<Generation of contour-enhanced image>
If a contour image obtained by accurately extracting the contour of the inspection object can be generated, it will be useful for dimensional inspection, chip inspection, and dynamic setting of the measurement region.

図27(A)〜図27(D)は形状画像における基準レベルを説明する図である。基準レベルとは、検査対象物の表面形状が平坦であることを示す画素値のことであり、平坦レベルと呼ばれてもよい。図27(A)は一般的な基準レベルを説明する図である。ここでは一例として計上画像を8ビット画像とするが、16ビット画像など、ビット数は自由である。8ビット画像では各画素値が0ないし255の値をとり得る。そのため、基準レベルを128に設定することで、凸形状や凹形状をバランスよく表現できるようになる。つまり、0〜127の濃淡値によって凹形状が表現され、129〜255の濃淡値によって凸形状が表現される。このように、明るい画素は表面形状が凸となっていることを示し、暗い画素は表面形状が凹となっていることを示す。このように形状画像では濃淡によって表面の形状を示すことができる。   FIG. 27A to FIG. 27D are diagrams for explaining a reference level in a shape image. The reference level is a pixel value indicating that the surface shape of the inspection object is flat, and may be called a flat level. FIG. 27A is a diagram for explaining a general reference level. Here, the recorded image is an 8-bit image as an example, but the number of bits is arbitrary, such as a 16-bit image. In an 8-bit image, each pixel value can take a value from 0 to 255. Therefore, by setting the reference level to 128, the convex shape and the concave shape can be expressed with a good balance. That is, the concave shape is represented by the gray values of 0 to 127, and the convex shape is represented by the gray values of 129 to 255. Thus, bright pixels indicate that the surface shape is convex, and dark pixels indicate that the surface shape is concave. In this way, the shape image can indicate the surface shape by shading.

図27(B)が示すように、本実施形態では基準レベルを自由にユーザが調整することで、効率よく輪郭画像を形成できるようにする。図27(C)は濃淡表現範囲の最小値である0に基準レベルを設定した例である。基準レベルを0に設定することで凹形状を無視できるようになり(算出された形状値のうち平坦に対応した形状値や凹部の形状値が画素値(濃淡値)として0に割り当てられる)、凸形状のみを抽出できるようになる(凸部形状値が1〜255の濃淡値に割り当てられる)。図27(D)は濃淡表現範囲の最大値である255に基準レベルを設定した例である。基準レベルを255に設定することで凸形状を無視できるようになり、凹形状のみを抽出できるようになる。   As shown in FIG. 27B, in this embodiment, the user can freely adjust the reference level so that a contour image can be formed efficiently. FIG. 27C shows an example in which the reference level is set to 0, which is the minimum value of the shade expression range. By setting the reference level to 0, the concave shape can be ignored (the shape value corresponding to flatness or the shape value of the concave portion among the calculated shape values is assigned to 0 as a pixel value (shading value)), Only the convex shape can be extracted (the convex shape value is assigned to the gray value of 1 to 255). FIG. 27D shows an example in which the reference level is set to 255, which is the maximum value of the shade expression range. By setting the reference level to 255, the convex shape can be ignored, and only the concave shape can be extracted.

フォトメトリックステレオ法では、それぞれ照明方向が異なる複数の輝度画像間での明るさの違いからワークの表面の法線ベクトルを求め、表面の傾き(X成分、Y成分)を推定し、X成分の傾きとY成分の傾きを重みづけ合成して形状値を算出するが、照明方向に依存してワークの影が輝度画像に映り込んでしまうことがある。このような影は傾きの推定誤差をもたらすため好ましくないと考えられてきたが、この影がワークの輪郭付近に生じることを輪郭の抽出に役立てられることが分かってきた。   In the photometric stereo method, the normal vector of the surface of the workpiece is obtained from the difference in brightness between a plurality of luminance images having different illumination directions, the surface inclination (X component, Y component) is estimated, and the X component Although the shape value is calculated by weighting and combining the inclination and the inclination of the Y component, the shadow of the work may be reflected in the luminance image depending on the illumination direction. Such a shadow has been considered undesirable because it causes an estimation error in the tilt, but it has been found that the occurrence of this shadow in the vicinity of the contour of the workpiece can be used for the extraction of the contour.

図28(A)はワークの右側から照明光を当てることで発生する影を示す側面図である。図28(B)はワークの右側から照明光を当てることで発生する影を示す平面図である。図28(C)はワークの左側から照明光を当てることで発生する影を示す側面図である。図28(D)はワークの左側から照明光を当てることで発生する影を示す平面図である。図28(E)は右側照明光により取得された輝度画像と左側照明光により取得された輝度画像に基づいて求められたX方向の傾きの推定結果を示している。図28(E)によれば、影の部分で傾きが誤って推定されていることがわかる。図28(F)は基準レベルを中間値である128に設定したときの形状画像を示している。なお、形状画像は、4つの照明方向に対応した4つの輝度画像から形成されている。ワークの表面のうちで表面形状が平坦となっている部分は濃淡値が128であるためグレーとなる。ワークの輪郭は凸形状であるため、その濃淡値は128よりも大きくなり、白色となっている。影の部分は凹形状であるため濃淡値が128よりも小さくなり、黒となっている。この形状画像をそのまま輪郭画像として用いてワークの寸法を計測すると、影の影響によって寸法誤差が発生してしまう。図28(G)は本実施形態の基準レベル調整手段によって基準レベルを0に設定することで得られる輪郭画像としての形状画像である。基準レベルを0に設定することで凹形状を排除することができ、凸形状のみ、すなわち正しい輪郭のみを精度よく抽出できることがわかる。このように凸形状の輪郭が必要なときは基準レベルを中間値よりも低下させることで輪郭強調画像が得られる。一方で、凹形状の輪郭が必要なときは基準レベルを中間値よりも増加させることで輪郭強調画像が得られる。   FIG. 28A is a side view showing a shadow generated by applying illumination light from the right side of the workpiece. FIG. 28B is a plan view showing a shadow generated by applying illumination light from the right side of the workpiece. FIG. 28C is a side view showing a shadow generated by applying illumination light from the left side of the workpiece. FIG. 28D is a plan view showing a shadow generated by applying illumination light from the left side of the workpiece. FIG. 28E shows an estimation result of the inclination in the X direction obtained based on the luminance image acquired by the right illumination light and the luminance image acquired by the left illumination light. As can be seen from FIG. 28E, the inclination is erroneously estimated in the shadow portion. FIG. 28F shows a shape image when the reference level is set to an intermediate value of 128. The shape image is formed from four luminance images corresponding to the four illumination directions. Of the surface of the workpiece, the portion where the surface shape is flat is gray because the gray value is 128. Since the outline of the workpiece is convex, the gray value thereof is greater than 128 and is white. Since the shadow portion has a concave shape, the gray value is smaller than 128 and is black. If the dimension of the workpiece is measured using the shape image as it is as the contour image, a dimensional error occurs due to the influence of the shadow. FIG. 28G shows a shape image as a contour image obtained by setting the reference level to 0 by the reference level adjusting means of this embodiment. It can be seen that the concave shape can be eliminated by setting the reference level to 0, and only the convex shape, that is, only the correct contour can be accurately extracted. In this way, when a convex contour is necessary, the contour-enhanced image can be obtained by lowering the reference level below the intermediate value. On the other hand, when a concave contour is required, a contour-enhanced image can be obtained by increasing the reference level from the intermediate value.

図29(A)はクレジットカードなどの表面に形成される凸形状の文字について基準レベルを128に設定することで得られる形状画像の一例である。この例が示すように文字の周囲には黒い影が映り込んでおり、これが文字認識の精度を低下させる。図29(B)はクレジットカードなどの表面に形成される凸形状の文字について基準レベルを0に設定することで得られる形状画像の一例である。この例が示すように影の影響が緩和され、文字を明確に認識できるようになる。   FIG. 29A is an example of a shape image obtained by setting the reference level to 128 for convex characters formed on the surface of a credit card or the like. As this example shows, black shadows appear around the characters, which reduces the accuracy of character recognition. FIG. 29B is an example of a shape image obtained by setting the reference level to 0 for convex characters formed on the surface of a credit card or the like. As this example shows, the influence of the shadow is reduced and the characters can be clearly recognized.

図29(C)はワークの表面に形成される凹形状の文字について基準レベルを128に設定することで得られる形状画像の一例である。この例が示すように文字は認識しにくい状態であることがわかる。図29(D)はワークの表面に形成される凹形状の文字について基準レベルを255に設定することで得られる形状画像の一例である。この例が示すように基準レベルを調整すれば、凹形状の文字であっても明確に文字認識できるようになる。   FIG. 29C is an example of a shape image obtained by setting the reference level to 128 for concave characters formed on the surface of the workpiece. As shown in this example, it can be seen that characters are difficult to recognize. FIG. 29D is an example of a shape image obtained by setting the reference level to 255 for concave characters formed on the surface of the workpiece. If the reference level is adjusted as shown in this example, even a concave character can be clearly recognized.

図30(A)は冷却ファンについての形状画像であって基準レベルを128に設定することで得られる画像の一例である。図30(B)は冷却ファンについての形状画像であって基準レベルを0に設定することで得られる画像の一例である。基準レベルを低下させることで、ワークの輪郭だけを浮かび上がらせることが可能となり、輪郭画像を用いて寸法検査や欠け検査、パターンサーチによる計測領域の動的な設定などを効率よくかつ精度よく実行できるようになる。   FIG. 30A is an example of a shape image of the cooling fan and is obtained by setting the reference level to 128. FIG. 30B is an example of a shape image of the cooling fan and is obtained by setting the reference level to 0. By reducing the reference level, it becomes possible to highlight only the workpiece outline, and the contour image can be used to efficiently and accurately perform dimension inspection, chipping inspection, and dynamic measurement area setting by pattern search. It becomes like this.

図31はフォトメトリック処理部811の機能を示すブロック図である。基準レベル調整部3101は、表面形状が平坦であることを示す画素値である基準レベルを調整する。UI管理部814は、基準レベルを調整するためのユーザインタフェースを表示部7に表示させ、ユーザインタフェースに対する操作を入力部6により受け付け、ユーザインタフェースを通じて入力または指定された数値もしくはレベルを基準レベル調整部3101に渡してもよい。ユーザインタフェースとしては、たとえば、基準レベルを最小値と最大値との間で調整可能なスライダーバーや数値入力部などである。基準レベル調整部3101は、ユーザインタフェースを通じて入力または指定された数値もしくはレベルに応じて基準レベルを調整する。調整された基準レベルは画像生成部3100に渡される。   FIG. 31 is a block diagram illustrating functions of the photometric processing unit 811. The reference level adjustment unit 3101 adjusts a reference level that is a pixel value indicating that the surface shape is flat. The UI management unit 814 displays a user interface for adjusting the reference level on the display unit 7, receives an operation on the user interface by the input unit 6, and inputs a numerical value or level input or designated through the user interface to the reference level adjustment unit 3101 may be passed. Examples of the user interface include a slider bar and a numerical value input unit that can adjust the reference level between a minimum value and a maximum value. The reference level adjustment unit 3101 adjusts the reference level according to a numerical value or level input or designated through the user interface. The adjusted reference level is passed to the image generation unit 3100.

画像生成部3100は、カメラ4によりワーク2をフォトメトリックステレオ法により撮像し、ワーク2の表面の法線ベクトルを求め、法線ベクトルに基づき傾きを求め、傾きに応じて表面形状を示す形状値を求め、調整された基準レベルに応じて形状値を画素値に割り当てることで形状値を濃淡値に変換し、ワーク2の輪郭が強調された輪郭画像を生成する。画像生成部3100は、上述したように最小値から基準レベルまでの濃淡値によって凹形状を表現し、基準レベルの濃淡値によって平坦を表し、基準レベルから最大値までの濃淡値によって凸形状を表現する。画像生成部3100は、傾き画像生成部3110と輪郭画像生成部3120を備えていてもよい。傾き画像生成部3110は、ワーク2をフォトメトリックステレオ法により撮像して得られた複数の輝度画像からワーク2の表面の法線ベクトルを求め、さらに法線ベクトルから傾きを求める。つまり、傾き画像生成部3110は、各照明方向ごとの輝度画像において座標が一致している複数の画素の各画素値に基づきその画素についての法線ベクトルを求め、法線ベクトルから傾きを求めてもよい。これにより、各画素値が傾きを表す傾き画像を生成してもよい。ただし、ここでは傾きがわかればよいため、傾き画像を画像データとして生成することは必須ではない。つまり、傾き算出部3111が傾きを算出し、算出した傾きを輪郭画像生成部3120に渡せばよい。   The image generation unit 3100 captures the workpiece 2 by the photometric stereo method with the camera 4, obtains a normal vector of the surface of the workpiece 2, obtains an inclination based on the normal vector, and indicates a shape value indicating the surface shape according to the inclination The shape value is converted into a gray value by assigning the shape value to the pixel value according to the adjusted reference level, and a contour image in which the contour of the workpiece 2 is emphasized is generated. As described above, the image generation unit 3100 expresses the concave shape by the gray value from the minimum value to the reference level, expresses flatness by the gray value of the reference level, and expresses the convex shape by the gray value from the reference level to the maximum value. To do. The image generation unit 3100 may include a tilt image generation unit 3110 and a contour image generation unit 3120. The inclination image generation unit 3110 obtains a normal vector of the surface of the work 2 from a plurality of luminance images obtained by imaging the work 2 by the photometric stereo method, and further obtains an inclination from the normal vector. That is, the tilt image generation unit 3110 obtains a normal vector for each pixel based on the pixel values of a plurality of pixels whose coordinates match in the luminance image for each illumination direction, and obtains the tilt from the normal vector. Also good. Thereby, an inclination image in which each pixel value represents an inclination may be generated. However, since it is sufficient to know the inclination here, it is not essential to generate an inclination image as image data. That is, the inclination calculation unit 3111 calculates the inclination and passes the calculated inclination to the contour image generation unit 3120.

輪郭画像生成部3120は形状画像生成手段および輪郭画像生成手段として機能する。輪郭画像生成部3120の形状値算出部3121は、x成分の傾き画像とy成分の傾き画像とを用いて各表面の形状値を算出し、形状画像を生成してもよい。形状値の求め方は図2や図3などを用いて説明したとおりである。輪郭画像生成部3120の修正部3122は、基準レベルに応じて形状値を画素値(濃淡値)に変換することで、形状画像に含まれているワーク2の輪郭を強調してワーク2の輪郭画像を生成する。たとえば、修正部3122は、形状値算出部3121により求められた形状値のうち凸部を示す形状値ついては、平坦であることを示す基準レベルよりも大きな画素値を割り当てる。さらに、修正部部3122は、凹部を示す形状値ついては基準レベルよりも小さな画素値を割り当てる。このように輪郭画像生成部3120は傾きに基づき形状値を求め、基準レベルに応じて形状値を濃淡値に変換して輪郭画像データ3150を生成してもよいが、すでに完成している形状画像データを受け取って、調整された基準レベルを事後的に用いて、形状画像データを輪郭画像データ3150に変換してもよい。いずれにしても修正部3122は表面形状を示す形状値(画素値)を基準レベルにしたがって修正して濃淡値に変換する。   The contour image generation unit 3120 functions as a shape image generation unit and a contour image generation unit. The shape value calculation unit 3121 of the contour image generation unit 3120 may calculate the shape value of each surface using the x component inclination image and the y component inclination image to generate the shape image. The method for obtaining the shape value is as described with reference to FIGS. The correction unit 3122 of the contour image generation unit 3120 enhances the contour of the work 2 included in the shape image by converting the shape value into a pixel value (shading value) according to the reference level. Generate an image. For example, the correction unit 3122 assigns a pixel value larger than the reference level indicating flatness to the shape value indicating the convex portion among the shape values obtained by the shape value calculation unit 3121. Further, the correction unit 3122 assigns a pixel value smaller than the reference level for the shape value indicating the recess. As described above, the contour image generation unit 3120 may obtain the shape value based on the inclination, and may convert the shape value into a gray value according to the reference level to generate the contour image data 3150. Data may be received and shape image data converted to contour image data 3150 using the adjusted reference level afterwards. In any case, the correction unit 3122 corrects the shape value (pixel value) indicating the surface shape according to the reference level and converts it into a gray value.

コントラスト調整部3102は、オプションであり、基準レベル調整部3101が基準レベルを低下させたときに輪郭画像のコントラストを上昇させる。基準レベルを低下させると、画像のコントラストが低下することがある。そこで、画像処理によってコントラストを回復してもよい。   The contrast adjustment unit 3102 is an option, and increases the contrast of the contour image when the reference level adjustment unit 3101 decreases the reference level. When the reference level is lowered, the contrast of the image may be lowered. Therefore, the contrast may be recovered by image processing.

輪郭画像データ3150は、記憶装置820に記憶され、画像処理部830がワークの寸法検査を実行したり、傷検査部831が傷検査(欠け検査)を実行したり、OCR部832が文字認識を実行したりするときに読み出されて使用される。画像処理部830は、良品の輪郭画像に対して検査領域を設定し、良品の輪郭画像を用いてサーチ処理を実行してワークの位置を判別し、ワークの位置に応じてワークの輪郭画像に対する検査領域(計測領域)の位置を補正してもよい。このように輪郭画像データ3150は計測領域を動的に設定する際にも役立つ。ワーク2はライン1によって搬送されるが、カメラ4から見て常に同じ位置を搬送されるわけではない。よって、外観検査の精度を向上するために、ワーク2の輝度画像や輝度画像から生成された画像については位置判別結果に用いた位置補正が必要になる。このような位置補正を行う際にも輪郭画像は有効である。判定部840は、画像処理部830において輪郭画像を用いて得られた各種の検査結果(例:寸法計測結果、傷検査結果、文字認識結果など)を参照し、検査結果と公差などを比較してワークの良否を判定してもよい。   The contour image data 3150 is stored in the storage device 820, and the image processing unit 830 performs a dimensional inspection of the workpiece, the scratch inspection unit 831 performs a scratch inspection (chip inspection), and the OCR unit 832 performs character recognition. It is read and used when executing. The image processing unit 830 sets an inspection region for the non-defective contour image, executes a search process using the non-defective contour image, determines the position of the workpiece, and determines the position of the workpiece according to the workpiece position. The position of the inspection area (measurement area) may be corrected. As described above, the contour image data 3150 is also useful when the measurement region is dynamically set. Although the workpiece 2 is conveyed by the line 1, it is not always conveyed at the same position as viewed from the camera 4. Therefore, in order to improve the accuracy of the appearance inspection, the position correction used for the position determination result is necessary for the luminance image of the work 2 and the image generated from the luminance image. The contour image is also effective when performing such position correction. The determination unit 840 refers to various inspection results (eg, dimension measurement results, scratch inspection results, character recognition results, etc.) obtained by using the contour image in the image processing unit 830, and compares the inspection results with tolerances. The quality of the workpiece may be determined.

修正部3122は、ワーク2の輪郭のうち凸部の輪郭について強調して輪郭画像を生成してもよい。図27(C)を用いて説明したように、修正部3122は、輪郭画像における画素値(濃淡値)のとり得る範囲において最小値(例:0)を基準レベルに設定することで凸部の輪郭について強調してもよい。修正部3122は、ワーク2の輪郭のうち凹部の輪郭について強調して輪郭画像を生成してもよい。たとえば、修正部3122は、輪郭画像における画素値のとり得る範囲において最大値(例:8ビット画像なら255、16ビット画像なら65,535)を基準レベルに設定することで凹部の輪郭について強調してもよい。   The correcting unit 3122 may generate a contour image by emphasizing the contour of the convex portion of the contour of the work 2. As described with reference to FIG. 27C, the correction unit 3122 sets the minimum value (eg, 0) as the reference level within the possible range of the pixel value (shading value) in the contour image. The outline may be emphasized. The correcting unit 3122 may generate an outline image by emphasizing the outline of the recess in the outline of the work 2. For example, the correction unit 3122 emphasizes the contour of the recess by setting the maximum value (eg, 255 for 8-bit image, 65,535 for 16-bit image) to the reference level in the possible range of pixel values in the contour image. May be.

<まとめ>
本実施形態によれば、基準レベル調整部3101を設けているため、検査対象物の表面形状を示す形状画像における平坦レベル(基準レベル)が調整可能となった。また、本実施形態によれば、フォトメトリックステレオ法を応用して輪郭画像を生成できるようになる。すなわち、ワークの表面における反射率の変化や鏡面反射の影響を受けにくく、かつ、演算負荷についても軽い、輪郭画像の生成方法を実現できる。また、本実施形態によれば効率よく精度の良い輪郭画像が得られるため、輪郭画像を用いた製品検査の精度も向上するであろう。このように、フォトメトリックステレオ法にしたがって求められたワーク表面の形状値を濃淡値に変換するための基準レベルをユーザによって調整可能とすることで、ダイナミックレンジを有効に活用することが可能となる。たとえば、基準レベルを中間値(例:128)に設定してしまうと、濃淡値の範囲のうち一部が使用されず、ダイナミックレンジが有効に活用されないことがある。たとえば、0〜87までの濃淡値が存在しないような形状画像ではその範囲が無駄となってしまう。このよう場合には、形状画像における最小値である88に基準レベルを設定することで、0〜87までの形状値は削除され(0〜87までの傾きはいずれも最小の濃淡値で表現される)、0〜255までの範囲を実際に存在する形状値に対応付けることが可能となる。よって、ダイナミックレンジが有効に活用される。
<Summary>
According to this embodiment, since the reference level adjustment unit 3101 is provided, the flat level (reference level) in the shape image indicating the surface shape of the inspection object can be adjusted. Further, according to the present embodiment, a contour image can be generated by applying the photometric stereo method. That is, it is possible to realize a contour image generation method that is not easily affected by a change in reflectance or specular reflection on the surface of the workpiece and that is light in computational load. In addition, according to the present embodiment, an accurate and accurate contour image can be obtained, so that the accuracy of product inspection using the contour image will be improved. As described above, by enabling the user to adjust the reference level for converting the shape value of the workpiece surface obtained according to the photometric stereo method into a gray value, the dynamic range can be effectively used. . For example, if the reference level is set to an intermediate value (for example, 128), a part of the gray value range is not used, and the dynamic range may not be used effectively. For example, in a shape image in which there are no gray values from 0 to 87, the range is wasted. In such a case, by setting the reference level to 88 which is the minimum value in the shape image, the shape values from 0 to 87 are deleted (the slopes from 0 to 87 are all expressed by the minimum gray value). It is possible to associate a range from 0 to 255 with a shape value that actually exists. Therefore, the dynamic range is effectively used.

基準レベルを調整するためのユーザインタフェースを表示部7に表示させてもよい。これによりユーザは容易に基準レベルを表示できるようになろう。なお、画像生成部3100は、基準レベルの調整に連動してリアルタイムで輪郭画像を生成し、表示部7にプレビュー表示させてもよい。これにより、ユーザは、基準レベルの調整量がどのように輪郭画像に反映されるかを視覚的に容易に把握できるようになる。よって、より正確に適切な基準レベルを発見しやすくなろう。   A user interface for adjusting the reference level may be displayed on the display unit 7. This will allow the user to easily display the reference level. Note that the image generation unit 3100 may generate a contour image in real time in conjunction with the adjustment of the reference level and display the preview image on the display unit 7. As a result, the user can easily visually grasp how the adjustment amount of the reference level is reflected in the contour image. Therefore, it will be easier to find an appropriate reference level more accurately.

図29(A)や図29(B)を用いて説明したように、凸形状の文字については凸部の輪郭が強調されるように基準レベルを調整することで、凸形状の文字の文字認識率が向上するであろう。たとえば、輪郭画像における画素値のとり得る範囲において最小値を基準レベルに設定することで凸部の輪郭を容易に強調できる。図29(C)や図29(D)を用いて説明したように、凹形状の文字については凹部の輪郭が強調されるように基準レベルを調整することで、凹形状の文字の文字認識率が向上するであろう。たとえば、輪郭画像における画素値のとり得る範囲において最大値を基準レベルに設定することで凹部の輪郭を容易に強調できる。   As described with reference to FIGS. 29A and 29B, for convex characters, character recognition of convex characters is performed by adjusting the reference level so that the contours of the convex portions are emphasized. The rate will improve. For example, the contour of the convex portion can be easily emphasized by setting the minimum value to the reference level in the range of pixel values that can be taken in the contour image. As described with reference to FIGS. 29C and 29D, the character recognition rate of the concave character is adjusted by adjusting the reference level so that the contour of the concave portion is emphasized for the concave character. Will improve. For example, the contour of the concave portion can be easily emphasized by setting the maximum value to the reference level within the possible range of the pixel value in the contour image.

なお、修正部3122はすでに完成している形状画像データを入力し、その基準レベルを調整して出力してもよい。これにより、過去に保存したデータを有効に活用できるであろう。   The correction unit 3122 may input already completed shape image data and adjust the reference level for output. As a result, data stored in the past can be used effectively.

輪郭画像は、上述した文字認識検査だけでなく、検査領域の動的な設定や傷検査、寸法計測など様々な外観検査において利用可能である。とりわけ、本実施形態によれば効率よくかつ精度よく輪郭画像を生成できるため、検査の効率や精度も向上しよう。   The contour image can be used not only for the character recognition inspection described above but also for various appearance inspections such as dynamic setting of an inspection area, flaw inspection, and dimension measurement. In particular, according to the present embodiment, the contour image can be generated efficiently and accurately, so that the inspection efficiency and accuracy will be improved.

本実施形態ではワークの外観を検査する外観検査装置を一例として説明したが、カメラ4に接続された画像処理装置において本実施形態の基準レベル調整機能や輪郭画像生成機能を搭載してもよい。   In the present embodiment, the appearance inspection apparatus for inspecting the appearance of the workpiece has been described as an example. However, the image processing apparatus connected to the camera 4 may be equipped with the reference level adjustment function and the contour image generation function of the present embodiment.

本実施形態ではフォトメトリックステレオ法を用いることを前提としたが、画像生成部3100は、非フォトメトリックステレオ法によって生成された画像データに対して事後的に基準レベルを調整して、輪郭画像を生成してもよい。フォトメトリックステレオ法による効果は得られなくなるものの、容易に基準レベルを調整して、輪郭画像を形成できるようになるであろう。   In the present embodiment, it is assumed that the photometric stereo method is used. However, the image generation unit 3100 adjusts the reference level afterwards for the image data generated by the non-photometric stereo method to obtain the contour image. It may be generated. Although the effect of the photometric stereo method cannot be obtained, it is possible to easily adjust the reference level and form a contour image.

1…ライン、2…ワーク、3…照明装置、4…カメラ、5…画像処理装置、6…入力部、7…表示部   DESCRIPTION OF SYMBOLS 1 ... Line, 2 ... Work, 3 ... Illuminating device, 4 ... Camera, 5 ... Image processing apparatus, 6 ... Input part, 7 ... Display part

Claims (19)

検査対象物をフォトメトリックステレオ法により撮像し、当該検査対象物の表面の法線ベクトルを求め、当該法線ベクトルに基づき当該検査対象物の表面の形状を示す形状値を求め、当該求められた形状値のうち凸部を示す形状値ついては、平坦であることを示す基準レベルよりも大きな画素値を割り当て、当該求められた形状値のうち凹部を示す形状値ついては前記基準レベルよりも小さな画素値を割り当てることで、形状画像を生成する画像生成手段と、
前記形状画像を用いて前記検査対象物の良否を判定する判定手段と
を有する検査装置であって、
前記基準レベルを調整する基準レベル調整手段をさらに有し、
前記画像生成手段は、前記基準レベル調整手段によって調整された基準レベルにしたがって前記形状画像を構成する各画素値を決定することを特徴とする検査装置。
The inspection object is imaged by the photometric stereo method, a normal vector of the surface of the inspection object is obtained, a shape value indicating the shape of the surface of the inspection object is obtained based on the normal vector, and the obtained Of the shape values, a pixel value larger than a reference level indicating flatness is assigned to the shape value indicating a convex portion, and among the obtained shape values, a pixel value smaller than the reference level is assigned to a shape value indicating a concave portion. Assigning the image generation means for generating the shape image,
An inspection apparatus having a determination unit that determines the quality of the inspection object using the shape image,
A reference level adjusting means for adjusting the reference level;
The inspection apparatus, wherein the image generation means determines each pixel value constituting the shape image according to a reference level adjusted by the reference level adjustment means.
前記基準レベル調整手段は、前記形状画像における前記検査対象物の輪郭が強調されるように前記基準レベルを調整することを特徴とする請求項1に記載の検査装置。   The inspection apparatus according to claim 1, wherein the reference level adjustment unit adjusts the reference level so that an outline of the inspection object in the shape image is emphasized. 検査対象物の表面の形状が平坦であることを示す画素値である基準レベルを調整する基準レベル調整手段と、
前記検査対象物をフォトメトリックステレオ法により撮像し、当該検査対象物の表面の法線ベクトルを求め、当該法線ベクトルに基づき当該検査対象物の表面の形状を示す形状値を求め、当該求められた形状値のうち凸部を示す形状値ついては前記基準レベル調整手段によって調整された基準レベルよりも大きな画素値を割り当て、当該求められた形状値のうち凹部を示す形状値ついては前記基準レベル調整手段によって調整された基準レベルよりも小さな画素値を割り当てることで、前記検査対象物の輪郭が強調された輪郭画像を生成する画像生成手段と、
前記輪郭画像を用いて前記検査対象物の良否を判定する判定手段と
を有することを特徴とする検査装置。
A reference level adjusting means for adjusting a reference level which is a pixel value indicating that the shape of the surface of the inspection object is flat;
The inspection object is imaged by a photometric stereo method, a normal vector of the surface of the inspection object is obtained, a shape value indicating the shape of the surface of the inspection object is obtained based on the normal vector, and the obtained value is obtained. Among the obtained shape values, a pixel value larger than the reference level adjusted by the reference level adjusting unit is assigned to the shape value indicating the convex portion, and the reference level adjusting unit is assigned to the shape value indicating the concave portion among the obtained shape values. Image generation means for generating a contour image in which the contour of the inspection object is emphasized by assigning a pixel value smaller than the reference level adjusted by
An inspection apparatus comprising: a determination unit that determines the quality of the inspection object using the contour image.
前記基準レベル調整手段が基準レベルを低下させたときに前記輪郭画像のコントラストを上昇させるコントラスト調整手段をさらに有することを特徴とする請求項3に記載の検査装置。   The inspection apparatus according to claim 3, further comprising a contrast adjusting unit that increases a contrast of the contour image when the reference level adjusting unit decreases the reference level. 前記輪郭画像を表示するとともに前記基準レベルを調整するためのユーザインタフェースを表示する表示手段と、
前記基準レベル調整手段は、前記ユーザインタフェースを通じて入力または指定された数値もしくはレベルに応じて前記基準レベルを調整することを特徴とすることを特徴とする請求項3または4に記載の検査装置。
Display means for displaying the contour image and displaying a user interface for adjusting the reference level;
The inspection apparatus according to claim 3, wherein the reference level adjustment unit adjusts the reference level according to a numerical value or level input or designated through the user interface.
前記画像生成手段は、前記検査対象物の輪郭のうち凸部の輪郭について強調して前記輪郭画像を生成することを特徴とする請求項3ないし5のいずれか1項に記載の検査装置。   The inspection apparatus according to claim 3, wherein the image generation unit generates the contour image by emphasizing a contour of a convex portion of the contour of the inspection object. 前記画像生成手段は、前記輪郭画像における画素値のとり得る範囲において最小値を基準レベルに設定することで前記凸部の輪郭について強調することを特徴とする請求項6に記載の検査装置。   The inspection apparatus according to claim 6, wherein the image generation unit emphasizes the contour of the convex portion by setting a minimum value as a reference level within a range of pixel values in the contour image. 前記画像生成手段は、前記検査対象物の輪郭のうち凹部の輪郭について強調して前記輪郭画像を生成することを特徴とする請求項3ないし5のいずれか1項に記載の検査装置。   6. The inspection apparatus according to claim 3, wherein the image generation unit generates the contour image by emphasizing a contour of a concave portion of the contour of the inspection object. 前記画像生成手段は、前記輪郭画像における画素値のとり得る範囲において最大値を基準レベルに設定することで前記凹部の輪郭について強調することを特徴とする請求項8に記載の検査装置。   The inspection apparatus according to claim 8, wherein the image generation unit emphasizes the contour of the concave portion by setting a maximum value as a reference level within a possible range of pixel values in the contour image. 前記画像生成手段は、
前記検査対象物をフォトメトリックステレオ法により撮像して、当該検査対象物の表面の傾きに応じた画素値を有する傾き画像を生成する複数の傾き画像生成手段と、
前記複数の傾き画像に基づき前記検査対象物の表面の形状に応じた画素値を有する形状画像を生成する形状画像生成手段と、
前記基準レベル調整手段によって調整された基準レベルに応じて前記形状画像の各画素値を修正することで、前記形状画像に含まれている前記検査対象物の輪郭を強調して当該検査対象物の輪郭画像を生成する輪郭画像生成手段と
を有することを特徴とする請求項3ないし9のいずれか1項に記載の検査装置。
The image generating means includes
A plurality of inclination image generation means for imaging the inspection object by a photometric stereo method and generating an inclination image having a pixel value corresponding to the inclination of the surface of the inspection object;
A shape image generating means for generating a shape image having a pixel value corresponding to the shape of the surface of the inspection object based on the plurality of tilt images;
By correcting each pixel value of the shape image in accordance with the reference level adjusted by the reference level adjusting means, the contour of the inspection object included in the shape image is emphasized and the inspection object 10. The inspection apparatus according to claim 3, further comprising contour image generation means for generating a contour image.
良品の輪郭画像に対して検査領域を設定する設定手段と、
前記良品の輪郭画像を用いてサーチ処理を実行して前記検査対象物の位置を判別する位置判別手段と、
前記検査対象物の位置に応じて前記検査対象物の輪郭画像に対する前記検査領域の位置を補正する位置補正手段と
を有することを特徴とする請求項3ないし10のいずれか1項に記載の検査装置。
Setting means for setting an inspection region for a non-defective contour image;
Position determining means for determining a position of the inspection object by performing a search process using the contour image of the non-defective product;
11. The inspection according to claim 3, further comprising: a position correcting unit that corrects a position of the inspection area with respect to a contour image of the inspection object according to a position of the inspection object. apparatus.
前記輪郭画像に対して文字認識処理を実行する文字認識手段をさらに有し、
前記判定手段は前記文字認識手段により得られた文字認識結果に基づいて前記検査対象物の良否を判定することを特徴とする請求項3ないし11のいずれか1項に記載の検査装置。
Character recognition means for executing character recognition processing on the contour image;
12. The inspection apparatus according to claim 3, wherein the determination unit determines whether the inspection object is good based on a character recognition result obtained by the character recognition unit.
前記輪郭画像を用いて前記検査対象物の輪郭における傷の有無を検査する傷検査手段をさらに有し、
前記判定手段は前記傷検査手段により得られた傷の検査結果に基づいて前記検査対象物の良否を判定することを特徴とする請求項3ないし12のいずれか1項に記載の検査装置。
Further comprising a wound inspection means for inspecting the presence or absence of a scratch on the contour of the inspection object using the contour image;
The inspection apparatus according to any one of claims 3 to 12, wherein the determination unit determines the quality of the inspection object based on the inspection result of the scratch obtained by the scratch inspection unit.
前記輪郭画像を用いて前記検査対象物の寸法を計測する寸法計測手段をさらに有し、
前記判定手段は前記寸法計測手段により得られた計測結果に基づいて前記検査対象物の良否を判定することを特徴とする請求項3ないし13のいずれか1項に記載の検査装置。
Further comprising dimension measuring means for measuring the dimension of the inspection object using the contour image;
14. The inspection apparatus according to claim 3, wherein the determination unit determines whether the inspection object is good based on a measurement result obtained by the dimension measurement unit.
前記検査対象物に対して少なくとも3つの照明方向から択一的に照明を実行する照明手段と、
前記照明手段による照明と同期して前記検査対象物を撮像して各照明方向ごとの輝度画像を生成する撮像手段とを有し、
前記画像生成手段は、前記各照明方向ごとの輝度画像において座標が一致している複数の画素の画素値に基づきその画素についての法線ベクトルを求め、当該法線ベクトルから傾きを求め、さらに当該傾きから形状値を求める
ことを特徴とする請求項3ないし14のいずれか1項に記載の検査装置。
Illuminating means for illuminating the inspection object alternatively from at least three illumination directions;
Imaging means for imaging the inspection object in synchronization with illumination by the illumination means and generating a luminance image for each illumination direction;
The image generation means obtains a normal vector for the pixel based on pixel values of a plurality of pixels whose coordinates match in the luminance image for each illumination direction, obtains an inclination from the normal vector, and further The inspection apparatus according to claim 3, wherein a shape value is obtained from an inclination.
検査対象物をフォトメトリックステレオ法により撮像し、当該検査対象物の表面の法線ベクトルを求め、当該法線ベクトルに基づき当該検査対象物の表面の形状を示す形状値を求め、当該求められた形状値のうち凸部を示す形状値ついては、平坦であることを示す基準レベルよりも大きな画素値を割り当て、当該求められた形状値のうち凹部を示す形状値ついては前記基準レベルよりも小さな画素値を割り当てることで、形状画像を生成する画像生成手段と、
前記基準レベルを調整する基準レベル調整手段とを有し、
前記画像生成手段は、前記基準レベル調整手段によって調整された基準レベルにしたがって前記形状画像を構成する各画素値を決定することを特徴とする画像処理装置。
The inspection object is imaged by the photometric stereo method, a normal vector of the surface of the inspection object is obtained, a shape value indicating the shape of the surface of the inspection object is obtained based on the normal vector, and the obtained Of the shape values, a pixel value larger than a reference level indicating flatness is assigned to the shape value indicating a convex portion, and among the obtained shape values, a pixel value smaller than the reference level is assigned to a shape value indicating a concave portion. Assigning the image generation means for generating the shape image,
Reference level adjusting means for adjusting the reference level;
The image processing apparatus, wherein the image generation means determines each pixel value constituting the shape image according to a reference level adjusted by the reference level adjustment means.
検査対象物に対して少なくとも3つの照明方向から択一的に照明を実行する照明手段と、
前記照明手段による照明と同期して前記検査対象物を撮像して各照明方向ごとの輝度画像を生成する撮像手段と、
形状が平坦であることを示す画素値である基準レベルを調整する基準レベル調整手段と、
前記各照明方向ごとの輝度画像において座標が一致している複数の画素の画素値に基づきその画素についての法線ベクトルを求め、当該法線ベクトルから前記検査対象物の表面の傾きに応じた複数の画素値を求め、前記基準レベル調整手段によって調整された基準レベルに応じて画素値を修正し、前記検査対象物の輪郭が強調された輪郭画像を生成する画像生成手段と、
前記輪郭画像を用いて前記検査対象物の良否を判定する判定手段と
を有することを特徴とする検査装置。
Illuminating means for illuminating the inspection object alternatively from at least three illumination directions;
Imaging means for imaging the inspection object in synchronization with illumination by the illumination means and generating a luminance image for each illumination direction;
A reference level adjusting means for adjusting a reference level which is a pixel value indicating that the shape is flat;
Based on the pixel values of a plurality of pixels whose coordinates match in the luminance image for each illumination direction, a normal vector for the pixel is obtained, and a plurality of in accordance with the inclination of the surface of the inspection object from the normal vector Image generation means for correcting the pixel value according to the reference level adjusted by the reference level adjustment means, and generating an outline image in which the outline of the inspection object is emphasized;
An inspection apparatus comprising: a determination unit that determines the quality of the inspection object using the contour image.
検査対象物の表面の形状が平坦であることを示す画素値である基準レベルを調整する基準レベル調整工程と、
前記検査対象物をフォトメトリックステレオ法により撮像し、当該検査対象物の表面の法線ベクトルを求め、当該法線ベクトルに基づき当該検査対象物の表面の形状を示す形状値を求め、当該求められた形状値のうち凸部を示す形状値ついては前記基準レベル調整工程で調整された基準レベルよりも大きな画素値を割り当て、当該求められた形状値のうち凹部を示す形状値ついては前記基準レベル調整工程で調整された基準レベルよりも小さな画素値を割り当てることで、前記検査対象物の輪郭が強調された輪郭画像を生成する画像生成工程と、
前記輪郭画像を用いて前記検査対象物の良否を判定する判定工程と
を有することを特徴とする検査方法。
A reference level adjustment step of adjusting a reference level that is a pixel value indicating that the shape of the surface of the inspection object is flat;
The inspection object is imaged by a photometric stereo method, a normal vector of the surface of the inspection object is obtained, a shape value indicating the shape of the surface of the inspection object is obtained based on the normal vector, and the obtained value is obtained. Of the obtained shape values, a pixel value larger than the reference level adjusted in the reference level adjustment step is assigned to the shape value indicating the convex portion, and among the obtained shape values, the reference level adjustment step is applied to the shape value indicating the concave portion. An image generation step of generating a contour image in which the contour of the inspection object is emphasized by assigning a pixel value smaller than the reference level adjusted in
And a determination step of determining the quality of the inspection object using the contour image.
検査対象物の表面の形状が平坦であることを示す画素値である基準レベルを調整する基準レベル調整工程と、
前記検査対象物をフォトメトリックステレオ法により撮像し、当該検査対象物の表面の法線ベクトルを求め、当該法線ベクトルに基づき当該検査対象物の表面の形状を示す形状値を求め、当該求められた形状値のうち凸部を示す形状値ついては前記基準レベル調整工程で調整された基準レベルよりも大きな画素値を割り当て、当該求められた形状値のうち凹部を示す形状値ついては前記基準レベル調整工程で調整された基準レベルよりも小さな画素値を割り当てることで、前記検査対象物の輪郭が強調された輪郭画像を生成する画像生成工程と、
前記輪郭画像を用いて前記検査対象物の良否を判定する判定工程と
をコンピュータに実行させることを特徴とするプログラム。
A reference level adjustment step of adjusting a reference level that is a pixel value indicating that the shape of the surface of the inspection object is flat;
The inspection object is imaged by a photometric stereo method, a normal vector of the surface of the inspection object is obtained, a shape value indicating the shape of the surface of the inspection object is obtained based on the normal vector, and the obtained value is obtained. Of the obtained shape values, a pixel value larger than the reference level adjusted in the reference level adjustment step is assigned to the shape value indicating the convex portion, and among the obtained shape values, the reference level adjustment step is applied to the shape value indicating the concave portion. An image generation step of generating a contour image in which the contour of the inspection object is emphasized by assigning a pixel value smaller than the reference level adjusted in
A program for causing a computer to execute a determination step of determining pass / fail of the inspection object using the contour image.
JP2014119105A 2014-06-09 2014-06-09 Inspection device, inspection method, and program Active JP6405124B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014119105A JP6405124B2 (en) 2014-06-09 2014-06-09 Inspection device, inspection method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014119105A JP6405124B2 (en) 2014-06-09 2014-06-09 Inspection device, inspection method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018174173A Division JP6585793B2 (en) 2018-09-18 2018-09-18 Inspection device, inspection method, and program

Publications (2)

Publication Number Publication Date
JP2015232482A true JP2015232482A (en) 2015-12-24
JP6405124B2 JP6405124B2 (en) 2018-10-17

Family

ID=54934013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014119105A Active JP6405124B2 (en) 2014-06-09 2014-06-09 Inspection device, inspection method, and program

Country Status (1)

Country Link
JP (1) JP6405124B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019510981A (en) * 2016-04-05 2019-04-18 フラマトムFramatome Method for detecting defects on surfaces by multidirectional illumination and related devices
JP2019109070A (en) * 2017-12-15 2019-07-04 オムロン株式会社 Image processing system, image processing program, and method for processing image
JP2019109071A (en) * 2017-12-15 2019-07-04 オムロン株式会社 Image processing system, image processing program, and method for processing image
JP2020026663A (en) * 2018-08-10 2020-02-20 オリンパス株式会社 Bar arrangement check device
JP2020032520A (en) * 2018-08-31 2020-03-05 ファナック株式会社 Detection system
JP2021047541A (en) * 2019-09-17 2021-03-25 株式会社キーエンス Optical information reading device

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007206797A (en) * 2006-01-31 2007-08-16 Omron Corp Image processing method and image processor
JP2010216838A (en) * 2009-03-13 2010-09-30 Omron Corp Image processing apparatus and method
JP2011141260A (en) * 2009-12-07 2011-07-21 Kobe Steel Ltd Device and method for inspecting tyre shape
JP2012021914A (en) * 2010-07-15 2012-02-02 Keyence Corp Image processing system and visual inspection method
JP2012021919A (en) * 2010-07-16 2012-02-02 Keyence Corp Image processing system, image processing method and computer program
US20120223937A1 (en) * 2011-03-04 2012-09-06 General Electric Company Method and device for displaying a three-dimensional view of the surface of a viewed object
JP2013174547A (en) * 2012-02-27 2013-09-05 Sharp Corp Stereo three-dimensional measuring instrument
JP2013186100A (en) * 2012-03-12 2013-09-19 Hitachi Ltd Shape inspection method and device
JP2013205202A (en) * 2012-03-28 2013-10-07 Azbil Corp Visual inspection apparatus for solder spike
JP2014500484A (en) * 2010-10-27 2014-01-09 コンパニー ゼネラール デ エタブリッスマン ミシュラン Method for pre-processing 3D image of tire surface using continuous B-spline deformation

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007206797A (en) * 2006-01-31 2007-08-16 Omron Corp Image processing method and image processor
JP2010216838A (en) * 2009-03-13 2010-09-30 Omron Corp Image processing apparatus and method
JP2011141260A (en) * 2009-12-07 2011-07-21 Kobe Steel Ltd Device and method for inspecting tyre shape
JP2012021914A (en) * 2010-07-15 2012-02-02 Keyence Corp Image processing system and visual inspection method
JP2012021919A (en) * 2010-07-16 2012-02-02 Keyence Corp Image processing system, image processing method and computer program
JP2014500484A (en) * 2010-10-27 2014-01-09 コンパニー ゼネラール デ エタブリッスマン ミシュラン Method for pre-processing 3D image of tire surface using continuous B-spline deformation
US20120223937A1 (en) * 2011-03-04 2012-09-06 General Electric Company Method and device for displaying a three-dimensional view of the surface of a viewed object
JP2012185160A (en) * 2011-03-04 2012-09-27 General Electric Co <Ge> Method and device for displaying three-dimensional view of surface of viewed object
JP2013174547A (en) * 2012-02-27 2013-09-05 Sharp Corp Stereo three-dimensional measuring instrument
JP2013186100A (en) * 2012-03-12 2013-09-19 Hitachi Ltd Shape inspection method and device
JP2013205202A (en) * 2012-03-28 2013-10-07 Azbil Corp Visual inspection apparatus for solder spike

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019510981A (en) * 2016-04-05 2019-04-18 フラマトムFramatome Method for detecting defects on surfaces by multidirectional illumination and related devices
JP7078543B2 (en) 2016-04-05 2022-05-31 フラマトム Methods for detecting surface defects with multi-directional lighting and related devices
JP2019109070A (en) * 2017-12-15 2019-07-04 オムロン株式会社 Image processing system, image processing program, and method for processing image
JP2019109071A (en) * 2017-12-15 2019-07-04 オムロン株式会社 Image processing system, image processing program, and method for processing image
JP7056131B2 (en) 2017-12-15 2022-04-19 オムロン株式会社 Image processing system, image processing program, and image processing method
JP2020026663A (en) * 2018-08-10 2020-02-20 オリンパス株式会社 Bar arrangement check device
JP2020032520A (en) * 2018-08-31 2020-03-05 ファナック株式会社 Detection system
US11141864B2 (en) 2018-08-31 2021-10-12 Fanuc Corporation Detection system
JP2021047541A (en) * 2019-09-17 2021-03-25 株式会社キーエンス Optical information reading device
JP7306930B2 (en) 2019-09-17 2023-07-11 株式会社キーエンス Optical information reader

Also Published As

Publication number Publication date
JP6405124B2 (en) 2018-10-17

Similar Documents

Publication Publication Date Title
US10489900B2 (en) Inspection apparatus, inspection method, and program
JP6290720B2 (en) Inspection device, inspection method, and program
US10241056B2 (en) Inspection apparatus, inspection method, and program
JP6405124B2 (en) Inspection device, inspection method, and program
JP2017096750A (en) Positioning method, positioning apparatus, program and computer readable recording medium
JP6278842B2 (en) Inspection device, inspection method, and program
JP6585793B2 (en) Inspection device, inspection method, and program
JP5342413B2 (en) Image processing method
JP7214432B2 (en) Image processing method, image processing program, recording medium, image processing apparatus, production system, article manufacturing method
JP2015173344A (en) object recognition device
JP2014035196A (en) Shape measurement apparatus
JP6620215B2 (en) Inspection device
JP6395455B2 (en) Inspection device, inspection method, and program
JP2015232480A (en) Inspection device
JP6864722B2 (en) Inspection equipment, inspection methods and programs
EP3062516B1 (en) Parallax image generation system, picking system, parallax image generation method, and computer-readable recording medium
JP6825067B2 (en) Inspection equipment and its control method
JP6184339B2 (en) Appearance inspection apparatus, appearance inspection method, and program
JP2004240909A (en) Image processor and image processing method
US11436754B2 (en) Position posture identification device, position posture identification method and position posture identification program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180914

R150 Certificate of patent or registration of utility model

Ref document number: 6405124

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250