JP2014081218A - Exterior appearance inspection device - Google Patents

Exterior appearance inspection device Download PDF

Info

Publication number
JP2014081218A
JP2014081218A JP2012227429A JP2012227429A JP2014081218A JP 2014081218 A JP2014081218 A JP 2014081218A JP 2012227429 A JP2012227429 A JP 2012227429A JP 2012227429 A JP2012227429 A JP 2012227429A JP 2014081218 A JP2014081218 A JP 2014081218A
Authority
JP
Japan
Prior art keywords
image
area
light
points
luminance value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012227429A
Other languages
Japanese (ja)
Other versions
JP6108751B2 (en
Inventor
Hiroshi Matsuo
啓史 松尾
Keiji Nakagawa
啓二 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Elemex Corp
Original Assignee
Ricoh Elemex Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Elemex Corp filed Critical Ricoh Elemex Corp
Priority to JP2012227429A priority Critical patent/JP6108751B2/en
Publication of JP2014081218A publication Critical patent/JP2014081218A/en
Application granted granted Critical
Publication of JP6108751B2 publication Critical patent/JP6108751B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain an exterior appearance inspection device that can generate a pseudo image corresponding to a part having linear light interrupted even when, for one example, an optical cutting method generates the part.SOLUTION: The exterior appearance inspection device according to an embodiment comprises: an imaging section that photographs a linear light image formed in an inspection object area of a linear inspection object surface by being lightened with sheet-like light from a direction crossing the sheet-like light; an image generation section that determines a luminance value at each point in accordance with a deviation from a reference line of the image of the light corresponding to a plurality of points in the inspection object area, and generates a two-dimensional pseudo image; and a display control section that controls a display section such that the pseudo image is displayed. The image generation section interpolates a luminance value of the point where the light image is not obtained from the luminance value of the plurality of points where the light image is obtained or the deviation therefrom, and determines the luminance value thereof.

Description

本発明は、外観検査装置に関する。   The present invention relates to an appearance inspection apparatus.

従来、所謂光切断法によって、検査対象面の三次元形状に対応した画像を得ることが可能な外観検査装置が知られている(例えば、特許文献1)。この種の外観検査装置では、検査対象面に照射された線状の光の位置や形状に基づいて検査対象領域の各位置での高さが算出され、さらに当該高さに応じた各位置での輝度値が設定されて二次元の疑似画像が生成される場合がある。   Conventionally, an appearance inspection apparatus capable of obtaining an image corresponding to a three-dimensional shape of a surface to be inspected by a so-called light cutting method is known (for example, Patent Document 1). In this type of visual inspection apparatus, the height at each position of the inspection target region is calculated based on the position and shape of the linear light irradiated on the inspection target surface, and further at each position corresponding to the height. May be set to generate a two-dimensional pseudo image.

特開2011−141260号公報JP 2011-141260 A

しかしながら、この種の外観検査装置では、検査対象面の凹凸形状によっては、当該凹凸形状によって撮影範囲に死角が生じ、線状の光が部分的に途切れる場合がある。光が途切れた部分では、検査対象面の凹凸を判別できない上、疑似画像中にも輝度値の無い領域が生じてしまう。光が途切れた部分も考慮して画像処理を行う場合、判定によって分岐させる必要が生じるなど、処理が複雑化し、またそのための計算時間も増加する場合があった。   However, in this type of appearance inspection apparatus, depending on the uneven shape of the surface to be inspected, the uneven shape may cause a blind spot in the imaging range, and linear light may be partially interrupted. In the portion where the light is interrupted, the unevenness of the surface to be inspected cannot be discriminated, and an area having no luminance value is generated in the pseudo image. When image processing is performed in consideration of a portion where light is interrupted, the processing becomes complicated, such as the necessity of branching depending on determination, and the calculation time for the processing may increase.

そこで、本発明の実施形態は、一例としては、光切断法で線状の光が途切れた部分が生じた場合にあっても当該部分に対応した疑似画像を生成することが可能な外観検査装置を得ることを目的の一つとする。   Therefore, as an example, the embodiment of the present invention is an appearance inspection apparatus capable of generating a pseudo image corresponding to a portion where linear light is interrupted by a light cutting method. Is one of the purposes.

本発明の実施形態にかかる外観検査装置にあっては、実施形態にかかる外観検査装置にあっては、ライトシートに照らされることで検査対象面の線状の検査対象領域に形成された線状の光の画像を、ライトシートと交叉した方向から撮像する撮像部と、検査対象領域の複数の点に対応した光の画像の基準線からのずれに応じて各点での輝度値を決定して二次元の疑似画像を生成する画像生成部と、疑似画像が表示されるよう表示部を制御する表示制御部と、を備え、画像生成部は、光の画像が得られなかった点の輝度値を、光の画像が得られた複数の点の輝度値またはずれから補間して決定する。   In the appearance inspection apparatus according to the embodiment of the present invention, in the appearance inspection apparatus according to the embodiment, the linear shape formed in the linear inspection target region of the inspection target surface by being illuminated by the light sheet. The brightness value at each point is determined in accordance with the imaging unit that captures the image of the light from the direction intersecting the light sheet and the deviation from the reference line of the light image corresponding to the plurality of points in the inspection target area. An image generation unit that generates a two-dimensional pseudo image, and a display control unit that controls the display unit so that the pseudo image is displayed. The value is determined by interpolating from the luminance values or deviations of a plurality of points where the light image is obtained.

本発明の実施形態によれば、一例としては、線状の光が途切れた部分が生じた場合にあっても当該部分に対応した疑似画像を生成することが可能な外観検査装置を得ることができる。   According to the embodiment of the present invention, as an example, it is possible to obtain an appearance inspection apparatus that can generate a pseudo image corresponding to a portion where linear light is interrupted. it can.

図1は、実施形態にかかる外観検査装置の一例が示された模式的な斜視図である。FIG. 1 is a schematic perspective view illustrating an example of an appearance inspection apparatus according to an embodiment. 図2は、実施形態にかかる外観検査装置で得られた検査対象領域に当てられた線状の光の一例が示された模式的な平面図である。FIG. 2 is a schematic plan view illustrating an example of linear light applied to an inspection target area obtained by the appearance inspection apparatus according to the embodiment. 図3は、実施形態にかかる外観検査装置の一例が示された模式的なブロック図である。FIG. 3 is a schematic block diagram illustrating an example of an appearance inspection apparatus according to the embodiment. 図4は、実施形態にかかる外観検査装置の制御部の一例が示された模式的なブロック図である。FIG. 4 is a schematic block diagram illustrating an example of a control unit of the appearance inspection apparatus according to the embodiment. 図5は、実施形態にかかる外観検査装置による検査方法の一例が示されたフローチャートである。FIG. 5 is a flowchart illustrating an example of an inspection method performed by the appearance inspection apparatus according to the embodiment. 図6は、図5のステップS5の詳細の一例が示されたフローチャートである。FIG. 6 is a flowchart showing an example of details of step S5 of FIG. 図7は、実施形態にかかる外観検査装置で得られた疑似画像であって、線状の光が途切れた部分の画像が補間され、かつ検出された異常が示された疑似画像の一例が示された図である。FIG. 7 is an example of a pseudo image obtained by the appearance inspection apparatus according to the embodiment, in which an image of a portion where the linear light is interrupted is interpolated and the detected abnormality is shown. FIG. 図8は、実施形態にかかる外観検査装置で得られた疑似画像であって、線状の光が途切れた部分の画像が無く、かつ検出された異常が示された疑似画像の一例が示された図である。FIG. 8 is a pseudo image obtained by the visual inspection apparatus according to the embodiment, and shows an example of a pseudo image in which there is no image of a portion where the linear light is interrupted and the detected abnormality is shown. It is a figure. 図9は、実施形態にかかる外観検査装置で得られた光の画像の一例が示された図である。FIG. 9 is a diagram illustrating an example of a light image obtained by the appearance inspection apparatus according to the embodiment. 図10は、実施形態にかかる外観検査装置で得られた疑似画像の部分的な拡大図であって、不検出領域の一例が示された模式図である。FIG. 10 is a partial enlarged view of a pseudo image obtained by the appearance inspection apparatus according to the embodiment, and is a schematic diagram illustrating an example of a non-detection region. 図11は、実施形態にかかる外観検査装置で得られた疑似画像の部分的な拡大図であって、不検出領域およびその周囲領域の一例が示された模式図である。FIG. 11 is a partial enlarged view of a pseudo image obtained by the appearance inspection apparatus according to the embodiment, and is a schematic diagram illustrating an example of a non-detection region and its surrounding region. 図12は、実施形態にかかる外観検査装置で得られた疑似画像の部分的な拡大図であって、不検出領域およびその周囲領域の第一の領域および第二の領域の一例が示された模式図である。FIG. 12 is a partial enlarged view of the pseudo image obtained by the appearance inspection apparatus according to the embodiment, and shows an example of the first area and the second area of the non-detection area and its surrounding area. It is a schematic diagram. 図13は、実施形態にかかる外観検査装置で得られた疑似画像の部分的な拡大図であって、不検出領域およびその周囲領域の第一の領域および第二の領域の重心ならびに周囲領域に外接した参照形状の一例が示された模式図である。FIG. 13 is a partially enlarged view of the pseudo image obtained by the appearance inspection apparatus according to the embodiment, and shows the first detection area and the center of the second area and the center of gravity of the second area and the surrounding area. It is the schematic diagram by which an example of the circumscribed reference shape was shown. 図14は、実施形態にかかる外観検査装置で得られた疑似画像の部分的な拡大図であって、不検出領域およびその周囲領域の第一の領域および第二の領域を代表する第一の位置および第二の位置の一例が示された模式図である。FIG. 14 is a partial enlarged view of a pseudo image obtained by the appearance inspection apparatus according to the embodiment, and is a first representative of the first area and the second area of the non-detection area and its surrounding area. It is the schematic diagram by which an example of the position and the 2nd position was shown. 図15は、実施形態にかかる外観検査装置で得られた疑似画像の部分的な拡大図であって、不検出領域が補間された一例が示された模式図である。FIG. 15 is a partial enlarged view of a pseudo image obtained by the appearance inspection apparatus according to the embodiment, and is a schematic diagram illustrating an example in which a non-detection region is interpolated.

本実施形態では、一例として、図1〜4に示される外観検査装置1は、検査対象物100を撮像した画像に基づいて、当該検査対象物100の検査対象面101の検査を行う。図3に示されるように、外観検査装置1は、光源2や、撮像部3、制御部40、搬送装置5(搬送部)、表示装置6(表示部)等を備える。   In the present embodiment, as an example, the appearance inspection apparatus 1 illustrated in FIGS. 1 to 4 inspects the inspection target surface 101 of the inspection target 100 based on an image obtained by imaging the inspection target 100. As shown in FIG. 3, the appearance inspection apparatus 1 includes a light source 2, an imaging unit 3, a control unit 40, a conveyance device 5 (conveyance unit), a display device 6 (display unit), and the like.

図1,2に示されるように、光源2は、ライトシート(シート状の光、平坦なカーテン状の光、スリット光)を出射し、検査対象面101に線状の光Lを照射する。光源2は、例えば、輝線照射用のレーザ光源等である。撮像部3は、ライトシートと交叉する方向から検査対象領域Aを含む検査対象面101上の二次元領域を撮像する。   As shown in FIGS. 1 and 2, the light source 2 emits a light sheet (sheet-like light, flat curtain-like light, slit light), and irradiates the inspection target surface 101 with linear light L. The light source 2 is, for example, a laser light source for emitting bright lines. The imaging unit 3 images a two-dimensional area on the inspection target surface 101 including the inspection target area A from the direction intersecting with the light sheet.

本実施形態では、一例として、図1に示されるように、光源2は、検査対象面101の法線方向(図1中のZ方向)と線状の光L(検査対象領域A)の幅方向(図1,2中のY方向)との間の斜め方向(斜め上方向)から、線状の検査対象領域Aを照らしている。検査対象面101が平面であった場合、検査対象面101上の光L(輝線)は直線状である。しかしながら、検査対象面101が凸部を有していた場合、検査対象面101が平面であった場合の光Lを基準線R(直線、基準位置)とすると、当該凸部に当たった光Lは、基準線Rから光源2側(光源2に近い側)にずれる。また、逆に、検査対象面101が凹部を有していた場合、当該凹部に当たった光Lは、基準線Rから光源2とは反対側(光源2から遠い側)にずれる。すなわち、光Lの位置(形状、基準線Rからのずれ)によって、検査対象面101の凹凸ならびに当該凹凸の程度(凸部の高さ、凹部の深さ、法線方向における位置)を判別することができる。なお、ライトシートの出射方向ならびに撮像部3による撮像方向は、種々に設定することが可能である。   In the present embodiment, as an example, as illustrated in FIG. 1, the light source 2 is configured such that the normal direction (Z direction in FIG. 1) of the inspection target surface 101 and the width of the linear light L (inspection target area A). The linear inspection object region A is illuminated from an oblique direction (obliquely upward direction) between directions (Y direction in FIGS. 1 and 2). When the inspection target surface 101 is a flat surface, the light L (bright line) on the inspection target surface 101 is linear. However, if the inspection target surface 101 has a convex portion, and the light L when the inspection target surface 101 is a flat surface is defined as a reference line R (straight line, reference position), the light L that has hit the convex portion. Is shifted from the reference line R to the light source 2 side (side closer to the light source 2). On the other hand, when the inspection target surface 101 has a recess, the light L hitting the recess shifts from the reference line R to the side opposite to the light source 2 (the side far from the light source 2). That is, the unevenness of the inspection target surface 101 and the degree of the unevenness (the height of the convex part, the depth of the concave part, and the position in the normal direction) are determined based on the position of the light L (shape, deviation from the reference line R). be able to. The light sheet emission direction and the imaging direction of the imaging unit 3 can be set in various ways.

撮像部3は、検査対象面101の上方(本実施形態では、一例として法線方向に離れた位置)から、少なくとも検査対象領域Aにおける光Lの画像を撮像する。撮像部3は、例えば、二次元に配列された光電変換素子(光電変換部)を有したエリアセンサ(固体撮像素子、例えば、CCD(charge coupled device)イメージセンサや、CMOS(complementary metal oxide semiconductor)イメージセンサ等)である。   The imaging unit 3 captures at least an image of the light L in the inspection target area A from above the inspection target surface 101 (in this embodiment, a position separated in the normal direction as an example). The imaging unit 3 includes, for example, an area sensor (a solid-state imaging device, for example, a charge coupled device (CCD) image sensor, a complementary metal oxide semiconductor (CMOS)) having two-dimensionally arranged photoelectric conversion elements (photoelectric conversion units). Image sensor).

搬送装置5は、検査対象物100を光L(検査対象領域A)の幅方向(検査対象物100の長手方向、図1,2中のX方向)に搬送し、検査対象面101における検査対象領域Aを移動させる。なお、検査対象物100が固定され、光源2や撮像部3等が検査対象面101に沿って移動する構成(搬送装置5によって動かされる構成)であってもよい。   The transport device 5 transports the inspection object 100 in the width direction of the light L (inspection object area A) (longitudinal direction of the inspection object 100, the X direction in FIGS. 1 and 2), and the inspection object on the inspection object surface 101. Move area A. Note that the inspection object 100 may be fixed, and the light source 2, the imaging unit 3, and the like may move along the inspection object surface 101 (a structure that is moved by the transport device 5).

また、外観検査装置1は、図3に示されるように、制御部40(例えばCPU(central processing unit)等)や、ROM41(read only memory)、RAM42(random access memory)、SSD43(solid state drive)、光照射コントローラ44、撮像コントローラ45、搬送コントローラ46、表示コントローラ47等を備えることができる。光照射コントローラ44は、制御部40からの制御信号に基づいて、光源2の発光(オン、オフ)等を制御する。撮像コントローラ45は、制御部40からの制御信号に基づいて、撮像部3による撮像を制御する。搬送コントローラ46は、制御部40から受けた制御信号に基づいて、搬送装置5を制御し、検査対象物100の搬送(開始、停止、速度等)を制御する。表示コントローラ47は、制御部40からの制御信号に基づいて、表示装置6を制御する。また、制御部40は、不揮発性の記憶部としてのROM41やSSD43等にインストールされたプログラム(アプリケーション)を読み出して実行する。RAM42は、制御部40がプログラムを実行して種々の演算処理を実行する際に用いられる各種データを一時的に記憶する。なお、図3に示されるハードウエアの構成はあくまで一例であって、例えばチップやパッケージにする等、種々に変形して実施することが可能である。また、各種演算処理は、並列処理することが可能であり、制御部40等は、並列処理が可能なハードウエア構成とすることが可能である。   As shown in FIG. 3, the appearance inspection apparatus 1 includes a control unit 40 (for example, a CPU (central processing unit)), a ROM 41 (read only memory), a RAM 42 (random access memory), an SSD 43 (solid state drive). ), A light irradiation controller 44, an imaging controller 45, a transport controller 46, a display controller 47, and the like. The light irradiation controller 44 controls light emission (ON, OFF) of the light source 2 based on a control signal from the control unit 40. The imaging controller 45 controls imaging by the imaging unit 3 based on a control signal from the control unit 40. The transport controller 46 controls the transport device 5 based on the control signal received from the control unit 40 and controls the transport (start, stop, speed, etc.) of the inspection object 100. The display controller 47 controls the display device 6 based on a control signal from the control unit 40. The control unit 40 reads and executes a program (application) installed in the ROM 41, the SSD 43, or the like as a nonvolatile storage unit. The RAM 42 temporarily stores various data used when the control unit 40 executes programs and executes various arithmetic processes. Note that the hardware configuration shown in FIG. 3 is merely an example, and can be implemented with various modifications such as a chip or a package. Various arithmetic processes can be performed in parallel, and the control unit 40 and the like can have a hardware configuration capable of parallel processing.

また、本実施形態では、一例として、制御部40は、ハードウエアとソフトウエア(プログラム)との協働によって、外観検査装置1の少なくとも一部として機能(動作)する。すなわち、図4に示されるように、制御部40は、光照射制御部40aや、撮像制御部40b、搬送制御部40c、画像処理部40d、表示制御部40e等として機能する。光照射制御部40aは、光照射コントローラ44を制御する。撮像制御部40bは、撮像コントローラ45を制御する。搬送制御部40cは、搬送コントローラ46を制御する。画像処理部40dは、撮像部3が取得した画像データを画像処理する。表示制御部40eは、表示装置6(例えば、LCD(liquid crystal display)、OELD(organic electroluminescent display)等)を制御する。   In the present embodiment, as an example, the control unit 40 functions (operates) as at least a part of the appearance inspection apparatus 1 in cooperation with hardware and software (program). That is, as shown in FIG. 4, the control unit 40 functions as a light irradiation control unit 40a, an imaging control unit 40b, a conveyance control unit 40c, an image processing unit 40d, a display control unit 40e, and the like. The light irradiation control unit 40 a controls the light irradiation controller 44. The imaging control unit 40b controls the imaging controller 45. The conveyance control unit 40 c controls the conveyance controller 46. The image processing unit 40d performs image processing on the image data acquired by the imaging unit 3. The display control unit 40e controls the display device 6 (for example, LCD (liquid crystal display), OELD (organic electroluminescent display), etc.).

ここで、本実施形態では、一例として、画像処理部40dは、複数の検査対象領域Aの各点(検査対象領域Aの長手方向の各点)に対応した光Lの画像の基準線R(基準位置)からのずれに応じて、当該各点での輝度値を決定することにより、二次元の疑似画像Imv(図10等参照)を生成する。画像処理部40dは、一例として、各位置での基準線Rから光源2に近い側(図1の左上側)へのずれが大きいほど輝度値を高く設定し(画素を明るくし)、光源2から遠い側の遠い側(図1の右下側)へのずれが大きいほど輝度値を低く設定する(画素を暗くする)。これにより、疑似画像Imvは、検査対象領域Aの二次元の外観に近い画像となる。画像処理部40dは、疑似画像Imvを生成する画像生成部の一例である。表示制御部40eは、疑似画像Imvが表示されるよう、表示装置6を制御することができる。疑似画像Imvは、検査対象面101の凹凸の状態(大きさや、位置等)を視覚的に判断しやすいという利点を有している。   Here, in the present embodiment, as an example, the image processing unit 40d uses the reference line R (image L) of the light L corresponding to each point of each of the plurality of inspection target areas A (each point in the longitudinal direction of the inspection target area A). A two-dimensional pseudo image Imv (see FIG. 10 and the like) is generated by determining the luminance value at each point in accordance with the deviation from the reference position. For example, the image processing unit 40d sets the luminance value higher (brightens the pixel) as the deviation from the reference line R at each position toward the side closer to the light source 2 (upper left side in FIG. 1) increases (the pixel becomes brighter). The luminance value is set lower (the pixel is darkened) as the shift from the far side to the far side (lower right side in FIG. 1) increases. Thereby, the pseudo image Imv becomes an image close to the two-dimensional appearance of the inspection target region A. The image processing unit 40d is an example of an image generation unit that generates the pseudo image Imv. The display control unit 40e can control the display device 6 so that the pseudo image Imv is displayed. The pseudo image Imv has an advantage that it is easy to visually determine the unevenness state (size, position, etc.) of the inspection target surface 101.

また、本実施形態では、一例として、画像処理部40dは、複数の検査対象領域Aにおける線状の光Lの位置(形状、ずれ)の変化(二次元的な変化)、あるいは、二次元の疑似画像Imvの輝度値の変化等に基づいて、検査対象面101の異常を判別する。一例として、画像処理部40dは、基準線Rからのずれもしくは輝度値が所定値(ずれもしくは輝度値の閾値)と同じかあるいはより大きい画素が、所定数(画素数あるいは面積の閾値)と同じかあるいはより多く集まっていた場合、検査対象面101に凸状の異常が存在すると決定することができる。また、一例として、画像処理部40dは、基準線Rからのずれもしくは輝度値が所定値(ずれあるいは輝度値の閾値)と同じかあるいはより小さい画素が、所定数(画素数あるいは面積の閾値)と同じかあるいはより多く集まっていた場合、検査対象面101に凹状の異常が存在すると決定することができる。すなわち、画像処理部40dは、異常領域決定部の一例である。   In the present embodiment, as an example, the image processing unit 40d changes the position (shape, displacement) of the linear light L in the plurality of inspection target areas A (two-dimensional change) or two-dimensional. Abnormality of the inspection target surface 101 is determined based on a change in luminance value of the pseudo image Imv. As an example, the image processing unit 40d has the same or larger number of pixels whose deviation or luminance value from the reference line R is equal to or larger than a predetermined value (deviation or luminance value threshold) as the predetermined number (pixel number or area threshold). In the case where the inspection target surface 101 has a convex abnormality, it can be determined that there is a convex abnormality. Further, as an example, the image processing unit 40d has a predetermined number of pixels (threshold value or area threshold value) where the deviation from the reference line R or the luminance value is the same as or smaller than a predetermined value (deviation or threshold value of luminance value). Can be determined that there is a concave abnormality on the inspection target surface 101. That is, the image processing unit 40d is an example of an abnormal area determination unit.

上記構成では、検査対象面101(検査対象領域A)に急峻な凹凸形状(段差)があるような場合には、図9に示されるように、検査対象面101上に、線状の光Lが途切れた部分(不検出領域AL、欠落部分、欠落領域)が生じることがある。当該途切れた部分(不検出領域AL)は、一例としては、凹凸形状(段差)により光Lの影が生じた部分である。このような場合、当該途切れた部分については、凹凸を判別できない上、疑似画像Imv中にも画像の無い領域が生じてしまう(図10参照)。そこで、本実施形態では、一例として、画像処理部40dは、線状の光Lの画像が得られなかった点の輝度値を、光Lの画像が得られた複数の点の輝度値から補間して決定し、疑似画像Imv中に、画像が無い(輝度値が0の)領域が無いように処理(補間処理、穴埋め処理)することができる。なお、画像処理部40dは、このような補間処理を、光Lの画像が得られない全ての点(の集まり、集合、領域)について行う必要は無く、一例としては、異常では無いと判断(決定)された点(の集まり、集合、領域)についてのみ、行うことができる。この場合、疑似画像Imvにおける異常が生じた部分(領域)の視覚的な誤認が抑制されやすい。   In the above configuration, when the inspection target surface 101 (inspection target region A) has a steep concavo-convex shape (step), the linear light L on the inspection target surface 101 as shown in FIG. May occur (non-detection area AL, missing part, missing area). The interrupted portion (non-detection area AL) is, for example, a portion where the shadow of the light L is generated due to the uneven shape (step). In such a case, with respect to the interrupted portion, the unevenness cannot be discriminated, and an area without an image also appears in the pseudo image Imv (see FIG. 10). Therefore, in the present embodiment, as an example, the image processing unit 40d interpolates the luminance value of the point where the linear light L image is not obtained from the luminance values of the plurality of points where the light L image is obtained. Thus, the pseudo image Imv can be processed (interpolation processing, hole filling processing) so that there is no area where there is no image (luminance value is 0). Note that the image processing unit 40d does not need to perform such interpolation processing for all points (collection, set, region) where the image of the light L is not obtained, and as an example, determines that there is no abnormality ( This can be done only for the points (sets, sets, regions) that have been determined. In this case, it is easy to suppress visual misidentification of a portion (region) where an abnormality has occurred in the pseudo image Imv.

具体的には、図5に示されるように、制御部40は、まず、画像処理部40d(画像生成部)として機能し、複数の検査対象領域Aの各点(画素)についての基準線R(基準位置)に対する光Lの位置(ずれ)から、当該各点の輝度値を決定し、二次元の疑似画像Imvを生成する(ステップS1)。このステップS1で、画像処理部40dは、一例として、各点の輝度値を、ずれの大きさに応じて線形的に決定することができる。   Specifically, as illustrated in FIG. 5, the control unit 40 first functions as an image processing unit 40 d (image generation unit), and a reference line R for each point (pixel) in the plurality of inspection target areas A. From the position (shift) of the light L with respect to (reference position), the luminance value of each point is determined, and a two-dimensional pseudo image Imv is generated (step S1). In step S1, the image processing unit 40d can linearly determine the luminance value of each point according to the magnitude of the deviation, for example.

次に、制御部40は、画像処理部40d(第一の異常領域決定部)として機能し、輝度値が所定値(輝度値の閾値)と同じかあるいはより大きい画素が、所定数(画素数の閾値)と同じかあるいはより多く集まっていた場合、あるいは、基準線Rからのずれもしくは輝度値が所定値(輝度値の閾値)と同じかあるいはより小さい画素が、所定数(画素数の閾値)と同じかあるいはより多く集まっていた場合に、当該点が集まった領域を、異常領域AU(図7,8参照)と決定する(ステップS2)。   Next, the control unit 40 functions as an image processing unit 40d (first abnormal region determination unit), and the number of pixels whose luminance value is equal to or larger than a predetermined value (luminance value threshold) is a predetermined number (number of pixels). Or a larger number of pixels having a deviation from the reference line R or a luminance value equal to or smaller than a predetermined value (luminance value threshold). ) Or a larger number, the area where the points have gathered is determined as an abnormal area AU (see FIGS. 7 and 8) (step S2).

次に、制御部40は、画像処理部40d(前処理部)として機能し、対応する光Lの画像のデータが得られなかった点についてグルーピング(グループ化)やラベリング(グループの区別)等を行う(ステップS3)。このステップS3により、対応する光Lの画像のデータが得られなかった点が集まった領域(不検出領域AL)が得られる。次に、制御部40は、画像処理部40dとして機能し、不検出領域ALの大きさ(画素の集まり(集合)の数、面積)が所定値(画素数あるいは面積の閾値)を超えない場合(ステップS4でNo)には、当該不検出領域AL内の各点での輝度値を、光Lの画像のデータが得られた複数の点での輝度値から補間して決定する(ステップS5)。   Next, the control unit 40 functions as an image processing unit 40d (pre-processing unit), and performs grouping (grouping), labeling (group distinction), and the like on points where the corresponding light L image data is not obtained. Perform (step S3). By this step S3, an area (non-detection area AL) where points where the corresponding image data of the light L cannot be obtained is obtained. Next, the control unit 40 functions as the image processing unit 40d, and the size of the non-detection area AL (number of pixels (set), area) does not exceed a predetermined value (pixel count or area threshold). In (No in step S4), the luminance value at each point in the non-detection area AL is determined by interpolation from the luminance values at a plurality of points from which the image data of the light L is obtained (step S5). ).

一方、不検出領域ALの大きさが所定値(画素数あるいは面積の閾値)と同じかあるいは超えた場合(ステップS4でYes)には、制御部40は、画像処理部40d(第二の異常領域決定部)として機能し、対応する光Lの画像のデータが得られなかった点が集まった当該領域(不検出領域AL)を、異常領域AUとして決定する(ステップS6)。なお、ステップS2での閾値とステップS6での閾値は同じ値であってもよいし、異なる値であってもよい。   On the other hand, when the size of the non-detection area AL is equal to or exceeds a predetermined value (pixel count or area threshold) (Yes in step S4), the control unit 40 sets the image processing unit 40d (second abnormality). The region (non-detection region AL) that functions as the region determination unit and where the data of the corresponding image of the light L cannot be obtained is determined as the abnormal region AU (step S6). The threshold value in step S2 and the threshold value in step S6 may be the same value or different values.

次いで、制御部40は、表示制御部40eとして機能し、ステップS1で得られた不検出領域AL以外の各点での輝度値(疑似画像)と、ステップS5で得られた不検出領域AL内の各点での輝度値(疑似画像、補間画像、補間された輝度値)と、ステップS2およびステップS4で得られた異常領域AUを示す画像(例えば、所定の色で着色された領域、指標等)と、を含む画像(例えば、図7)が表示されるよう、表示コントローラ47ひいては表示装置6を制御することができる(ステップS7)。なお、表示制御部40eは、入力部(例えば、キーボード等、図示されず)からの指示入力に応じて、ステップS5で補間された輝度値が算出される不検出領域ALについては、補間された輝度値が表示装置6に表示された状態(図7)と、輝度値(疑似画像)が得られないことがわかるように表示された状態(一例としては、当該領域の輝度値を0として表示された状態、例えば、図8)とを切り替えることができる。すなわち、表示制御部40eは、表示装置6での光の画像が得られなかった点の表示態様を、切り替え可能である。なお、表示制御部40eは、異常領域AUについても、入力部からの指示入力に応じて、当該異常領域AUを示す画像(指標等)が表示された状態と、表示されない状態とを切り替えることができる。   Next, the control unit 40 functions as the display control unit 40e, and the luminance value (pseudo image) at each point other than the non-detection area AL obtained in step S1 and the non-detection area AL obtained in step S5. And the image showing the abnormal area AU obtained in step S2 and step S4 (for example, an area colored with a predetermined color, an index) Etc.) (for example, FIG. 7), the display controller 47 and thus the display device 6 can be controlled (step S7). Note that the display control unit 40e interpolates the non-detection area AL in which the luminance value interpolated in step S5 is calculated in response to an instruction input from an input unit (for example, a keyboard or the like, not shown). A state in which the luminance value is displayed on the display device 6 (FIG. 7) and a state in which the luminance value (pseudo image) is displayed so as not to be obtained (for example, the luminance value of the area is displayed as 0) It is possible to switch between the performed states, for example, FIG. That is, the display control unit 40e can switch the display mode of the point where the light image on the display device 6 was not obtained. Note that the display control unit 40e can also switch between the state in which an image (an index or the like) indicating the abnormal region AU is displayed and the state in which the abnormal region AU is not displayed in response to an instruction input from the input unit. it can.

また、ステップS5において、画像処理部40dは、一例としては、図6に示される手順で輝度値を決定し、疑似画像Imvを生成する。なお、図10は、複数の検出対象領域Aに含まれる各点P(画素)が検出された順に二次元的に並べられた領域の一例である。図10〜15で、各点Pは最小の正方形の枠で示される。各点Pの二次元座標は、並べられた位置で決定される。また、一例としては、座標軸iは検出対象領域Aの幅方向(搬送方向、X方向)に沿い、座標軸jは検出対象領域Aの長手方向(Y方向)に沿っている。なお、図10〜15では、点Pの符号はそれぞれ一箇所ずつ示されているが、座標中の最小の正方形の枠は、全て点Pである。また、図10〜15で、各点P(画素)の濃さは輝度値を示しており、一例としては、明るい(白い)ほど輝度値が高いことを示す。図10に例示される不検出領域ALに対し、画像処理部40dは、まず、その周囲に位置されて前記光の画像が得られた複数の点P(画素、図11で網掛けされた画素、周囲領域AS)を抽出する(ステップS51)。次に、画像処理部40dは、周囲領域AS内の全ての点P(画素)の輝度値の平均値mを算出し、周囲領域ASを、平均値mより高い領域AS1(図12では、一例として、右上がりのハッチングが施された領域、周囲領域AS内の右下側の領域得)と平均値mより低い領域AS2(図12では、一例として、右下がりのハッチングが施された領域、周囲領域AS内の左上側の領域)とに分ける(ステップS52)。領域AS1は、第一の領域の一例であり、領域AS2は、第二の領域の一例である。次に、画像処理部40dは、領域AS1に含まれる画素の輝度値の平均値m1と、領域AS2に含まれる画素の輝度値の平均値m2と、を算出する(ステップS53)。平均値m1は、第一の輝度値の一例であり、平均値m2は、第二の輝度値の一例である。次に、画像処理部40dは、周囲領域ASに外接する四角形S(図13に示される正方形、座標上の関数)を算出する(ステップS54)。四角形Sは、参照形状の一例である。次に、画像処理部40dは、図14に示されるように、領域AS1の重心G1(座標上の位置)と領域AS2の重心G2(座標上の位置)とを通る直線L12(座標上の関数)と、四角形Sとの交点C1,C2(座標上の位置)を、算出する(ステップS55)。交点C1は、第一の位置の一例であり、交点C2は、第二の位置の一例である。次に、画像処理部40dは、平均値m1,m2ならびに交点C1,C2の座標上の位置に基づいて、以下の式(1)を用いて、不検出領域AL内の各点P(i,j)の輝度値vl(i,j)を算出する(ステップS56)。
[数1]
vl(i,j)=m1*k2/(k1+k2)+m2*k1/(k1+k2)
・・・ (1)
ここに、k1は、各点Pと交点C1との距離、k2は、各点Pと交点C2との距離である。
この式(1)によれば、不検出領域AL内の輝度値vlは、距離k1が小さいほど、すなわち交点C1(第一の位置)に近いほど、平均値m1(第一の輝度値)に近い値となり、距離k2が小さいほど、すなわち交点C2(第二の位置)に近いほど、平均値m2(第二の輝度値)に近い値となる。ステップS5での上述した処理により、一例としては、図15のように、不検出領域AL(図10参照)が補間されて埋められた疑似画像Imvが生成される。
In step S5, for example, the image processing unit 40d determines a luminance value by the procedure shown in FIG. 6 and generates a pseudo image Imv. FIG. 10 is an example of a region that is two-dimensionally arranged in the order in which the points P (pixels) included in the plurality of detection target regions A are detected. 10 to 15, each point P is indicated by a minimum square frame. The two-dimensional coordinates of each point P are determined at the arranged positions. As an example, the coordinate axis i is along the width direction (conveyance direction, X direction) of the detection target area A, and the coordinate axis j is along the longitudinal direction (Y direction) of the detection target area A. In FIGS. 10 to 15, the symbols of the points P are shown one by one, but the smallest square frame in the coordinates is the point P. In addition, in FIGS. 10 to 15, the darkness of each point P (pixel) indicates a luminance value, and as an example, the brighter (white) the higher the luminance value. For the non-detection area AL illustrated in FIG. 10, the image processing unit 40 d first has a plurality of points P (pixels, pixels shaded in FIG. 11) around which the light image is obtained. , The surrounding area AS) is extracted (step S51). Next, the image processing unit 40d calculates an average value m of luminance values of all the points P (pixels) in the surrounding area AS, and sets the surrounding area AS to an area AS1 higher than the average value m (in FIG. 12, an example). As shown in FIG. 12, the region AS2 (lower right hatched region in the surrounding region AS) and the region AS2 lower than the average value m (in FIG. 12, as an example, the region hatched rightward, The area is divided into the upper left area in the surrounding area AS (step S52). The region AS1 is an example of a first region, and the region AS2 is an example of a second region. Next, the image processing unit 40d calculates an average value m1 of the luminance values of the pixels included in the region AS1 and an average value m2 of the luminance values of the pixels included in the region AS2 (Step S53). The average value m1 is an example of a first luminance value, and the average value m2 is an example of a second luminance value. Next, the image processing unit 40d calculates a quadrangle S (a square shown in FIG. 13, a function on coordinates) circumscribing the surrounding area AS (step S54). The square S is an example of a reference shape. Next, as shown in FIG. 14, the image processing unit 40d performs a straight line L12 (coordinate function) passing through the center G1 (coordinate position) of the area AS1 and the center G2 (coordinate position) of the area AS2. ) And the quadrangle S, C1 and C2 (coordinate positions) are calculated (step S55). The intersection C1 is an example of a first position, and the intersection C2 is an example of a second position. Next, the image processing unit 40d uses the following equation (1) based on the average values m1 and m2 and the positions of the intersections C1 and C2 on the coordinates P (i, The luminance value vl (i, j) of j) is calculated (step S56).
[Equation 1]
vl (i, j) = m1 * k2 / (k1 + k2) + m2 * k1 / (k1 + k2)
(1)
Here, k1 is the distance between each point P and the intersection C1, and k2 is the distance between each point P and the intersection C2.
According to this equation (1), the luminance value vl in the non-detection area AL is closer to the average value m1 (first luminance value) as the distance k1 is smaller, that is, closer to the intersection C1 (first position). The closer the distance k2 is, that is, the closer to the intersection C2 (second position), the closer to the average value m2 (second luminance value). As an example, the above-described processing in step S5 generates a pseudo image Imv in which the non-detection area AL (see FIG. 10) is interpolated and embedded as shown in FIG.

このように、本実施形態では、一例として、画像処理部40dは、光Lの画像が得られなかった複数の点Pが集まった不検出領域AL内の当該点Pの輝度値を、当該不検出領域ALの周囲に位置されて光Lの画像が得られた複数の点(周囲領域AS内の点P)の輝度値から補間して決定している。よって、本実施形態によれば、一例としては、不検出領域AL内の点Pの輝度値を、当該不検出領域ALの周囲の状況に応じて算出することができるので、当該周囲との差が小さく不検出領域ALと不検出領域AL以外の領域とがより円滑に繋げられた外観上の違和感のより少ない疑似画像Imvが得られやすい。また、本実施形態では、一例として、画像処理部40dは、周囲領域ASのうち輝度値が高い領域AS1を代表する交点C1の位置座標(第一の位置)および領域AS1の平均値m1(第一の輝度値)、周囲領域ASのうち輝度値が低い領域AS2を代表する交点C2の位置座標(第二の位置)および平均値m2(第二の輝度値)、ならびに光Lの画像が得られなかった各点Pの位置座標から、当該光の画像が得られなかった各点Pの輝度値を算出する。よって、本実施形態によれば、一例としては、不検出領域ALに、周囲領域ASの輝度値の分布に応じた輝度値の分布を与えやすい。また、本実施形態では、一例として、周囲領域ASを平均値を境界として領域AS1,AS2に分けたため、より容易かつより迅速な演算によって、不検出領域AL内の各点Pでの輝度値に、不検出領域ALの周囲における輝度値の分布(変化)の特性(特徴)がより反映されやすい。また、本実施形態では、一例として、画像処理部40dは、交点C1を、領域ASの不検出領域ALとは反対側に設定し、交点C2を、領域ASの不検出領域ALとは反対側に設定している。よって、本実施形態によれば、一例としては、各点Pと各領域AS1,AS2を代表する位置との距離が0より大きい値となりやすく、距離の比に応じた重み付けを行う数式(例えば上記式(1))による演算がより容易に行われやすい。   As described above, in this embodiment, as an example, the image processing unit 40d uses the luminance value of the point P in the non-detection area AL in which a plurality of points P for which an image of the light L is not collected as the non-detection value. It is determined by interpolating from the luminance values of a plurality of points (points P in the surrounding area AS) where the image of the light L is obtained around the detection area AL. Therefore, according to the present embodiment, as an example, the luminance value of the point P in the non-detection area AL can be calculated according to the situation around the non-detection area AL. Is small, and it is easy to obtain a pseudo image Imv with less uncomfortable appearance in which the non-detection area AL and the area other than the non-detection area AL are more smoothly connected. In the present embodiment, as an example, the image processing unit 40d includes the position coordinates (first position) of the intersection C1 representing the area AS1 having a high luminance value in the surrounding area AS and the average value m1 (first) of the area AS1. One luminance value), the position coordinates (second position) and the average value m2 (second luminance value) of the intersection C2 representing the region AS2 having the lower luminance value in the surrounding area AS, and the image of the light L are obtained. From the position coordinates of each point P that has not been obtained, the luminance value of each point P for which no image of the light has been obtained is calculated. Therefore, according to the present embodiment, as an example, it is easy to give a luminance value distribution according to the luminance value distribution of the surrounding area AS to the non-detection area AL. Further, in the present embodiment, as an example, the surrounding area AS is divided into the areas AS1 and AS2 with the average value as a boundary, so that the brightness value at each point P in the non-detection area AL is obtained by easier and faster calculation. The characteristics (features) of the distribution (change) of luminance values around the non-detection area AL are more easily reflected. In the present embodiment, as an example, the image processing unit 40d sets the intersection C1 on the side opposite to the non-detection area AL of the area AS, and sets the intersection C2 on the side opposite to the non-detection area AL of the area AS. Is set. Therefore, according to the present embodiment, as an example, the distance between each point P and the position representing each of the areas AS1 and AS2 is likely to be a value larger than 0, and weighting is performed according to the distance ratio (for example, the above-described formula). The calculation according to equation (1) is more easily performed.

以上、説明したように、本実施形態では、一例として、疑似画像Imvを生成する画像処理部40d(画像生成部)は、光Lの画像が得られなかった不検出領域AL内の点の輝度値を、光Lの画像が得られた複数の点(不検出領域AL以外の複数の点)の輝度値またはずれから補間して決定する。よって、本実施形態によれば、一例としては、不検出領域ALに輝度値が設定された(画像で埋められた)疑似画像Imvを得ることができる。   As described above, in the present embodiment, as an example, the image processing unit 40d (image generation unit) that generates the pseudo image Imv has the luminance of the point in the non-detection area AL where the image of the light L is not obtained. The value is determined by interpolating from the luminance values or deviations of a plurality of points (a plurality of points other than the non-detection area AL) where the image of the light L is obtained. Therefore, according to the present embodiment, as an example, a pseudo image Imv in which a luminance value is set in the non-detection area AL (filled with an image) can be obtained.

また、本実施形態では、一例として、画像処理部40dは、光Lの画像が得られなかった不検出領域ALの点の数(領域の大きさ、面積)が所定値と同じかあるいは少なかった場合に、当該不検出領域AL内の各点の輝度値を、光Lの画像が得られた複数の点の輝度値から補間して決定する。よって、本実施形態によれば、一例としては、大きさが小さく、異常とは考え難い不検出領域ALについて輝度値が設定された(画像で埋められた)疑似画像Imvを得ることができる。   In the present embodiment, as an example, the image processing unit 40d has the number of points (area size, area) of the non-detection area AL where the image of the light L is not obtained equal to or less than a predetermined value. In this case, the luminance value of each point in the non-detection area AL is determined by interpolating from the luminance values of a plurality of points from which an image of the light L is obtained. Therefore, according to the present embodiment, as an example, it is possible to obtain a pseudo image Imv in which a luminance value is set (filled with an image) for a non-detection area AL that is small in size and is unlikely to be abnormal.

また、本実施形態では、一例として、光の画像または疑似画像Imvに基づいて検査対象面101での異常領域AUを決定する画像処理部40d(異常領域決定部)を備え、表示制御部40eは、疑似画像Imvとともに異常領域AUを示す画像(指標)が表示されるよう表示装置6を制御する。よって、本実施形態によれば、一例としては、外観上、検査対象面101の凹凸形状とともに異常領域AUがよりわかりやすい。   In the present embodiment, as an example, the image processing unit 40d (abnormal region determination unit) that determines the abnormal region AU on the inspection target surface 101 based on the light image or the pseudo image Imv is provided, and the display control unit 40e includes The display device 6 is controlled so that an image (index) indicating the abnormal area AU is displayed together with the pseudo image Imv. Therefore, according to the present embodiment, as an example, the abnormal area AU can be easily understood together with the uneven shape of the inspection target surface 101 in appearance.

また、本実施形態では、一例として、表示制御部40eは、表示装置6(表示部)での光Lの画像が得られなかった不検出領域AL内の点の表示態様を切り替え可能である。よって、本実施形態によれば、一例としては、表示態様の切り替えによって、不検出領域ALの有無がよりわかりやすい。   In the present embodiment, as an example, the display control unit 40e can switch the display mode of points in the non-detection area AL where the image of the light L on the display device 6 (display unit) was not obtained. Therefore, according to the present embodiment, as an example, the presence / absence of the non-detection area AL can be easily understood by switching the display mode.

以上、本発明の実施形態を例示したが、上記実施形態はあくまで一例である。実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、組み合わせ、変更を行うことができる。また、実施形態の構成や形状は、部分的に他の構成や形状と入れ替えて実施することも可能である。また、各構成や形状等のスペック(構造や、種類、方向、角度、形状、大きさ、長さ、幅、厚さ、高さ、数、配置、位置、材質等)は、適宜に変更して実施することができる。例えば、検査対象物は、帯状以外の物であってもよい。また、異常の無い検査対象面が凹凸を有してもよい。また、不検出領域の各点の輝度値を、線状の光の画像の基準線からのずれ量に基づいて算出してよい。   As mentioned above, although embodiment of this invention was illustrated, the said embodiment is an example to the last. The embodiment can be implemented in various other forms, and various omissions, replacements, combinations, and changes can be made without departing from the scope of the invention. In addition, the configuration and shape of the embodiment can be partially replaced with other configurations and shapes. In addition, specifications (structure, type, direction, angle, shape, size, length, width, thickness, height, number, arrangement, position, material, etc.) of each configuration, shape, etc. are changed as appropriate. Can be implemented. For example, the inspection object may be an object other than a belt. Moreover, the inspection object surface without abnormality may have unevenness. Further, the luminance value of each point in the non-detection area may be calculated based on the amount of deviation of the linear light image from the reference line.

1…外観検査装置、3…撮像部、6…表示装置(表示部)、40d…画像処理部(画像生成部)、40e…表示制御部、101…検査対象面、m1…平均値(第一の輝度値)、m2…平均値(第二の輝度値)、vl…輝度値、A…検査対象領域、AL…不検出領域、AU…異常領域、C1…交点(第一の位置)、C2…交点(第二の位置)、Imv…疑似画像、P…点、R…基準線。   DESCRIPTION OF SYMBOLS 1 ... Appearance inspection apparatus, 3 ... Imaging part, 6 ... Display apparatus (display part), 40d ... Image processing part (image generation part), 40e ... Display control part, 101 ... Inspection object surface, m1 ... Average value (1st Brightness value), m2 ... average value (second brightness value), vl ... luminance value, A ... inspection area, AL ... non-detection area, AU ... abnormal area, C1 ... intersection (first position), C2 ... Intersection (second position), Imv ... pseudo image, P ... point, R ... reference line.

Claims (8)

ライトシートに照らされることで検査対象面の線状の検査対象領域に形成された線状の光の画像を、前記ライトシートと交叉した方向から撮像する撮像部と、
前記検査対象領域の複数の点に対応した前記光の画像の基準線からのずれに応じて前記各点での輝度値を決定して二次元の疑似画像を生成する画像生成部と、
前記疑似画像が表示されるよう表示部を制御する表示制御部と、
を備え、
前記画像生成部は、前記光の画像が得られなかった前記点の輝度値を、前記光の画像が得られた複数の前記点の輝度値または前記ずれから補間して決定する、外観検査装置。
An imaging unit that captures an image of linear light formed in a linear inspection target region on the inspection target surface by being illuminated by the light sheet, from a direction crossing the light sheet;
An image generation unit that determines a luminance value at each point according to a deviation from a reference line of the image of the light corresponding to a plurality of points in the inspection target region, and generates a two-dimensional pseudo image;
A display control unit for controlling the display unit so that the pseudo image is displayed;
With
The visual inspection device, wherein the image generation unit determines the luminance value of the point where the light image is not obtained by interpolating from the luminance value or the deviation of the plurality of points where the light image is obtained .
前記画像生成部は、前記光の画像が得られなかった前記点が集まった不検出領域の当該点の数が所定値と同じかあるいは少なかった場合に、当該不検出領域内の前記各点の輝度値を、前記光の画像が得られた複数の前記点の輝度値から補間して決定する、請求項1に記載の外観検査装置。   When the number of points in the non-detection area where the points where the light image was not obtained is equal to or less than a predetermined value, the image generation unit is configured to calculate each point in the non-detection area. The appearance inspection apparatus according to claim 1, wherein the luminance value is determined by interpolating from the luminance values of the plurality of points from which the light image is obtained. 前記光の画像または前記疑似画像に基づいて前記検査対象面での異常領域を決定する異常領域決定部を備え、
前記表示制御部は、前記疑似画像とともに前記異常領域を示す画像が表示されるよう前記表示部を制御する、請求項1または2に記載の外観検査装置。
An abnormal area determination unit that determines an abnormal area on the inspection target surface based on the light image or the pseudo image,
The visual inspection apparatus according to claim 1, wherein the display control unit controls the display unit so that an image indicating the abnormal region is displayed together with the pseudo image.
前記表示制御部は、前記表示部での前記光の画像が得られなかった前記点の表示態様を切り替え可能である、請求項1〜3のうちいずれか一つに記載の外観検査装置。   The appearance inspection apparatus according to claim 1, wherein the display control unit is capable of switching a display mode of the points where the image of the light is not obtained on the display unit. 前記画像生成部は、前記光の画像が得られなかった複数の前記点が集まった不検出領域内の当該点の輝度値を、当該不検出領域の周囲に位置されて前記光の画像が得られた複数の前記点の前記輝度値または前記ずれに基づいて決定する、請求項1〜4のうちいずれか一つに記載の外観検査装置。   The image generation unit obtains the brightness value of the point in the non-detection region where the plurality of points where the light image was not obtained gathered and is located around the non-detection region to obtain the light image. The appearance inspection apparatus according to claim 1, wherein the appearance inspection apparatus is determined based on the luminance value or the shift of the plurality of points obtained. 前記画像生成部は、前記不検出領域を取り囲んだ前記光の画像が得られた複数の前記点からなる周囲領域のうち輝度値が高い第一の領域を代表する第一の位置および第一の輝度値、前記周囲領域のうち輝度値が低い第二の領域を代表する第二の位置および第二の輝度値、ならびに前記光の画像が得られなかった前記各点の位置から、当該光の画像が得られなかった前記各点の輝度値を算出する、請求項5に記載の外観検査装置。   The image generation unit includes a first position representing a first area having a high luminance value and a first position among surrounding areas composed of a plurality of the points from which the image of the light surrounding the non-detection area is obtained. From the brightness value, the second position representing the second area having the lower brightness value in the surrounding area, the second brightness value, and the position of each point where the image of the light was not obtained, The appearance inspection apparatus according to claim 5, wherein a luminance value of each point where an image is not obtained is calculated. 前記画像生成部は、前記第一の位置を、前記第一の領域の前記不検出領域とは反対側に設定し、前記第二の位置を、前記第二の領域の前記不検出領域とは反対側に設定する、請求項6に記載の外観検査装置。   The image generation unit sets the first position on a side opposite to the non-detection area of the first area, and sets the second position as the non-detection area of the second area. The appearance inspection apparatus according to claim 6, wherein the appearance inspection apparatus is set on the opposite side. 前記第一の領域は、その輝度値が前記周囲領域全体の輝度値の平均値と同じかあるいは高い前記点からなる領域であり、前記第二の領域は、その輝度値が前記周囲領域全体の輝度値の平均値と同じかあるいは低い前記点からなる領域である、請求項6または7に記載の外観検査装置。   The first area is an area composed of the points whose luminance value is equal to or higher than the average value of the luminance values of the entire surrounding area, and the second area is a luminance value of the entire surrounding area. The visual inspection apparatus according to claim 6, wherein the visual inspection device is an area including the points that are equal to or lower than an average value of luminance values.
JP2012227429A 2012-10-12 2012-10-12 Appearance inspection device Active JP6108751B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012227429A JP6108751B2 (en) 2012-10-12 2012-10-12 Appearance inspection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012227429A JP6108751B2 (en) 2012-10-12 2012-10-12 Appearance inspection device

Publications (2)

Publication Number Publication Date
JP2014081218A true JP2014081218A (en) 2014-05-08
JP6108751B2 JP6108751B2 (en) 2017-04-05

Family

ID=50785545

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012227429A Active JP6108751B2 (en) 2012-10-12 2012-10-12 Appearance inspection device

Country Status (1)

Country Link
JP (1) JP6108751B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016035407A (en) * 2014-08-01 2016-03-17 リコーエレメックス株式会社 Visual inspection device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6326510A (en) * 1986-07-19 1988-02-04 Fujitsu Ltd Inspection device for packaging component
JPH1177308A (en) * 1997-09-12 1999-03-23 Hitachi Ltd Method and device of detecting weld line and welding equipment
JP2002162215A (en) * 2000-11-27 2002-06-07 Matsushita Electric Works Ltd Three-dimensional shape measuring method and its system
JP2009085786A (en) * 2007-09-28 2009-04-23 Toyota Motor Corp Weld bead inspection device and method
JP2010066320A (en) * 2008-09-08 2010-03-25 Toppan Printing Co Ltd Inspection method for membrane shape of stencil mask and inspection apparatus for membrane shape of stencil mask
JP2011141260A (en) * 2009-12-07 2011-07-21 Kobe Steel Ltd Device and method for inspecting tyre shape

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6326510A (en) * 1986-07-19 1988-02-04 Fujitsu Ltd Inspection device for packaging component
JPH1177308A (en) * 1997-09-12 1999-03-23 Hitachi Ltd Method and device of detecting weld line and welding equipment
JP2002162215A (en) * 2000-11-27 2002-06-07 Matsushita Electric Works Ltd Three-dimensional shape measuring method and its system
JP2009085786A (en) * 2007-09-28 2009-04-23 Toyota Motor Corp Weld bead inspection device and method
JP2010066320A (en) * 2008-09-08 2010-03-25 Toppan Printing Co Ltd Inspection method for membrane shape of stencil mask and inspection apparatus for membrane shape of stencil mask
JP2011141260A (en) * 2009-12-07 2011-07-21 Kobe Steel Ltd Device and method for inspecting tyre shape

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016035407A (en) * 2014-08-01 2016-03-17 リコーエレメックス株式会社 Visual inspection device

Also Published As

Publication number Publication date
JP6108751B2 (en) 2017-04-05

Similar Documents

Publication Publication Date Title
EP3156763B1 (en) Shape measurement device
JP6184289B2 (en) 3D image processing apparatus, 3D image processing method, 3D image processing program, computer-readable recording medium, and recorded apparatus
US8648702B2 (en) Combined time-of-flight and image sensor systems
US10508994B2 (en) Image inspection apparatus and image inspection method
TWI501626B (en) Display unevenness detection method and device thereof
JP5138119B2 (en) Object detection device and information acquisition device
TWI501627B (en) Display unevenness detection method and device thereof
CN110823124B (en) Optical displacement meter
JP5432864B2 (en) Inspection apparatus and inspection method
WO2019244946A1 (en) Defect identifying method, defect identifying device, defect identifying program, and recording medium
JP2009250844A (en) Three-dimensional shape measurement method and three-dimensional shape measurement apparatus
JP6108751B2 (en) Appearance inspection device
JP2005339444A5 (en)
JP6267481B2 (en) Appearance inspection apparatus and appearance inspection method
CN113721259A (en) Method and system for determining position of laser point on two-dimensional plane
JP2015094707A (en) Visual inspection device
US9323394B2 (en) Touch control apparatus and associated selection method
TW201308168A (en) Optical touch panel system and electronic device having the same
JP6301627B2 (en) Appearance inspection apparatus and appearance inspection method
JP6262094B2 (en) Appearance inspection device
JP2012215399A (en) Displacement sensor system and displacement sensor
JP5410138B2 (en) Displacement sensor system and displacement sensor
JPWO2019039017A1 (en) Image processing device, distance detection device, image processing method, and program
TWI484388B (en) Optical touch system with brightness compensation and brightness compensation method thereof
JP2017111289A (en) Display device, and display device control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151008

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170307

R150 Certificate of patent or registration of utility model

Ref document number: 6108751

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250